設問
ユニバーサルコンテナーズは、大規模言語モデル (LLM) によって生成されたコンテンツに有害な言語が含まれているかどうかを高い信頼性で検出できるようにしたいと考えています。毒性が適切に管理されていることを確認するために、AIスペシャリストはTrustレイヤーでどのようなアクションを実行する必要がありますか?
選択肢
A. セットアップで毒性検出ログにアクセスし、isToxicityDetectedがtrueであるすべてのエントリをエクスポートします。
B. 応答からの毒性スコアが事前定義されたしきい値を超えるたびに、指定されたアドレスに電子メールを送信するフローを作成します。
C. 毒性検出器タイプのフィルターを使用して毒性応答とそれぞれのスコアを表示する、Data Cloud内でTrust Layer監査レポートを作成します。
解答
C. 毒性検出器タイプのフィルターを使用して毒性応答とそれぞれのスコアを表示する、Data Cloud内でTrust Layer監査レポートを作成します。
解説
A. セットアップで毒性検出ログにアクセスし、isToxicityDetectedがtrueであるすべてのエントリをエクスポートします。
不正解です。Salesforceでは、より包括的な監査レポートを提供しており、個別のログエントリのエクスポートは推奨されません。
B. 応答からの毒性スコアが事前定義されたしきい値を超えるたびに、指定されたアドレスに電子メールを送信するフローを作成します。
不正解です。フローを使用した通知設定は可能ですが、監査目的には専用のレポート機能が適しています。
C. 毒性検出器タイプのフィルターを使用して毒性応答とそれぞれのスコアを表示する、Data Cloud内でTrust Layer監査レポートを作成します。
正解です。Data Cloud内でTrust Layer監査レポートを作成し、毒性検出器タイプのフィルターを使用して毒性応答とそのスコアを表示することで、生成されたコンテンツの有害な言語を高い信頼性で検出できます。これにより、コンテンツの品質と安全性を確保できます。
第44問
こちらをクリック