メインコンテンツに移動

GenAIガバナンスにおけるモデル検証の再考

米国のモデルリスク責任者が、銀行が既存の監督基準を再調整する方法についてご説明いたします。

Large, net-style lines of digital data flow into a computer, exiting in more compressed and ordered lines

20年以上にわたり、モデルリスク管理(MRM)はシンプルでありながら強力な前提に基づいて構築されてきました。すなわち、定義された入力値を与えれば、モデルは安定した再現性のある出力を生成するというものです。バリュー・アット・リスク(VaR)エンジンの検証であれ、予想信用損失モデルの検証であれ、検証担当者はバックテスト、感度分析、そして想定される数学的真値とのベンチマークに依存してきました。

これらの手法は出力の安定性を前提としています。しかし、大手銀行におけるフロントオフィス業務やオペレーショナルワークフローでの大規模言語モデル(LLM)の活用拡大は、この前提に直接的な疑問を投げかけています。同一のプロンプトがモデル実行ごとに大きく異なる応答を生む場合、再現性のある出力という中核的な前提はもはや成り立ちません。その結果、生成型人工知能(GenAI)における検証失敗は、従来の統計的弱点ではなく

コンテンツを印刷またはコピーできるのは、有料の購読契約を結んでいるユーザー、または法人購読契約の一員であるユーザーのみです。

これらのオプションやその他の購読特典を利用するには、info@risk.net にお問い合わせいただくか、こちらの購読オプションをご覧ください: http://subscriptions.risk.net/subscribe

現在、このコンテンツをコピーすることはできません。詳しくはinfo@risk.netまでお問い合わせください。

Sorry, our subscription options are not loading right now

Please try again later. Get in touch with our customer services team if this issue persists.

New to Risk.net? View our subscription options

無料メンバーシップの内容をお知りになりたいですか?ここをクリック

パスワードを表示
パスワードを非表示にする

Most read articles loading...

You need to sign in to use this feature. If you don’t have a Risk.net account, please register for a trial.

ログイン
You are currently on corporate access.

To use this feature you will need an individual account. If you have one already please sign in.

Sign in.

Alternatively you can request an individual account here