メインコンテンツに移動

AIモデルが誤動作した際には、数字ではなく問題そのものに対処しよう

人工知能モデルのガバナンスは、解釈可能性よりも実行可能な成果に焦点を当てるべきだと、元規制当局トップは主張しています。

A robot lies on its side, to represent broken-down AI

銀行のバリュー・アット・リスク(VaR)モデルがバックテストに失敗した場合、リスク管理担当者は対応策を熟知しております。問題の原因を特定コンポーネント(例えば、陳腐化したリスク要因の時系列データや、性能が不十分な再評価モデルなど)まで遡及し、的を絞った修正を施します。この分解可能性は、数十年にわたり従来のモデルリスク管理の基盤となってまいりました。

しかし大規模言語モデル(LLM)や生成AIシステムは、このような仕組みでは機能しません。これらは識別可能な歯車を持つ機械式時計ではありません。むしろ、数十億のパラメータが相互作用する複雑な適応システムであり、その相互作用を完全に分解したり予測したりすることは不可能です。私が最近の論文で論じているように、この根本的な差異は、AIモデルリスク管理に対する異なるアプローチを必要とします。

解釈可能性の落とし穴

モデルを解釈できることは

コンテンツを印刷またはコピーできるのは、有料の購読契約を結んでいるユーザー、または法人購読契約の一員であるユーザーのみです。

これらのオプションやその他の購読特典を利用するには、info@risk.net にお問い合わせいただくか、こちらの購読オプションをご覧ください: http://subscriptions.risk.net/subscribe

現在、このコンテンツをコピーすることはできません。詳しくはinfo@risk.netまでお問い合わせください。

Sorry, our subscription options are not loading right now

Please try again later. Get in touch with our customer services team if this issue persists.

New to Risk.net? View our subscription options

無料メンバーシップの内容をお知りになりたいですか?ここをクリック

パスワードを表示
パスワードを非表示にする

Most read articles loading...

You need to sign in to use this feature. If you don’t have a Risk.net account, please register for a trial.

ログイン
You are currently on corporate access.

To use this feature you will need an individual account. If you have one already please sign in.

Sign in.

Alternatively you can request an individual account here