メインコンテンツに移動

FCAがAIにおけるサードパーティリスク対策にどのように貢献できるか

英規制当局による強化型サンドボックスは、説明可能性を高め、ベンダーへの依存度を低減することを目的として設計されています。

FCA reception area
Credit: Photo: FCA

金融セクターにおける人工知能の導入を阻む主な障壁の一つが、規制当局の懸念です。この懸念は理解できるものです。AIの信頼性を判断するためには、規制当局が金融機関に対し、モデルがどのように結果を導き出すのかを説明できることを求める必要があるからです。これは困難な課題ではありますが、英国の金融行動監視機構(FCA)は新たなアプローチを考案しました。モデル開発そのものを自ら主導してみてはどうか、というものです。

FCAのイノベーション責任者であるコリン・ペイン氏は次のように述べています。「私たちはAIを真に理解したいと考えています。理解することで、より適切な規制が可能になるからです。リスクを評価する際には、リスク判断につながるツールを理解できる必要があります」

4月、同規制当局はAI実地試験に関する提案をまとめた協議文書を公表し、業界からのフィードバックを募集しました

コンテンツを印刷またはコピーできるのは、有料の購読契約を結んでいるユーザー、または法人購読契約の一員であるユーザーのみです。

これらのオプションやその他の購読特典を利用するには、info@risk.net にお問い合わせいただくか、こちらの購読オプションをご覧ください: http://subscriptions.risk.net/subscribe

現在、このコンテンツをコピーすることはできません。詳しくはinfo@risk.netまでお問い合わせください。

Sorry, our subscription options are not loading right now

Please try again later. Get in touch with our customer services team if this issue persists.

New to Risk.net? View our subscription options

Most read articles loading...

You need to sign in to use this feature. If you don’t have a Risk.net account, please register for a trial.

ログイン
You are currently on corporate access.

To use this feature you will need an individual account. If you have one already please sign in.

Sign in.

Alternatively you can request an individual account here