メインコンテンツに移動

責任あるAIは、原則と同様に利益についても考慮すべき

ある企業が、ガバナンスを損なうことなく、融資処理時間を短縮し、不正検知を改善した方法

A figure acting like a balancing scale is standing next to an AI micro chip

米国に拠点を置く大手金融機関は、人工知能が業務改善にもたらす可能性に期待を寄せると同時に、そのリスクを深く懸念しておりました。そこで同機関は、技術導入ではなくガバナンス構築から取り組みを開始しました。具体的には、正確性、公平性、安全性、説明責任、セキュリティ、継続的監視といった責任あるAI(RAI)の原則を採用したのです。

RAIに基づくガバナンス体制を整えた後、同金融機関は三段階のフェーズで行動しました。第一段階では、主に定型的な文書作成の自動化と社内コミュニケーションの草案作成を目的として、生成AIの実験を行いました。このため、GitHub Copilotなどの市販のコーディング生産性向上ツールや、ChatGPTなどのコンテンツ生成アプリケーションを活用しました。

このアプローチにより、管理された環境下で人間の監督のもとジェネレーティブAIの実験が可能となりました。自信を深めた同機関は

コンテンツを印刷またはコピーできるのは、有料の購読契約を結んでいるユーザー、または法人購読契約の一員であるユーザーのみです。

これらのオプションやその他の購読特典を利用するには、info@risk.net にお問い合わせいただくか、こちらの購読オプションをご覧ください: http://subscriptions.risk.net/subscribe

現在、このコンテンツをコピーすることはできません。詳しくはinfo@risk.netまでお問い合わせください。

Sorry, our subscription options are not loading right now

Please try again later. Get in touch with our customer services team if this issue persists.

New to Risk.net? View our subscription options

無料メンバーシップの内容をお知りになりたいですか?ここをクリック

パスワードを表示
パスワードを非表示にする

Most read articles loading...

You need to sign in to use this feature. If you don’t have a Risk.net account, please register for a trial.

ログイン
You are currently on corporate access.

To use this feature you will need an individual account. If you have one already please sign in.

Sign in.

Alternatively you can request an individual account here