メインコンテンツに移動

AIが人間と同じように認知バイアスを示すことがテストで判明

リスク・ライブ新たなオペリスクはモデル検証者にとって「特に危険」であるとクオンツが指摘

A human profile made up of light spots

ChatGPTのようなAIモデルは、その「考え方」において人間と同じ欠点を抱えていることが、あるリスク・テクノロジー企業による実験で明らかになりました。

「AIが人間の認知バイアスを示すことが実験で明らかになりました。「これはAIモデル特有の新しいタイプのリスクであり、新しい形のオペレーショナル・リスクです」。

ソコルは本日ロンドンで開催されたリスク・ライブ・ヨーロッパで講演。

このリスクはモデル検証者にとって「特に危険」なものです。というのも、このリスクはモデルがその答えについて両義的なものである場合にのみ現れるからです。Risk.netの クオンツ・オブ・ザ・イヤーの元受賞者であり、最近イールドカーブのモデリングにおけるオートエンコーダの使用に関する新しい研究を発表したソコル氏は言います。

このようなバイアスは、モデル・バリデーション

コンテンツを印刷またはコピーできるのは、有料の購読契約を結んでいるユーザー、または法人購読契約の一員であるユーザーのみです。

これらのオプションやその他の購読特典を利用するには、info@risk.net にお問い合わせいただくか、こちらの購読オプションをご覧ください: http://subscriptions.risk.net/subscribe

現在、このコンテンツをコピーすることはできません。詳しくはinfo@risk.netまでお問い合わせください。

Sorry, our subscription options are not loading right now

Please try again later. Get in touch with our customer services team if this issue persists.

New to Risk.net? View our subscription options

無料メンバーシップの内容をお知りになりたいですか?ここをクリック

パスワードを表示
パスワードを非表示にする

Most read articles loading...