メインコンテンツに移動

LLMに「脳スキャン」を行うMITの教授

Hui Chen氏の研究は、AIモデルを解釈し、その方向性を導く新たな手法を生み出しています

A digital brain is being scrutinised in an electrical-looking system

投資家たちは、知的分野から日常的な用途に至るまで、大規模言語モデル(LLM)のあらゆる可能性を見出しています。しかし、モデルが何を行っているかを解釈するという課題が、実用化の妨げとなっていること少なくありません。

2024年初頭から、MITのHui Chen(ホエイ・チェン)教授はこの課題の解決に取り組んでいます。Chen教授の研究では、投資家がLLMの内部で何が起きているのかを理解し、時に信頼しがたい出力結果の意味を解き明かすための手法が探求されています。

「金融市場には、時間とともに変化する複雑な力学が関わっていますが、今日のLLMは、質問の内容にかかわらず、自信に満ちた答えを提示しているように見えます」と彼は述べています。

自信を表明することは、単なるトークン生成の練習に過ぎませんHui Chen、MIT

投資において、モデルの誤りがもたらす結果は深刻なものになり得ます。

コンテンツを印刷またはコピーできるのは、有料の購読契約を結んでいるユーザー、または法人購読契約の一員であるユーザーのみです。

これらのオプションやその他の購読特典を利用するには、info@risk.net にお問い合わせいただくか、こちらの購読オプションをご覧ください: http://subscriptions.risk.net/subscribe

現在、このコンテンツをコピーすることはできません。詳しくはinfo@risk.netまでお問い合わせください。

Sorry, our subscription options are not loading right now

Please try again later. Get in touch with our customer services team if this issue persists.

New to Risk.net? View our subscription options

無料メンバーシップの内容をお知りになりたいですか?ここをクリック

パスワードを表示
パスワードを非表示にする

Most read articles loading...

You need to sign in to use this feature. If you don’t have a Risk.net account, please register for a trial.

ログイン
You are currently on corporate access.

To use this feature you will need an individual account. If you have one already please sign in.

Sign in.

Alternatively you can request an individual account here