AIの片隅で(67) Google様の機械学習集中講座、大規模言語モデル(LLM)

Joseph Halfmoon

お惚け老人も学べば立派になれるかもしれないGoogle様のMACHINE LEARNING CRASH COURSEを学ぶ全12ユニットの第9回です。今回は「遂に」大規模言語モデル(LLM)です。ホンワカした説明はアチコチで目にするけれど、クラッシュコースの解説は腑に落ちるのか。分かった、ような気がするのは気のせい?

AIの片隅で 投稿順index

大規模言語モデル(LLM)

今回の単元のお品書きが以下に。LLMmenu

前回のように、インタラクティブな演習ツールの操作の面白さに時間を忘れるということもありません。今回はただたた「座学」回みたいデス。例によって機械翻訳の日本語のアラに、ところどころ引っかかっておるのですが、これにも慣れました。御愛嬌。それどころか、機械翻訳の日本語に「腑に落ちる」名言などもあり。曰く(以下引用)、

数学的な「文章問題」を大量にトレーニングした LLM は、高度な数学的推論を行っているように見えることがあります。ただし、これらの LLM は基本的に、数式の問題の入力を自動的に補完するだけです。

別シリーズ記事にて、上記の引用に該当するようなケースを目にすることになるでしょう、きっと。また、こうも書かれてます(これまた機械翻訳の日本語だけれども)

LLM は幻覚を起こすため、予測に誤りが含まれることがよくあります。

そだね~。幻覚(ハルシネーション)に気づくためには「正気」を保っていないとならないようです。お惚け老人、大丈夫か?頭の中、能天気じゃないか?

演習結果

まあ、「座学」の結果は以下のごとし。とりあえず自分の脳内モデルは「今のところまともに見えてる」のかも。Results

 

AIの片隅で(66) Google様の機械学習集中講座、エンベディング へ戻る

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です