先月、グーグルのエンジニアであるブレイク・ルモワンについての記事、インタビュー、その他の種類のメディア報道の熱狂が見られました。 ワシントンポスト ユーザーとの会話のために作成された大規模な言語モデルであるLaMDAは「感性」です。 このトピックに関する12の異なる見解を読んだ後、メディアは現在のAIテクノロジーを取り巻く誇大宣伝に(少し)幻滅していると言わざるを得ません。 多くの記事で、深部神経ネットワークが「感性」または「意識」ではない理由が説明されています。 これは、報道機関がAIシステムに関するセンセーショナルなストーリーを作成していた数年前と比較して改善されています 自分の言語を発明する、すべての仕事を引き継ぎ、 人工知能。 しかし、私たちが感性と意識について話し合っているという事実は、重要なポイントを再び強調しています。私たちのAIシステム、つまり大規模な言語モデルは、科学者によって指摘されている根本的な欠陥に苦しんでいる一方で、ますます説得力を増しているところです。さまざまな機会。 そして、1960年代のELIZAチャットボット以来、「AIをだましている人間」が議論されてきたことを私は知っていますが、今日のLLMは実際には別のレベルにあります。 言語モデルがどのように機能するかわからない場合は、 ブレイク・ルモワンとLaMDAの会話 さくらんぼを選んで編集したとしても、ほとんどシュールに見えます。 ご挨拶、ヒューマノイド 今すぐニュースレターを購読して、受信トレイにあるお気に入りのAIストーリーを毎週まとめてください。 しかし、ここで私が言いたいのは、「感性」と「意識」は、LLMと現在のAIテクノロジーについての最良の議論ではないということです。 より重要な議論は、特にこれらのテクノロジーが日常のアプリケーションに統合される準備ができているため、人間の互換性と信頼についての議論です。 大規模な言語モデルが私たちの言語を話さない理由 ニューラルネットワークと大規模な言語モデルの仕組みについては、この1週間で徹底的に議論されています(メラニーミッチェルの MSNBCへのインタビュー LaMDAと他のLLMがどのように機能するかについてのバランスの取れた説明のために)。 LLMと比較する人間の言語から始めて、状況をよりズームアウトしたビューを提供したいと思います。 人間にとって、言語は私たちの脳で起こっている複雑で多次元の活性化を伝える手段です。 たとえば、2人の兄弟が互いに話し合っていて、そのうちの1人が「お母さん」と言った場合、その単語は、彼女の声、顔、感情の記憶、遠い過去から(おそらく)最近まで。 実際、兄弟たちがそれぞれの経験に応じて、頭の中で持つ表現の種類には大きな違いがあるかもしれません。 […]
The post AIが「感性」であるかどうかの議論をやめましょう—問題は私たちがそれを信頼できるかどうかです appeared first on Gamingsym Japan.