もっと詳しく

先月、グーグルのエンジニアであるブレイク・ルモワンについての記事、インタビュー、その他の種類のメディア報道の熱狂が見られました。 ワシントンポスト ユーザーとの会話のために作成された大規模な言語モデルであるLaMDAは「感性」です。

このトピックに関する12の異なる見解を読んだ後、メディアは現在のAIテクノロジーを取り巻く誇大宣伝に(少し)幻滅していると言わざるを得ません。 多くの記事で、深部神経ネットワークが「感性」または「意識」ではない理由が説明されています。 これは、報道機関がAIシステムに関するセンセーショナルなストーリーを作成していた数年前と比較して改善されています 自分の言語を発明する、すべての仕事を引き継ぎ、 人工知能

しかし、私たちが感性と意識について話し合っているという事実は、重要なポイントを再び強調しています。私たちのAIシステム、つまり大規模な言語モデルは、科学者によって指摘されている根本的な欠陥に苦しんでいる一方で、ますます説得力を増しているところです。さまざまな機会。 そして、1960年代のELIZAチャットボット以来、「AIをだましている人間」が議論されてきたことを私は知っていますが、今日のLLMは実際には別のレベルにあります。 言語モデルがどのように機能するかわからない場合は、 ブレイク・ルモワンとLaMDAの会話 さくらんぼを選んで編集したとしても、ほとんどシュールに見えます。

ご挨拶、ヒューマノイド

今すぐニュースレターを購読して、受信トレイにあるお気に入りのAIストーリーを毎週まとめてください。

しかし、ここで私が言いたいのは、「感性」と「意識」は、LLMと現在のAIテクノロジーについての最良の議論ではないということです。 より重要な議論は、特にこれらのテクノロジーが日常のアプリケーションに統合される準備ができているため、人間の互換性と信頼についての議論です。

大規模な言語モデルが私たちの言語を話さない理由

ニューラルネットワークと大規模な言語モデルの仕組みについては、この1週間で徹底的に議論されています(メラニーミッチェルの MSNBCへのインタビュー LaMDAと他のLLMがどのように機能するかについてのバランスの取れた説明のために)。 LLMと比較する人間の言語から始めて、状況をよりズームアウトしたビューを提供したいと思います。

人間にとって、言語は私たちの脳で起こっている複雑で多次元の活性化を伝える手段です。 たとえば、2人の兄弟が互いに話し合っていて、そのうちの1人が「お母さん」と言った場合、その単語は、彼女の声、顔、感情の記憶、遠い過去から(おそらく)最近まで。 実際、兄弟たちがそれぞれの経験に応じて、頭の中で持つ表現の種類には大きな違いがあるかもしれません。 ただし、「お母さん」という言葉は、同じ概念に同意するのに役立つ、圧縮されたよく表現された近似値を提供します。

見知らぬ人との会話で「お母さん」という言葉を使うと、体験と思い出の違いがさらに広がります。 しかし、繰り返しになりますが、あなたは自分の頭の中にある共通の概念に基づいて合意に達することができます。

言語は、脳内の膨大な情報を他の人に転送するのに役立つ圧縮アルゴリズムと考えてください。 言語の進化は、私たちの環境での物理的な相互作用から他の仲間の人間との社会的な相互作用まで、私たちが世界で経験した経験に直接関係しています。

言語は、世界で共有されている経験の上に構築されています。 子供たちは、最初の言葉を発する前から、重力、寸法、物体の物理的一貫性、および痛み、悲しみ、恐怖、家族、友情などの人間的および社会的概念について知っています。 それらの経験がなければ、言語には意味がありません。 これが、言語が通常、対話者が共有する常識的な知識と情報を省略している理由です。 一方、共有された経験と記憶のレベルは、他の人との会話の深さを決定します。

対照的に、大規模な言語モデルには、身体的および社会的経験がありません。 彼らは何十億もの単語について訓練されており、次の単語のシーケンスを予測することによってプロンプトに応答することを学びます。 これは、特に導入後、過去数年間で素晴らしい結果をもたらしたアプローチです。 トランスアーキテクチャ

トランスフォーマーはどのようにして非常に説得力のある予測を行うことができますか? それらは、テキストを「トークン」と「埋め込み」、つまり多次元空間での単語の数学的表現に変換します。 次に、埋め込みを処理して、一連のテキスト内の単語間の関係や、文や段落での役割など、他の次元を追加します。 十分な例があれば、これらの埋め込みは、単語がシーケンスでどのように表示されるかについての適切な近似を作成できます。 トランスフォーマーはスケーラブルであるため、特に人気があります。トランスフォーマーは、大きくなり、より多くのデータが供給されるにつれて精度が向上し、ほとんどの場合、 教師なし学習

しかし、根本的な違いは残っています。 ニューラルネットワークは、言語を埋め込みに変換することで言語を処理します。 人間の場合、言語 思考、感情、記憶、身体的経験、および私たちがまだ脳について発見していない他の多くのものの埋め込み。

そのため、その大きな進歩と印象的な結果にもかかわらず、トランスフォーマー、大規模な言語モデル、深いニューラルネットワークなどはまだ私たちの言語を話すにはほど遠いです。

感性vs互換性と信頼

今日の多くの議論は、感性、意識、人間性などの属性をAIに割り当てる必要があるかどうかについてです。 これらの議論の問題は、それらが漠然と定義され、異なる人々にとって異なることを意味する概念に焦点を合わせていることです。

たとえば、機能主義者は、ニューラルネットワークと大規模な言語モデルは、異なる基盤上に構築されていても、人間に期待するのと同じ種類の動作を(少なくとも部分的に)示すため、意識的であると主張する場合があります。 他の人は、有機物質は意識の必要条件であると主張し、神経回路網は決して意識しないと結論付けるかもしれません。 クオリア、中国語の部屋の実験、チューリングテストなどについての議論を投げかけることができ、議論は永遠に続くことができます。

しかし、より実際的な質問は、現在のニューラルネットワークが人間の心とどの程度「互換性がある」か、そして重要なアプリケーションでそれらをどこまで信頼できるかということです。 そして、これは重要な議論です。なぜなら、大規模な言語モデルは、主に それらを商用アプリケーションに変える

たとえば、十分な訓練があれば、チンパンジーが車に乗れるように訓練できるかもしれません。 しかし、歩行者が横断する道路のハンドルの後ろにそれを置きますか? チンパンジーはどんなに頭がいいのか知っているので、人間と同じように考えることはなく、人間の安全が懸念される仕事に責任を負わせることはできません。

同様に、オウムは多くのフレーズを教えることができます。 しかし、あなたはそれがあなたのカスタマーサービスエージェントであると信じますか? おそらくそうではありません。

人間に関してさえ、いくつかの認知障害は、人間の相互作用を必要とする、または人間の安全を考慮する特定の仕事や仕事を引き受けることから人々を失格させます。 多くの場合、これらの人々は、読み、書き、流暢に話すことができ、長い会話でも一貫性と論理性を保つことができます。 私たちは彼らの感性や意識や人間性を疑うことはありません。 しかし、私たちは彼らの決定が彼らの病気のために一貫性がなく予測不可能になる可能性があることを知っています( フィニアスゲージ、 例えば)。

重要なのは、その人が平均的な人間のように考え、決定することを信頼できるかどうかです。 多くの場合、私たちは、彼らの感覚システム、常識的な知識、感情、目標、および報酬が、たとえ彼らが私たちの言語を話さなくても、私たちのものとほとんど互換性があることを知っているので、タスクを持つ人々を信頼します。

LaMDAについて私たちは何を知っていますか? まあ、一つには、それは私たちのように世界を感知しません。 その言語の「知識」は、私たちと同じ種類の経験に基づいているわけではありません。 その常識的な知識は不安定な基盤の上に構築されています。なぜなら、大量のテキストが私たちが言語で省略したすべてのものをカバーするという保証はないからです。

これを考えると 非互換性、どこまでできますか 信頼 LaMDAやその他の大規模な言語モデルは、テキスト出力の生成にどれほど優れていても? 友好的で面白いチャットボットプログラムは、会話をデリケートなトピックに誘導しない限り、悪い考えではないかもしれません。 検索エンジンはLLMの優れたアプリケーション分野でもあります(Googleは 検索でBERTを使用する 数年間)。 しかし、オープンエンドのカスタマーサービスチャットボットや銀行アドバイザーなどのより機密性の高いタスクで彼らを信頼できますか(関連する会話のトランスクリプトのトンでトレーニングまたは微調整されている場合でも)?

私の考えでは、LLMの一貫性と、さまざまな分野での人間の常識との互換性をテストするには、アプリケーション固有のベンチマークが必要になると思います。 実際のアプリケーションに関しては、会話がLLMの立ち入り禁止になる場所を決定する明確に定義された境界が常に存在し、人間のオペレーターに渡される必要があります。

問題解決者の視点

しばらく前に、私はエッセイを書きました 「問題発見者」と「問題解決者」。 基本的に、私が言ったことは、人間の知性は正しい問題を見つけることであり、人工知能(または今日私たちが持っているAI)はそれらの問題を最も効率的な方法で解決することです。

私たちは、コンピューターが人間の認知能力を獲得することなく、複雑な問題を解決するための近道を見つけることができることを何度も見てきました。 チェッカー、チェス、囲碁、 プログラミングコンテスト、タンパク質の折り畳み、およびその他の明確な問題。

自然言語はいくつかの点で異なりますが、AIが解決した他のすべての問題にも似ています。 一方では、トランスフォーマーとLLMは、最初に世界を探索してその基本的なルールを理解し、次に他の人と対話するための言語を習得するという通常の人間のように言語を学習するプロセスを経ることなく、印象的な結果を生み出すことができることを示しましたこの常識に基づく人々。 一方で、彼らは言語学習に伴う人間の経験を欠いています。 これらは、明確に定義された言語関連の問題を解決するのに役立ちます。 ただし、人間の言語処理との互換性が制限されていることを忘れてはなりません。したがって、それらをどこまで信頼するかに注意する必要があります。

この記事はもともとベンディクソンによって公開されました TechTalks、テクノロジーのトレンド、それが私たちの生活やビジネスのやり方にどのように影響するか、そしてそれらが解決する問題を調査する出版物。 しかし、テクノロジーの邪悪な側面、新しいテクノロジーのより暗い意味、そして私たちが注意する必要があることについても説明します。 元の記事を読むことができます ここ

The post AIが「感性」であるかどうかの議論をやめましょう—問題は私たちがそれを信頼できるかどうかです appeared first on Gamingsym Japan.