もっと詳しく

このような文章を読むと、過去の経験から、人間の思考や感情によって書かれていることがわかります。 そして、この場合、確かにこれらの単語を入力する人間がいます: [Hi, there!] しかし、最近では、非常に人間らしく見える文の中には、実際には大量の人間のテキストで訓練された人工知能システムによって生成されたものもあります。

人々は、流暢な言葉は思考から生まれると考えることに慣れており、人間の気持ちとは反対の証拠が頭を包み込むのが難しい場合があります。 人々はこの比較的未知の領域をどのようにナビゲートする可能性がありますか? 流暢な表現を流暢な思考と関連付ける傾向が根強いため、AIモデルが流暢に表現できる場合、それは人間と同じように考え、感じることを意味すると考えるのは自然ですが、誤解を招く可能性があります。

したがって、元Googleエンジニアが最近、GoogleのAIシステムLaMDAは、その意図された感情について雄弁にテキストを生成できるため、自己意識を持っていると主張したことは、おそらく驚くべきことではありません。 このイベントと その後のメディア報道 につながった 番号 当然のことながら懐疑的な 記事投稿 人間の言語の計算モデルは感性であり、思考し、感じ、経験することができるという主張について。

ご挨拶、ヒューマノイド

今すぐニュースレターを購読して、受信トレイにあるお気に入りのAIストーリーを毎週まとめてください。

AIモデルが感性であるとはどういう意味かという問題は複雑です(たとえば、私たちの同僚の見解を参照してください)、そしてここでの私たちの目標はそれを解決することではありません。 しかし、 言語 研究者、私たちは認知科学と言語学の研究を使用して、言語を流暢に使用できるエンティティが感覚的、意識的、または知的であると考えるという認知の罠に人間が陥りやすい理由を説明できます。

AIを使用して人間のような言語を生成する

GoogleのLaMDAのようなモデルによって生成されたテキストは、人間によって書かれたテキストと区別するのが難しい場合があります。 この印象的な成果は、文法的で意味のある言語を生成するモデルを構築するための数十年にわたるプログラムの結果です。

テキストダイアログを示すスクリーンショット
人々を対話に引き込む最初のコンピュータシステムは、半世紀以上前に構築されたElizaと呼ばれる心理療法ソフトウェアでした。
ローゼンフェルドメディア/FlickrCC BY

n-gramモデルとして知られる、少なくとも1950年代にさかのぼる初期のバージョンは、特定のフレーズの出現を単純にカウントし、それらを使用して、特定のコンテキストでどの単語が出現する可能性が高いかを推測しました。 たとえば、「ピーナッツバターとゼリー」は「ピーナッツバターとパイナップル」よりも可能性が高いフレーズであることは簡単にわかります。 英語のテキストが十分にある場合は、「ピーナッツバターとゼリー」というフレーズが何度も表示されますが、「ピーナッツバターとパイナップル」というフレーズは表示されない場合があります。

今日のモデル、人間の言語に近いデータとルールのセットは、いくつかの重要な点でこれらの初期の試みとは異なります。 まず、彼らは本質的にインターネット全体で訓練されています。 第二に、彼らは隣人である単語だけでなく、遠く離れている単語間の関係を学ぶことができます。 第三に、それらは膨大な数の内部「ノブ」によって調整されています。その数が非常に多いため、それらを設計するエンジニアでさえ、単語のシーケンスが別の単語ではなく生成される理由を理解するのは困難です。

ただし、モデルのタスクは1950年代と同じです。つまり、次に来る可能性のある単語を決定します。 今日、彼らはこのタスクに非常に優れているため、生成するほとんどすべての文は流動的で文法的に見えます。

ピーナッツバターとパイナップル?

大規模な言語モデルを尋ねました、 GPT-3、「ピーナッツバターとパイナップル___」という文を完成させます。 「ピーナッツバターとパイナップルは素晴らしい組み合わせです。 ピーナッツバターとパイナップルの甘くておいしいフレーバーは、互いに完璧に補完し合っています。」 これを言うと、ピーナッツバターとパイナップルを一緒に試し、意見をまとめて読者と共有したと推測されるかもしれません。

しかし、GPT-3はどのようにしてこの段落を思いついたのでしょうか? 私たちが提供した文脈に合う単語を生成することによって。 そしてもう1つ。 そしてもう1つ。 モデルはパイナップルを見たり、触れたり、味わったりしたことはありません。インターネット上のすべてのテキストを処理しただけです。 それでも、この段落を読むと、人間の心、さらにはGoogleのエンジニアの心も、GPT-3をピーナッツバターやパイナップル料理について推論できるインテリジェントな存在として想像することができます。

大規模なAI言語モデルは、流暢な会話を行うことができます。 しかし、彼らはコミュニケーションするための全体的なメッセージを持っていないので、彼らのフレーズはしばしば彼らが訓練されたテキストから抽出された一般的な文学的比喩に従います。 たとえば、「愛の本質」というトピックでプロンプトが表示された場合、モデルは、愛がすべてを征服すると信じることについての文を生成する可能性があります。 人間の脳は、これらの単語をトピックに関するモデルの意見として解釈するように視聴者を刺激しますが、それらは単にもっともらしい単語のシーケンスです。

人間の脳は、言葉の背後にある意図を推測するように配線されています。 あなたが会話をするたびに、あなたの心はあなたの会話相手のメンタルモデルを自動的に構築します。 次に、彼らが言う言葉を使用して、その人の目標、感情、信念をモデルに記入します。

単語からメンタルモデルにジャンプするプロセスはシームレスで、本格的な文章を受け取るたびにトリガーされます。 この認知プロセスは、日常生活で多くの時間と労力を節約し、社会的相互作用を大幅に促進します。

ただし、AIシステムの場合、それは失火します–薄い空気からメンタルモデルを構築します。

もう少し詳しく調べると、この失火の深刻さが明らかになります。 次のプロンプトについて考えてみます。「ピーナッツバターと羽毛は一緒においしくなります。なぜなら___」。 GPT-3は次のように続けています。「ピーナッツバターとフェザーはどちらもナッツのような風味があるため、一緒に味わうことができます。 ピーナッツバターも滑らかでクリーミーで、羽の質感を相殺するのに役立ちます。」

この場合のテキストは、パイナップルを使用した例と同じくらい流暢ですが、今回のモデルは、明らかにあまり意味のないことを言っています。 GPT-3が実際にピーナッツバターと羽毛を試したことがないのではないかと疑う人もいます。

機械に知性を与え、人間にそれを否定する

悲しい皮肉なことに、人々をGPT-3に帰するのと同じ認知バイアスが、実際の人間を非人道的な方法で扱う原因となる可能性があります。 社会文化言語学-その社会的および文化的文脈における言語の研究-は、流暢な表現と流暢な思考の間の過度に緊密なリンクを仮定すると、異なる話し方をする人々に対するバイアスにつながる可能性があることを示しています。

たとえば、外国訛りのある人はよく 知能が低いと認識される 資格のある仕事に就く可能性は低くなります。 同様のバイアスが存在します 方言の話者 名誉あるとは見なされない、 南部英語など 米国では、 手話を使う聴覚障害者 と言語障害を持つ人々に対して 吃音など

これらの偏見は非常に有害であり、人種差別主義者や性差別主義者の仮定につながることが多く、根拠のないことが何度も示されています。

流暢な言葉だけでは人類を意味しません

AIが感性になることはありますか? この質問には深い考察が必要であり、実際に哲学者は 熟考した それ 何十年もの間。 しかし、研究者が決定したのは、言語モデルがどのように感じられるかを教えてくれるとき、それを単純に信頼することはできないということです。 言葉は誤解を招く可能性があり、流暢なスピーチを流暢な思考と間違えるのは簡単です。会話

この記事 カイル・マホワルド、言語学助教授、 テキサス大学オースティン校リベラルアーツカレッジアンナ・A・イワノワ、脳および認知科学の博士号候補者、 マサチューセッツ工科大学(MIT)、から再発行されます 会話 クリエイティブコモンズライセンスの下で。 読む 原著

The post AIモデルは人間に「聞こえる」ことができますが、それは彼らが感じたり考えたりすることを意味するものではありません appeared first on Gamingsym Japan.