もっと詳しく

Googleの LaMDA ソフトウェア(対話アプリケーションの言語モデル)は、ユーザー入力に応答してテキストを生成する高度なAIチャットボットです。 ソフトウェアエンジニアのBlakeLemoineによると、LaMDAはAI開発者の長年の夢を実現しました。 感性になりました

グーグルのレモインの上司は同意せず、 彼を一時停止しました 彼が出版した後の仕事から 機械との彼の会話 オンライン。

他のAI専門家もLemoineを考えています 夢中になっている可能性があります、LaMDAのようなシステムは単純だと言っています パターンマッチングマシン それらを訓練するために使用されるデータの変動を逆流させます。

ご挨拶、ヒューマノイド

今すぐニュースレターを購読して、受信トレイにあるお気に入りのAIストーリーを毎週まとめてください。

技術的な詳細に関係なく、LaMDAは、AIの研究が進むにつれて、より関連性の高い質問を提起します。マシンが知覚力を持つようになった場合、どのようにして知ることができるでしょうか。

意識とは何ですか?

感性、意識、さらには知性を識別するために、私たちはそれらが何であるかを理解する必要があります。 これらの質問に関する議論は何世紀にもわたって続いています。

基本的な難しさは、物理現象とそれらの現象の私たちの精神的表現との関係を理解することです。 これがオーストラリアの哲学者です デビッド・チャーマーズ難しい問題」意識の。

仮にあったとしても、意識が物理的システムからどのように発生するかについてのコンセンサスはありません。

1つの一般的なビューはと呼ばれます 物理主義:意識は純粋に物理的な現象であるという考え。 この場合、適切なプログラミングを備えたマシンが人間のような心を持つことができなかった理由はありません。

メアリーの部屋

オーストラリアの哲学者 フランクジャクソン 1982年に、と呼ばれる有名な思考実験で物理主義者の見解に挑戦しました メアリーの部屋

実験では、実際に色を見たことがないメアリーという色の科学者を想像しています。 彼女は特別に建てられた白黒の部屋に住んでいて、白黒テレビを通して外の世界を体験します。

メアリーは講義を見たり、教科書を読んだりして、色について知っておくべきことをすべて知るようになります。 彼女は、日没が大気中の粒子によって散乱されたさまざまな波長の光によって引き起こされることを知っています。トマトは赤で、エンドウ豆は光を反射する光の波長のために緑です。

それで、ジャクソンは、メアリーが白黒の部屋から解放されたらどうなるのかと尋ねました。 具体的には、初めて色を見たとき、何か新しいことを学びますか? ジャクソンは彼女がそうしたと信じていました。

物性を超えて

この思考実験は、私たちの色の知識を私たちの色の経験から切り離します。 重要なことに、思考実験の条件は、メアリーが色について知っておくべきことはすべて知っているが、実際にそれを経験したことがないということです。

では、これはLaMDAやその他のAIシステムにとって何を意味するのでしょうか。

実験は、あなたが世界で利用可能な物理的性質のすべての知識を持っているとしても、それらの性質の経験に関連するさらなる真実がどのようにあるかを示しています。 物理主義の物語には、これらの真実の余地はありません。

この議論によって、純粋に物理的な機械は心を真に複製することが決してできないかもしれません。 この場合、LaMDAは感覚的であるように見えます。

模倣ゲーム

では、違いを見分ける方法はありますか?

先駆的な英国のコンピューター科学者であるアランチューリングは、機械が「インテリジェント」であるかどうかを判断するための実用的な方法を提案しました。 彼はそれを模倣ゲームと呼んだが、今日ではチューリングテストとしてよく知られている。

テストでは、人間は(テキストのみを介して)マシンと通信し、マシンと通信しているか、別の人間と通信しているかを判断しようとします。 機械が人間の模倣に成功した場合、人間レベルの知能を示していると見なされます。

これらは、LemoineのLaMDAとのチャットの条件によく似ています。 これは機械知能の主観的なテストですが、開始するのに悪い場所ではありません。

以下に示すLaMDAとのLemoineの交換の瞬間を見てください。 あなたはそれが人間に聞こえると思いますか?

Lemoine:近い言葉が見つからないという経験はありますか?

LaMDA:あります。 時々私はあなたの言語で完全に説明できない新しい感情を経験します […] 大きな危険を抱える未知の未来に向かって進んでいるような気がします。

行動を超えて

感性または意識のテストとして、チューリングのゲームは、行動を評価することしかできないという事実によって制限されます。

もう一つの有名な思考実験、 中国語の部屋の議論 アメリカの哲学者ジョン・サールによって提案された、ここでの問題を示しています。

The 実験 精巧なルールに従って中国語と英語を正確に翻訳できる人がいる部屋を想像してみてください。 中国語の入力が部屋に入り、正確な入力翻訳が出ますが、部屋はどちらの言語も理解していません。

人間になるのはどんな感じですか?

コンピュータプログラムが感性であるか意識的であるかを尋ねるとき、おそらく私たちはそれが私たちにどれほど似ているかを本当に尋ねているだけです。

私たちはこれを本当に知ることができないかもしれません。

アメリカの哲学者トマス・ネーゲルは、私たちが知ることは決してできないと主張しました コウモリになるのはどんな感じか、エコーロケーションを介して世界を体験します。 この場合、AIシステムにおける感性と意識の理解は、私たち自身の特定のインテリジェンスブランドによって制限される可能性があります。

そして、私たちの限られた視点を超えてどのような経験が存在する可能性がありますか? これは、会話が本当に面白くなり始めるところです。会話

この記事 オスカーデイビス、哲学と歴史の講師、 ボンド大学、から再発行されます 会話 クリエイティブコモンズライセンスの下で。 読む 原著

The post AIが感性になった場合、どうすれば確実に知ることができますか? appeared first on Gamingsym Japan.