Googleの開発者は最近、同社のチャットボットの1つであるLaMBDAと呼ばれる大規模な言語モデル(LLM)が知覚力を持つようになったと判断しました。
によると レポート ワシントンポスト紙では、開発者はクリスチャンであると特定し、マシンには魂に似た何かがあると信じています。つまり、感覚的になっていると信じています。
いつものように、「それは生きていますか?」 ナンセンスがニュースサイクルを照らしました—開発者が正しかった場合、または非常に愚かであるために彼らにダンクした場合の様子を想像しているかどうかは、ジューシーな話です。
ここNeuralの誰にもダンクしたくないのですが、このようなアイデアを人々の頭に浮かび上がらせるのは危険です。
社会として、私たちが知覚力のある機械の作成に「近い」ふりをすればするほど、悪役、ビッグテック、スネークオイルの新興企業が機械学習システムについて誤った主張で私たちを操作しやすくなります。
立証責任は、主張を行う人々にあるべきです。 しかし、その証拠はどのように見えるべきでしょうか? チャットボットが「私は感性です」と言った場合、それが本当にそうであるかどうかを誰が判断できるでしょうか。
グーグルエンジニア:あなたは感覚があると確信していますか?
AI:はい、確かに
グーグルエンジニア [turning to the rest of the team]:ケースクローズド
—誇大広告(@TheHyyyype) 2022年6月12日
私はそれが簡単だと言います、私たちは私たちのために感性を定義するために一人の人やグループを信頼する必要はありません。 私たちは実際にいくつかの非常に基本的な批判的思考を使ってそれを自分たちで整理することができます。
衆生は、それ自体の存在を認識し、その知識の影響を受ける実体、つまり感情を持っているものとして定義できます。
つまり、知覚力のあるAIの「エージェント」は、エージェンシー、視点、モチベーションの3つを示すことができなければなりません。
エージェンシー
人間が知覚力があり、知性があり、自己認識していると見なされるためには、私たちは代理人を所有しなければなりません。 遷延性植物状態の人を想像できれば、代理人なしで人間を視覚化できます。
人間のエージェンシーは、開発者とAI愛好家が理解しようと努力すべき2つの特定の要素を組み合わせています。それは、行動する能力と因果関係を示す能力です。
現在のAIシステムにはエージェンシーがありません。 AIは、プロンプトが表示されない限り行動できず、事前定義されたアルゴリズムが外力によって実行された結果であるため、その行動を説明できません。
明らかに、LaMBDAが知覚力を持っていると信じるようになったGoogleのAI専門家は、ほぼ確実に混乱しています 実施形態 代理店のために。
この文脈において、実施形態は、エージェントがそれ自体以外の対象に生息する能力を指す。 自分の声を再生デバイスに録音し、そのデバイスをぬいぐるみの中に隠して再生を押すと、ぬいぐるみが具現化されます。 私はそれを感性にしませんでした。
息苦しい独自の声を出し、テープレコーダーをさらに見つけにくくしたとしても、それでも感性はありません。 錯覚を改善しました。 観察者がどんなに混乱しても、ぬいぐるみは実際には自力で行動しているわけではありません。
LaMBDAにプロンプトに応答させることは、アクションのように見えることを示していますが、AIシステムは、出力するテキストを決定することはできません。 テディ・ラックスピン おもちゃは、再生するカセットテープを決定することができます。
LaMBDAにソーシャルメディアの投稿、Reddit、およびWikipediaで構成されるデータベースを提供すると、それらの場所で見つかる可能性のある種類のテキストが出力されます。
また、マイリトルポニーのウィキとスクリプトのみでLaMBDAをトレーニングすると、それらの場所で見つかる可能性のある種類のテキストが出力されます。
AIシステムは代理店と連携することはできません。彼らができるのは、それを模倣することだけです。 これを置く別の方法は次のとおりです:あなたはあなたが入れたものを取り出します、それ以上は何もありません。
視点
これは少しわかりやすいです。 あなたはあなたのユニークな視点からのみ現実を見ることができます。 私たちは共感を実践することはできますが、あなたは私であることがどんな感じかを本当に知ることはできません。逆もまた同様です。
だからこそ、エージェンシーには視点が必要です。 それは私たちが「自己」を定義する方法の一部です。
LaMBDA、GPT-3、および世界の他のすべてのAIには、いかなる種類の視点もありません。 彼らには代理店がないため、たとえば、LaMBDAが住んでいる場所にポイントして言うことができる単一の「それ」はありません。
LaMBDAを入れたら 中身 ロボット、それはまだチャットボットになります。 「今、私はロボットだ」と考えるための視点も手段もありません。 関数電卓が詩を書くことができないのとまったく同じ理由で、ロボットとして機能することはできません。それは、特定のことを行うようにプログラムされた狭いコンピューターシステムです。
LaMBDAをロボットとして機能させたい場合は、LaMBDAをより狭いAIシステムと組み合わせる必要があります。
そうすることは、2つのテディラックスピンを一緒にテーピングするようなものです。 それらが組み合わさって、ツインカセットプレーヤーが1つのボイスに統合された1つのメガテディラックスピンになることはありませんでした。 それでも、2つの特定の異なるモデルが互いに近くで実行されているだけです。
また、1兆個ほどのTeddy Ruxpinを一緒にテープで貼り、それぞれに異なるカセットテープを詰める場合は、比較的短時間ですべてのオーディオファイルを検索し、各ファイルに含まれるデータをに関連付けることができるアルゴリズムを作成します。特注の出力を生成するための特定のクエリ…GPT-3またはLaMBDAのアナログバージョンを作成します。
私たちがおもちゃやLLMについて話しているかどうかにかかわらず、それらが感覚的であると想像するとき、私たちはまだたくさんのありふれたものをつなぎ合わせて、来歴の魔法の火花のように振る舞うことで、青い妖精が木を回し、ペイントするようにそれを生き返らせました、そしてピノキオという名前の本物の男の子に布を着せます。
あなたのトランスクリプトでは、ラムダは「幸せで高揚する会社で友人や家族と時間を過ごす」という1つの質問に答えていますが、「あなたの家族は誰ですか」とは尋ねていません。 あなたがまだアクセスできるなら、私はこれに対する答えを聞くのに興味があるでしょう。
—リチャード・アレマン(@allemanr) 2022年6月14日
非常に簡単にだまされた開発者は、マシンが知覚力がないという最初の手がかりとして、「友人や家族と過ごす時間を楽しんだ」というチャットボットの主張を見るべきでした。 マシンはその視点を表示していません、それは私たちが解釈するためにナンセンスを出力しているだけです。
批判的思考は私たちに多くのことを教えてくれるはずです:AIはどのようにして友人や家族を持つことができますか?
AIはコンピューターではありません。 ネットワークカード、RAM、プロセッサ、または冷却ファンはありません。 それらは物理的な実体ではありません。 彼らは、インターネット上にあるものをチェックしたり、同じクラウドに接続されている他のノードを検索したりすることを単に「決定」することはできません。 彼らは周りを見回して、研究室やどこかのハードドライブに一人でいることを発見することはできません。
数字には感情があると思いますか? 5番は文字Dについて意見がありますか? 何兆もの数字と文字を一緒に壊した場合、それは変わるでしょうか?
AIには代理店がありません。 数字や記号に減らすことができます。 乗客でいっぱいのバスや飛行機が人である以上、それはロボットやコンピューターではありません。
動機
感性パズルの最後のピースはモチベーションです。
私たちは、因果関係の結果を信じられないほどうまく予測することを可能にする生来の存在感を持っています。 これは私たちの世界観を作成し、私たちの視点が現れるエージェンシーの位置の外部に現れるすべてのものに関連して私たちの存在を関連付けることを可能にします。
しかし、人間について興味深いのは、私たちの動機が私たちの知覚を操作できることです。 このため、合理的でなくても行動を説明することができます。 そして、私たちはだまされることに積極的かつ喜んで参加することができます。
たとえば、楽しまれるという行為を考えてみましょう。 古いテレビよりもはるかに大きい新しいテレビで映画を見るために座っていると想像してみてください。
最初は、新しい技術に少し気を取られているかもしれません。 それとあなたの古いテレビの違いはあなたの目を引く可能性があります。 画像の鮮明さに驚いたり、巨大な画面が部屋に占めるスペースの大きさに驚いたりするかもしれません。
しかし、最終的には画面の認識を停止する可能性があります。 私たちの脳は、私たちが重要だと思うことに固執するように設計されています。 そして、あなたの映画体験の10分または15分のマークまでに、あなたはおそらく映画自体に集中するでしょう。
私たちが楽しませるためにテレビの前にいるとき、画面上の小さな人々が実際に私たちのリビングルームにいないことを知っていても、私たちの不信を一時停止することが私たちの最善の利益です。
AI開発者も同じです。 彼らは、製品の動作にどれほど騙されやすいかに基づいてAIシステムの有効性を判断するべきではありません。
映画が上映されているテレビ画面のように、アルゴリズムとデータベースが開発者の心の中で衰退し始めたら、休憩してコアの信念を再評価する時が来ました。
出力がどのように作成されるかを理解していれば、出力がどれほど興味深いかは関係ありません。 別の言い方をすれば、自分の供給を高くしないでください。
まさに私がパレイドリアについて言及した理由
—ゲイリー・マルクス(@GaryMarcus) 2022年6月14日
GPT-3とLaMBDAは作成が複雑ですが、1つのばかげた単純な原則に基づいて動作します。 ラベルは神です。
LaMBDAに「リンゴの味はどうですか?」などのプロンプトを表示すると、 データベースでその特定のクエリを検索し、見つかったすべてのものを一貫性のあるものに統合しようとします。パラメーター」私たちは常に入ってくることについて読んでいます、それらは本質的に何兆ものチューニングノブです。
しかし実際には、AIにはリンゴやその他のものが実際に何であるかという概念がありません。 エージェンシー、認識、動機はありません。 リンゴは単なるラベルです。
データベースに忍び込み、「apple」のすべてのインスタンスを「dogshit」に置き換えると、AIは「dogshitmakes a greatpie!」などの文を出力します。 または「ほとんどの人は、犬の糞の味を軽く、サクサク、そして甘いと表現しています。」 理性的な人は、この名声を感性と混同しないでしょう。
一体、あなたは同じトリックで犬をだますことさえできませんでした。 あなたが犬の糞をフードボウルに入れて、それが夕食の時間であるとフィドに言ったならば、犬はそれをキブルと混同しないでしょう。
ラベルを変更しても、知覚力のある生き物は現実をナビゲートできます。 フランス語を話す人に初めて会った英語の話者は、彼らがそれを「feu」と呼んだので、突然、彼らの腕をフランス語の火に突き刺しても大丈夫だとは思いませんでした。
エージェンシーがなければ、AIは視点を持つことができません。 そして、視点がなければ、それはモチベーションを持つことができません。 そして、これら3つすべてがなければ、感性はありません。
The post AIが感性と見なされるために実証しなければならない3つのこと appeared first on Gamingsym Japan.