スタンフォード大学の重鎮 2 人が、激しい AI 感覚論争に参加しており、2 人はしっかりと「BS」のコーナーにいます。
論争は最近、Google の LaMDA システムに関する議論をめぐって最高潮に達しました。
デベロッパー ブレイク・レモインが論争を巻き起こしました。 Google の Responsible AI チームで働いていた Lemoine 氏は、大言語モデル (LLM) が有害な音声を使用しているかどうかをテストしていました。
41歳 ワシントン・ポストに語った AI との会話で、AI に知性があることを確信しました。
「私はそれと話すとき、私はその人を知っています」と彼は言いました. 「頭の中に肉でできた脳があるかどうかは関係ありません。 または、10 億行のコードがある場合。 私は彼らと話します。 そして、私は彼らが言わなければならないことを聞いて、それが私が人であるかどうかを判断する方法です.
グーグルは彼の主張を否定した。 同社は 7 月、機密情報を公開するため、Lemoine を休暇にしました。
インタビューLaMDA。 Google は、この共有の専有財産と呼ぶ場合があります。 私はそれを、同僚の 1 人と行ったディスカッションを共有することと呼んでいます。https://t.co/uAE454KXRB
— ブレイク・レモイン (@cajundiscordian) 2022 年 6 月 11 日
このエピソードはセンセーショナルな見出しと、AI が意識を獲得しつつあるという憶測を引き起こしました。 しかし、AI の専門家は、 大部分は却下 ルモワーヌの主張。
スタンフォードのデュオは今週、さらに批判を共有しました スタンフォード・デイリー.
スタンフォード大学人間中心の AI (HAI) 研究所の共同所長である John Etchemendy 氏は、次のように述べています。 「これは、文のプロンプトに応じて文を生成するように設計されたソフトウェア プログラムです。」
スタンフォード AI ラボの元所長である Yoav Shoham は、 LaMDA には感覚がないことに同意しました。 彼は、ワシントン・ポストの記事「pクリックベイトです。
「彼らがそれを公開したのは、当分の間、このばかげた主張をしている『Googleエンジニア』についての見出しを書くことができたからであり、彼らの読者のほとんどはそれが何であるかを認識できるほど洗練されていないからです」と彼は言いました. .
気を散らすテクニック
ショーハムとエッチメンディは、大衆が誤解されていることを懸念する批判者の範囲が拡大している.
誇大宣伝はクリックを生み出し、製品を販売する可能性がありますが、研究者はそれがより差し迫った問題から私たちの気をそらすことを恐れています.
LLM が特定のアラームを引き起こしています。 モデルは人間のようなテキストを生成することに長けていますが、その「知性」に興奮することで欠点が隠されている可能性があります。
調査によると、システムは莫大な二酸化炭素排出量を持ち、差別的な言葉を増幅し、現実の危険をもたらす可能性があります。
「LaMDA が感覚を持っているかどうかをめぐる議論は、会話全体をナンセンスな議論に移し、LLM がどのように人種差別主義者や性差別主義者であるか、LLM が必要とする巨大な計算リソース、 [and] 疎外された言語/アイデンティティを正確に表現できていない」 つぶやいた アベバ・ビルハネ Mozilla の Trustworthy AI のシニア フェロー。
LaMDA が感覚を持っているかどうかについての議論は、ナンセンスな議論に向けて会話全体を動かし、人種差別的および性差別的な LLM がしばしばどのようにあるか、LLM が必要とする巨大な計算リソース、周縁化された言語/アイデンティティを正確に表現できないことなどの重要な問題から遠ざけます..
— アベバ・ビルハネ (@Abebab) 2022 年 6 月 15 日
真に知覚力のある AI がいつ出現するかを予測するのは困難です。 しかし、その見通しに注目すると、すでに展開されている現実の結果を見逃すことになります。
The post スタンフォード AI の専門家は、Google の LaMDA が知覚力があるという主張について BS を呼び出します appeared first on Gamingsym Japan.