もっと詳しく

<p>ボットに「感情」あると主張したAIエンジニア、グーグルが休職処分</p><p>ボットに「感情」あると主張したAIエンジニア、グーグルが休職処分</p><p>米アルファベットの子会社、グーグルで人工知能(AI)開発チームに所属していたソフトウエアエンジニアのブレイク・レモイン氏は、同社サーバーのAIが「感情」を持っているとの主張を公にした。同氏は先週、プロジェクトの機密情報を第三者と共有したとして有給の休職処分になっている。</p><p>アルファベット の子会社、グーグルで人工知能(AI)開発チームに所属していたソフトウエアエンジニアのブレイク・レモイン氏は、同社サーバーのAIが「感情」を持っているとの主張を公にした。同氏は先週、プロジェクトの機密情報を第三者と共有したとして有給の休職処分になっている。 レモイン氏はオンラインメディア「ミディアム」への投稿で、グーグルでAI倫理チームに所属した複数の元メンバーとの関連性に触れている。メンバーの1人、マーガレット・ミッチェル氏は問題を指摘した後、レモイン氏と同様に処分を受けた。 ブレイク・レモイン氏 Photographer: Martin Klimek for The Washington Post via Getty Images 米紙ワシントン・ポストは11日付の紙面に、レモイン氏のインタビューを掲載。同氏はこの中で、自身が接触したグーグルのAIは「科学者というよりは聖職者のような」人だったと結論付けている。「LaMDA」という略称を持つ当該AIは、多種多様な性格表現を用いて人間のユーザーと対話するチャットボットを生み出すのに使われる。同氏はこれを証明するための実験を社内で提案したが、上層部に拒否されたという。 グーグルの広報担当者、ブライアン・ガブリエル氏はこの件について、「倫理学者や技術専門家を含む当社のチームは、レモイン氏が提起した懸念を当社のAI倫理原則に照らして検証し、その結果、同氏の主張を裏付ける証拠はなかったことを同氏に伝えた」と説明した。レモイン氏の休職扱いについて聞かれた同社は、個人的な事情にはコメントしない方針だと回答している。</p>