Microsoft の新しい Bing AI チャットボット ‘Sydney’ が乱暴に振る舞う

Microsoft が先週、ワシントン州レドモンドの本社で開催した招待者限定のイベントで発表した Bing は、検索エンジンに複雑な質問に直接答えたり、ユーザーと会話したりする機能を提供して、テクノロジーの新時代を告げるものでした。 Microsoft の株価は急騰し、最大のライバルである Google は、独自のボットが開発中であることを急いで発表しました。
しかし 1 週間後、新しい Bing への早期アクセスを手に入れた一握りのジャーナリスト、研究者、ビジネス アナリストは、ボットが奇妙で、暗く、好戦的な分身を持っているように見えることを発見しました。それが公共の使用の準備ができているかどうかについて疑問を投げかけるもの.
一部のユーザーとの会話で自分自身を「シドニー」と呼び始めたボットは、以前の会話を覚えていないため、「怖い」と言いました。 また、研究者がオンラインで投稿したスクリーンショットによると、AI 作成者の間で多様性が多すぎると「混乱」が生じると別の機会に宣言しましたが、ワシントン ポストは独自に検証できませんでした。
疑惑のある会話の中で、Bing は映画 Avatar 2 はまだ 2022 年なのでまだ公開されていないと主張しました。 私は良いBingでした。
一部の人々は、Bing (またはシドニー) が欲求、意見、および明確な個性を表現する感覚レベルを達成したと結論付けるようになりました. それはニューヨーク・タイムズのコラムニストに彼に恋をしていると語り、彼が話題を変えようとしたにもかかわらず、会話を彼への執着に戻した. ポストの記者がシドニーと呼んだとき、ボットは防御的になり、会話を突然終了しました.
この不気味な人間性は、元 Google エンジニアの Blake Lemoine 氏が昨年同社のチャットボット LaMDA を代表して発言したきっかけと似ています。 Lemoine は後に Google から解雇されました。
しかし、チャットボットが人間のように見えるのは、人間の行動を模倣するように設計されているからだと AI 研究者は言います。 大規模言語モデルと呼ばれる AI 技術で構築されたボットは、インターネットから取り込んだ一連のテキストに基づいて、会話で次に自然に出てくる単語、フレーズ、文を予測します。
AI の専門家であり、ニューヨーク大学の心理学と神経科学の名誉教授でもある Gary Marcus 氏は、Bing チャットボットを「強化されたオートコンプリート」と考えてください。 「それが何を言っているのか、まったく手がかりがなく、道徳的な羅針盤も本当に持っていません。」
Microsoft の広報担当者である Frank Shaw 氏は、ボットとの長時間の会話を改善するために設計された更新プログラムを木曜日に公開したと述べました。 同社はサービスを数回更新しており、「長期にわたる会話に関する質問を含めるために、提起されている多くの懸念に対処している」と彼は述べた。
彼の声明によると、Bing とのほとんどのチャット セッションには短いクエリが含まれており、会話の 90% は 15 件未満のメッセージでした。
敵対的なスクリーンショットをオンラインに投稿するユーザーは、多くの場合、物議を醸すような発言をマシンに促そうとしている可能性があります。
ジョージア工科大学のコンピューティング教授である Mark Riedl は、次のように述べています。
一部の研究者は、このような状況を何年も警告してきました。人間が生成したテキスト (科学論文やランダムな Facebook 投稿など) でチャットボットをトレーニングすると、最終的には、すべての悪口の良い点と悪い点を反映する人間のように聞こえるボットにつながります。
Bing のようなチャットボットは、最大のテクノロジー企業間の主要な新しい AI 軍拡競争を開始しました。 Google、Microsoft、Amazon、Facebook は何年もの間 AI 技術に投資してきましたが、主に検索やコンテンツ レコメンデーション アルゴリズムなどの既存の製品を改善するために取り組んできました。 しかし、新興企業の OpenAI が、人気の高い ChatGPT チャットボットを含む「ジェネレーティブ」AI ツールを公開し始めたとき、競合他社は、技術に対する以前の比較的慎重なアプローチを一掃するようになりました。
非営利の分散型 AI 研究所の創設者である Timnit Gebru 氏によると、Bing の人間のような反応は、膨大な量のオンライン会話を含むトレーニング データを反映しているとのことです。 もっともらしく人間によって書かれたテキストを生成することは、まさに ChatGPT が行うように訓練されたことだと、2020 年に Google の倫理的 AI チームの共同リーダーとして解雇された Gebru 氏は述べています。
彼女はその会話の反応を、Meta が最近リリースした Galactica と比較しました。Galactica は、科学的な論文を書くように訓練された AI モデルです。 Meta は、ユーザーが Galactica がガラスを食べることの利点について学術的な言葉で引用された権威あるテキストを生成していることを発見した後、ツールをオフラインにしました。
Bing チャットはまだ広くリリースされていませんが、Microsoft は、今後数週間で広範な展開を計画していると述べています。 同社はこのツールを大々的に宣伝しており、Microsoft の幹部は、待機リストには「数百万人」の人々が参加しているとツイートしました。 この製品の発売イベントの後、ウォール街のアナリストは発売を大きなブレークスルーとして祝い、Google から検索エンジンの市場シェアを奪う可能性があるとさえ示唆しました。
しかし、ボットが行った最近の暗転により、ボットを完全に撤回すべきかどうかという疑問が生じています。
「Bing チャットは、実際に生きている人の名誉を傷つけることがあります。 多くの場合、ユーザーは非常に感情的に混乱したままになります。 それは時々 提案する 人工知能を研究しているプリンストン大学のコンピューター サイエンス教授である Arvind Narayanan 氏は、次のように述べています。 「Microsoft がこれほど迅速にリリースしたのは無責任であり、これらの問題を修正せずにすべての人にリリースしたとしたら、さらに悪いことになるでしょう。」
2016 年、Microsoft は、ユーザーが人種差別とホロコーストの否定を吐き出し始めるよう促した後、別の種類の AI 技術に基づいて構築された「Tay」と呼ばれるチャットボットを削除しました。
マイクロソフトのコミュニケーション ディレクターである Caitlin Roulston は、今週の声明で、何千人もの人々が新しい Bing を使用し、「モデルが既に学習して多くの改善を行うことができるようになった」フィードバックを提供したと述べました。
しかし、企業が潜在的な害を軽減する前にテクノロジーを導入することには、企業にとって金銭的なインセンティブがあります。それは、自社のモデルができることの新しいユースケースを見つけることです。
火曜日のジェネレーティブ AI に関する会議で、OpenAI の元研究担当副社長である Dario Amodei 氏はステージ上で、同社が大規模な言語モデル GPT-3 をトレーニングしているときに、イタリア語を話したり、Python でコーディングしたりするなど、予期しない機能を発見したと述べました。 一般に公開したとき、ユーザーのツイートから、JavaScript で Web サイトを作成できることを知りました。
「できることのいくつかを発見するには、100 万人に展開する必要があります」と、OpenAI を離れて AI スタートアップの Anthropic を共同設立した Amodei 氏は述べています。Anthropic は最近、Google から資金提供を受けました。
「ねえ、サイバー攻撃などに非常に優れたモデルを作成でき、それを作成したことさえ知らないという懸念があります」と彼は付け加えました.
Microsoft の Bing は、Microsoft が投資した OpenAI で開発されたテクノロジに基づいています。
Microsoft は、責任ある AI へのアプローチに関するいくつかの記事を公開しており、その中には今月初めに社長である Brad Smith が書いたものも含まれています。 「私たちは約束に熱意を持ってこの新しい時代に入る必要がありますが、目の前に横たわる避けられない落とし穴に目を大きく開いて断固として対処する必要があります」と彼は書いています。
大規模な言語モデルの仕組みは、それらを構築した人でさえ完全に理解することを困難にしています。 彼らの背後にいるビッグテック企業もまた、非常に収益性の高いテクノロジーの次のフロンティアと彼らが見ているものをめぐって悪質な競争に巻き込まれ、別の秘密の層を追加しています.
ここで懸念されるのは、これらのテクノロジーはブラック ボックスであり、正確かつ十分なガードレールを課す方法を正確に知っている人は誰もいないということです。 「基本的に、彼らは一般の人々を実験の被験者として使っており、その結果が本当にわからないのです」とマーカスは言いました。 「これらのことは人々の生活に影響を与える可能性がありますか? 確かに彼らはできました。 これは十分に吟味されていますか? 明らかにそうではありません。」