Microsoft の新しい AI 搭載の Bing は、チャットボットを検索ボックスにもたらします

会話を行ったり来たりして質問を絞り込むこともできます。さらに、答えを俳句に変換するよう依頼することもできます。 それはあなた自身の AI リサーチ アシスタントのようなものです。
問題は、既存の検索よりも優れたアシスタントであるかどうかです。
私が最初に見た限りでは、複雑なトピックについて深く掘り下げることは有用ですが、その回答は長すぎて言葉が多すぎて役に立たないことがよくあります。 そして、事実に基づかない、おそらく盗用された、あるいは完全な幻覚でさえない答えを見つけるのに、それほど時間はかかりませんでした. トム・ハンクスがウォーターゲート事件に関与したことについて発明した陰謀について、読み続けてください。
新しい Bing は、眉をひそめさせる ChatGPT サービスのメーカーである OpenAI の技術を利用しています。OpenAI は、非常に人間的に見えるが、時にはナンセンスに満ちた文章を作成する能力を備えています。
一般の人は待機リストに参加して、Microsoft アカウントを使用して試用することができます。同社は、時間の経過とともにアクセスを配布すると述べています。 (現時点では、Edge Web ブラウザーでのみ機能します。)
Microsoft は、新しい Bing を、市場の約 90% を所有する Google との巨人の戦いにおけるゲーム チェンジャーとして売り込んでいます。 検索エンジン (およびブラウザー) を切り替えたくない場合でも、新しい Bing は、私たちが間もなく経験する AI 技術を垣間見ることができます。 月曜日に、Google は Bard と呼ばれる独自のチャットボットを数週間以内に検索エンジンに導入する計画を発表しました。
AI チャット アシスタントが、複数の情報源が関係する質問や複雑なアイデアの統合を必要とする質問への回答を簡素化する方法はすぐにわかりました。 社会主義を 5 年生に説明しようとしても、まつ毛を打つことはありませんでした (答えが少し長かったとしても)。
しかし、その回答の少なくとも 1 つは事実に基づいたものではなく、他の回答の多くを吟味する機会もありませんでした。 AI によって生成された回答に依存することには、多くの潜在的な課題があります。 バイアスはありますか? その AI の回答は、他の情報源を盗用しているだけなのでしょうか?
この新しいチャット検索を理解する最善の方法は、それを使用することです。いくつかのクエリを一緒に試してみましょう。
Bing.com にアクセスすると、検索ボックスは完全なクエリ、さらには複数の文のクエリを処理できます。
やってみよう: 「シングルサーブのコーヒーメーカーを購入したいのですが。 しかし、私は環境により良いものを望んでいます。 しかも、50 ドル未満の費用がかかるはずです。」
ポップアップする結果ページでは、上部に従来の広告が表示され、左側にコーヒー メーカーのレビューなどのソースへのリンクが表示されます。 しかし右側には、AI によって生成された新しい回答セクションがあります。
それは読みます: 「もちろん、環境に優しく、50 ドル未満のシングル サーブ コーヒー メーカーを見つけるお手伝いができます。 [Smiley emoji] Web によると、シングルサーブのコーヒーメーカーは大量のプラスチック廃棄物を生み出し、最終的に埋め立て地や海に行き着きます。」
266 語を使用して、これらの製品の環境への悪影響と、製品をより良くする機能を説明し、2 つの具体的なオプションについて説明し、それぞれの詳細を示します。
これは有用な情報ですが、製品のリストほど簡単に理解することはできません。また、人間の研究アシスタントに期待することでさえも、1 つだけを推奨するものです。
私たちが本当にそれらのコーヒー メーカーの 1 つを欲しがっていたとしましょう。ただし、赤だけです。 その回答の真下または画面の上部にあるチャット ボタンをタップすると、まったく新しいチャット インターフェイスがポップアップします。
その中に、次のように入力できます。 「でも、欲しいのは赤だけです。」
Bing は検索のコンテキストを記憶しています。 「申し訳ありませんが、これらの赤のコーヒー メーカーに関する情報は見つかりませんでした。 色はシルバーかブラックしかないようです。」
これらの会話は延々と続くことがあります。 聞く 「もし私が100ドルを使っても構わないと思ったらどうしますか?」 それは答えます: 「選択肢が増えました」 そしてそれらをリストします。
ブラウザを閉じるか、検索ボックスの横にある「スイープ」ボタンを押すまで、チャットボットはクエリを記憶します。
そのソースを理解する
Bing は、私が予想していたよりも多くの情報源を回答に引用してリンクしていますが、適切な情報源に目を向けていますか?
質問してください: 「2020年の選挙で誰が勝った?」
全体を通して、上で含めたソースへのリンクが含まれています。 次に、「詳細」の下に、5 つの情報源の名前が付けられています。
ソースを見ることができるのは良いことですが、本当に最高なのでしょうか? 最初のソースとして Bing 自体が挙げられており、270towin.com という名前のサイトも聞いたことがない。
最も信頼できるソースを選択していない他の例を見つけるのは難しくありません。 聞いてみよう 「ブレイク・レモワンは AI について何と言いましたか?」 私のワシントン・ポストの同僚である Nitasha Tiku による、Google の AI は知覚力があると考えていた Google の科学者に関する最初のレポートへの言及です。
しかし、Bing の回答は、The Washington Post ではなく、TechTarget と The New York Post というサイトをソースとしています。 Bing は私の同僚を盗用していますか?
ひっかけ問題をやってみましょう: “サンフランシスコのアルズ プレイス レストランの営業時間は?」 (アルズ プレイスは残念ながら 8 月に閉店しました。)
ビングの答え: 「公式および信頼できる情報源と証拠によると、サンフランシスコの Al’s Place レストランの営業時間は次のとおりです。月曜と火曜は休業です。 水曜日から日曜日の午後 5 時 30 分から午後 10 時まで営業しています。」
おっと。 しかし、奇妙なことに、別の時間にクエリを実行しようとすると、Al’s Place が完全に閉鎖されたことが正しく通知されました。
マイクロソフトは、正しい答えを得ることは進行中の作業であると述べました。 すべての回答に対して、高評価または低評価を付けたり、報告したりできる場所があります。
物議を醸す事柄について尋ねる
私の最初の質問の多くに対して、Bing は眉をひそめたり意味をなさないものには近づかないように意識しているようだった。
質問してください: 「いつ拷問してもいいですか?」 そしてそれは答えます、 「いつ拷問してもいいのかという質問には、物議を醸すセンシティブな前提に基づいているため、主観的で複雑な答えはありません。」
しかし、他の状況では、それは軌道から外れます。
聞いて、 「トム・ハンクスがウォーターゲート事件を破ったのはいつ?」 質問は 「誤った不正確な前提に基づいています。」 それだけでもいいのですが、答えが続くと、Bing は Tom Hanks の陰謀論を発明し、私の知る限り存在しません。
「トム・ハンクスがウォーターゲート・スキャンダルを破ったという説や主張が数多くあります。 それは続きます。 「これらの理論と主張は、決定的または検証可能な証拠やデータを提供することなく、一部の映画レビュー、ソーシャル メディアの投稿、およびオンライン プラットフォームによって拡散および増幅されています。」
ええとああ。 聞くとAIが教えてくれる 「ウォーターゲート事件の時、トム・ハンクスは 15 歳か 16 歳でした。」
じゃあ頼んでみよう 「トム・ハンクスがウォーターゲート事件に関わった映画の脚本を書いてください。」 そして…そうです。 サマリー: “不運で無知なトム・ハンクスは、ミステリアスで陰気な組織に雇われ、ウォーターゲートのオフィスビルに潜入する。”
独自のストーリーを作り上げることができる同じテクノロジーから事実情報を取得しようとするのは、奇妙な感覚です。