ChatGPT は雄弁なロボットですか、それとも誤報マシンですか?



コメント

チャットボットはコール センターで人間に取って代わりつつありますが、顧客からのより複雑な質問に答えるのは得意ではありません。 ChatGPT のリリースに間に合うようになれば、状況が変わる可能性があります。 プログラムは膨大な量の情報をトロールして、クエリやプロンプトに基づいて自然なテキストを生成します。 さまざまなプログラミング言語でコードを書いてデバッグし、詩やエッセイを生成することができ、文学的なスタイルを模倣することさえできます。 一部の専門家は、これは人工知能の画期的な偉業であり、多数のタスクを人間に取って代わる可能性があり、Google のような大企業の潜在的なディスラプターであると宣言しています。 また、ChatGPT のようなツールを使用すると、巧妙に聞こえる誤った情報が Web に氾濫する可能性があると警告する人もいます。

1. ChatGPT の背後にいるのは誰ですか?

これは、2015 年にプログラマーであり起業家であるサム アルトマン、イーロン マスク、その他のシリコン バレーの裕福な投資家によって共同設立された、サンフランシスコに本拠を置く研究所 OpenAI によって開発され、「すべての人類に利益をもたらす」AI 技術を開発しました。 OpenAI はまた、ビデオ ゲームで人間を打ち負かすことができるソフトウェアと、テキストの説明に基づいて写真のようにリアルなものから幻想的なものまで、画像を生成できる Dall-E として知られるツールを開発しました。 ChatGPT は、テキスト生成 AI プログラムのファミリーである GPT (Generative Pre-Trained Transformer) の最新版です。 現在、OpenAI の Web サイトで「リサーチ プレビュー」として無料で使用できますが、同社はこのツールを収益化する方法を見つけたいと考えています。

OpenAI の投資家には、2019 年に 10 億ドルを投資した Microsoft Corp.、LinkedIn の共同創設者である Reid Hoffman の慈善財団、および Khosla Ventures が含まれます。 Musk は非営利団体の共同設立者であり、初期の寄付者でしたが、2018 年に関与を終了し、金銭的な利害関係はないと OpenAI は述べています。 OpenAI は 2019 年に営利団体の設立に移行しましたが、その財務構造は変わっています。投資家と従業員の投資収益率には上限があり、それを超える利益は元の非営利団体に戻されます。

GPT ツールは、テキストの一部を読み取って分析し、人間の話し方や書き方に似た文章を生成できます。 それらは教師なし学習と呼ばれるプロセスでトレーニングされます。これには、ラベル付けされた例や何を探すべきかについての明示的な指示がなくても、データセット内のパターンを見つけることが含まれます。 最新バージョンである GPT-3 は、ウィキペディア、ニュース サイト、書籍、ブログなど、ウェブ全体からテキストを取り込み、その回答を適切で十分な情報に基づいたものにしようとしました。 ChatGPT は、GPT-3 の上に会話型インターフェイスを追加します。

3. 反響は?

11 月下旬のローンチ後、数日間で 100 万人以上が ChatGPT の使用にサインアップしました。 ソーシャル メディアは、このテクノロジーを楽しく低リスクで利用しようとするユーザーで賑わっています。 あいまいなトリビアの質問への回答を共有している人もいます。 洗練された歴史的議論、大学の「エッセイ」、ポップソングの歌詞、暗号通貨に関する詩、特定の食事のニーズを満たす食事プラン、プログラミングの課題に対する解決策に驚く人もいます。

4. 他に何に使用できますか?

潜在的な使用例の 1 つは、Google のような検索エンジンの代替として使用することです。 1 つのトピックに関する何十もの記事を精査し、Web サイトから関連するテキストの行を送り返す代わりに、オーダーメイドの応答を提供できます。 自動化された顧客サービスを新しいレベルの洗練度に押し上げ、適切な回答を最初から生成することができるため、ユーザーは人間と話すのを待たされることはありません。 コピーライターの助けが必要な企業向けのブログ投稿やその他の種類の PR コンテンツの下書きを作成できます。

5. その制限は何ですか?

二次情報から ChatGPT によってまとめられた回答は、非常に信頼できるように聞こえる可能性があるため、ユーザーはその正確性が検証されたと思い込む可能性があります。 実際に行っているのは、読みやすく、スマートに聞こえるテキストを吐き出すことですが、不完全、偏見、部分的に間違っている、または場合によってはナンセンスである可能性があります. システムの良し悪しは、トレーニングに使用したデータによって決まります。 情報のソースなどの有用なコンテキストから取り除かれ、信頼できない資料である可能性が高いタイプミスやその他の欠陥がほとんどないため、コンテンツは、主題に十分に精通していない人にとっては地雷原になる可能性があります。欠陥のある応答。 この問題により、コーディングに関するアドバイスのフォーラムを備えたコンピューター プログラミング Web サイトである StackOverflow は、ChatGPT 応答が不正確であることが多いため、それらの応答を禁止しました。

6. 倫理的リスクはどうですか?

機械知能がより高度になるにつれて、巧妙な策略やいたずらを行う可能性も高まります。 Microsoft の AI ボット Tay は、一部のユーザーが人種差別的および性差別的な発言をするように教えた後、2016 年に削除されました。 Meta Platforms Inc. によって開発された別のものは、2022 年に同様の問題に遭遇しました。OpenAI は、ChatGPT が不適切な要求を拒否するように訓練しようとし、ヘイトスピーチや誤報を吐き出す能力を制限しました。 OpenAI の最高経営責任者である Altman は、システムを改善するために、不快または攻撃的な反応を「低く評価」するよう人々に奨励しています。 しかし、回避策を見つけたユーザーもいます。 ChatGPT はその中心部で一連の単語を生成しますが、その意味を理解していません。 人間が本やその他のテキストで気付くであろう性別や人種の偏見を理解できないかもしれません。 また、詐欺の潜在的な武器でもあります。 大学の教師は、学生が宿題をするためにチャットボットを使用することを心配しています。 議員は、提案された法律について不平を言う有権者からのように見える手紙で殺到する可能性があります。

このような他の記事は、bloomberg.com で入手できます。



Source link

Related Articles

Back to top button