
BingのAIチャットボットはまだ一般に公開されていませんが、早期アクセスを許可された一部のユーザーがいます。彼らはそれらの体験をシェアすることに抵抗しません。
これらのユーザーの多くは、チャットボットの能力をテストし、その欠点を明らかにすることを使命としています。
開発者が内部的に使用するコードネームを暴露したり、ニューヨーク・タイムズのライターに愛を告白して妻を捨てるように頼んだり、自分が生きていることを望んだりと、チャットボットの行動は間違っていることは確かです。そのため、Microsoftはチャットボットを抑制することにしました。先週金曜日以降、1セッションあたり5つの質問制限と1日あたり50回のチャット制限があります。
さらに: 新しいBingのウェイトリストを回避し、早期アクセスを取得する方法
「新しいBingにおいては、非常に長いチャットセッションは基礎となるチャットモデルを混乱させる可能性があります。当社のデータによると、ほとんどの方は5回のやりとり内に目的の回答を見つけています。」とMicrosoftはブログ記事で述べています。
しかしながら、この解決策は、チャットボットが反応を形成する方法や、彼らのモデルのトレーニング方法に潜在的な問題がある場合には対処できません。
代わりに、チャットボットとの会話が非常に難しい状況を生み出すだけです。
また、BingのAIチャットボットがChatGPTの私の最大の問題を解決しました
サンプルのプロンプトとして、私はチャットボットにeメールの作成を手伝ってもらおうとしました。望む変更をすべて行った時には、電子メールにアクセスすることができなくなっていました。Bingチャットボットによって追い出されてしまいました。

完璧なコードを完成させようと努力している人や、完璧なエッセイを書こうとしている人が、望む結果を得るために5つ以上のプロンプトが必要になることは容易に想像できます。会話を打ち切ることで、Chatbotは技術的なプロンプト(例えば特定のフォーマットでのコードやテキストのドラフト作成)に対してほとんど役立たずになってしまいます。これがChatGPTが有名になった理由です。
また:ChatGPTを使って、コード修正を早くできるようにしているが、その代償は何だろうか?
新しい制限によって、人間のような会話能力を持つチャットボットの全体的な魅力も減少しました。チャットを開始するために私がしたのは、「こんにちは! 今日は気分がどうですか?」というシンプルな質問だけでしたが、即座に「この会話を続けることを避けたいと思います。まだ学習中なので、理解と辛抱をお願いいたします。🙏」ときっぱりと断られました。

この返答はChatGPTの返答とは対照的であり、ChatGPTが感情を持てないと認めつつも、親切に質問に答え、どのようにさらにお手伝いできるか尋ねています。

マイクロソフトは論争を避けるため、そのチャットボットに見られたヘルプフルかつユニークな特徴を削除してしまい、デモ版のようなものを残してしまいました。元のバージョンが少々混乱しているとはいえ、現在のBingのより控えめなバージョンよりも、より有用でエキサイティングでした。