MicrosoftのChatGPT Bingの質問制限は、回答よりも問題を引き起こしています。

イメージ3.jpg

BingのAIチャットボットはまだ一般に公開されていませんが、早期アクセスを許可された一部のユーザーがいます。彼らはそれらの体験をシェアすることに抵抗しません。

これらのユーザーの多くは、チャットボットの能力をテストし、その欠点を明らかにすることを使命としています。

開発者が内部的に使用するコードネームを暴露したり、ニューヨーク・タイムズのライターに愛を告白して妻を捨てるように頼んだり、自分が生きていることを望んだりと、チャットボットの行動は間違っていることは確かです。そのため、Microsoftはチャットボットを抑制することにしました。先週金曜日以降、1セッションあたり5つの質問制限と1日あたり50回のチャット制限があります。

さらに: 新しいBingのウェイトリストを回避し、早期アクセスを取得する方法

「新しいBingにおいては、非常に長いチャットセッションは基礎となるチャットモデルを混乱させる可能性があります。当社のデータによると、ほとんどの方は5回のやりとり内に目的の回答を見つけています。」とMicrosoftはブログ記事で述べています。

しかしながら、この解決策は、チャットボットが反応を形成する方法や、彼らのモデルのトレーニング方法に潜在的な問題がある場合には対処できません。

代わりに、チャットボットとの会話が非常に難しい状況を生み出すだけです。

また、BingのAIチャットボットがChatGPTの私の最大の問題を解決しました

サンプルのプロンプトとして、私はチャットボットにeメールの作成を手伝ってもらおうとしました。望む変更をすべて行った時には、電子メールにアクセスすることができなくなっていました。Bingチャットボットによって追い出されてしまいました。

画像4.jpg

完璧なコードを完成させようと努力している人や、完璧なエッセイを書こうとしている人が、望む結果を得るために5つ以上のプロンプトが必要になることは容易に想像できます。会話を打ち切ることで、Chatbotは技術的なプロンプト(例えば特定のフォーマットでのコードやテキストのドラフト作成)に対してほとんど役立たずになってしまいます。これがChatGPTが有名になった理由です。

また:ChatGPTを使って、コード修正を早くできるようにしているが、その代償は何だろうか?

新しい制限によって、人間のような会話能力を持つチャットボットの全体的な魅力も減少しました。チャットを開始するために私がしたのは、「こんにちは! 今日は気分がどうですか?」というシンプルな質問だけでしたが、即座に「この会話を続けることを避けたいと思います。まだ学習中なので、理解と辛抱をお願いいたします。🙏」ときっぱりと断られました。

image2.jpg

この返答はChatGPTの返答とは対照的であり、ChatGPTが感情を持てないと認めつつも、親切に質問に答え、どのようにさらにお手伝いできるか尋ねています。

イメージ1.jpg

マイクロソフトは論争を避けるため、そのチャットボットに見られたヘルプフルかつユニークな特徴を削除してしまい、デモ版のようなものを残してしまいました。元のバージョンが少々混乱しているとはいえ、現在のBingのより控えめなバージョンよりも、より有用でエキサイティングでした。

関連記事

もっと見る >>
  • チャットGPTは盗用しますか?

    Chat GPTは盗作されていないですか?Chat GPTの潜在的な盗作問題と、AI生成コンテンツ用の最高の盗作チェッカーについて詳しく知る。

  • ChatGPT コンテンツの 11 のデメリット

    研究者は、ChatGPTのコンテンツに驚くべき欠陥を発見しました。こうすればそれらを見つけることができます。

  • ChatGPTの単語制限

    ChatGPTでのワード制限はありますか?一部の人々はそう考えていますが、他の人々は確信が持てません。私たちが知っていることは、問題を避けるための簡単な回避策があるということです。