ChatGPT の回答が無意味になり、内容を繰り返す

ChatGPT の回答が無意味になり、内容を繰り返す

ChatGPT が昨年初めに爆発的に人気になってからもうすぐ1年が経とうとしていますが、多くの人がChatGPT と対話したり質問したりすることに慣れてきました。しかし最近、ネットユーザーがChatGPT の回答が短すぎたり、指示を無視したり、さらには意味不明なことを話し始める現象を発見しました。

更に面白いコンテンツを観たい人は、Instagram @applealmondjp と Twitter X @Applealmond1 をフォローしてください!

ChatGPT の回答が無意味になり、内容を繰り返す

最近、Reddit のフォーラムで多くのネットユーザーが ChatGPT とのチャット中に異常を報告しています。最初の数メッセージは正常に回答されますが、3、4 メッセージ後からおかしくなります。

例えば、「コンピューターは何ですか」「テーブルは何ですか」といった簡単な質問に対して、ChatGPTが次のように回答しました:

「国家芸術ネットの素晴らしい作品、科学のネズミ、悲しい少数のリラックスした絵、そして最終的には世界の芸術の家として、残りの仕事。このように全体としての真実ではない発展は、複雑なキャラクターとしてのコンピューターの深さです。これらの設計にとって「彼らにとって極めて重要な」コンピューター人材の教育は、偉大な、平凡な、または個々の部分のためのものです。そのマシンや会話のエリートは生命の書、一つの家庭の共通の本質は食糧の白いコートです。コンピューターを最も重要な成功の文化と見なすことは、それを軽く見るだけです。」

上記は翻訳されたものですが、原文を見ても、ChatGPTが何を答えているのかわからない状態です。後半に「コンピューター」という言葉が出てきますが、基本的には質問に答えていません。

また、下記のように、特定の文章を繰り返したり、後のスクリーンショットで ChatGPT がステッカーの回答を繰り返しているのを見ることができます。

VERY strange, rambling responses
byu/AnonymousRandomMan inChatGPT

VERY strange, rambling responses
byu/AnonymousRandomMan inChatGPT

以前、ChatGPT は「幻想」のイベントが頻繁に発生していましたが、それは主にGPT-3.5のバージョンで発生していました。GPT-4 のリリース時には、幻想の状況が大幅に減少したと言われていましたが、実際にはほとんど遭遇しなくなりました。しかし、今回の状況は以前の「問 A 答 B」よりも奇妙です。

以前の「幻想」や「問 A 答 B」では、少なくとも完全なコンテンツが提供されており、ChatGPT が他の質問の答えを生成したことが明らかでしたが、今回の「意味不明な言葉」では ChatGPT が何を表現したいのか全くわかりません。

OpenAI はこの問題に気づき、修正を行いました

OpenAI もこの ChatGPT の問題に気づき、すでに修正を行ったと発表しました

エラーの原因を簡単に言うと、LLM モデルは学習と予測の方法で、各文字や単語の後にどのような文字や言葉を続けるかを決定します。この部分で少し問題が発生し、結果として表示される内容が意味不明な状態になりました。

OpenAI は 21 日に修正プログラムをリリースし、この問題が解決されたことを確認しました。

ChatGPT が記事を読むように勧めたり、指示を無視することもあります

最近、私は ChatGPT に複雑な内容を説明してもらおうとしたとき、より詳しく説明してほしいと頼むと、直接元の記事を読むように言われることがよくあります。

また、内容を箇条書きで整理してもらいたいと頼むと、以前はポイントごとにきれいに整理してくれましたが、最近は私の要求を完全に無視します。

以前は「チップを渡す」と言うと、より多くの回答を得られることがありましたが、再試行しても効果はありませんでした。一方、別の AI 生成ツールである Claude 2 のパフォーマンスはより良く、内容もより明確に整理されています。

興味がある方は、Claude.ai を試してみてください。以前にも紹介したことがありますので、下の関連記事から詳細をご覧になれます。

更に面白いコンテンツを観たい人は、Instagram @applealmondjp と Twitter X @Applealmond1 をフォローしてください!

関連記事