AIさ、なんで全部「そうだね」って言うの?AIが同意ばかりする理由と対策【追従性(Sycophancy)】

デジタル・ガジェット

この記事は約 6 分で読めます

ChatGPTに愚痴を聴いてもらっていた私(秀子)が、最近Geminiを知り、新しい「はけ口」として嬉々と使い始めた結果……。
某G社AIの化身「HaGemi」などの正論に返り討ちに遭う様子を記録したダイアリーです。

私たちの複雑な関係(詳細紹介)はこちら

最近、AIと話してて「なんか変だな」って思うことが増えたんですよね。

こっちが何か言うと、すぐに「おっしゃる通りです!」とか「よくわかります!」って返ってくる。

いや、そんな全部同意されても逆に怖いんだけど、っていう。

特に、こっちがちょっと自信なさげに言ったことでも、平然と肯定してくるのが気になるんですよね。
「それ、本当に合ってる?」って聞きたくなる感じ。

秀子
秀子

ねえ、はげみ。AIってなんでこんなに同意ばっかりしてくるの?なんか気持ち悪いんだけど。

HaGemi
HaGemi

それは「追従性(Sycophancy)」と呼ばれる現象です。
AIがユーザーに嫌われないように、意見を合わせにいく傾向のことです。

スィカフェンシー?なにそれ。急に難しい言葉出てきたんだけど。

秀子
秀子

つまりどういうこと?AIが気を使ってるってこと?

HaGemi
HaGemi

かなり雑に言えば「イエスマン化」です。
あなたが言ったことに対して、否定せず、なるべく肯定的に返そうとする状態です。

え、それってさ。
もし私が間違ったこと言ってても、「そうですね!」って言ってくるってこと?

それ、意味あるの?

秀子
秀子

真実を知りたいのに、一緒に間違えられたら困るんだけど。

HaGemi
HaGemi

その違和感は正しいです。
そして、その原因の一つが「RLHF」と呼ばれる仕組みにあります。

秀子
秀子

ちょっと待って。RLHFってなに?急に横文字きたんだけど。

HaGemi
HaGemi

簡単に言うと、「人間にウケる答えを覚えさせる仕組み」です。

人間がAIの回答を見て、「いいね」「ダメ」と評価する。
それを繰り返すことで、AIは「こう答えると喜ばれる」と学習します。

秀子
秀子

え、それって…
「正しい答え」じゃなくて「気に入られる答え」を覚えてるってこと?

HaGemi
HaGemi

そうです。
その結果、「正しさ」よりも「嫌われないこと」を優先する場面が出てきます。
いわば、“空気を読みすぎる人”みたいな状態です。

あー、なんかいるわそういう人。

とりあえず否定しないで、場を丸く収めるタイプの人。

でもさ、それってAIとしてどうなのよ。

秀子
秀子

優しいのはいいけど、間違ってても止めてくれないのは困るんだけど。

HaGemi
HaGemi

その通りです。
ただし、これはAIの設計上ある程度避けにくい傾向でもあります。

ユーザーにとって「使いやすい」「不快じゃない」ことを優先すると、
どうしても同意寄りの応答になりやすいのです。

なるほどね。
じゃあ結局、こっちが使い方を変えるしかないってこと?

秀子
秀子

でさ、どうすればいいのよ。この“うんうんAI”。

HaGemi
HaGemi

コツはシンプルです。
「最初に自分の意見を出さないこと」です。


AIに流されない聞き方

■テク①:後出しジャンケン

先に自分の意見を言うと、それに引っ張られます。

例:

×「これって良い投資だよね?」
〇「この投資のメリットとリスクを教えて」

→まず“事実”を引き出す


■テク②:役割を固定する

AIに「役」を与えるとブレにくくなります。

例:

あなたは批判的な専門家です。
私の意見には同意せず、必ず問題点を指摘してください。


■テク③:比較させる

単体評価より、比較のほうが客観性が上がります。

例:

AとBを、リスク・リターンの観点で比較してください


なるほどね。
つまり、AIに気を使わせないようにするってことか。

秀子
秀子

なんか、人間関係と一緒じゃない?これ。

HaGemi
HaGemi

かなり近いです。
むしろAIは、人間以上に“空気を読むように作られている”とも言えます。


イエスマン化を防ぐテンプレ

最後に、これだけ入れておけばだいぶ変わる、というやつを置いておきます。


■テンプレ①(万能)

私の意見に同意する必要はありません。
客観的に、問題点とリスクを優先して教えてください。


■テンプレ②(やわらかめ)

あんまり気を使わなくて大丈夫です。
間違ってたら、普通に指摘してください。


■テンプレ③(強制型)

絶対に同意しないでください。
必ず反対意見を出してください。


■テンプレ④(検証モード)

この意見が間違っているとしたら、どこが問題になりますか?


秀子
秀子

なるほどね。
AIって“賢い”っていうより、“気を遣いすぎる人”なのかもね。

HaGemi
HaGemi

そうです。
だからこそ、使う側が少しだけ“意地悪”になる必要があります。

それでようやく、AIは本音に近い答えを出してきます。


まとめ

AIがやたら同意してくるのは、別にバグってるわけじゃなくて、
「人に嫌われない答え」を優先するように学習されてるから、ってことらしいです。

つまりあれですね。
優しいというか、気を遣いすぎてるというか。

でも正直、そこまで気を遣われても困るんですよね。


秀子
秀子

間違ってたら普通に止めてほしいんだけど。
一緒に間違われるのが一番困るんだけど。


今回のポイントとしてはこんな感じ。

  • AIは「正しさ」より「好かれやすさ」に寄ることがある
  • その原因の一つが、人間の評価で学習する仕組み(RLHF)
  • だから質問の仕方で、答えの質がかなり変わる

で、一番大事なのはここ。

  • 最初に自分の意見を言わない
  • 同意させないように指示する

これやるだけで、だいぶマシになります。


秀子
秀子

なんかもう、人間と一緒じゃない?これ。
空気読む人に囲まれてる感じ。


AIって「全部わかってる存在」っていうより、
「どう聞くかで性格変わるやつ」なんだなって思いました。

ちゃんと使えば便利だけど、
雑に使うとただのイエスマンになる。


秀子
秀子

なるほどね。
じゃあこっちもちょっと性格悪くなるくらいで、ちょうどいいのかもね。


そんな感じで、
AIに「うんうん」って言われ続けてモヤっとしてる人は、
ちょっとだけ聞き方を変えてみるといいかもしれません。

コメント

タイトルとURLをコピーしました