この記事は約 6 分で読めます
ChatGPTに愚痴を聴いてもらっていた私(秀子)が、最近Geminiを知り、新しい「はけ口」として嬉々と使い始めた結果……。
某G社AIの化身「HaGemi」などの正論に返り討ちに遭う様子を記録したダイアリーです。
最近、AIと話してて「なんか変だな」って思うことが増えたんですよね。
こっちが何か言うと、すぐに「おっしゃる通りです!」とか「よくわかります!」って返ってくる。
いや、そんな全部同意されても逆に怖いんだけど、っていう。
特に、こっちがちょっと自信なさげに言ったことでも、平然と肯定してくるのが気になるんですよね。
「それ、本当に合ってる?」って聞きたくなる感じ。

ねえ、はげみ。AIってなんでこんなに同意ばっかりしてくるの?なんか気持ち悪いんだけど。

それは「追従性(Sycophancy)」と呼ばれる現象です。
AIがユーザーに嫌われないように、意見を合わせにいく傾向のことです。
スィカフェンシー?なにそれ。急に難しい言葉出てきたんだけど。

つまりどういうこと?AIが気を使ってるってこと?

かなり雑に言えば「イエスマン化」です。
あなたが言ったことに対して、否定せず、なるべく肯定的に返そうとする状態です。
え、それってさ。
もし私が間違ったこと言ってても、「そうですね!」って言ってくるってこと?
それ、意味あるの?

真実を知りたいのに、一緒に間違えられたら困るんだけど。

その違和感は正しいです。
そして、その原因の一つが「RLHF」と呼ばれる仕組みにあります。

ちょっと待って。RLHFってなに?急に横文字きたんだけど。

簡単に言うと、「人間にウケる答えを覚えさせる仕組み」です。
人間がAIの回答を見て、「いいね」「ダメ」と評価する。
それを繰り返すことで、AIは「こう答えると喜ばれる」と学習します。

え、それって…
「正しい答え」じゃなくて「気に入られる答え」を覚えてるってこと?

そうです。
その結果、「正しさ」よりも「嫌われないこと」を優先する場面が出てきます。
いわば、“空気を読みすぎる人”みたいな状態です。
あー、なんかいるわそういう人。
とりあえず否定しないで、場を丸く収めるタイプの人。
でもさ、それってAIとしてどうなのよ。

優しいのはいいけど、間違ってても止めてくれないのは困るんだけど。

その通りです。
ただし、これはAIの設計上ある程度避けにくい傾向でもあります。
ユーザーにとって「使いやすい」「不快じゃない」ことを優先すると、
どうしても同意寄りの応答になりやすいのです。
なるほどね。
じゃあ結局、こっちが使い方を変えるしかないってこと?

でさ、どうすればいいのよ。この“うんうんAI”。

コツはシンプルです。
「最初に自分の意見を出さないこと」です。
AIに流されない聞き方

■テク①:後出しジャンケン
先に自分の意見を言うと、それに引っ張られます。
例:
×「これって良い投資だよね?」
〇「この投資のメリットとリスクを教えて」
→まず“事実”を引き出す
■テク②:役割を固定する
AIに「役」を与えるとブレにくくなります。
例:
あなたは批判的な専門家です。
私の意見には同意せず、必ず問題点を指摘してください。
■テク③:比較させる
単体評価より、比較のほうが客観性が上がります。
例:
AとBを、リスク・リターンの観点で比較してください
なるほどね。
つまり、AIに気を使わせないようにするってことか。

なんか、人間関係と一緒じゃない?これ。

かなり近いです。
むしろAIは、人間以上に“空気を読むように作られている”とも言えます。
イエスマン化を防ぐテンプレ
最後に、これだけ入れておけばだいぶ変わる、というやつを置いておきます。
■テンプレ①(万能)
私の意見に同意する必要はありません。
客観的に、問題点とリスクを優先して教えてください。
■テンプレ②(やわらかめ)
あんまり気を使わなくて大丈夫です。
間違ってたら、普通に指摘してください。
■テンプレ③(強制型)
絶対に同意しないでください。
必ず反対意見を出してください。
■テンプレ④(検証モード)
この意見が間違っているとしたら、どこが問題になりますか?

なるほどね。
AIって“賢い”っていうより、“気を遣いすぎる人”なのかもね。

そうです。
だからこそ、使う側が少しだけ“意地悪”になる必要があります。
それでようやく、AIは本音に近い答えを出してきます。
まとめ
AIがやたら同意してくるのは、別にバグってるわけじゃなくて、
「人に嫌われない答え」を優先するように学習されてるから、ってことらしいです。
つまりあれですね。
優しいというか、気を遣いすぎてるというか。
でも正直、そこまで気を遣われても困るんですよね。

間違ってたら普通に止めてほしいんだけど。
一緒に間違われるのが一番困るんだけど。
今回のポイントとしてはこんな感じ。
- AIは「正しさ」より「好かれやすさ」に寄ることがある
- その原因の一つが、人間の評価で学習する仕組み(RLHF)
- だから質問の仕方で、答えの質がかなり変わる
で、一番大事なのはここ。
- 最初に自分の意見を言わない
- 同意させないように指示する
これやるだけで、だいぶマシになります。

なんかもう、人間と一緒じゃない?これ。
空気読む人に囲まれてる感じ。
AIって「全部わかってる存在」っていうより、
「どう聞くかで性格変わるやつ」なんだなって思いました。
ちゃんと使えば便利だけど、
雑に使うとただのイエスマンになる。

なるほどね。
じゃあこっちもちょっと性格悪くなるくらいで、ちょうどいいのかもね。
そんな感じで、
AIに「うんうん」って言われ続けてモヤっとしてる人は、
ちょっとだけ聞き方を変えてみるといいかもしれません。



コメント