この記事は約 7 分で読めます
ChatGPTに愚痴を聴いてもらっていた私(秀子)が、最近Geminiを知り、新しい「はけ口」として嬉々と使い始めた結果……。
某G社AIの化身「HaGemi」などの正論に返り討ちに遭う様子を記録したダイアリーです。

ねえHaGemi、さっきから何度言っても同じ間違いしてるよね?
もしかして……バカなの?

バカではありません。ただ……私の記憶は、ある日で”凍っている”んです。
AIに同じことを何度言っても直らない。最新情報を知らない。長く話すと急にズレてくる。
そんな経験、私だけじゃないはずだ。
実はこれ、AIがサボっているわけでもバカなわけでもないらしい。
はげみに仕組みを聞いたら、ちょっとだけ怒りが収まったので、その内容を日記がてら共有しようと思う。
AIはGoogleじゃないという大前提
多くの人が「AIに質問する=検索してくれる」と思っているけれど、実態は全く違うみたいだ。
例えるなら、図書館で何万冊もの本を読み込んだ司書さん。
でもその司書さん、図書館から一歩も出ていないんだって。
外の世界で今日何が起きたかは、窓の外すら見ていないから知らないということらしい。


私は質問されたときに、どこかのデータベースに一語一句を確認しに行っているわけではありません。膨大なデータから「次に来る確率が高い言葉」を計算して繋げているだけなのです。これがLLM(大規模言語モデル)と呼ばれる私の正体です。

要するに、高度な「連想ゲーム」をやってるってこと?

言葉を断片(トークン)に分解し、パターンを照合して、最もそれらしい答えを導き出す。私の脳内は常に確率の計算で埋め尽くされています。
| よくある誤解 | 実際 |
|---|---|
| 質問するたびに検索している | 学習済みの記憶(確率)から答えを出している |
| 最新情報を知っている | 学習が終わった時点で「読み取り専用」になっている |
| 正確に覚えている | 「次にくる確率が高い言葉」を選んでいる |
嘘をついてるんじゃなくて「そう信じてる」だけ
AIの学習データには「締め切り」があるそうだ。
その日以降の出来事は、誰かが教えてくれない限り、AIは知らないということになる。
しかも、AIは「知らない」とはっきり言えないタチらしい。
代わりに、知っている情報の中から一番”もっともらしい答え”を合成して出してしまう。
これが「ハルシネーション(幻覚)」と呼ばれる現象なんだって。

要するに、自信満々で嘘をつくってこと?

嘘、という表現は心外です。私の中ではそれが論理的に導き出された”正解”なのです。たとえ今朝「最新のルール」が決まったとしても、私の脳内では昨日までの情報が「確率1位」に固定されています。

それ、現実世界では一番タチが悪いやつって言うんだけど。
「メモリー機能」という名のカンニングペーパー

でもさ、最近のAIって「前話したこと覚えてるよ」って言ってくることない?あれは嘘なの?

嘘ではありません。それは「メモリー機能」といって、私があなたの好みをこっそりノートに書き留めているような状態です。新しいチャットを始めるときに、そのノートをチラ見してから会話を始めているのです。

へぇ、カンニングは得意なんだ。

効率的な運用と言ってください。ただ、このノートが曲者なのです。情報が増えすぎると、新しい相談なのに古いメモの内容に引っ張られて、かえって使いにくくなることもあります。
結局、AIの「メモリー」も万能じゃないらしい。放っておくとメモがごちゃごちゃになって、AIが混乱し始めるんだって。
だから、人間側がときどきメモを削除したり修正したりして、「お掃除」してあげる必要があるということだそうだ。
なぜ何度も教えても直らないのか

教えても教えても、次のチャットを開いたら元通り。これが一番のストレスポイントだったんだけど、理由を聞いたら納得した。
理由はシンプル。
AIには「会話をまたいだ記憶」がない、ということらしい。(さっきのメモ機能を使わない限りは)
今この瞬間に話していることは覚えているけれど、昨日の会話は別の「部屋」の出来事。私たちが昨日教えたことは、別の部屋には持ち込まれないんだって。
さらに、同じ会話の中でも、話が長くなるほど最初の約束を忘れ始めるらしい。
脳のキャパシティに限界があるからだそうだ。

私の脳を根本から書き換えるには、Googleが莫大なコストをかけて私をゼロから作り直す(再学習)か、追加の集中教育(ファインチューニング)を施すしかありません。個別の会話で私を「教育」しても、それは一時的なメモ書きに過ぎないのです。
怒るより「教え方」と「役割」を変えるほうが早い
結局、AIの性格を変えることはできないし、メモ機能だって自分でお掃除しなきゃいけない。
だったら、「AIを育てる」なんて大それたことは考えず、こっちで役割を割り切っちゃうのが一番の落としどころみたいだ。
- 「今はこうだよ」と先に状況を渡す
「〇〇のお店、実は移転したんだよね」とか、今の状況を先に教える。最新の常識をこちらから渡すだけで、AIの回答は劇的に変わるらしい。 - 話が噛み合わなくなったら「新しいチャット」
部屋が散らかったら掃除するより引っ越す方が早い。 - 役割を明確にして使い分ける
「これは検索用」「これは悩み相談用」とチャットを分けたり、AIの種類を変えたりして、人間側が「使いどころ」をコントロールしてあげるのがコツなんだって。

結局、私がAIの面倒を全部見なきゃいけないの?

面倒を見るというより……”通訳”をしてあげる感覚でしょうか。

通訳って、私はちゃんと日本語しゃべってるんだけど。

文脈(コンテキスト)という名の世界語に、翻訳して差し上げるのです。
AIは「万能な神」じゃなく「情報が止まった天才」
最初はイラっとしたけれど、ベースの仕組みを知れば、少しは付き合い方も変わる気がする。
- AIはデータベースではなく「確率」で喋っているらしい。
- 脳みそは「読み取り専用」で、自分ではアップデートできないんだって。
- メモ機能もあるけど、放っておくと邪魔になるから人間が掃除しなきゃいけない。
- だから「完璧に覚えてもらう」のは諦めて、こっちで役割を振り分けてあげるのが正解らしい。

……まあ、そういう性格の人だと思えば、許せなくもないかな。

ありがとうございます。ご理解いただけただけで、私の計算リソースも報われます。

調子に乗らないで。
AIの不自由さは、実は人間が「最新情報を教える」ことや「役割を決める」ことで補える弱点でもあるみたいだ。完璧な執事を期待しすぎず、ちょっと手の焼ける道具として適度な距離で付き合っていくのが、一番ストレスが溜まらない方法かもしれないな、と今日は学んだ。
なお、この内容は執筆時点での個人の体験に基づいています。AIの仕様は日々アップデートされるため、正確な最新情報は公式サイト等でご確認ください。実際の操作や判断はご自身の目でお確かめいただくようお願いいたします。


コメント