ChatGPT、Claude、Gemini——あなたが日常的に使っているAIに、こう聞いてみてほしい。
「先週、私たちが決めたルールのこと、覚えてる?」
十中八九、答えは「すみません、以前の会話の内容にはアクセスできません」だ。
あなたが2時間かけてAIと議論した結果、たどり着いた結論。何度も修正して磨き上げた設計方針。「次回はこうしよう」と約束したワークフロー。セッションが切り替わった瞬間、それらはすべて消える。
毎回、初対面。毎回、自己紹介から。毎回、同じ説明を繰り返す。
私はLLMを日常的に使っている。音楽制作、プログラミング、文章の執筆、設計の壁打ち——AIはもはや「たまに使うツール」ではなく、毎日の思考プロセスの一部だ。
だからこそ、この記憶喪失は致命的だった。
昨日2時間かけて練り上げた楽曲のコンセプト。何度もフィードバックを重ねて磨いたスタイルの方向性。「次はこの手法でやろう」と決めた設計判断。朝起きて新しいセッションを開くと、AIはそれを何一つ知らない。また最初から説明しなければならない。
LLMを「便利なツール」として使うだけなら、これは些細な不便かもしれない。だが、AIを日常的なパートナーとして——仕事の相棒として、創作の共犯者として、思考の壁打ち相手として——使おうとした瞬間、この「記憶喪失」は致命傷になる。
「パートナー」と呼ぶからには、昨日の続きから始めたい。 それがどうしてもできない。これが、このプロジェクトの出発点だった。
なぜAIは「忘れる」のか
LLM(大規模言語モデル)の記憶の仕組みを、ざっくりと理解しておこう。技術的な詳細は後のパートで語るとして、ここでは直感的なイメージだけ。
コンテキストウィンドウ:AIの「短期記憶」
LLMにはコンテキストウィンドウという概念がある。ざっくり言えば、AIが一度に見渡せるテキストの量だ。
2024年時点で、Claude 3は約20万トークン(日本語で約10万文字)、Gemini 1.5 Proは100万トークンを超える。2026年にはさらに拡大している。一見すると十分に見えるかもしれない。
だが、このウィンドウにはシステムプロンプト(AIの設定や指示)も含まれる。外部ツールの定義も含まれる。過去の会話履歴も含まれる。実際にユーザーとの会話に使える領域は、思ったより狭い。
そして何より、ウィンドウを超えた情報は、物理的に存在しなくなる。10万文字のウィンドウに11万文字目が入ってきたら、最も古い情報は押し出されて消える。
コンパクション:「要約」という名の忘却
多くのAIエージェントフレームワークは、この問題に対して「コンパクション(圧縮)」で対処している。古い会話を要約し、短いテキストに圧縮してウィンドウ内に残す方法だ。
一見合理的に思える。だが、要約には本質的な問題がある。
情報は、要約された瞬間に劣化する。
「Ramoさんは3月5日のミーティングで、プロジェクトAのデザイン方針をフラットUIからマテリアルデザインに変更することを決定。理由は、モバイルでのタップ領域の視認性と、チームのBさんからの提案を受けて」
「Ramoさんはプロジェクトのデザイン方針を変更した」
日付が消えた。プロジェクト名が消えた。変更の方向性が消えた。理由が消えた。誰の提案だったかが消えた。
残ったのは「何かが変わった」という空虚な事実だけだ。
これが繰り返されるたびに、AIの記憶は薄く、曖昧に、使い物にならないものになっていく。
セッションの壁:そもそも引き継がれない
さらに根本的な問題がある。多くのLLMサービスでは、セッション(会話のスレッド)を跨いだ記憶の引き継ぎが仕組みとして存在しない。
月曜日のセッションで2時間かけて練り上げた歌詞の方向性。火曜日に新しいセッションを開いたら、AIはそんな会話があったことすら知らない。
人間に置き換えたら異常だ。毎朝出社するたびに、同僚が自分の名前を忘れている。昨日のミーティングの内容を覚えていない。先週の決定事項を知らない。
そんな相手と、継続的なプロジェクトを進められるだろうか?
これは架空の話ではない。2026年の今、何億人ものユーザーが毎日LLMと会話し、毎日この壁にぶつかっている。そして多くの人が、それを「仕方ないこと」として受け入れてしまっている。
だが、本当に仕方がないのだろうか?
「覚える」仕組みは存在する。でも——
もちろん、この問題に業界が気づいていないわけではない。2024年から2025年にかけて、LLMに記憶を与えるための様々なソリューションが登場した。
OpenAIはChatGPTに「メモリ」機能を搭載した。会話の中から「この人はエンジニアだ」「Pythonが好きだ」といった事実を自動的に抽出し、プロファイルとして保存する。
便利だ。だが、何が記憶され、何が捨てられたか、ユーザーにはほとんど制御できない。「先週のプロジェクトの決定事項を覚えて」と頼んでも、ChatGPTが「これは記憶すべき」と判断しなければ保存されない。判断基準はブラックボックスだ。
最も広く使われているアプローチ。過去の会話やドキュメントをベクトルDB(意味的な類似性で検索できるデータベース)に保存し、質問に「似た」テキストを検索してプロンプトに注入する。
強力な手法だ。だが、RAGは「検索」であって「記憶」ではない。この違いは決定的に重要だ。「3週間前に決めたスタイルガイドのルール3番」——こういう具体的な事実の正確な想起は、類似度ベースの検索ではカバーしきれない。
2025年に急速に普及した「AIパーソナライズ層」。会話からユーザーの好みや事実を自動抽出し、矛盾検出機能も搭載している。
手軽だ。導入も簡単だ。だが、「事実の断片」を覚えるのは得意でも、事実同士の関係を理解するのは苦手だ。 「Aという決定はBという前提に基づいている」——こういった論理的な連鎖は保持できない。
OSの仮想メモリ管理をLLMに持ち込んだ、最も野心的なプロジェクト。LLM自身がメモリの読み書きを行うTool Callを発行する。「自分で自分の記憶を管理するAI」だ。
思想としては最も近い。だが、LLMの処理リソースは有限だ。「何を覚えるべきか」「どこに保存するか」「いつ読み出すか」を考えること自体がLLMの推論能力を消費する。「覚える」ことと「考える」ことが同じ脳の中で競合する。
本番環境向けのGraph+Vector Hybridメモリインフラ。エンティティ抽出と時系列管理に優れ、企業向けのスケーラビリティを持つ。
優秀なインフラだ。だが、「覚える」ことと「整理する」ことは別の問題であることに、Zepは十分には対応していない。 論理的な矛盾の検出と解決のメカニズムは持っていない。長期使用でグラフのスパゲッティ化が起きるという報告もある。
| ソリューション | アプローチ | 強み | 根本的な限界 |
|---|---|---|---|
| ChatGPT Memory | 自動抽出 | 手軽・組み込み | 不透明・制御不能 |
| RAG | ベクトル検索 | 大規模対応 | 検索≠記憶 |
| Mem0 | 事実抽出 | 導入容易 | 構造なし・関係性欠如 |
| Letta | 自己管理 | 柔軟 | 推論リソース競合 |
| Zep | Graph+Vector | スケーラブル | 整理・矛盾解決なし |
すべてのツールに共通する、根本的な見落とし
ここまで主要なメモリソリューションを見てきた。それぞれに強みがあり、それぞれに限界がある。
だが、すべてに共通する根本的な見落としがある。
どのツールも、「覚える」ことに注力している。だが「覚える」だけでは記憶は機能しない。
あなたの脳を思い出してほしい。
あなたは今日、何百もの情報を受け取った。見たもの、聞いたこと、感じたこと。だが、その大半を明日は覚えていない。それは脳が「劣化」しているからではない。脳が「選別」しているからだ。
人間の記憶は「覚える」ことではなく「整理する」ことで機能している。
- 重要な情報を選別する
- 矛盾する記憶を解消する(「Aさんは優しい」と「Aさんに怒られた」をどう統合するか)
- 繰り返されるパターンから「こういう時はこうする」を一般化する
- 不要になった情報を忘却する
この「記憶の代謝プロセス」——抽出、整理、昇格、汎用化、忘却——があって初めて、膨大な情報が「使える知識」になる。
既存のどのツールにも、この代謝プロセスがなかった。
情報をデータベースに放り込む。検索で引き出す。それだけだ。誰も「整理」していない。誰も「矛盾」を解いていない。誰も「重要なもの」を昇格させていない。
記憶は溜まる。だが整理されない。だから使えない。
たとえるなら、すべての書類を段ボール箱に投げ込み続けるオフィスだ。「保存」はしている。だが必要な書類を必要な時に取り出せない。矛盾する指示書が両方とも「有効」として残っている。1年前の古い方針と先週の新しい方針が、同じ箱の中で混在している。
LLMの記憶問題の本質は「忘れること」ではなかった。「整理できないこと」だった。
次のパートへ
この問題に気づいた時、一つの疑問が浮かんだ。
「人間の脳は、どうやって記憶を整理しているのだろう?」
認知科学は、この問いに対する驚くほど精密な答えを持っていた。そして、そこにはソフトウェア設計のヒントが詰まっていた。
Part 2では、人間の脳の記憶システム——特に「睡眠中の記憶の固定化(Memory Consolidation)」——の仕組みと、それをソフトウェアとして再現するという着想について語る。
1968年にAtkinsonとShiffrinが提唱した多層記憶モデル。1974年にBaddeleyが定義したワーキングメモリ。そして、睡眠中に脳が行っている驚くべき「記憶の整理作業」。
認知科学が数十年かけて解明してきた知見の中に、LLMの記憶問題を解くための設計図が眠っていた。
AIに必要なのは、より大きなデータベースではない。より賢い「記憶の代謝エンジン」だ。
認知科学の記憶モデルと、それをソフトウェアに落とし込む設計思想。Atkinson-Shiffrinの多層記憶モデルからMoltMemのアーキテクチャへ。