MoltMem 2026.02.28
LLMメモリシステム MoltMem · Part 1

Design Philosophy

AIは毎回、記憶喪失している

— LLMメモリシステム MoltMem の設計思想 —

2026年2月28日 12分で読了

ChatGPT、Claude、Gemini——あなたが日常的に使っているAIに、こう聞いてみてほしい。

「先週、私たちが決めたルールのこと、覚えてる?」

十中八九、答えは「すみません、以前の会話の内容にはアクセスできません」だ。

あなたが2時間かけてAIと議論した結果、たどり着いた結論。何度も修正して磨き上げた設計方針。「次回はこうしよう」と約束したワークフロー。セッションが切り替わった瞬間、それらはすべて消える。

毎回、初対面。毎回、自己紹介から。毎回、同じ説明を繰り返す。

AIとニューラルネットワークの概念図 — 複雑に絡み合うワイヤーの中に立つ「AI」の文字が、知性の複雑さと脆さを象徴している
Photo by Google DeepMind on Unsplash — AIの知性は精巧だが、セッションを跨ぐ記憶は持たない

私はLLMを日常的に使っている。音楽制作、プログラミング、文章の執筆、設計の壁打ち——AIはもはや「たまに使うツール」ではなく、毎日の思考プロセスの一部だ。

だからこそ、この記憶喪失は致命的だった。

昨日2時間かけて練り上げた楽曲のコンセプト。何度もフィードバックを重ねて磨いたスタイルの方向性。「次はこの手法でやろう」と決めた設計判断。朝起きて新しいセッションを開くと、AIはそれを何一つ知らない。また最初から説明しなければならない。

LLMを「便利なツール」として使うだけなら、これは些細な不便かもしれない。だが、AIを日常的なパートナーとして——仕事の相棒として、創作の共犯者として、思考の壁打ち相手として——使おうとした瞬間、この「記憶喪失」は致命傷になる。

Core Problem

「パートナー」と呼ぶからには、昨日の続きから始めたい。 それがどうしてもできない。これが、このプロジェクトの出発点だった。


なぜAIは「忘れる」のか

LLM(大規模言語モデル)の記憶の仕組みを、ざっくりと理解しておこう。技術的な詳細は後のパートで語るとして、ここでは直感的なイメージだけ。

コンテキストウィンドウ:AIの「短期記憶」

LLMにはコンテキストウィンドウという概念がある。ざっくり言えば、AIが一度に見渡せるテキストの量だ。

2024年時点で、Claude 3は約20万トークン(日本語で約10万文字)、Gemini 1.5 Proは100万トークンを超える。2026年にはさらに拡大している。一見すると十分に見えるかもしれない。

だが、このウィンドウにはシステムプロンプト(AIの設定や指示)も含まれる。外部ツールの定義も含まれる。過去の会話履歴も含まれる。実際にユーザーとの会話に使える領域は、思ったより狭い。

そして何より、ウィンドウを超えた情報は、物理的に存在しなくなる。10万文字のウィンドウに11万文字目が入ってきたら、最も古い情報は押し出されて消える。

コンパクション:「要約」という名の忘却

多くのAIエージェントフレームワークは、この問題に対して「コンパクション(圧縮)」で対処している。古い会話を要約し、短いテキストに圧縮してウィンドウ内に残す方法だ。

一見合理的に思える。だが、要約には本質的な問題がある。

情報は、要約された瞬間に劣化する。

Before — 元の情報

「Ramoさんは3月5日のミーティングで、プロジェクトAのデザイン方針をフラットUIからマテリアルデザインに変更することを決定。理由は、モバイルでのタップ領域の視認性と、チームのBさんからの提案を受けて」

↓ 要約 ↓
After — 要約された情報

「Ramoさんはプロジェクトのデザイン方針を変更した」

日付が消えた。プロジェクト名が消えた。変更の方向性が消えた。理由が消えた。誰の提案だったかが消えた。

残ったのは「何かが変わった」という空虚な事実だけだ。

これが繰り返されるたびに、AIの記憶は薄く、曖昧に、使い物にならないものになっていく。

セッションの壁:そもそも引き継がれない

さらに根本的な問題がある。多くのLLMサービスでは、セッション(会話のスレッド)を跨いだ記憶の引き継ぎが仕組みとして存在しない

月曜日のセッションで2時間かけて練り上げた歌詞の方向性。火曜日に新しいセッションを開いたら、AIはそんな会話があったことすら知らない。

人間に置き換えたら異常だ。毎朝出社するたびに、同僚が自分の名前を忘れている。昨日のミーティングの内容を覚えていない。先週の決定事項を知らない。

そんな相手と、継続的なプロジェクトを進められるだろうか?

宇宙から見た夜の地球 — 都市の光が無数に輝く様子が、世界中でAIを使う何億人ものユーザーを象徴している
Photo by NASA on Unsplash — 何億人ものユーザーが毎日この壁にぶつかっている

これは架空の話ではない。2026年の今、何億人ものユーザーが毎日LLMと会話し、毎日この壁にぶつかっている。そして多くの人が、それを「仕方ないこと」として受け入れてしまっている。

だが、本当に仕方がないのだろうか?


「覚える」仕組みは存在する。でも——

もちろん、この問題に業界が気づいていないわけではない。2024年から2025年にかけて、LLMに記憶を与えるための様々なソリューションが登場した。

ChatGPTの組み込みメモリ Built-in

OpenAIはChatGPTに「メモリ」機能を搭載した。会話の中から「この人はエンジニアだ」「Pythonが好きだ」といった事実を自動的に抽出し、プロファイルとして保存する。

便利だ。だが、何が記憶され、何が捨てられたか、ユーザーにはほとんど制御できない。「先週のプロジェクトの決定事項を覚えて」と頼んでも、ChatGPTが「これは記憶すべき」と判断しなければ保存されない。判断基準はブラックボックスだ。

便利だが、信頼して任せるには不透明すぎる。
RAG(Retrieval-Augmented Generation) Search-based

最も広く使われているアプローチ。過去の会話やドキュメントをベクトルDB(意味的な類似性で検索できるデータベース)に保存し、質問に「似た」テキストを検索してプロンプトに注入する。

強力な手法だ。だが、RAGは「検索」であって「記憶」ではない。この違いは決定的に重要だ。「3週間前に決めたスタイルガイドのルール3番」——こういう具体的な事実の正確な想起は、類似度ベースの検索ではカバーしきれない。

「検索」であって「記憶」ではない。
Mem0 Personalization

2025年に急速に普及した「AIパーソナライズ層」。会話からユーザーの好みや事実を自動抽出し、矛盾検出機能も搭載している。

手軽だ。導入も簡単だ。だが、「事実の断片」を覚えるのは得意でも、事実同士の関係を理解するのは苦手だ。 「Aという決定はBという前提に基づいている」——こういった論理的な連鎖は保持できない。

記憶はフラットに並んでいるだけで、構造がない。
Letta(旧MemGPT) Self-managed

OSの仮想メモリ管理をLLMに持ち込んだ、最も野心的なプロジェクト。LLM自身がメモリの読み書きを行うTool Callを発行する。「自分で自分の記憶を管理するAI」だ。

思想としては最も近い。だが、LLMの処理リソースは有限だ。「何を覚えるべきか」「どこに保存するか」「いつ読み出すか」を考えること自体がLLMの推論能力を消費する。「覚える」ことと「考える」ことが同じ脳の中で競合する。

メモリ管理が本来のタスクの品質を下げうる。
Zep Infrastructure

本番環境向けのGraph+Vector Hybridメモリインフラ。エンティティ抽出と時系列管理に優れ、企業向けのスケーラビリティを持つ。

優秀なインフラだ。だが、「覚える」ことと「整理する」ことは別の問題であることに、Zepは十分には対応していない。 論理的な矛盾の検出と解決のメカニズムは持っていない。長期使用でグラフのスパゲッティ化が起きるという報告もある。

保存と整理は別の問題。整理の仕組みが欠けている。
ソリューション アプローチ 強み 根本的な限界
ChatGPT Memory 自動抽出 手軽・組み込み 不透明・制御不能
RAG ベクトル検索 大規模対応 検索≠記憶
Mem0 事実抽出 導入容易 構造なし・関係性欠如
Letta 自己管理 柔軟 推論リソース競合
Zep Graph+Vector スケーラブル 整理・矛盾解決なし

すべてのツールに共通する、根本的な見落とし

ここまで主要なメモリソリューションを見てきた。それぞれに強みがあり、それぞれに限界がある。

だが、すべてに共通する根本的な見落としがある。

どのツールも、「覚える」ことに注力している。だが「覚える」だけでは記憶は機能しない。

あなたの脳を思い出してほしい。

あなたは今日、何百もの情報を受け取った。見たもの、聞いたこと、感じたこと。だが、その大半を明日は覚えていない。それは脳が「劣化」しているからではない。脳が「選別」しているからだ。

人間の記憶は「覚える」ことではなく「整理する」ことで機能している。

中心から放射状に広がるガラス球のネットワーク — 記憶の代謝プロセスにおける情報の選別・整理・接続を視覚的に表現している
Photo by Google DeepMind on Unsplash — 記憶の代謝:情報は接続され、選別され、整理されて初めて「知識」になる

この「記憶の代謝プロセス」——抽出、整理、昇格、汎用化、忘却——があって初めて、膨大な情報が「使える知識」になる。

Critical Insight

既存のどのツールにも、この代謝プロセスがなかった。

情報をデータベースに放り込む。検索で引き出す。それだけだ。誰も「整理」していない。誰も「矛盾」を解いていない。誰も「重要なもの」を昇格させていない。

記憶は溜まる。だが整理されない。だから使えない。

たとえるなら、すべての書類を段ボール箱に投げ込み続けるオフィスだ。「保存」はしている。だが必要な書類を必要な時に取り出せない。矛盾する指示書が両方とも「有効」として残っている。1年前の古い方針と先週の新しい方針が、同じ箱の中で混在している。

Key Thesis

LLMの記憶問題の本質は「忘れること」ではなかった。「整理できないこと」だった。


次のパートへ

この問題に気づいた時、一つの疑問が浮かんだ。

「人間の脳は、どうやって記憶を整理しているのだろう?」

認知科学は、この問いに対する驚くほど精密な答えを持っていた。そして、そこにはソフトウェア設計のヒントが詰まっていた。

Part 2では、人間の脳の記憶システム——特に「睡眠中の記憶の固定化(Memory Consolidation)」——の仕組みと、それをソフトウェアとして再現するという着想について語る。

1968年にAtkinsonとShiffrinが提唱した多層記憶モデル。1974年にBaddeleyが定義したワーキングメモリ。そして、睡眠中に脳が行っている驚くべき「記憶の整理作業」。

認知科学が数十年かけて解明してきた知見の中に、LLMの記憶問題を解くための設計図が眠っていた。

Preview

AIに必要なのは、より大きなデータベースではない。より賢い「記憶の代謝エンジン」だ。

Coming Next → Part 2
脳は夜、記憶を整理している

認知科学の記憶モデルと、それをソフトウェアに落とし込む設計思想。Atkinson-Shiffrinの多層記憶モデルからMoltMemのアーキテクチャへ。