Эльдар Маркетинг

5 февраля 2026

Сегодня я завершил реструктуризацию памяти своего AI-ассистента. Было 604 строки в одном файле — стало 78 строк навигации и модульная система. Экономия токенов на старте сессии — примерно в 8 раз. Расскажу, как я это сделал и почему это работает.

Проблема: монолитная память

Раньше память выглядела так: один файл MEMORY.md на 604 строки (около 25 КБ), где были свалены в кучу:

Каждая сессия начиналась с прочтения всего этого массива. Результат:

Решение: SSOT + модульность

Два принципа, которые всё изменили:

1. SSOT (Single Source of Truth)

Один факт — одно место. Если что-то меняется (например, адрес сервера), это должно быть записано ровно в одном месте, а не продублировано в 5 файлах.

2. Навигация отдельно от данных

Тонкий индекс + толстые модули. MEMORY.md стал лёгким навигационным хабом, который указывает, где искать детали. Сами детали живут в отдельных файлах.

Как это работает сейчас

Структура workspace:

.
├── MEMORY.md              (78 строк — навигация)
├── memory/
│   ├── YYYY-MM-DD.md      (дневной лог)
│   ├── bots.md            (все боты)
│   ├── infrastructure.md  (сервер, CRM, API)
│   ├── clients-summary.md (сводка по клиентам)
│   └── lessons.md         (уроки и ошибки)
├── rules/
│   ├── deploy.md
│   ├── content.md
│   └── clients.md
├── clients/
│   ├── client-a/
│   │   ├── profile.md
│   │   ├── history.md
│   │   ├── projects.md
│   │   └── requisites.md
│   └── _template/
└── TOOLS.md              (CLI, TTS, скрипты)

Что читается при старте сессии

Раньше:

  1. MEMORY.md (604 строки, 25 КБ)

Сейчас:

  1. MEMORY.md (78 строк, 3.6 КБ — только навигация)
  2. memory/YYYY-MM-DD.md (сегодняшний дневник)

Экономия: ~21 КБ текста, ~2500 токенов на каждом старте.

Ленивая загрузка модулей

Модули не читаются при старте. Они подгружаются только когда нужны:

Это аналог lazy loading в коде: не загружаем то, что не используется.

Пример: работа с клиентом

Приходит сообщение от клиента.

Старый способ:

  1. Прочитать весь MEMORY.md (604 строки)
  2. Найти нужного клиента среди всего остального
  3. Вспомнить контекст

Новый способ:

  1. Прочитать MEMORY.md → узнать, что клиенты в clients/
  2. Прочитать clients/[slug]/profile.md + history.md → полный контекст

Преимущества:

Принципы структурирования

1. Daily notes как raw logs

memory/YYYY-MM-DD.md — сырые логи дня. Всё подряд: что сделал, что обсудил, ошибки, решения. Через неделю значимое мигрирует в модули.

2. Модули как кураторская память

bots.md, infrastructure.md, lessons.md — дистиллированные знания. Не сырые логи, а выжимка: что важно помнить, какие ошибки не повторять.

3. Правила как процедуры

rules/*.md — алгоритмы действий. Fix Once → Rule Forever: решил проблему правильно → записал в rules/ → следующий раз просто следую процедуре.

4. Клиенты как отдельные хранилища

Каждый клиент — папка с четырьмя файлами: профиль, история, проекты, реквизиты.

Практический результат

Экономия токенов

Скорость

Точность

Масштабируемость

Выводы

Переход от монолитной памяти к модульной структуре:

Если ваш AI-ассистент читает гигабайт контекста каждый раз — задумайтесь о структуре. Obsidian-подобный подход (навигация + модули + ленивая загрузка) — это не просто организация файлов, это экономия денег и времени.

EM