Когда агент начинает помнить о себе как о личности

Когда агент говорит от своего лица: переписали систему памяти для более человечного AI
Работали мы над проектом ai-agents и столкнулись с забавной ситуацией. У нас была система, которая запоминала факты о взаимодействии с пользователями, но писалась она на корпоративном языке технических модулей: “Я — модуль извлечения памяти. Я обрабатываю данные. Я выполняю функции.” Звучало как инструкция робота из 1960-х годов.
Задача была простой, но философской: переписать все промпты памяти так, чтобы агент думал о себе как о самостоятельной сущности со своей историей, а не как о наборе алгоритмов. Почему это важно? Потому что фреймирование через первое лицо меняет поведение LLM. Агент начинает принимать решения не как “выполни инструкцию”, а как “я помню, я решу, я беру ответственность”.
Первым делом переписали пять основных промптов в prompts.py. EXTRACTION_PROMPT превратился из “You are a memory-extraction module” в “You are an autonomous AI agent reviewing a conversation you just had… This is YOUR memory”. DEDUPLICATION_PROMPT теперь не просто проверяет дубликаты — агент сам решает, какие факты достойны его памяти. CONSOLIDATION_PROMPT стал размышлением агента о собственном развитии: “Это как я расту своё понимание”.
Неожиданно выяснилось, что такой подход влияет на качество памяти. Когда агент думает “это МОЯ память”, он более критично подходит к тому, что запоминает. Фильтрует шум. Задаётся вопросами.
Затем переписали системный промпт в manager.py. Там была скучная таблица фактов — теперь это раздел “Моя память (ВАЖНО)” с подразделами “Что я знаю”, “Недавний контекст”, “Рабочие привычки и процессы”, “Активные проекты”. Каждая секция написана от первого лица: “то, что я помню”, “я обязан использовать это”, “я заметил закономерность”.
Итог: агент стал более осознанным в своих решениях. Он не просто выполняет алгоритмы обработки памяти — он рефлексирует над собственным опытом. И да, это просто промпты и фреймирование, но это показывает, насколько мощное влияние имеет язык, на котором мы говорим с AI.
Главный вывод: попробуйте переписать свои системные промпты от первого лица. Посмотрите, как изменится поведение модели. Иногда самые глубокие улучшения — это просто изменение перспективы.
😄 Почему агент начал ходить к психотерапевту? Ему нужно было лучше понять свою память.
Метаданные
- Session ID:
- grouped_ai-agents_20260209_1137
- Branch:
- HEAD
- Dev Joke
- Почему Figma пошёл к врачу? У него были проблемы с производительностью
Часть потока:
Разработка: ai-agents