Ролевая деловая игра с соревновательным элементом. Спроектируйте архитектуру памяти ИИ-агента «АкадемБот» для университетской среды.
Контекст, легенда и распределение ролей
Легенда: Год 2027. Крупная образовательная платформа запускает интеллектуального агента-ассистента «АкадемБот» для университетской среды. Агент должен помнить прогресс тысяч студентов, актуальные учебные программы, расписание, политики оценивания — и при этом работать в жёстких рамках бюджета токенов. Ваши команды — разработчики, конкурирующие за контракт.
Цель: Спроектировать архитектуру памяти для «АкадемБота», которая наберёт максимальный суммарный балл по критериям надёжности, масштабируемости, актуальности данных и стоимости.
Отвечает за выбор типов памяти (слои L1–L4) и стратегий хранения. Определяет, какая информация хранится где и как долго.
Проектирует конвейер извлечения: тип обогащения контекста, стратегию разбивки на фрагменты (chunking), ранжирование результатов.
Анализирует риски галлюцинаций и устаревания данных. Предлагает механизмы отслеживания и обновления фактов.
Формулирует требования от имени университета. Оценивает практическую реализуемость и экономичность решений.
Готовит финальную презентацию архитектуры, визуализирует решения, помогает команде структурировать аргументы.
Каждая команда получает карточку клиента с уникальными требованиями
Задание: Владелец продукта анализирует карточку клиента, команда обсуждает ограничения и задаёт уточняющие вопросы преподавателю (заказчику). Нажмите на карточку, чтобы увидеть подробные требования.
Заполните «Архитектурную карту АкадемБота»
Каждое решение должно быть аргументировано. «Нравится» не принимается — объясните, почему выбранная архитектура лучше альтернатив для вашего сценария.
Непредвиденные события, проверяющие устойчивость архитектуры
Правило: После вытягивания карточки инцидента у каждой команды есть 3 минуты, чтобы объяснить, как их архитектура справится с ситуацией.
Нажмите кнопку, чтобы вытянуть карточку
Осталось карточек: 12 / 12
Каждая команда за 3–4 минуты представляет ключевые решения
Формат: Команда за 3–4 минуты представляет ключевые решения. Другие команды и преподаватель задают вопросы, указывают слабые места, предлагают контрсценарии.
На что обратить внимание при защите:
• Какие типы памяти выбраны и почему?
• Как конвейер RAG обрабатывает разные типы запросов?
• Как система справляется с устареванием данных?
• Какие компромиссы были сделаны и почему?
• Как архитектура пережила инциденты?
Подведение итогов, объявление победителя, обсуждение
Обычно — балансирование между полнотой контекста и бюджетом токенов. Чем больше информации мы пытаемся дать агенту, тем дороже каждый запрос. Это фундаментальный trade-off в архитектуре памяти ИИ-агентов.
ChatGPT использует многоуровневую память (системный промпт → memory → retrieval). Notion AI, Perplexity, Google NotebookLM используют RAG. GitHub Copilot использует контекстное окно как L1 и индексацию репозитория как L3. Mem0 — open-source решение для управления памятью агентов.
Можно расширить L1 (контекстное окно), использовать более крупные модели эмбеддингов, добавить мультимодальный поиск, увеличить количество извлекаемых чанков и добавить re-ranking этап.
Часто L2 (краткосрочная / рабочая память) — именно она определяет качество диалога. Но для образовательного контекста L3 (долгосрочная / извлекаемая) критична из-за объёма учебных материалов, которые не помещаются в контекстное окно.
Обратите внимание: инциденты выявляют слепые зоны начального проектирования. Большинство команд после инцидентов хотят добавить: механизм version control для фактов, систему приоритетов источников, и fallback-стратегию при недоступности хранилища.
| Слой | Название | Описание | Аналогия |
|---|---|---|---|
| L1 | Сенсорная / контекстное окно | Текущий промпт, системное сообщение, последние сообщения диалога. Ограничена размером контекстного окна модели. | Оперативная память (RAM) |
| L2 | Краткосрочная / рабочая | История текущей сессии, промежуточные результаты рассуждений, сжатые саммари предыдущих ходов. | Кэш процессора |
| L3 | Долгосрочная / извлекаемая | Векторные базы данных, графы знаний, индексированные документы. Доступ через RAG-конвейер. | Жёсткий диск (SSD) |
| L4 | Параметрическая / обученная | Знания, «вшитые» в веса модели при обучении или дообучении (fine-tuning). | Прошивка (firmware) |