Мне нужна глубокая консультация по проектированию и реализации персонального AI-ассистента со сложной логикой. Система будет работать на моем сервере (локальное ядро), но использовать топовые модели через API. Основные технические требования к системе, подлежащие обсуждению: Multi-Agent Debate: Реализация логики «спора» между несколькими моделями одновременно (GPT, Claude, Gemini, Grok) с ролями (Аналитик, Критик, Финализатор). RAG & Dynamic Context: Механизм динамического подключения/отключения контекста из локальных папок (PDF, Excel), Google Таблиц и парсинга веба в реальном времени. Vision & Multimodal: Обработка данных с фото (OCR + Vision) для подгрузки в контекст. Инфраструктура: Развертывание Self-hosted решения (Docker/Python) с безопасным WebUI, доступным с мобильных устройств через HTTPS/авторизацию. Token Management: Система контроля лимитов и логирования затрат при многоуровневых запросах. Цель консультации: Валидация выбранного стека (LangGraph, CrewAI, AutoGen или кастомное решение на Python). Оценка сложности реализации «памяти проекта» (Vector DB) в связке с мультиагентной средой. Оценка бюджета на разработку и ежемесячное содержание (API tokens). Анализ рисков задержек (Latency) при нескольких раундах обсуждения моделей. Кого я ищу: Специалиста уровня AI Solution Architect или Lead AI Engineer, имеющего опыт создания агентских систем (не просто чат-ботов). Необходимо понимание, как синхронизировать контекст между моделями разных провайдеров и обеспечивать безопасность локальных данных. В отклике, пожалуйста, укажите: Кратко — на каких фреймворках рекомендовано строить такую логику (Multi-agent debate) и почему. какойц ваш опыт работы в подобных проектах