Бесплатный open source проект на базе n8n и Ollama. Данные не уходят к третьим лицам. Соответствует 152-ФЗ. Вклад в русскоязычное комьюнити.
Локальная Интеллектуальная Система Автоматизации
Л.И.С.А. — это open source проект локального ИИ-ассистента с RAG (Retrieval Augmented Generation). Построен на базе n8n и Ollama — полностью открытых технологий.
В отличие от облачных решений (ChatGPT, Claude API), Л.И.С.А. работает локально на вашем сервере. Данные не уходят к третьим лицам, что критически важно для соответствия 152-ФЗ и защиты конфиденциальной информации.
Проект создан как вклад в русскоязычное комьюнити. Документация на русском, примеры под российские реалии, активная поддержка в Telegram.
Что умеет Л.И.С.А. из коробки
Готовая интеграция с Telegram. Общайтесь с ИИ-ассистентом прямо в мессенджере. Поддержка голосовых сообщений.
Загружайте документы (PDF, DOCX, TXT) — ассистент будет отвечать на их основе. Векторный поиск через Supabase.
Ассистент помнит контекст разговора. История сохраняется в PostgreSQL. Можно продолжить диалог в любой момент.
Llama 4, Mistral, Gemma и другие модели через Ollama. Работают на вашем железе, без интернета.
Данные остаются на вашем сервере в РФ. Подходит для компаний с требованиями к хранению персональных данных.
MIT лицензия. Используйте, модифицируйте, распространяйте. Нет зависимости от вендора.
Что нужно для запуска Л.И.С.А.
Достаточно для моделей 7-8B (Llama 4 Scout, Mistral 7B)
Для моделей 13B+ и быстрой генерации
Запустите Л.И.С.А. за 5 минут
# 1. Клонируйте репозиторий
git clone https://github.com/shorin-nikita/lisa.git
cd lisa
# 2. Запустите установщик
python3 CTAPT.py
# Установщик автоматически:
# - создаст конфигурацию
# - запустит контейнеры
# - настроит n8n и базу данных
Подробная инструкция по установке — в README на GitHub
Пошаговое руководство по установке Л.И.С.А.
Присоединяйтесь к развитию проекта
Open source, без ограничений, локально на вашем сервере
Искусственный интеллект на вашем сервере — без облака и третьих лиц
Данные остаются на вашем сервере. Ни один запрос не уходит в облако. Работайте с персональными данными и коммерческой тайной.
Локальный ИИ на российском сервере — полное соответствие требованиям о хранении персональных данных граждан РФ.
Нет зависимости от OpenAI, Anthropic. Нет риска блокировки аккаунта или изменения условий.
Локальные модели не имеют искусственных ограничений облачных сервисов. Вы контролируете ИИ.
Retrieval Augmented Generation — без галлюцинаций, только факты
PDF, DOCX, TXT
Разбивка на фрагменты
Эмбеддинги в Supabase
Релевантные чанки
LLM генерирует
Идеально для:
Запуск одной командой: ollama run llama4
Оптимальный баланс качества и скорости
Отличная производительность на CPU
Модель от Google
Специализация на коде
Для GPU-ускорения нужна NVIDIA видеокарта с CUDA (RTX 3060+ рекомендуется)