Open Source

Л.И.С.А. — Локальный ИИ-ассистент с RAG

Бесплатный open source проект на базе n8n и Ollama. Данные не уходят к третьим лицам. Соответствует 152-ФЗ. Вклад в русскоязычное комьюнити.

$ ollama run llama3 pulling manifest... pulling model... success >>> Привет! Я Л.И.С.А. Локальный ИИ-ассистент на базе n8n и Ollama. >>> Данные не покидают ваш сервер. 152-ФЗ ✓

Что такое Л.И.С.А.

Локальная Интеллектуальная Система Автоматизации

Л.И.С.А. — это open source проект локального ИИ-ассистента с RAG (Retrieval Augmented Generation). Построен на базе n8n и Ollama — полностью открытых технологий.

В отличие от облачных решений (ChatGPT, Claude API), Л.И.С.А. работает локально на вашем сервере. Данные не уходят к третьим лицам, что критически важно для соответствия 152-ФЗ и защиты конфиденциальной информации.

Проект создан как вклад в русскоязычное комьюнити. Документация на русском, примеры под российские реалии, активная поддержка в Telegram.

Технологический стек

  • n8n — платформа автоматизации (оркестрация)
  • Ollama — локальные LLM модели (Llama 4, Mistral)
  • Supabase — векторная база для RAG
  • PostgreSQL — хранение истории диалогов
  • Docker — контейнеризация

Возможности

Что умеет Л.И.С.А. из коробки

Telegram-бот

Готовая интеграция с Telegram. Общайтесь с ИИ-ассистентом прямо в мессенджере. Поддержка голосовых сообщений.

RAG база знаний

Загружайте документы (PDF, DOCX, TXT) — ассистент будет отвечать на их основе. Векторный поиск через Supabase.

История диалогов

Ассистент помнит контекст разговора. История сохраняется в PostgreSQL. Можно продолжить диалог в любой момент.

Локальные модели

Llama 4, Mistral, Gemma и другие модели через Ollama. Работают на вашем железе, без интернета.

152-ФЗ

Данные остаются на вашем сервере в РФ. Подходит для компаний с требованиями к хранению персональных данных.

Open Source

MIT лицензия. Используйте, модифицируйте, распространяйте. Нет зависимости от вендора.

Системные требования

Что нужно для запуска Л.И.С.А.

Минимальные

  • CPU: 4 ядра
  • RAM: 8 GB
  • SSD: 20 GB
  • OS: Ubuntu 20.04+ / macOS / Windows (WSL2)
  • Docker + Docker Compose

Достаточно для моделей 7-8B (Llama 4 Scout, Mistral 7B)

Рекомендуемые

  • CPU: 8 ядер
  • RAM: 16+ GB
  • GPU: NVIDIA RTX 3060+ (6GB VRAM)
  • SSD: 50+ GB
  • OS: Ubuntu 22.04

Для моделей 13B+ и быстрой генерации

Быстрый старт

Запустите Л.И.С.А. за 5 минут

# 1. Клонируйте репозиторий
git clone https://github.com/shorin-nikita/lisa.git
cd lisa

# 2. Запустите установщик
python3 CTAPT.py

# Установщик автоматически:
# - создаст конфигурацию
# - запустит контейнеры
# - настроит n8n и базу данных

Подробная инструкция по установке — в README на GitHub

Видео-инструкция по установке

Пошаговое руководство по установке Л.И.С.А.

Комьюнити

Присоединяйтесь к развитию проекта

GitHub

Исходный код, issues, pull requests. Помогите сделать Л.И.С.А. лучше.

Репозиторий

Telegram

Чат комьюнити: вопросы, помощь, обсуждения. Русскоязычная поддержка.

Присоединиться

YouTube

Видео-туториалы по настройке и использованию Л.И.С.А.

Смотреть

Попробуйте Л.И.С.А. бесплатно

Open source, без ограничений, локально на вашем сервере

Скачать с GitHub

Зачем нужен локальный ИИ-ассистент

Искусственный интеллект на вашем сервере — без облака и третьих лиц

🔒

Конфиденциальность

Данные остаются на вашем сервере. Ни один запрос не уходит в облако. Работайте с персональными данными и коммерческой тайной.

⚖️

152-ФЗ

Локальный ИИ на российском сервере — полное соответствие требованиям о хранении персональных данных граждан РФ.

🔓

Независимость

Нет зависимости от OpenAI, Anthropic. Нет риска блокировки аккаунта или изменения условий.

Без цензуры

Локальные модели не имеют искусственных ограничений облачных сервисов. Вы контролируете ИИ.

RAG: ИИ отвечает по вашим документам

Retrieval Augmented Generation — без галлюцинаций, только факты

1

Загрузка

PDF, DOCX, TXT

2

Чанки

Разбивка на фрагменты

3

Векторы

Эмбеддинги в Supabase

4

Поиск

Релевантные чанки

5

Ответ

LLM генерирует

Идеально для:

Корпоративные базы знаний FAQ-боты Техподдержка Онбординг сотрудников

Ollama: локальные LLM модели

Запуск одной командой: ollama run llama4

Llama 4 Scout
Рекомендуем

Оптимальный баланс качества и скорости

Mistral 7B

Отличная производительность на CPU

Gemma 2

Модель от Google

DeepSeek Coder

Специализация на коде

🎮

Для GPU-ускорения нужна NVIDIA видеокарта с CUDA (RTX 3060+ рекомендуется)