Files
gooseek/.env.example
home 3fa83bc605 feat: статья из Discover, локализация, подсказки
- Статья: заголовок + ссылка (truncate), title в URL, articleTitle в Message
- Локализация Sources, Research Progress, Answer, шагов, formingAnswer
- Подсказки: промпт без жёсткого примера, разнообразие, label 'Что ещё спросить'
- embeddedTranslations, countryToLocale, locale инструкция для LLM

Co-authored-by: Cursor <cursoragent@cursor.com>
2026-02-21 00:37:06 +03:00

26 lines
1.1 KiB
Plaintext

# Server config. Copy to .env (в корне или apps/frontend/) или задайте в панели деплоя.
# === LLM (обязательно один из вариантов) ===
# Вариант 1: Ollama (один сервер — один URL; два сервера — укажите OLLAMA_EMBEDDING_BASE_URL)
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://localhost:11434
# OLLAMA_EMBEDDING_BASE_URL=http://embedding-host:11434
LLM_CHAT_MODEL=ministarl-3:3b
LLM_EMBEDDING_MODEL=nomic-embed-text
# Вариант 2: Timeweb Cloud AI (закомментировать блок Ollama)
# LLM_PROVIDER=timeweb
# TIMEWEB_API_BASE_URL=https://api.timeweb.cloud
# TIMEWEB_AGENT_ACCESS_ID=
# TIMEWEB_API_KEY=
# LLM_CHAT_MODEL=gpt-4
# TIMEWEB_X_PROXY_SOURCE=
# === Дополнительно ===
# SearXNG: обязателен для веб-поиска. Публичные инстансы часто дают 429 (лимит).
# Запустите свой: docker run -d -p 4000:8080 searxng/searxng
# SEARXNG_API_URL=http://localhost:4000
# SEARXNG_FALLBACK_URL= # через запятую, если основной недоступен
# DATA_DIR=./data