# Server config. Copy to .env (в корне или apps/frontend/) или задайте в панели деплоя. # === LLM (обязательно один из вариантов) === # Вариант 1: Ollama (один сервер — один URL; два сервера — укажите OLLAMA_EMBEDDING_BASE_URL) LLM_PROVIDER=ollama OLLAMA_BASE_URL=http://localhost:11434 # OLLAMA_EMBEDDING_BASE_URL=http://embedding-host:11434 LLM_CHAT_MODEL=ministarl-3:3b LLM_EMBEDDING_MODEL=nomic-embed-text # Вариант 2: Timeweb Cloud AI (закомментировать блок Ollama) # LLM_PROVIDER=timeweb # TIMEWEB_API_BASE_URL=https://api.timeweb.cloud # TIMEWEB_AGENT_ACCESS_ID= # TIMEWEB_API_KEY= # LLM_CHAT_MODEL=gpt-4 # TIMEWEB_X_PROXY_SOURCE= # === Дополнительно === # SearXNG: обязателен для веб-поиска. Публичные инстансы часто дают 429 (лимит). # Запустите свой: docker run -d -p 4000:8080 searxng/searxng # SEARXNG_API_URL=http://localhost:4000 # SEARXNG_FALLBACK_URL= # через запятую, если основной недоступен # DATA_DIR=./data