- Добавлена переменная LLM_MODEL в конфиг - Увеличен max_tokens до 32768 для крупных выписок - Включен response_format: json_object - Добавлен скрипт test:llm для проверки подключения к LLM-серверу
24 lines
760 B
Plaintext
24 lines
760 B
Plaintext
DB_HOST=localhost
|
|
DB_PORT=5432
|
|
DB_NAME=family_budget
|
|
DB_USER=postgres
|
|
DB_PASSWORD=postgres
|
|
|
|
APP_USER_LOGIN=admin
|
|
APP_USER_PASSWORD=changeme
|
|
|
|
SESSION_TIMEOUT_MS=10800000
|
|
|
|
PORT=3000
|
|
|
|
# Ключ OpenAI API для конвертации PDF-выписок в JSON (опционально)
|
|
# Без него импорт PDF будет недоступен (503)
|
|
LLM_API_KEY=
|
|
|
|
# Базовый URL API LLM (опционально). По умолчанию https://api.openai.com
|
|
# Примеры: Ollama — http://localhost:11434/v1, Azure — https://YOUR_RESOURCE.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT
|
|
LLM_API_BASE_URL=
|
|
|
|
# Имя модели LLM (опционально). Для OpenAI: gpt-4o-mini. Для Ollama: qwen2.5:7b, qwen3:7b
|
|
LLM_MODEL=
|