feat(backend): настраиваемая LLM для конвертации PDF в JSON

- Добавлена переменная LLM_MODEL в конфиг
- Увеличен max_tokens до 32768 для крупных выписок
- Включен response_format: json_object
- Добавлен скрипт test:llm для проверки подключения к LLM-серверу
This commit is contained in:
vakabunga
2026-03-13 23:12:52 +03:00
parent 0638885812
commit b598216d24
6 changed files with 52 additions and 11 deletions

View File

@@ -18,3 +18,6 @@ LLM_API_KEY=
# Базовый URL API LLM (опционально). По умолчанию https://api.openai.com
# Примеры: Ollama — http://localhost:11434/v1, Azure — https://YOUR_RESOURCE.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT
LLM_API_BASE_URL=
# Имя модели LLM (опционально). Для OpenAI: gpt-4o-mini. Для Ollama: qwen2.5:7b, qwen3:7b
LLM_MODEL=