feat(backend): настраиваемая LLM для конвертации PDF в JSON
- Добавлена переменная LLM_MODEL в конфиг - Увеличен max_tokens до 32768 для крупных выписок - Включен response_format: json_object - Добавлен скрипт test:llm для проверки подключения к LLM-серверу
This commit is contained in:
@@ -18,3 +18,6 @@ LLM_API_KEY=
|
||||
# Базовый URL API LLM (опционально). По умолчанию https://api.openai.com
|
||||
# Примеры: Ollama — http://localhost:11434/v1, Azure — https://YOUR_RESOURCE.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT
|
||||
LLM_API_BASE_URL=
|
||||
|
||||
# Имя модели LLM (опционально). Для OpenAI: gpt-4o-mini. Для Ollama: qwen2.5:7b, qwen3:7b
|
||||
LLM_MODEL=
|
||||
|
||||
Reference in New Issue
Block a user