feat(backend): настраиваемая LLM для конвертации PDF в JSON
- Добавлена переменная LLM_MODEL в конфиг - Увеличен max_tokens до 32768 для крупных выписок - Включен response_format: json_object - Добавлен скрипт test:llm для проверки подключения к LLM-серверу
This commit is contained in:
@@ -105,12 +105,14 @@ export async function convertPdfToStatement(
|
||||
|
||||
try {
|
||||
const completion = await openai.chat.completions.create({
|
||||
model: 'gpt-4o-mini',
|
||||
model: config.llmModel,
|
||||
messages: [
|
||||
{ role: 'system', content: PDF2JSON_PROMPT },
|
||||
{ role: 'user', content: `Текст выписки:\n\n${text}` },
|
||||
],
|
||||
temperature: 0,
|
||||
max_tokens: 32768,
|
||||
response_format: { type: 'json_object' },
|
||||
});
|
||||
|
||||
const content = completion.choices[0]?.message?.content?.trim();
|
||||
|
||||
Reference in New Issue
Block a user