Столкнулся с проблемой.
При запросе к api open ai (модель gpt-4. 1-mini/nano) v1/response получаю ошибку при увеличиние отправляемых данных (условно при 200 000 входных токенов ответ получаю, при увеличении до 300 000 получаю ошибку сервера 500). При этом тестируя через n8n с отправкой на /v1 никаких ошибок нет и ответ приходит.
Это какая то проблема связанныя именно с response?
Контекст модели насколько я знаю 1млн токенов
Мой тир разрешает мне отправлять до 2млн токенов в минуту, так что ошибка не в этом, да и /v1 отвечает даже с 500 000 токенами на входе.
Ошибка не одного дня, а постоянная (подождать не решает)
Может кто то тоже сталкивался, неужели решение только переключение на чаты?