В Chat-GPT такого нет, там полностью законченный по смыслу и по факту (последнее предложение завершенное и заканчивается точкой). Но при работе по АПИ в результате completions постоянно получаю не законченные фразы в конце.
Увеличивал max_tokens - бесполезно.
Пробовал в prompt указывать чтобы ответ был логически завершён, работает через раз.
Какие параметры можно добавить?
Hemul GM, извините, похож ваш интерфейс на Chat-GPT.
Можете привести примеры параметров в запросах?
Я просто начинал работать с OpenAI больше года назад, потом долго не трогал. Сейчас смотрю неск. новых параметров добавилось, может они влияют?
Volgarastraport, по ссылке видно, что я там обычные параметры передаю.
Prompt (текст, с историей, чтоб контекст учитывался)
MaxTokens - 1024
Temperature - 0.5
User (для разделения чатов)
Т.е. ничего специфического.
Приведи пример запроса и ответа. Желательно и то и другое сырыми джсонами
Volgarastraport, возьми вопрос из моего скрина. Сделай запрос и покажи текст всего запроса и ответа в json. Я хочу увидеть что ответит. Ну и токены увелич до 1024
Volgarastraport, предел токенов у этой модели - 4096. Это количество включает и твой текст, который ты передал. Т.е. ты должен передать максимум столько текста, чтоб результирующий текст не превысил 4096.
Например, если ты передал макстокенс 1024, то длина твоего текста запроса не должна превышать 4096 - 1024. Т.е. максимальная длина промпт должна быть не больше 3072.
Я понял. Ну можно как-то задать в параметрах, чтобы ответ был в пределах max_tokens, но завершался корректно, а не обрывался на полуслове? Просто у меня большие объёмы генерации и важно из бюджета не вываливаться.
Volgarastraport, я сам у себя регулирую. В противном случае ошибка. Параметров подобных не видел. Хотя обертку лично делал. И совсем недавно. И реализовал все актуальные параметры и методы
hhhabr, предлагаю тебе воспользоваться Postman'ом. Там составить запрос и можно даже получить код запроса на php. И модель лучше использовать "gpt3.5-turbo"