Steel_Balls, он дополнил твой ответ точкой. Именно так и работает gpt. Задай вопрос корректно, чтоб требовалось продолжение диалога.
Gpt - не нейросеть для пояснений или ответов на вопрос, это нейросеть просто дописывает (завершает) то, что ей было прислано. Т.е. на промпт "мал золотник, да", она ответит "дорог"
hhhabr, предлагаю тебе воспользоваться Postman'ом. Там составить запрос и можно даже получить код запроса на php. И модель лучше использовать "gpt3.5-turbo"
Чтоб применять что-то "на автомате", это нужно сначала изучить, долго применять, а потом забыть точное описание.
А ещё, есть ощущение, что автор хочет прикрыть использование чатачпт, якобы "делаю на автомате".
Потому что даже если ты делаешь что-то на автомате, ты легко можешь объяснить что именно ты делаешь. Да, может не "научными" терминами, но человек способен анализировать свои действия и описывать их. Если это он сам делает, а не бот
bituke, локации тоже нужно обернуть в классы. Если локация подразумевает конкретный сценарий, то его там и описать.
Регистрировать классы локаций. В рабочих алгоритмах не должно быть вообще строк
rPman, и что? Я знаю API OpenAI, знаю, какие модели они предоставляют. И нет, лучшим способом для улучшения ответа является настройка модели, в OpenAI это делается через FineTune, что порождает новую, твою личную модель.
Другой момент, это то, что вы говорите о разном. Вы пытаетесь сказать, что LLaMA не хуже GPT, и в то же время говорите о том, что чат гпт отправляет не напрямую в модель, а добавляя предыдущие ответы и вопросы. Что является контекстом для последующего разговора в рамках конкретного чата. Я сам делал чат на основе gpt-3.5-turbo, я знаю о чем говорю.
Основные отличия GPT от LlaMA - кол-во входных данных (в Ламе их просто на порядок меньше) и масштабы обучения. LLaMA проигрывает тут просто колоссально
Gpt - не нейросеть для пояснений или ответов на вопрос, это нейросеть просто дописывает (завершает) то, что ей было прислано. Т.е. на промпт "мал золотник, да", она ответит "дорог"