@forthuse

Как сделать, чтобы AI меньше фантазировал в своих ответах?

Пользуюсь сеткой https://poe.com/Sage
так бывает достаёт, что на известные факты и информацию представленную,
к примеру, и Википедии выдача нейронок неправильная Ещё постоянно выдаёт нерелевантные ссылки.

P.S. https://phind.com выдаёт более релевантные результаты.
  • Вопрос задан
  • 169 просмотров
Пригласить эксперта
Ответы на вопрос 1
@rPman
Известные большие языковые модели не обучались (я не слышал чтобы кто то это делал) с учетом достоверности результата. Т.е. единственное что они умеют делать - это притворяться человеком, писать правильные тексты, как если бы их писал человек. Потому что во время обучения, единственным критерием правильности был текст из обучающего примера. А туда попадает все что угодно. Странно то, что они стали проявлять дополнительные свойства, очень похожие на интеллект...

А еще для генерации текста алгоритмы обычно используют вероятностную модель (есть разные алгоритмы, ищи параметры типа температура top_k, или еще вот алгоритм - mirostat. Весь смысл в том что если поставить температуру 0 то сеть будет выбирать наилучший следующий токен, а иначе по какому то алгоритму сможет перескакивать на альтернативы

Чтобы компьютер вместе с текстом тебе выдавал ссылки и вообще какие то корректные данные, необходимо чтобы кто то заранее тебе проиндексировал (классическая база данных) интернет, а вот поиск по этой базе завернул бы через ИИ, чтобы поиск по ней производился не поиском по тексту а по смыслу. Чтобы что то скачать себе на комп и поиграть я такого не видел, на гитхабе есть проекты на основе как chatgpt так и llama, но как я понимаю все это на зачаточном уровне.

p.s. посмотри perplexity.ai
а еще посмотри майкрософтовского чат бота (работает только не из россии, только в браузере edge)
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
22 нояб. 2024, в 03:54
1500 руб./за проект
22 нояб. 2024, в 02:56
10000 руб./за проект
22 нояб. 2024, в 00:55
500 руб./за проект