@yMad

Какие могут быть возможные причины изменения ответа LLM на один и тот же запрос?

К примеру, имеется LLM в виде двух чат-ботов от тех же Google и OpenAI. Они естественно уже обучены и выпущены для использования конечным потребителем, т.е. в данный момент с этими чат-ботами общаются сотни тысяч пользователей.
1. Так же имеется некий запрос, каждый раз он абсолютно одинаков, и каждый раз он вводиться в новом, чистом чате, что б исключить влияние контекста. В результате на этот запрос чат-бот выдает некий ответ, раз от раза, т.е. с каждым повтором запроса, в этом ответе меняются слова и их порядок, число вариаций ответа небольшое, но общий смысл ответа не меняется.
Интересуют возможные причины, такого перефразирования ответа от LLM?
2. Допустим что запрос не меняется, и условия ввода запроса тоже остаются без изменений, это новый чат каждый раз для одного и того же запроса. При этом LLM теперь дает абсолютно новый !!ПО СМЫСЛУ!! ответ, нежели ранее.
Возможны ли какие то иные причины такого СМЫСЛОВОГО изменения ответа, нежели в какой то момент проведенное вышеупомянутыми IT гигантами дообучение LLM?
  • Вопрос задан
  • 172 просмотра
Пригласить эксперта
Ответы на вопрос 4
@rPman
Это основа работы алгоритма llm gpt.
При выборе следующего токена ответа, алгоритм выбирает не тот что с большей вероятностью , это параметр temp=0 (это стабилизирует ответы но значительно ухудшает из качество) а с некоторым разбросом, чем выше temp тем больше разброс выбора и 'креативность' ответа, чаще это вода в тексте, так как с ней проще разнообразить.

На сколько я помню если нужно и temp выше 0,и стабильность, то фиксируй seed генератора случайных чисел...
Ответ написан
Rsa97
@Rsa97
Для правильного вопроса надо знать половину ответа
Причина в самом принципе работы LLM - он ничего не знает, ни о чём не думает, а только циклически подбирает слово, вероятно продолжающее предыдущий контекст. При этом берётся не всегда одно и то же продолжение, а одно из наиболее вероятных.
В каком-то из вариантов добавленное слово может изменить контекст настолько, что дальнейшее продолжение будет ложью - LLM галюцинирует.
Ответ написан
Комментировать
Maksim_64
@Maksim_64
Data Analyst
Дообучение - не происходит. Кроме новых релизов. Никакого лайф дообучения не существует.

LLM - должен имитировать интеллект, по этому он перефразирует один и тот же по смыслу ответ.

В тех случаях, когда LLM дает по смыслу другой ответ , то она это может делать по ряду причин:
1. Ранг источника на котором она формирует ответ, изменился понизился

2. Она может хранить историю этот пользователь уже задавал этот вопрос и потом задает его снова и снова, "значит ответ не устраивает".

3. LLM может получать лайф оценки на свои ответы, у каждого разработчика есть команды людей которые выставляют оценки ответам LLM, и она может получить низкую оценку и начать искать другой ответ, но это не имеет ничего общего с дообучением.

Дообучение - это очень дорого.
Ответ написан
riky
@riky
Laravel
спросите его что такое температура (temperature) в контексте llm он вам объяснит :)
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы