Задать вопрос
@seepeeyou

Имеют ли нейросети или надстройки над ними возможность анализа «полноты» вопроса?

Имеется ли у нейросетей "способность" к распознаванию отсутствия данных в вопросе? Если да, то что за это отвечает? Это эмерджентная способность? Или это встроенная функция программирующей логики нейросети? Или же это качество, которое прививается на этапе дообучения?

Например вопрос "сколько будет два плюс?" не является завершенным по своей информационной сути, хотя синтаксически ничего на это не указывает. Или вопрос "сколько на планете разговаривают на языке?". Разумному человеку понятно, что в вопросе отсутствуют и субъект (людей), и уточнение объекта (английском языке), которое придает собственно смысл вопросу.

А запросит ли эти данные нейросеть? Попросит уточнить? Или она безотносительно информационной полноты входящего сообщения будет пытаться "напредиктить" на [заданный ввод] [определенный весами внутри модели вывод]? Оставляется ли корректность вопроса на совести пользователя создателем нейросети? По аналогии с уровнями сетевой архитектуры например, где каждый слой интересуется только форматом своих входных и выходных данных, а что там на других уровнях - забота этих уровней, ибо мой алгоритм отработан.
  • Вопрос задан
  • 45 просмотров
Подписаться 1 Средний Комментировать
Помогут разобраться в теме Все курсы
  • Яндекс Практикум
    Специалист по Data Science плюс
    17 месяцев
    Далее
  • Нетология
    Бизнес-аналитик
    7 месяцев
    Далее
  • Нетология
    Data Scientist: расширенный курс
    13 месяцев
    Далее
Пригласить эксперта
Ответы на вопрос 2
@SWA512
Gamedev
Теоретически агент собранный перед вопросом для его обработки, может "понять" что вопрос неполный и "достроить" его до правильного вида и передать дальше в цепочке чтобы сеть работала с уже полноценным вопросом.

Попробовал сейчас вопрос про "языки", ChatGPT 5 и локальная модель Gemma 3 27B, отлично видят что вопрос не полный и достраивают его до полного состояния в ответе. Скорей всего агент сможет переварить подобный вопрос, или ответить что совсем все плохо.
Ответ написан
Комментировать
@rPman
ИИ на базе GPT это абстрактно всемогущий, но из-за того что все скомкано в одном месте может тупить. Для фиксации модели в нужном направлении, нужно правильно сформулировать системный промпт и собрать в вопросе максимально вводной информации (тут как никогда важен принцип - что бы правильно задать вопрос, нужно знать половину ответа).

Т.е. если правильно (с точки зрения модели!) описать задачу анализа недостаточности информации вопроса (а так же допущенных ошибок и пропущенных слов) то задача может быть решена. Собственно агентом в ИИ называют системный вопрос (или несколько) и логика (код) беседы с моделью и извлечения из ее ответа нужной информации.
p.s. можно саму модель попросить продумать этот системный промпт, приведя ряд примеров, современные модели натаскивают в том числе и на составление промптов.
p.p.s. так же в конечный вопрос можно добавить примеры, сами примеры так же можно попросить придумать модель.
Т.е. получается сначала заданный вопрос обрабатывает серия агентов, подготавливают системный промпт, генерируют примеры, проверяют что напридумали на предмет галлюцинаций, затем все это компонуется в итоговый вопрос, ответ так же анализируется отдельным агентом и уже после выдается пользователю.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы