Задать вопрос
@Badimagination

Можно ли получить сразу полный список чего-либо от LLM по определённому критерию?

Если можно, за 1 промпт. Или посоветуйте модель, которая так умеет. Желательно локальную. Просто обычно модели останавливаются на некотором не полном списке. Пример на Quen3 coder 30b: List as many nouns English words as you can that begin with the letter 'V', separated by commas.
Ответ: выдаёт 109 слов или фраз,
А сайт (ванлук в предпринимательском домене, если ссылка съелась):

выдаёт 505.
  • Вопрос задан
  • 65 просмотров
Подписаться 1 Простой Комментировать
Помогут разобраться в теме Все курсы
  • Нетология
    Инженерия машинного обучения
    2 года
    Далее
  • Skillbox
    Профессия Machine Learning Engineer
    12 месяцев
    Далее
  • Яндекс Практикум
    Инженер машинного обучения
    4 месяца
    Далее
Пригласить эксперта
Ответы на вопрос 1
@rPman
за 1 промпт нет, так как это специфика обучающей выборки. Вообще такие запросы ИИ совершенно не должен уметь обрабатывать. Это не слепок интернета, что бы с ним сравнивать.

Но можно повысить температуру (экспериментально) и сделать 100500 запросов (можно одинаковых, можно слегка менять, вплоть до удвоения пробелов в случайных местах), после чего собрать полученные ответы и убрать дубликаты (отдельным запросом)

p.s. то что вам модель что то ответила, не значит что она сделала это правильно

p.p.s. современные openai модели, даже по api, перед ответом копаются в интернете, и собирают ответ от туда.

upd. помним, что llm решает задачу 'странным способом', мы ей даем начало фразы, а модель ее пытается продолжить, добавляя один символ. Этим можно и воспользоваться, делаем скрипт, который перебирает все комбинации символов, начиная с длины один, добавляя эту комбинацию к промпту, и ждет от модели продолжение (ограничить несколькими символами, макс длина слова), промпт составить таким образом что бы модель либо ругнулась - нет такого слова, либо дописала слово. Если слово дописывает, то мы запускаем перебор всех символов с нашим текущим преффиксом (рекурсивно) и отправляем модели на проверку уже эти дополненные. Если слово модель дописать не может, мы делаем еще несколько попыток с разным seed (есть разные ухищрения что бы не увеличивать температуру) и если все они дают none то не продолжаем с этим преффиксом.
Таким образом мы перебираем все комбинации букв, пропуская сразу заведомо неправильные. Можно дополнительно делать запрос с каждым найденным словом, на проверку соответствия нашему условию, пусть дает объяснение что это за слово (можно хитро составить промпт, заставить модель сомневаться в том что слово настоящее, оно тогда меньше галлюцинирует) таким образом прогнав 100500 слов через модель можно вытащить ее внутренний словарь и даже знания по каждому.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы