weranda
@weranda

Какие нейросети имеют доступ к страницам сайте в интернете?

Приветствую.
Попытался несколькими доступными нейросетями получить доступ к страницам сайтам — почти никто не может этого (из того, что мне удалось попробовать). Хотел скормить нейросети несколько страниц сайтов по ссылке для анализа — тщетно. Можно было бы скачать код этих страниц и скормить их сети, но этот код буквально не влезет им на вход из-за большого количества символов.
Мысль такая: дать нейросети n-страниц на вход, попросить проанализировать и выдать объективные данные. К примеру, выделить контент со всех страниц и скомпоновать в один; выделить какие-то основные части; рассказать, где лучше, хуже и т. п.
Что посоветуете?

P.S.
Попробовал Copilot — такой бред выдает. Наверное, еще рано к ним за таким обращаться?!
  • Вопрос задан
  • 73 просмотра
Пригласить эксперта
Ответы на вопрос 1
@rPman
Ни одна нейросеть на базе gpt не умеет напрямую работать со страницами в интернете.

Нужна прослойка, которая, во первых, преобразует страницу в текст (это не так просто как кажется, нужно выделить на странице контент, точнее его группы (информационные блоки), понять где реклама, где навигация а где дизайнерский мусор, отличный пример - страница ozon, 90% экрана абсолютно бесполезный мусор, рекомендации (далекие от того что нужно покупателю), проплаченные карточки и т.п. найти среди этого хлама нужную информацию не просто. Плюс все это формируется в процессе, двигая элементы интерфейса туда сюда... работать с этим адом очень и очень не просто, особенно когда разработчики старательно сопротивляются любой автоматизации.

Мультимодальные сети (кстати, нормальных не существует, даже от openai слабовата, но она лучшая из универсальных) по уму должны уметь работать с веб-страницей как изображение, советую опробовать это самостоятельно на своих задачах, но не уверен что из этого можно получить что то стоящее. Такие сети могут получать изображения в качестве входа, а дальше позволяют вести текстовую беседу, учитывая их как часть контекста.

И главная проблема - ограничения на размер контекста. Большие объемы текста тупо не помещаются 4к..8к токенов это тот объем, в пределах которого сети работают хорошо, но чем больше размер контекста (даже если заявлены 16к или 32к) начинаются борьба компромисов, качества и стоимости. Может так получиться что вместо работы со всей информацией сразу, ее делят на части (еще одна проблема по анализу исходной страницы), а затем, набирая вопросы из текущего контекста (та еще задачка) задают их последовательно для каждой, собирая ответы в итоговый контекст и ее уже используют для дальнейшей беседы. Плюс есть еще алгоритмы саморизации. Плюс еще неплохо сюда multishot пристроить, с примерами.

На каждом этапе, возможно понадобится дообучать свои сети, а это значит собирать обучающую выборку с примерами, RLHF-ить на основе пользовательского опыта... и поддерживать это во времени, так как то что работает сегодня, завтра уже будет устаревшим.

В общем реализуете что то стоящее первыми, может даже озолотитесь, продавая готовое решение бизнесу.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Войти через центр авторизации
Похожие вопросы