Задать вопрос
@holllop

Что прочитать или как разобраться(грубо говоря с чего начать)?

Я хочу найти литературу или другие источники, чтобы я мог ответить на вопросы:
1) Как нейросети ищут взаимосвязь между словами (и ищут ли вообще)?
2) Как большие языковые модели дают слову числовое значение, чтобы это был параметр (я не уверен в вопросе, я знаю, что большие языковые модели превращают любой текст в набор параметров, для обычных языковых моделей их, по-моему, получается 300. Я вот хочу понять, на основе чего или за счёт чего нейросеть превращает текст в набор параметров).
  • Вопрос задан
  • 139 просмотров
Подписаться 1 Простой Комментировать
Решения вопроса 1
Maksim_64
@Maksim_64
Data Analyst
Ищи все что связанно с transformers (архитектура deep learning).

Взаимосвязь между словами это их тема и именно она позволила создать LLM, это именно, тогда был прорыв.

Связь между словами именуется контекст. До трансформеров было например так это дополнительно зависит от архитектурного решения, что считать токеном: слово, предложение и т.д. То есть например 'Мама мыла раму', 'Мне нужно новую раму на велосипед', или что-нибудь из подвортни 'Керя ты в раму въехал'. слово 'раму' будет иметь один и тот же эмбеддинг. Так было раньше.

Трансформеры это революция они процессируют токен паралельно, и на каждом своем слое потенциально возможно обновления эмбединга слова 'раму', как и других слов. Тем самым они начали понимать контекст, иными словами эмбеддинги базируется на контексте, а не на слове.

В общем это ответ на оба вопроса. Гугли читай статьи изучай и пробуй transformers.
Ответ написан
Пригласить эксперта
Ответы на вопрос 1
olivier107000
@olivier107000
Pro Resercher
Вам нужно смотреть статьи и материалы примерно с 2016 по 2021 года. Увы, но после "бума нейросетей" информационный фон полностью и безвозвратно засорил весь интеренет, и поиск толковой информации нужно проводить не в поисковиках, а в профильных лентах, а в тч архивных, авторов-инженеров.

Напрмер по вашем вопросу можно откопать отличную и подходящую статью у Deep Mind (одни из первых исследователей трансформеров) https://research.google/blog/transformer-a-novel-n... думаю, что это как раз то, что вы искали.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы