LLM осуществляет поиск информации в интернетеникаким боком тут этого нет, поверх llm есть несколько продуктов, которые с помощью RAG докидывают в контекстное окно потенциально полезную информацию (типа макрософтовский bing copilot в chatgpt и как самостоятельный продукт, или боты coze, плюс совсем отстойные реализации у других, типа сберовского гигачата) и все это делают очень отвратительно, скорее всего из-за экономии денег (качественная реализация получится дорогой)
Для открытия файлов .pdf я использую браузер Chromeу меня только один вопрос - зачем!?
сервисы, которые сканируют загруженные на сайт изображения и выдают URL сайтов, где есть эти изображения
пытаюсь подключить с помощью кабеля DVI-D(к монитору) - DisplayPort(к видеокарте)кабель такой должен быть не пассивным, т.е. там какая то плата, возможно в нем косяк.
Так вот для llm-ок переобученность в локальном смысле (в пределах какого то одного 'признака'/'знания') модели может оказаться проще запомнить факт а не 'понять' его (т.е. не сможет сформулировать для себя применимость этого знания), и скорее всего это даже чаще всего и происходит, когда то это идет на пользу (когда нейронка умудряется цитаты из вики выдавать, особенно это полезно при паттерне запросов think step by step, тогда вываливаемые справочные данные работают как встроенный RAG, улучшая результат) но чаще просто занимает веса и отнимает ресурсы при обучении.
Такое запоминание можно наверное считать записью в базе данных, но с очень очень большими оговорками, больше как аналогия.