они не понимают, что пишут в целом, а просто добавляют одно слово за другим
не все так просто
llm каждый раз генерируя очередной токен, выбирает его соответственно внутреннему состоянию всей нейронной сети, которое с некоторой натяжкой и можно считать пониманием.
Предлагаю эксперимент, берешь ответ LLM (вместе с вопросом) обрезаешь его на любом месте, добавляешь одно любое свое слово в конец и подсовываешь полученный бутерброд в качестве входа нейросети заново (рекомендую использовать сырые сети а не проекты, добавляющие к пользовательскому промпту еще свои) и наблюдаешь, как нейросеть изворачивается, пытаясь (и это получается) ответить на исходный вопрос с учетом твоего токсичного вмешательства. Так как природа генерации llm случайна, эксперимент нужно проводить многократно чтобы можно было увидеть закономерности.
у LLM внутри есть 'понимание', но оно однозначно не человеческое, его нельзя просто сравнивать с нашим и в нем очень многое зависит от промпта и тюнинга весов входящих токенов (токены на вход нейросети подменяются векторами значений, их можно тюнить точно так же как тюнятся все веса сети, есть алгоритмы улучшающие работу сети, меняющие это, смотреть peft) и самое главное, любые совпадения в поведении ИИ с человеческим - не случайны, мы модель так определили - чтобы она пыталась найти закономерности в нашем поведении через наши тексты.
с гигабитом провайдеру проще работать уже с оптоволокном (это дороже в капитальных расходах но значительно дешевле в операционных), поэтому при смене тарифа тебе придется либо самому либо, скорее всего, брать в аренду у оператора, обновлять приемное оборудование.
что именно у тебя будет в квартире это лично твое дело, провайдер занимается только точкой подключения (розетка в квартире или роутер)
нужно будет очень аккуратно подходить к тому, что именно изучать.
нет никакого смысла изучать подноготную фреймворков и библиотек, но базовое понимание как это в принципе работает должно быть, так как именно тут кроется основа ИБ.
я бы не акцентировал свое внимание только на бакэнде, ведь проблемы могут возникать на любом участке, и в БД, и при администрировании, и на стороне клиента.
p.s. аналитика еще найдите, который сверху на всю конструкцию будет смотреть и планировать... или этим вы и собираетесь заниматься?
переместить средствами интерфейса нельзя, но можно закрыть стим, вручную перенести в новое место (смотри по названию каталогов steamapp в заранее созданном хранилище) и заново установить игру в это место, вместо загрузки файлы игры будут просканированы.
таким образом можно брать установленную игру у другого человека/аккаунта (там часть файлов будет отличаться)
p.s. есть еще какой то механизм создания и восстановления из резервной копии, но это потребует дополнительное место для этой копии
еще есть prompt программирование, вполне новое направление, через которое контролируется современный ИИ на основе больших языковых моделей (особенно когда речь идет о современных не совершенных, где не каждая формулировка даст отличный результат, а размер контекста ограничен).
Упомянуть его нужно, тем более когда классификация такая 'широкая'
тогда уж rustdesk, мне понравилось как это работает в локальной сети с графикой, правда код содержит сбор различной информации, чтобы понять какой нужно изучать.
ага, тебе нужно выявить, какая часть из всех обсуждений относится к какой сущности (то может сделать LLM на основе GPT), таким образом чтобы получить данные - время, сущность (и его значение), эмоциональная оценка (классификатор и/или число)
дальше тебе нужно искать кореляцию между сущностью (или его значением) и эмоциональной оценкой... численные методы требуют чтобы таких данных было значимо много (не единицы фактов)
При остальных прочих равных условиях, подход, когда backend работает на основе постоянно работающего приложения, исполняющего функции веб сервера работает быстрее чем подход, когда на каждый запрос запускается новый экземпляр приложения, хотя бы потому что для второго подхода требуется постоянно восстанавливать контекст приложения, загружая откуда-то оперативную память и после выполнения сохраняя ее обратно (я уже сказал для этого использовали memcache и sql сервер). Причем благодаря этому подходу ускорение может быть очень значимым, это меняет подход к разработке и разработчик может не совершать ряда ошибок, которые во втором случае естественны (в простых случаях без дополнительных оптимизаций можно увидеть тысячекратный прирост), само собой криворукий программист сможет написать медленное приложение при любых инструментах.
phpreact это просто библиотека, предоставляющая удобный способ реализации этого веб сервера с поддержкой асинхронных вызовов (а значит не требуется мультипоточность, что сильно упрощает программирование)
Главный недостаток backend как непрерывно работающий веб сервер - это сложность масштабирования, он предполагает что сервер работает не просто на одном физическом сервере но и даже в одном процессе, когда как подход - на каждый запрос выполняется короткоживущий процесс позволяет 'из коробки' создавать распределенные приложения сразу на любом количестве ядер и серверов.
Игнат Соколов, математика в ИИ нужна совсем чуть чуть
Подавляющее большинство времени ты будешь изучать не как это работает с точки зрения реализации, а с точки зрения в каких случаях это нужно применять, и иметь представление о том что лучше (дороже в плане ресурсов например, от чего это зависит), ну и само собой какие существуют методы.
Очень маленький процент задач связан с созданием чего то кардинально нового, и этим скорее всего будут заниматься те кто уже набрал огромный опыт и знания о том что есть.
Еще момент, первое что любой должен уметь делать - это искать и усваивать новые/недостающие знания. Если каких то знаний тебе не хватает - в этот момент ты их и начинай учить, а заранее этого делать не нужно.
llm каждый раз генерируя очередной токен, выбирает его соответственно внутреннему состоянию всей нейронной сети, которое с некоторой натяжкой и можно считать пониманием.
Предлагаю эксперимент, берешь ответ LLM (вместе с вопросом) обрезаешь его на любом месте, добавляешь одно любое свое слово в конец и подсовываешь полученный бутерброд в качестве входа нейросети заново (рекомендую использовать сырые сети а не проекты, добавляющие к пользовательскому промпту еще свои) и наблюдаешь, как нейросеть изворачивается, пытаясь (и это получается) ответить на исходный вопрос с учетом твоего токсичного вмешательства. Так как природа генерации llm случайна, эксперимент нужно проводить многократно чтобы можно было увидеть закономерности.
у LLM внутри есть 'понимание', но оно однозначно не человеческое, его нельзя просто сравнивать с нашим и в нем очень многое зависит от промпта и тюнинга весов входящих токенов (токены на вход нейросети подменяются векторами значений, их можно тюнить точно так же как тюнятся все веса сети, есть алгоритмы улучшающие работу сети, меняющие это, смотреть peft) и самое главное, любые совпадения в поведении ИИ с человеческим - не случайны, мы модель так определили - чтобы она пыталась найти закономерности в нашем поведении через наши тексты.