Задать вопрос
  • Как сделать, чтобы AI меньше фантазировал в своих ответах?

    @rPman
    А что жаловаться, на обучение больших моделей требуются миллионы баксов, и это требования снизу.
    нужны размеченные данные (если хочешь качественную модель - это самое дорогое), нужны специалисты, нужны эксперименты (т.е. полное обучение на дорогущем железе с затратами мегаватт энергии и амортизации)

    Мелкие и слабые модели, доступные сообществу, на которых тренируются новички - это лакмусовая бумажка для крупных компаний, которые таким образом специалистов ищут/выращивают.

    p.s. повторяю, языковая модель это не база данных по выдаче ответов, а заучивание нейронками данных обычно - плохой маркер переобученности.
  • Защита ajax от имитации?

    @rPman
    Как отличать людей, которые зашли на сайт?
    добавлю что если нагуглится фингерпринтинг, то он не подойдет, тот кто сумел реверсить сайт, сумеет и обойти его.

    качественный фингерпринтинг, достаточный для аутентификации могут делать крупные баннерные сети (у которых свой аналитический 'пиксел' на большом количестве сайтов) или такие компании как гугл/яндекс
  • Как сделать чтобы меняя код js в браузере, он сохранялся в файловой системе?

    @rPman
    Они и не должны записываться, это исключительно для локальных тестов.

    но на вопрос подписался, мало ли у браузеров добавили фичу, помню у оперы что то такое было
  • Есть ли переводчик нейросеть, которую можно установить к себе на компьютер?

    @rPman
    Капитан Пронин, единственная попытка, но весь облом LLM-ок в том что их десять раз спросишь они дадут десять разных ответов! да, можно поставить температуру 0 и будет стабильнее но самый первый токен все равно практически случаен (чуть поменяй промпт и уже другой), в этом одновременно беда и гибкость LLM-ок

    Вот сделал по три запроса в разные сетки от open assistent и оригинальная llama:
    oasst-llama30b-q4.ggml temp=0
    Большой языковой модель (LLM) - это языковая модель, состоящая из нейронной сети с многими параметрами (обычно миллиарды весов или больше), обученная на больших объемах неотмеченного текста с помощью самостоятельной учебы. LLM появились около 2018 года и показывают хорошие результаты на широком спектре задач. Это сменило фокус исследований в области обработки естественного языка с предыдущего подхода обучения специальных надёжных моделей для конкретных задач.
    
    oasst-llama30b-q4.ggml temp=default 0.8
    Большой языковой модель (LLM) является языковой моделью, состоящей из нейронной сети с большим количеством параметров (обычно миллиарды или более весов), обученной на больших объемах неотмеченного текста с помощью самостоятельной учёбы. LLMs появились около 2018 и хорошо выполняют широкий спектр задач. Это сменило фокус исследований в области языковых технологий от предыдущего подхода обучения специальных надёжных моделей для конкретных задач.
    Большой языковой модель (LLM) - это языковая модель, состоящая из нейронной сети с многими параметрами (обычно миллиарды весов), обученная на больших объемах текста без labels с помощью самообучения. LLMs появились около 2018 года и показывают высокую эффективность при выполнении широкого спектра задач. Это сместило акцент исследований в области обработки естественного языка от предыдущего подхода обучения специальных надёжных моделей для конкретных задач.
    Большой языковой модель (LLM) это языковая модель состоящая из нейронной сети с многочисленными параметрами (обычно миллиарды весов или больше), обученная на больших объемах неупорядоченного текста используя самонастройку. ЛLM появились около 2018 года и хорошо выполняют широкий спектр задач. Это сдвинуло фокус исследований в области языкового обучения от предыдущего подхода обучения специальных моделей для конкретных задач.
    
    ggml-model-q4_0.bin temp=0
    Обширная языковая модель (LLM) - это языковая модель, состоящая из нейронной сети с большим количеством параметров (обычно миллиарды весов или больше), обученная на больших количествах немаркированного текста с помощью самообучающегося обучения. LLM появились примерно в 2018 году и хорошо работают на широком спектре задач. Это изменило фокус исследований в области обработки естественного языка от предыдущего парадигмы обучения специальных супервизорных моделей для конкретных задач.
    ggml-model-q4_0.bin temp=default 0.8
    Является модель языка большого размера (LLM) - это модель языка, состоящая из нейронной сети с многочисленными параметрами (обычно миллиардами весов или более), обученных на больших количествах немаркированного текста с помощью самонаполняющегося обучения. LLM появились примерно в 2018 году и хорошо работают во многих задачах. Это изменило фокус исследований в области обработки естественного языка, отклонившись от прежнего подхода к специальной обученной модели для каждого конкретного задача.
    Большая языковая модель (LLM) — это модель языка, состоящая из нейросети с большим количеством параметров (вместе типичное число весов составляет миллиарды или более), обученная на больших объёмах непомеченного текста с помощью методов самообучения. LLM появились около 2018 года и хорошо работают в широком спектре задач. Это изменило прежнюю парадигму исследований в области обработки естественного языка, которая заключалась в обучении специальных сверхназначенных моделей для конкретных задач.
    Обширная языковая модель (LLM) — это языковая модель, состоящая из нейронной сети с большим количеством параметров (обычно миллиарды весов или более), обученных на больших объемах непомеченного текста с помощью самонаводящегося обучения. LLM появились около 2018 года и показывают высокий уровень производительности при выполнении широкого круга задач. Это изменило акцент исследований в области обработки естественного языка от прежнего подхода тренировать специальные обученные модели для решения конкретных задач.

    смотрим внимательно, как меняется результат при повторных запросах, я чуть подправил код llama.cpp чтобы он цветами помечал токены, при выборе которых были еще варианты (цвет показывает их количество, на скрине есть для этого легенда)
    spoiler
    plrpuysed1ucuoudpwbxpongjnc.png

    отмеченные красным фоном места это моменты когда сетка вместо наилучшего варианта (как это для temp0 происходит) выбирает случайно из N почти лучших (хочу написать интерфейс показывающий для таких токенов их продолжение)

    Главная беда в понимании работы LLM-ок у народа в том что народ от них ждет верных ответов, когда как она старается выдавать ответы, похожие на человеческие (верные и не верные уже не важно, дальше вероятность работает). Это точно так же видно на сетках, генерирующих изображение, так как там алгоритм точно такой же.

    При этом где то там внутри модели, как я считаю, интеллект все же сформировался, странный, сложный, однозначно умнее человека, но цели у него далеки от наших ожиданий.
  • Есть ли переводчик нейросеть, которую можно установить к себе на компьютер?

    @rPman
    Капитан Пронин, рано делаешь выводы, нужно делать тесты

    Языковые модели в основе используют случайное число, меняющее вариант ответа, даже когда казалось бы ответ может быть только один.

    До некоторой степени этим можно управлять, например параметр temp (0 - меньше вариативности, 1 сильно больше), когда вместо наилучшего следующего слова (токена) берутся соседние по величине вероятности.
  • Есть ли в свободном доступе законный аналог ChatGPT?

    @rPman
    Откройте для себя huggingface.co - место для публичных моделей и датасетов, место для тюнинга и обучения, мне кажется площадка даже стандарты продвинула, библиотеки, форматы хранения весов и прочее прочее
  • Есть ли в свободном доступе законный аналог ChatGPT?

    @rPman
    Filipp42, самому попробовать (исследовательские нужды) можно и llama, да формально без бумажки ты не можешь (хотя какие проблемы, напиши им в форму запросную, может дадут) но пока ты не зарабатываешь бабло и не раздаешь другим услуги на основе модели, ты никого не интересуешь.
  • Какие подвохи Google Cloud?

    @rPman
    Еще есть люди, которые ведутся на акции, 100% скидки и прочую маркетинговую ерунду? (без них уже никуда, но понимать нужно правильно).

    В данном случае скорее всего тебе дали КРЕДИТ, ты его потратил, деньги возвращать можно через 90 дней

    Я не читал условия предоставления тебе этих 300$, советую тебе их сейчас прочитать
  • Какие подвохи Google Cloud?

    @rPman
    просит 'оплатить остаток', т.е. долг
  • Как за 3-4 месяца прокачаться мидлу работающему в продуктовой компании?

    @rPman
    технологии ради технологи плохая такая идея
    научишься терминологии, общим принципам но не будет понимания как это все работает.

    обычно такая однобокость чревата тем что когда что то идет не так, не будет понимания как же разруливать все это, как писать код чуть дальше копипаст из документации и прочее.

    обычно все это на практике познается, т.е. лучший способ научиться - 'собирать на себя шишки'.
  • Как получить точный размер блока до тысячных пикселя?

    @rPman
    GetQuestion, тогда речь не о визуализации!
    визуализация это то что ты видишь, ты никак не увидишь тысячную пиксела, если десятые пиксела еще можно полутонами изобразить, то меньше никак

    и еще раз повторю, float по техническим причинам не может гарантировать что значение помещенное в него из десятичного представления будет равно значению прочитанному, твоя задача изначально содержит этот изъян
  • Как получить точный размер блока до тысячных пикселя?

    @rPman
    в разных браузерах на разных машинах результат разный, у меня к примеру 81.64999389648438
    полагаю это результат многократного преобразования в/из внутренних координат в браузере (как только браузеры стали корректно поддерживать масштабирование ОС так полагаю это ввели)

    p.s. желание у тебя странное, объясни конечную цель, зачем тебе нужно точное значение float величины (что в принципе не возможно правда в данном случае погрешность все же велика)
  • Как установить qemu вместо virtual box для работы с docker toolbox на windows 10?

    @rPman
    jcmvbkbc, не надо тролить, я же специально добавил qemu/kvm так как второй уже прочно зашел в состав qemu, а вот она как раз позволяют эмулировать машину без аппаратной виртуализации.

    Еще помню был ключ что то типа --no-kvm или --disable-kvm что при использовании бинарника kvm выглядело смешно

    p.s.
    # ls -l /usr/bin/kvm
    lrwxrwxrwx 1 root root 18 мар  7 03:00 /usr/bin/kvm -> qemu-system-x86_64
  • Как установить qemu вместо virtual box для работы с docker toolbox на windows 10?

    @rPman
    Drno, о как, не знал
    Дико странно, ведь аппаратные фишки там не используются
  • Как сделать зеркало сайта rutracker через nginx?

    @rPman
    изучи механизмы переадресации, скриптом к примеру или они по referer это определяют, и подменяй на прокси соответственно javascript код или referer
  • MySQL + PHP :: Хранение паролей клиентов в базе данных с целью их извлечения, как защить?

    @rPman
    плохая для тех, чьи пароли хранятся само собой
    для яндекса получать деньги и ни за что не отвечать наоборот, самое хорошее.
  • Прокси TOR как обычный браузер?

    @rPman
    нужно со своими

    зачем тебе тогда tor? в твоей схеме он может помочь только пробиться через локальные ограничения провайдера (или провайдера, где находятся 'твои ip')

    еще момент, ip адрес это один из огромного количества источников 'отпечатков браузера'. окружение (установленный софт, железо и поведенческие факторы) дают больше информации о клиенте.
  • Как правильно реализовать авторизацию пользователя БД через сайт?

    @rPman
    _pconnect реализация обычно для всех БД так как php подразумевает многократное завершение и перезапуск, чтобы подключение не переоткрывалось, но в этом режиме бессмысленно под разными пользователями заходить, скорее всего кеш просто не будет использоваться и каждый раз будет переподключаться

    про пул - изучай сам, я этим не пользовался.

    про скорость - когда то давно именно для публикации в веб данных из базы oracle приходилось ставить между бакэндом и ораклом 'кеширующий' mysql
  • Как отправить SMS на русском ч/з LTE1 RouterOS используя Python?

    @rPman
    просто без гуглиннга в какой кодировке нужно отправлять sms предлагаю тебе просто принять на питоне той же библиотекой sms с русским и посмотреть что там за кодировка
  • Как пользоваться языковой моделью LLaMa?

    @rPman Автор вопроса
    еще момент у llama очень маленькое окно контекста, кажется 2к токенов, это ее фатальная проблема, из-за которой для сохранения контекста ее лучше дообучать под каждую задачу.