Задать вопрос
  • Не работает локализация setlocale в PHP?

    @rPman
    лучше используй решение Rsa97 в систему доставить пакет php-intl
  • Как написать нейронную сеть для распознавания изменений в графике?

    @rPman
    Можно добавить, что график преобразуется в числовые значения очень простым алгоритмом, проходом всего изображения слева направо и поиском пиксела нужного цвета (в пределах, лучше брать HSL.

    Небольшие проблемы могут возникнуть, если снимки графика будут сделаны под разными углами с разными параметрами линз/матрицы/алгоритмов обработки фото смартфонов но и они решаемы
  • Какой system_prompt использовать для ChatGPT, чтобы тот писал лишь HTML тегами?

    @rPman
    какой промпт, чтобы он выделял Как дела?

    Сдается мне инструмент ты выбрал не лучший, вывод языковых моделей не строгий. лучше формируй html сам (и тут тоже будут проблемы но решаемые)
  • Каким образом я могу ограничить максимальную температуру ноутбука на Apple silicon m1?

    @rPman
    Но вот при открытии актуального дополениния, когда я посетил столицу
    я так понял эту фразу

    теперь дошло что речь идет про посещение 'столицы' в игре.

    про fps 'замер на 30' - это проблему решило и 'просадки до' 30 это плохо мне непонятны
  • Каким образом я могу ограничить максимальную температуру ноутбука на Apple silicon m1?

    @rPman
    откатить обновление нереально?

    фпс замер в диапазоне 30 кадров

    идет просадка до 30 кадров

    чем эти два события отличаются?
  • Где найти обучение нейронки для сравнения лиц?

    @rPman
    а что там написано начиная с 5 главы?
  • Черный экран, после установки гостевых дополнений на Windows XP в Virtualbox. Как исправить?

    @rPman
    Нет информации - нет помощи.

    Какая хост система (архитектура, операционная система), какая версия winxp, битность, сервиспак, какая версия virtualbox, установлен ли Extension Pack, какие настройки виртуальной машины.

    p.s. вот я за 1 минуту восстановил winxp из бакапа 2008 года, установил туда дополнения еще 1 минута, работает даже интеграция с десктопом (linux x64, winxp 32bit, vbox 7.0, с офф сайта с extension pack).
  • Производиельность процессоров AMD серии U, ваш опыт исспользования в разработке?

    @rPman
    если ты поставишь рядом различные лептопы равного ценового диапазона, то различия в производительности, времени работы и прочего можно будет заметить только на синтетических тестах

    на практике нужно смотреть буквально на скорость и объем ssd, объем ram и наличие дискретного gpu, все остальные параметры практически не важны, так как приблизительно одинаковые, если железо приблизительно одного времени выпуска.

    а это значит, смотреть нужно не на процессор, а на конкретную модель ноутбука

    Для разработчика нужно много быстрой памяти ssd (настоятельно рекомендую выбирать модели с m.2 накопителями от половины терабайта) и много оперативной памяти, от 8Gb ram - лучше 32Gb
  • Хруст матрицы на ноутбуке, плохо ли?

    @rPman
    Разница в стоимости на рынке усиленных моделей кратна.

    Даже для малых партий в тысячи устройств, себестоимость цельнометалического корпуса НИЖЕ десятков тысяч рублей за единицу, не ведитесь на этот бред, а уж простые вставки стержней и подавно копейки

    Причина - маркетинг давно победил разум, наука говорит что нужно разграничивать рынки, разделяя линейки товаров на дешевые средние и премиальные.

    И это будут делать, к примеру не добавляя в младшие линейки беспроводную зарядку (проводок и 10 центовый чип) или как тот же сяоми в самых ходовых моделях ломает логику работы зарядки (перестает заряжаться) или микрофона (вместо сигнала выдает запись шума стука провода об одежду, даже если устройство записывает тишину в специальной комнате с глушением всех шумов), когда такие события однократны - это нормально, но если в трех из четырех устройств разных партий одной модели происходят одни и те же баги, это навевает мысли
  • Как сделать, чтобы AI меньше фантазировал в своих ответах?

    @rPman
    А что жаловаться, на обучение больших моделей требуются миллионы баксов, и это требования снизу.
    нужны размеченные данные (если хочешь качественную модель - это самое дорогое), нужны специалисты, нужны эксперименты (т.е. полное обучение на дорогущем железе с затратами мегаватт энергии и амортизации)

    Мелкие и слабые модели, доступные сообществу, на которых тренируются новички - это лакмусовая бумажка для крупных компаний, которые таким образом специалистов ищут/выращивают.

    p.s. повторяю, языковая модель это не база данных по выдаче ответов, а заучивание нейронками данных обычно - плохой маркер переобученности.
  • Защита ajax от имитации?

    @rPman
    Как отличать людей, которые зашли на сайт?
    добавлю что если нагуглится фингерпринтинг, то он не подойдет, тот кто сумел реверсить сайт, сумеет и обойти его.

    качественный фингерпринтинг, достаточный для аутентификации могут делать крупные баннерные сети (у которых свой аналитический 'пиксел' на большом количестве сайтов) или такие компании как гугл/яндекс
  • Как сделать чтобы меняя код js в браузере, он сохранялся в файловой системе?

    @rPman
    Они и не должны записываться, это исключительно для локальных тестов.

    но на вопрос подписался, мало ли у браузеров добавили фичу, помню у оперы что то такое было
  • Есть ли переводчик нейросеть, которую можно установить к себе на компьютер?

    @rPman
    Капитан Пронин, единственная попытка, но весь облом LLM-ок в том что их десять раз спросишь они дадут десять разных ответов! да, можно поставить температуру 0 и будет стабильнее но самый первый токен все равно практически случаен (чуть поменяй промпт и уже другой), в этом одновременно беда и гибкость LLM-ок

    Вот сделал по три запроса в разные сетки от open assistent и оригинальная llama:
    oasst-llama30b-q4.ggml temp=0
    Большой языковой модель (LLM) - это языковая модель, состоящая из нейронной сети с многими параметрами (обычно миллиарды весов или больше), обученная на больших объемах неотмеченного текста с помощью самостоятельной учебы. LLM появились около 2018 года и показывают хорошие результаты на широком спектре задач. Это сменило фокус исследований в области обработки естественного языка с предыдущего подхода обучения специальных надёжных моделей для конкретных задач.
    
    oasst-llama30b-q4.ggml temp=default 0.8
    Большой языковой модель (LLM) является языковой моделью, состоящей из нейронной сети с большим количеством параметров (обычно миллиарды или более весов), обученной на больших объемах неотмеченного текста с помощью самостоятельной учёбы. LLMs появились около 2018 и хорошо выполняют широкий спектр задач. Это сменило фокус исследований в области языковых технологий от предыдущего подхода обучения специальных надёжных моделей для конкретных задач.
    Большой языковой модель (LLM) - это языковая модель, состоящая из нейронной сети с многими параметрами (обычно миллиарды весов), обученная на больших объемах текста без labels с помощью самообучения. LLMs появились около 2018 года и показывают высокую эффективность при выполнении широкого спектра задач. Это сместило акцент исследований в области обработки естественного языка от предыдущего подхода обучения специальных надёжных моделей для конкретных задач.
    Большой языковой модель (LLM) это языковая модель состоящая из нейронной сети с многочисленными параметрами (обычно миллиарды весов или больше), обученная на больших объемах неупорядоченного текста используя самонастройку. ЛLM появились около 2018 года и хорошо выполняют широкий спектр задач. Это сдвинуло фокус исследований в области языкового обучения от предыдущего подхода обучения специальных моделей для конкретных задач.
    
    ggml-model-q4_0.bin temp=0
    Обширная языковая модель (LLM) - это языковая модель, состоящая из нейронной сети с большим количеством параметров (обычно миллиарды весов или больше), обученная на больших количествах немаркированного текста с помощью самообучающегося обучения. LLM появились примерно в 2018 году и хорошо работают на широком спектре задач. Это изменило фокус исследований в области обработки естественного языка от предыдущего парадигмы обучения специальных супервизорных моделей для конкретных задач.
    ggml-model-q4_0.bin temp=default 0.8
    Является модель языка большого размера (LLM) - это модель языка, состоящая из нейронной сети с многочисленными параметрами (обычно миллиардами весов или более), обученных на больших количествах немаркированного текста с помощью самонаполняющегося обучения. LLM появились примерно в 2018 году и хорошо работают во многих задачах. Это изменило фокус исследований в области обработки естественного языка, отклонившись от прежнего подхода к специальной обученной модели для каждого конкретного задача.
    Большая языковая модель (LLM) — это модель языка, состоящая из нейросети с большим количеством параметров (вместе типичное число весов составляет миллиарды или более), обученная на больших объёмах непомеченного текста с помощью методов самообучения. LLM появились около 2018 года и хорошо работают в широком спектре задач. Это изменило прежнюю парадигму исследований в области обработки естественного языка, которая заключалась в обучении специальных сверхназначенных моделей для конкретных задач.
    Обширная языковая модель (LLM) — это языковая модель, состоящая из нейронной сети с большим количеством параметров (обычно миллиарды весов или более), обученных на больших объемах непомеченного текста с помощью самонаводящегося обучения. LLM появились около 2018 года и показывают высокий уровень производительности при выполнении широкого круга задач. Это изменило акцент исследований в области обработки естественного языка от прежнего подхода тренировать специальные обученные модели для решения конкретных задач.

    смотрим внимательно, как меняется результат при повторных запросах, я чуть подправил код llama.cpp чтобы он цветами помечал токены, при выборе которых были еще варианты (цвет показывает их количество, на скрине есть для этого легенда)
    spoiler
    plrpuysed1ucuoudpwbxpongjnc.png

    отмеченные красным фоном места это моменты когда сетка вместо наилучшего варианта (как это для temp0 происходит) выбирает случайно из N почти лучших (хочу написать интерфейс показывающий для таких токенов их продолжение)

    Главная беда в понимании работы LLM-ок у народа в том что народ от них ждет верных ответов, когда как она старается выдавать ответы, похожие на человеческие (верные и не верные уже не важно, дальше вероятность работает). Это точно так же видно на сетках, генерирующих изображение, так как там алгоритм точно такой же.

    При этом где то там внутри модели, как я считаю, интеллект все же сформировался, странный, сложный, однозначно умнее человека, но цели у него далеки от наших ожиданий.
  • Есть ли переводчик нейросеть, которую можно установить к себе на компьютер?

    @rPman
    Капитан Пронин, рано делаешь выводы, нужно делать тесты

    Языковые модели в основе используют случайное число, меняющее вариант ответа, даже когда казалось бы ответ может быть только один.

    До некоторой степени этим можно управлять, например параметр temp (0 - меньше вариативности, 1 сильно больше), когда вместо наилучшего следующего слова (токена) берутся соседние по величине вероятности.
  • Есть ли в свободном доступе законный аналог ChatGPT?

    @rPman
    Откройте для себя huggingface.co - место для публичных моделей и датасетов, место для тюнинга и обучения, мне кажется площадка даже стандарты продвинула, библиотеки, форматы хранения весов и прочее прочее
  • Есть ли в свободном доступе законный аналог ChatGPT?

    @rPman
    Filipp42, самому попробовать (исследовательские нужды) можно и llama, да формально без бумажки ты не можешь (хотя какие проблемы, напиши им в форму запросную, может дадут) но пока ты не зарабатываешь бабло и не раздаешь другим услуги на основе модели, ты никого не интересуешь.
  • Какие подвохи Google Cloud?

    @rPman
    Еще есть люди, которые ведутся на акции, 100% скидки и прочую маркетинговую ерунду? (без них уже никуда, но понимать нужно правильно).

    В данном случае скорее всего тебе дали КРЕДИТ, ты его потратил, деньги возвращать можно через 90 дней

    Я не читал условия предоставления тебе этих 300$, советую тебе их сейчас прочитать
  • Какие подвохи Google Cloud?

    @rPman
    просит 'оплатить остаток', т.е. долг
  • Как за 3-4 месяца прокачаться мидлу работающему в продуктовой компании?

    @rPman
    технологии ради технологи плохая такая идея
    научишься терминологии, общим принципам но не будет понимания как это все работает.

    обычно такая однобокость чревата тем что когда что то идет не так, не будет понимания как же разруливать все это, как писать код чуть дальше копипаст из документации и прочее.

    обычно все это на практике познается, т.е. лучший способ научиться - 'собирать на себя шишки'.
  • Как получить точный размер блока до тысячных пикселя?

    @rPman
    GetQuestion, тогда речь не о визуализации!
    визуализация это то что ты видишь, ты никак не увидишь тысячную пиксела, если десятые пиксела еще можно полутонами изобразить, то меньше никак

    и еще раз повторю, float по техническим причинам не может гарантировать что значение помещенное в него из десятичного представления будет равно значению прочитанному, твоя задача изначально содержит этот изъян