Задать вопрос
Ответы пользователя по тегу Нейронные сети
  • Какая нейросеть умеет в дизайн?

    @rPman
    Таких нет, возможно кто то запилил на их основе готовый проектик, но почти наверняка выглядеть это будет топорно, лучше сам компонуй в редакторе и генерируй картинки.

    Попроси copilot майкрософтовский, он слабый как ИИ но туда много что напихали
    Ответ написан
    Комментировать
  • В процессе работы нейросетевых моделей насколько активно идёт процесс обмена данными по PCIe с видеокартой?

    @rPman
    Если оперативной памяти хватает, то скорость pci-e будет влиять ТОЛЬКО на время первичной загрузки модели в vram (обычно это один раз при запуске приложения)

    Если оперативной памяти мало, то пользователи начинают крутить разные опции, оптимизаторы, что то перемещается в cpu ram, вот тогда обмен данными может стать значимым. Мне кажется в этом случае уже cpu становится узким местом а не обмен данными.

    Поэтому не беспокойтесь.

    p.s. если использовать gpu llm - текстовые ИИ, то там есть алгоритмы (для генераторов я таких не видел но по факту там тот же трансформер, так что могут быть) размазывания нагрузки по нескольким видеокартам, вот в этом случае скорость pci-e становится уже значимой, но и тут, передаваемые данные все еще логарифм от размера модели.
    Ответ написан
    Комментировать
  • Какие нейронки или программы смогут восстанови эл. схему по фото платы?

    @rPman
    openai:o4-mini
    оно там много что на галлюцинировало, но в полуручном режиме вроде можно попробовать в KiCad
    Исходников под свободную лицензию практически нет. Если вас устраивает полуавтоматическая схема, проще:
    * Снимите фотки, приведите к 1:1 в масштабе и без искажений.
    * В KiCad создайте новый PCB-проект, подложите снимки на слои F.Cu/B.Cu.
    * По фотографиям вручную обведите дорожки, определите компоненты (их расположение, ориентацию, footprint).
    * Запустите CvPcb, сопоставьте footprint-ы реальным компонентам → получите нетлист.
    * Сгенерируйте из нетлиста схему в Eeschema.

    https://docs.kicad.org/5.1/en/cvpcb/cvpcb.html
    назвать процесс удобным язык не поворачивается, но что то мне говорит что можно запилить скрипт, на основе openvc (снаружи) и макрософ (внутри kicad)
    Ответ написан
  • Стоит ли оформлять Copilot Pro для Visual Studio 2022?

    @rPman
    На текущий момент ИИ на базе gpt не является Универсальным ИИ (AGI), поэтому по глупому особой пользы вы от него не получите, лучшие результаты подключают в генерации текстов (маркетинг, может быть развлечения и почти наверняка симуляция людей в чатах и соцсетях), для программирования они ПОКА не подходят, по тем причинам, что в основе своей не содержат базы данных (условный RAG подключен внутри api), доступа к справочникам по библиотекам и фреймворкам.

    gpt пытается быть похожим на человека, у них проблемы с обучением (маленькое контекстое окно и при его увеличении они тупеют), а значит будет точно так же ошибаться и тупить, если спросить его без шпаргалки (много ли обыватель накодит с листочком бумаги и без доступа к интернету?)

    Каких только я расширений не смотрел, все они просто окно интерфейса к gpt, примитивные, даже не собирают минифицированный и не хранят контекст (системный промпт) между запросами, передавая весь текущий файл или даже проект (что дикость) в контекст.

    Есть несколько проектов, которые представляют из себя полноценную среду разработки (и само собой не такую полнофункциональную как msvc), где все это пытаются реализовать и что то может получается, но результат все еще посредственный

    Поэтому, я считаю, пока нужно либо самому разрабатывать такое расширение (или хотя бы тулчейн, работающий с проектом параллельно), в котором файлы проекта обрабатываются, преобразуются в запросы, проверяются и все это кучей ИИ агентов ... может что то и получится.

    p.s. openrouter, оплата в криптовалюте, все топовые нейронки и не только, универсальный api (совместимый с openai) и т.п.

    p.p.s. в программировании современный ИИ неплохо себя показывает в анализе кода, особенно когда не требуется аналитика глобальная по проекту, а вот конкретный файл, в каком то смысле он понимает что написано, с ним можно 'побеседовать со своим кодом', по задавать вопросы и получить иногда (70% топовые нейронки) правильный ответ.

    Вот тот самый момент с не 100%-тной точностью ломает все адекватные задачи, которые можно было бы ему поручить
    Ответ написан
    Комментировать
  • Как написать нейросеть на языке программирования C#?

    @rPman
    Самое 'простое', при дообучении новым данным, в обучающий датасет добавить целиком или частично предыдущий (эффективное прореживание данных, отдельная задача).

    Можно расширить нейронную сеть (примерно как сделали с Mixture of Expert), считай обучить одну и ту же сеть разным данным, а затем из них собрать франкенштейна плюс классификатор, который на каждом слое/уровне вибирает, какую именно сеть использовать

    Можно замораживать веса и обучать только на некоторых (что бы понимать что можно править а что нет, нужно иметь представление о том, какие именно данные где хранятся, а это может быть не просто, но и для этого есть алгоритмы)
    Ответ написан
  • Как в comfyUi изменить текст промпта сразу в нескольких узлах?

    @rPman
    Попробуй так:

    Правая кнопка на ноде с промптом, "convert widget to input" -> "Convert text to input" и промпт можно получать как текст от других нод.

    Так делаем для каждой ноды с текстом, в который нужно копировать текст.

    Затем, для исходного промпта создаем Add node -> utils -> primitive, проводим от ее выхода коннекты до нужных нод (она сама станет текстовой)
    Ответ написан
    1 комментарий
  • Существует ли бесплатная онлайн нейросеть или программа которая из обычной статической картинки делает анимированную?

    @rPman
    Stable Video Diffusion, устанавливаете локально и пользуетесь бесплатно (не HD версии доступны даже для коммерческого использования, в т.ч. есть не только SD но и тот же Flex)

    Из инструментов 'все включено' советую stable-diffusion-webui, или тот же ComifyUI (но это скорее графический язык программирования к генерации)
    совет
    на сайтах с примерами workflow, картинку с ним можно drag-and-drop в окно интерфейса прямо из браузера, и он будет загружен автоматом

    Без видеокарты будет работать но в десятки раз медленнее, советую 12..16gb vram
    Ответ написан
    2 комментария
  • Есть ли системы озвучки текста учитывающие интонации и эмоции конкретного человека?

    @rPman
    upd. https://github.com/myshell-ai/OpenVoice
    https://github.com/jasonppy/VoiceCraft
    но ты не очень контролируешь эмоции, полагаю тут это тюнингом нужно делать
    ---------------

    Эмоциональной речью хвастались openai, но чужие голоса тюнить не дают, мало того они отключили один из своих, только за подозрения в похожести голоса на чей то популярный.

    Сам не пользовался, но по отзывам говорят звучит шикарно,.. русский само собой с акцентом.

    Серая юридическая зона! очень страшно влить миллионы в тюнинг модели и получить судебный запрет из-за копирастии всех своих продуктов... это не то что хочется получить, если у тебя на кону сотни миллиардов.

    p.s. еще этим занимались alibaba qwen, у них точно были gpt модели, где голос был на входе и на выходе, но там английский и китайский, я тоже не смотрел

    Ну и facebook чем то таким занимается, полистай их публичный архив, там есть audio-audio трансформер, но там явно без каких то значимых результатов, что бы сравнивать с топами, но все открыто
    тупо первое попавшееся, кажется это переводчик голос-голос
    Ответ написан
    Комментировать
  • LLM. Qwen2.5-Coder-32b-IQ2_XS vs Qwen2.5-Coder-14b-Q4_K_M. Что лучше?

    @rPman
    Квантизация сильно ломает слабые модели, настоятельно не рекомендую 8b..14b использовать с квантизацией меньше 8бит, да и с ней будут проблемы

    Лучшая локальная модель, с адекватным размером, на текущий момент - это дистиляция deepseek r1 какой-нибудь qwen 14b или 32b

    Использовать с vllm, например deepseek-r1-qwen-14b с 32к контекстом, 8бит квантизацией, батчингом и местом для kv cache работает на 2x16gb ram (точнее от каждой тратится по ~14gb), на 2x4060ti 16gb (стоят по 50т.р., это самая доступная gpu с самым дешевым vram) или используй какой-нибудь vast.ai, с одиночным запросом работает 20-30 токен/сек, а если одновременно 16 запустить, разгоняется до 250-500 токен/сек

    deepseek r1 это рассуждающие модели, поддерживают только английский и китайский, отмечает рассуждения в ответе тегом .... Благодаря хорошей скорости в режиме батчинг, можно один и тот же вопрос задавать одновременно несколько раз, и сравнивать ответ (можно попросить ее же сравнить), тот что выдан чаще - тот считать верным.

    Программирование у deepseek неожидано хорошее, да и в простой логике отвечает неплохо (тест на 'количество братьев у сестры' могут накосячить и топовые сети, эта выдаст неправильный в 3 из 16 запросах, и если изучить ее рассуждения, там прямо так и пишет что люди могут на этот вопрос ответить вот так поэтому пишем неверное число), подчеркиваю, на модели 14b, а уж оригинальная MoE на 600b и подавно шаг в шаг идет с топами.
    Ответ написан
    Комментировать
  • Нейросеть или ИИ для создания изображений сайта дизайнов?

    @rPman
    таких не существуют

    есть нейронки текст+изображение -> текст (а тебе нужно текст+изображение -> текст+изображение), но на рабочие задачи там 50 но 50, то не работает, то фигня получается.

    нейронки, которые генерируют изображения даже близко к ИИ не подошли, это просто красивые галлюцинации.
    Ответ написан
  • Возможно ли точно вычислить степень влияния ИИ в книгах и кино?

    @rPman
    К сожалению универсального ответа нет.

    Затраты на создание адекватного детектера генератора ИИ сравнимы с созданием этого ИИ. Но хуже того, как только такой верификатор появится в доступе, на нем сразу начнут обучать ИИ что бы он его обходил, это не сложно, так как обучающая выборка будет крохотной - тысячи.. десятки тысяч статей,.. от этого не защититься.
    Ответ написан
    Комментировать
  • Какая нейросеть умеет сопоставлять два списка?

    @rPman
    Я во времена первой llama делал такую работу на ней, хорошо проработанный запрос, список типов запчастей (это справочник) к промпту и по одной записи из списка запчастей, и повторять для каждой

    На процессоре тогда он по 20-30 секунд отрабатывал запись, несколько тысяч за несколько часов.

    Весь процесс нужно сохранять и отслеживать, корректируя промпт, помню у ламы тогда была проблема с финишным токеном, после ответа она могла продолжить разглагольствовать, это тоже решаемо но нужно все это учитывать.

    Сейчас у llama.cpp есть поддержка kv-кеша (не смотрел), и уж точно эта поддержка есть у топовых openai/anthropic/google, тогда каждый запрос у тебя будет моментальный, и токены тратиться только на название запчасти и ответ.

    Хуже, если справочник в запрос не влезет (ориентируйся на 8к токенов, джаже топовые модели нормально только в пределах этого окна работают, хотя хз может уже все гораздо лучше стало, просто проведи тесты), тут есть варианты - можно по хардкору расписать вектора смысла (embedding) для каждого значения справочника и разделить справочник на части таким образом, что бы близкие по смыслу значения были рядом, а далекие - в другой части, и тогда для каждой запчасти делать несколько запросов с разными списками из справочника...

    да это долго, но простого решения тут нет, человек делать это будет еще дольше
    Ответ написан
    Комментировать
  • Как конвертировать модель в GGUF и квантовать?

    @rPman
    На самой странице модели есть пример кода на python или ссылка на github или докер образ, как ее использовать, обычно там же простым способом можно квантовать 8бит (более чем достаточно для исполнения, быстро, минимальные требования vram и без потери качества)

    Есть проект vllm, в котором поддержку универсально пилят для всех топовых моделей, попробуй его, у него же встроен веб сервер, а так же веб сервер с совместимым openai api, а там 100500 локальных вебморд для использования.

    p.s. только llama.cpp эффективно умеет работать на процессоре и главное использовать gpu и обычную память одновременно (например не хватает считанных гигабайт)
    Ответ написан
    Комментировать
  • Что выбрать за архитектуру LLM для обучения с нуля?

    @rPman
    У тебя ошибка в постановке цели - 'обучить с нуля'.

    llama3 обучалась на 15Тера-токенах, это примерно на три порядка больше чем в твоих гигабайтах, этого катастрофически мало, для того что бы что то внятное получилось.

    Для обучения модели, по мощности сравнимой с gpt3.5 нужно 10^26 степени flops (очень приблизительная оценка, скорее всего занижена, так как все очень зависит от использованного оборудования), посчитайте необходимое количество GPU и энергии, для того что бы достичь этого объема вычислений (для примера бери nvidia a100 80gb считая что ее мощность 20tflops это 2*10^13, да так считать не правильно, и в зависимости от задач число можно как увеличивать в 20 раз так и уменьшать в разы).
    ------------

    Что можно сделать и почему скорее всего это то же не получится и почему это тоже будет дорого - можно взять уже обученную (модели с пометкой completion а не instruction) модель и дообучить на своих данных. Если делать это в лоб то качество работы результата значительно упадет, если исходные данные будут хоть немного противоречить (не совпадать) с изначальной обучающей выборкой (есть алгоритмы анализа обучающей выборки на сравнение с исходной).

    НО! Ни одна компания, создающая топовые модели не делится исходными данными (это похоже стало по цене сравнимо с затратами на вычисления), а те что делятся - очень слабые, хуже openai gpt3.5 это уже давно стало минимальным эталоном, все что хуже не будет адекватной instruction.

    Единственное, где finetuning еще как то можно использовать, - это доработка формата ответа (обучающую выборку собирают в купе с ответами самой модели или анализируя эти данные с ее помощью), а так же для фиксации направления использования (не instruction), например превратить модель в классификатор, ты ей текст, а она тебе ответ - типа сообщение содержит хейт, например буквой ответит).

    После тюнинга модели на своих данных, ее нужно продолжить дообучать (из gpt35 так сделали gpt4), с помощью RLHF, это когда куча не дешевых людей (потому как дешевых уже давно заменяют другой моделью, например openai) анализируют ответы и помечают где модель ответила правильно а где нет, еще лучше когда дают оценку, или выбирают лучший из нескольких.

    Т.е. тебе нужна база вопросов, это еще одна обучающая выборка (специально подготовленная), скорее всего это еще одна причина, почему существуют сайты типа чат арены, где 'за бесплатно' у народа собирают огромную базу вопросов и их бенчмарков.

    p.s. резюмирую, если у тебя в кармане нет порядка $10кк а скорее всего в десятки раз больше, то 'с нуля' обучать свою модель у тебя не получится.

    В мире не так много компаний которые в принципе на это способны - в россии например на это способны богатейшие только сбербанк (гигачат) и яндекс (yandex gpt), последние этим занимаются давно (за долго до появления chatgpt) и единственная их проблема - не хватает денег (и блокировка доступа к покупке оборудования), и возможно специалистов.
    Ответ написан
    7 комментариев
  • Возможен ли запуск нейросети на видеокарте для майнинга?

    @rPman
    Есть шанс нарваться на проблемы с драйверами, ограничивающими использование видеокарты, но почему бы и не попробовать?

    Если есть opencl запустить то можно, с помощью llama.cpp можно запускать на любой видеокарте, причем даже если она не nvidia, и на встройках.. вопрос на сколько быстро это будет.

    И только смысла в этом нет, потому как главное у видеокарты должен быть большой объем оперативной памяти... 8b модели и так слабые, они сильнее реагируют (ухудшают качество) от квантизации, поэтому из меньше 8бит не квантуют, т.е. минимум только на веса 8гб, а еще на контекст нужно несколько гигабайт.

    С другой стороны, закупить несколько, весь софт для выполнения умеет распределять нагрузку по нескольким.
    Ответ написан
    Комментировать
  • Какая нейросеть оживляет картинки?

    @rPman
    Stable video diffusion, будет работать на 12-16gb gpu (например nvidia gtx 4060ti стоит 59т.р., а 3060 12гб - 35т.р. ), работает неплохо, но на сколько я знаю он работает от картинки а не запроса (т.е. если ты задаешь запрос, она генерирует из него только стартовать картинку).

    Облачные ресурсы дороже на порядок, как ни крути.

    Кажется Runway позволяет платить через alipay в России.

    p.s. Кандинский от Яндекса ты не использовал?
    Ответ написан
    Комментировать
  • Сравнение голосов - программы и нейросети - есть ли такие?

    @rPman
    https://huggingface.co/models?other=speaker-recognition как отправная точка для поиска готовых моделей (можно поиграть с поисковым запросом)
    Ответ написан
    1 комментарий
  • Может ли нейросеть определить на изображении отсутствие всех объектов, кроме одного?

    @rPman
    У нейроситей коассификаторов, тех что используют для распознавания изображений не очень хорошо с понятием 'неизвестно' или 'все остальное'. Сеть должна при обучении видеть все объекты... Если с этим все нормально то можно обучить такой классификатор... Я принципы и методология вся та же самая
    Ответ написан
    Комментировать
  • Какая нейросеть умеет в веб-дизайн?

    @rPman
    Адекватных и универсальных мультимодальных ИИ (с модальностью - изображения) на текущий момент не существует.

    С очень большой натяжкой можно считать топовые openai/claude/google/(может китайский qwen но они совсем внизу), с поддержкой изображений подходящими, в интернете даже гуглятся тестовые helloworld, но проблема в том что когда доходишь до реального использования, сил на то чтобы объяснить ИИ что тебе нужно и исправлять его ошибки уходит БОЛЬШЕ чем если бы ты делал это сам.

    ИИ на текущий момент подходит как удобный помощник, делать что-либо что ты сам умеешь прекрасно делать, понимаешь как это понимает ИИ (мы в голове строим модель знаний нашего собеседника, чтобы не скатываться в объяснения алфавита, так вот то же самое и с ИИ, мы должны понимать что они понимают и до какой степени) и используешь его для ускорения./. плюс как замена поисковика (только не по всему интернету, а в пределах его знаний, очень мало какие продукты дают адекватный поиск в интернете).
    Ответ написан
    Комментировать
  • Компьютер с какими характеристика требуется для комфортного использования llama3.1:405b?

    @rPman
    Нужны видеокарты, суммарным объемом 1024гб. тут только специализированные, найти в продаже в странах под санкциями нереал, рынок пустой был уже в 2020-ом. Цены тут 5х от мировых.

    Квантизация тут тоже есть, vllm самая эффективная реализация, поэтому если тебе не нужно дообучать, а только исполнение, то пойдет 8bit квантизация.
    -------

    На процессоре с помощью llama.cpp, где-нибудь 10-20 секунд на токен (кстати повышается в несколько раз при batch запросах, когда тебе нужно обработать сразу много prompt-ов).

    Тебе нужна серверная материнка (хоть прошлого поколения, важна оперативная память), размер памяти минимум 256гб (4битная квантизация, потеряешь в качестве), лучше 512гб. К сожалению рынок тут только БУ со всеми вытекающими от сюда ценами и гарантиями.
    --------

    Можно запускать на нескольких десктопах!
    Год назад в llama.cpp портировали MPI реализацию, поддержка запуска на нескольких нодах (как пример нам было 8 raspberrypi и llama65b) поэтому приобрести 4 компьютера по 64-128гб не проблема, процессор не самый топовый, какой-нибудь AMD Ryzen 5 9600X/7600X (6-ядерный, лучшая производительность singlethread дешевле $300/$200), на сколько я понял, упирается все в сеть, поэтому сверху 10Gb ethernet адаптеры в придачу (они относительно дешевые).

    Каждый из компьютеров обойдется примерно в 100т.р. (можно ужаться и набрать по 70т.р. но там и процессоры по слабее и память по медленнее, но не значительно), и таких нужно 3-4 штуки.

    Сетевые карты 10G покупать парами, объединить в круг (это самый дешевый конфиг). Иначе, еще вложиться в свитч примерно такой же стоимости. Если честно я не нашел информации или каких то расчетов, которые скажут требования к сети, очень даже может быть что хватит встроенных в материнку и гигабитного свитча, речь идет об оптимальной утилизации процессора и памяти.
    --------

    Есть еще один экстремальный вариант, он не требует почти никаких особых затрат, любая даже самая слабая железка с любым количеством RAM (пусть условно 16гб-32гб будет, контекст хранить нужно) но с максимально быстрым ssd nvme диском (или несколькими в raid0). llama.cpp штатно умеет работать с моделями напрямую с диска (mlock режим), будет считывать всю модель по одному разу на каждый токен.

    Например 4 ssd диска (проходной apaser за 2.5т.р. но лучше что то по быстрее с pci-e 4.0) на скорости 2гбайта/с (само собой есть быстрее) с соответствующими pci-e контроллерами обойдутся в считанные 16-25т.р., полученный 'монстр' будет считывать всю модель с 8битной квантизацией за 30-15 секунд, и уже вопрос, успеет ли процессор на такой скорости модель считать.

    p.s. осторожно, ssd на 'чтение' тоже не бесплатно работает, это тоже изнашивает ресурс, только не так быстро как запись, может в тысячу раз медленнее, может в десятки тысяч.
    Ответ написан
    6 комментариев