Задать вопрос
Ответы пользователя по тегу Нейронные сети
  • Нейросеть на ПК для обработки книжной литературы с последующей выдачей ответов по запросам?

    @rPman
    Из-за технических ограничений современного ИИ, данная задача решается плохо. Причина - gpt это как человек, страдающий антероградной амнезии, у него есть кратковременная память (контекстное окно) но ее размер сильно ограничен (стоимость простого ответа - квадрат от размера контекстного окна, а обучение - куб, есть лайфхаки, уменьшающие эти требования но они уменьшают и потенциальные возможности, связанные с данными на больших 'расстояниях'). А еще из-за не совершенства технологии, то что ИИ уже узнало, пока училось, у нее 'путается в голове' и оно галлюцинирует.

    В качестве примера, есть llama scount с 10кк окном контекста, но она потребует 18терабайт памяти (gpu естественно) для работы, и даже тут в нее влезет не так много документов

    Готовое не посоветую, это сейчас топ исследований, гитхаб завален всякими поделками chatgpt с RAG, со средним качеством. Вся задача сводится к поиску частей документов, которые хоть как то подходят к ответу, и сваливание их в итоговый запрос, что само собой не может дать хорошего результата (нужные данные могут никак не быть близко по смыслу с вопросом). Есть попытки строить граф знаний, но это форма представления но не алгоритм разбора сырых данных. Технологии, которые позволяют строить индекс на основе смыслов - построение embendings векторов (вот отвечал списком ключевых слов для поиска)

    Если каждый отдельный документ помещается в контекстное окно, то проблема решается итеративно - берем наш исходный вопрос, и задаем его ИИ для каждого документа по отдельности, можно добавить что то типа 'для решения нашей задачи есть ли в этом документе что то полезное?'. В последствии повторить вопрос уже для тех документов или их частей, которые оказались полезны. Можно даже заранее строить индекс из документов, являющийся краткой самморизацией его содержимого (или по главам). Этот подход работает но очень дорогой/медленный (можно минутами-часами ждать ответа).

    Обработка больших данных с помощью ИИ это что то типа чата, "системный промпт + пример + ответ + пример +... + часть исходных данных -> ответ", причем полученные предыдущие ответы могут пойти в примеры.. это multishot подход значительно повышает качество ответа до сих пор. Ты как бы пробегаешь по всему документу, где после подачи его части ИИ делает свой комментарий - о это полезно, или это нам не нужно... на практике там конечно еще рассуждающая часть и итеративный процесс может состоять из нескольких шагов для каждой части - типа сначала спрашиваешь о чем тут говорится (это можно закешировать), позже добавляешь вопрос, полезно ли это для нашего ответа, а так как многие модели научены размышлять, придется еще раз спросить - ответь да/нет (тут можно включить structured outputs, зафиксировав формат ответа). По мере анализа сохраняешь ссылки на те части документа, что оказались полезны, и уже их можно использовать повторно для итогового диалога.

    С анализом между документами еще хуже (когда для ответа требуется информация, которую можно получить проанализировав сразу несколько документов, но по отдельности они бесполезны), у топовых ИИ можно можно просить задавать вопросы, т.е. ии может просить дать недостающую информацию (точно помню как anthropic:sonnet пытал написать утилиту работы с guithub api подавая ему заведомо недостаточно данных, так вот правильно составленный промпт позволит ии отказываться давать ответ пока информации не станет достаточно),.. но трудоемкость получения результата будет еще выше - ведь тут для каждой подзадачи придется снова пробегать по документам или их самморизации.
    Ответ написан
    Комментировать
  • В какой нейросети можно делать видеофильмы?

    @rPman
    Готовых нет, даже просто короткие видеосцены генерировать в указанных пределах очень трудозатратно, потому что алгоритмы основаны на шумах, которые невероятными силами удается хотя бы в пределах соседних кадров зафиксировать друг на друге (что бы бред наркомана не получался), но делать бесшовные объединения отдельных сгенерированных видеороликов сложнее на порядок.

    Про звуки отдельный разговор, никакой автоматической генерации ни audio по видеоряду, ни наоборот нет (есть проекты шевеления губами под речь, но корявые и прикручивать их к генератору не просто), поэтому классическими методами придется одно на другое накладывать и подстраивать.

    p.s. про трудозатраты - десктопное железо позволяет на том же HunuanVideo делать несколько секунд ролик за... примерно час (в максимальном 720p качестве или десяток минут на 520p низкого качества)
    Ответ написан
    Комментировать
  • Локальные нейросети для автоматизации. Что лучше использовать?

    @rPman
    https://llm-stats.com/ выбрать Open Models и получаем что лучшая локальная за адекватную стоимость сейчас это Microsoft Phi-4 Reasoning Plus 14b (да и все семейство phi-4 занимают лидирующее место из маленьких моделей), рядышком я бы поставил qwen 30b a3b, с их возможностью переключаться на ходу в режим reasonong и обратно (она еще быстрее и памяти просит всего в 2-3 раза больше). Из мультимодальных верхушку маленьких занимает mistral small 3.1 24b и гугловская gemma3 27 (да и 12b, они не сильно отличаются).

    Вы пробовали OpenManus? я читал что ее запускают с локальными моделями и результаты неплохие.

    p.s. на процессоре будет МЕДЛЕННО, особенно когда работают десятки-сотни агентов и особенно если использовать режим reasoning, где за дополнительные 15% качества приходится платить минутами и часами времени

    Современные модели даже маленькие требует оперативную память, я игрался с 2x16gb и этого мало. После 8-16к контекста, требования к памяти сравнимы с объемом хранения весов, а сотни килотокенов уже заметно превышают... Например gemma3 12b только для запуска требует дополнительно 24гб. И как вырожденный пример - llama scout с 10кк контекста на его полный потребует 18терабайт оперативки.
    Ответ написан
    6 комментариев
  • Можно ли развернуть многошаговую ИИ-генерацию контента на WP?

    @rPman
    Самое простое - реализовать самому http прокси (простейшее веб приложение, которое будет слушать в формате openai api и делать то что ты хочешь а не то что ожидалось, хоть 100500 шагов)

    И конечно, отредактировать wp плагин, если конечно он не обфусицирован.

    Не знаешь как? спроси ИИ, уж читать код они уже научились
    Ответ написан
  • Какая нейросеть умеет в дизайн?

    @rPman
    Таких нет, возможно кто то запилил на их основе готовый проектик, но почти наверняка выглядеть это будет топорно, лучше сам компонуй в редакторе и генерируй картинки.

    Попроси copilot майкрософтовский, он слабый как ИИ но туда много что напихали
    Ответ написан
    Комментировать
  • В процессе работы нейросетевых моделей насколько активно идёт процесс обмена данными по PCIe с видеокартой?

    @rPman
    Если оперативной памяти хватает, то скорость pci-e будет влиять ТОЛЬКО на время первичной загрузки модели в vram (обычно это один раз при запуске приложения)

    Если оперативной памяти мало, то пользователи начинают крутить разные опции, оптимизаторы, что то перемещается в cpu ram, вот тогда обмен данными может стать значимым. Мне кажется в этом случае уже cpu становится узким местом а не обмен данными.

    Поэтому не беспокойтесь.

    p.s. если использовать gpu llm - текстовые ИИ, то там есть алгоритмы (для генераторов я таких не видел но по факту там тот же трансформер, так что могут быть) размазывания нагрузки по нескольким видеокартам, вот в этом случае скорость pci-e становится уже значимой, но и тут, передаваемые данные все еще логарифм от размера модели.
    Ответ написан
    Комментировать
  • Какие нейронки или программы смогут восстанови эл. схему по фото платы?

    @rPman
    openai:o4-mini
    оно там много что на галлюцинировало, но в полуручном режиме вроде можно попробовать в KiCad
    Исходников под свободную лицензию практически нет. Если вас устраивает полуавтоматическая схема, проще:
    * Снимите фотки, приведите к 1:1 в масштабе и без искажений.
    * В KiCad создайте новый PCB-проект, подложите снимки на слои F.Cu/B.Cu.
    * По фотографиям вручную обведите дорожки, определите компоненты (их расположение, ориентацию, footprint).
    * Запустите CvPcb, сопоставьте footprint-ы реальным компонентам → получите нетлист.
    * Сгенерируйте из нетлиста схему в Eeschema.

    https://docs.kicad.org/5.1/en/cvpcb/cvpcb.html
    назвать процесс удобным язык не поворачивается, но что то мне говорит что можно запилить скрипт, на основе openvc (снаружи) и макрософ (внутри kicad)
    Ответ написан
  • Стоит ли оформлять Copilot Pro для Visual Studio 2022?

    @rPman
    На текущий момент ИИ на базе gpt не является Универсальным ИИ (AGI), поэтому по глупому особой пользы вы от него не получите, лучшие результаты подключают в генерации текстов (маркетинг, может быть развлечения и почти наверняка симуляция людей в чатах и соцсетях), для программирования они ПОКА не подходят, по тем причинам, что в основе своей не содержат базы данных (условный RAG подключен внутри api), доступа к справочникам по библиотекам и фреймворкам.

    gpt пытается быть похожим на человека, у них проблемы с обучением (маленькое контекстое окно и при его увеличении они тупеют), а значит будет точно так же ошибаться и тупить, если спросить его без шпаргалки (много ли обыватель накодит с листочком бумаги и без доступа к интернету?)

    Каких только я расширений не смотрел, все они просто окно интерфейса к gpt, примитивные, даже не собирают минифицированный и не хранят контекст (системный промпт) между запросами, передавая весь текущий файл или даже проект (что дикость) в контекст.

    Есть несколько проектов, которые представляют из себя полноценную среду разработки (и само собой не такую полнофункциональную как msvc), где все это пытаются реализовать и что то может получается, но результат все еще посредственный

    Поэтому, я считаю, пока нужно либо самому разрабатывать такое расширение (или хотя бы тулчейн, работающий с проектом параллельно), в котором файлы проекта обрабатываются, преобразуются в запросы, проверяются и все это кучей ИИ агентов ... может что то и получится.

    p.s. openrouter, оплата в криптовалюте, все топовые нейронки и не только, универсальный api (совместимый с openai) и т.п.

    p.p.s. в программировании современный ИИ неплохо себя показывает в анализе кода, особенно когда не требуется аналитика глобальная по проекту, а вот конкретный файл, в каком то смысле он понимает что написано, с ним можно 'побеседовать со своим кодом', по задавать вопросы и получить иногда (70% топовые нейронки) правильный ответ.

    Вот тот самый момент с не 100%-тной точностью ломает все адекватные задачи, которые можно было бы ему поручить
    Ответ написан
    Комментировать
  • Как написать нейросеть на языке программирования C#?

    @rPman
    Самое 'простое', при дообучении новым данным, в обучающий датасет добавить целиком или частично предыдущий (эффективное прореживание данных, отдельная задача).

    Можно расширить нейронную сеть (примерно как сделали с Mixture of Expert), считай обучить одну и ту же сеть разным данным, а затем из них собрать франкенштейна плюс классификатор, который на каждом слое/уровне вибирает, какую именно сеть использовать

    Можно замораживать веса и обучать только на некоторых (что бы понимать что можно править а что нет, нужно иметь представление о том, какие именно данные где хранятся, а это может быть не просто, но и для этого есть алгоритмы)
    Ответ написан
  • Как в comfyUi изменить текст промпта сразу в нескольких узлах?

    @rPman
    Попробуй так:

    Правая кнопка на ноде с промптом, "convert widget to input" -> "Convert text to input" и промпт можно получать как текст от других нод.

    Так делаем для каждой ноды с текстом, в который нужно копировать текст.

    Затем, для исходного промпта создаем Add node -> utils -> primitive, проводим от ее выхода коннекты до нужных нод (она сама станет текстовой)
    Ответ написан
    1 комментарий
  • Существует ли бесплатная онлайн нейросеть или программа которая из обычной статической картинки делает анимированную?

    @rPman
    Stable Video Diffusion, устанавливаете локально и пользуетесь бесплатно (не HD версии доступны даже для коммерческого использования, в т.ч. есть не только SD но и тот же Flex)

    Из инструментов 'все включено' советую stable-diffusion-webui, или тот же ComifyUI (но это скорее графический язык программирования к генерации)
    совет
    на сайтах с примерами workflow, картинку с ним можно drag-and-drop в окно интерфейса прямо из браузера, и он будет загружен автоматом

    Без видеокарты будет работать но в десятки раз медленнее, советую 12..16gb vram
    Ответ написан
    2 комментария
  • Есть ли системы озвучки текста учитывающие интонации и эмоции конкретного человека?

    @rPman
    upd. https://github.com/myshell-ai/OpenVoice
    https://github.com/jasonppy/VoiceCraft
    но ты не очень контролируешь эмоции, полагаю тут это тюнингом нужно делать
    ---------------

    Эмоциональной речью хвастались openai, но чужие голоса тюнить не дают, мало того они отключили один из своих, только за подозрения в похожести голоса на чей то популярный.

    Сам не пользовался, но по отзывам говорят звучит шикарно,.. русский само собой с акцентом.

    Серая юридическая зона! очень страшно влить миллионы в тюнинг модели и получить судебный запрет из-за копирастии всех своих продуктов... это не то что хочется получить, если у тебя на кону сотни миллиардов.

    p.s. еще этим занимались alibaba qwen, у них точно были gpt модели, где голос был на входе и на выходе, но там английский и китайский, я тоже не смотрел

    Ну и facebook чем то таким занимается, полистай их публичный архив, там есть audio-audio трансформер, но там явно без каких то значимых результатов, что бы сравнивать с топами, но все открыто
    тупо первое попавшееся, кажется это переводчик голос-голос
    Ответ написан
    Комментировать
  • LLM. Qwen2.5-Coder-32b-IQ2_XS vs Qwen2.5-Coder-14b-Q4_K_M. Что лучше?

    @rPman
    Квантизация сильно ломает слабые модели, настоятельно не рекомендую 8b..14b использовать с квантизацией меньше 8бит, да и с ней будут проблемы

    Лучшая локальная модель, с адекватным размером, на текущий момент - это дистиляция deepseek r1 какой-нибудь qwen 14b или 32b

    Использовать с vllm, например deepseek-r1-qwen-14b с 32к контекстом, 8бит квантизацией, батчингом и местом для kv cache работает на 2x16gb ram (точнее от каждой тратится по ~14gb), на 2x4060ti 16gb (стоят по 50т.р., это самая доступная gpu с самым дешевым vram) или используй какой-нибудь vast.ai, с одиночным запросом работает 20-30 токен/сек, а если одновременно 16 запустить, разгоняется до 250-500 токен/сек

    deepseek r1 это рассуждающие модели, поддерживают только английский и китайский, отмечает рассуждения в ответе тегом .... Благодаря хорошей скорости в режиме батчинг, можно один и тот же вопрос задавать одновременно несколько раз, и сравнивать ответ (можно попросить ее же сравнить), тот что выдан чаще - тот считать верным.

    Программирование у deepseek неожидано хорошее, да и в простой логике отвечает неплохо (тест на 'количество братьев у сестры' могут накосячить и топовые сети, эта выдаст неправильный в 3 из 16 запросах, и если изучить ее рассуждения, там прямо так и пишет что люди могут на этот вопрос ответить вот так поэтому пишем неверное число), подчеркиваю, на модели 14b, а уж оригинальная MoE на 600b и подавно шаг в шаг идет с топами.
    Ответ написан
    Комментировать
  • Нейросеть или ИИ для создания изображений сайта дизайнов?

    @rPman
    таких не существуют

    есть нейронки текст+изображение -> текст (а тебе нужно текст+изображение -> текст+изображение), но на рабочие задачи там 50 но 50, то не работает, то фигня получается.

    нейронки, которые генерируют изображения даже близко к ИИ не подошли, это просто красивые галлюцинации.
    Ответ написан
  • Возможно ли точно вычислить степень влияния ИИ в книгах и кино?

    @rPman
    К сожалению универсального ответа нет.

    Затраты на создание адекватного детектера генератора ИИ сравнимы с созданием этого ИИ. Но хуже того, как только такой верификатор появится в доступе, на нем сразу начнут обучать ИИ что бы он его обходил, это не сложно, так как обучающая выборка будет крохотной - тысячи.. десятки тысяч статей,.. от этого не защититься.
    Ответ написан
    Комментировать
  • Какая нейросеть умеет сопоставлять два списка?

    @rPman
    Я во времена первой llama делал такую работу на ней, хорошо проработанный запрос, список типов запчастей (это справочник) к промпту и по одной записи из списка запчастей, и повторять для каждой

    На процессоре тогда он по 20-30 секунд отрабатывал запись, несколько тысяч за несколько часов.

    Весь процесс нужно сохранять и отслеживать, корректируя промпт, помню у ламы тогда была проблема с финишным токеном, после ответа она могла продолжить разглагольствовать, это тоже решаемо но нужно все это учитывать.

    Сейчас у llama.cpp есть поддержка kv-кеша (не смотрел), и уж точно эта поддержка есть у топовых openai/anthropic/google, тогда каждый запрос у тебя будет моментальный, и токены тратиться только на название запчасти и ответ.

    Хуже, если справочник в запрос не влезет (ориентируйся на 8к токенов, джаже топовые модели нормально только в пределах этого окна работают, хотя хз может уже все гораздо лучше стало, просто проведи тесты), тут есть варианты - можно по хардкору расписать вектора смысла (embedding) для каждого значения справочника и разделить справочник на части таким образом, что бы близкие по смыслу значения были рядом, а далекие - в другой части, и тогда для каждой запчасти делать несколько запросов с разными списками из справочника...

    да это долго, но простого решения тут нет, человек делать это будет еще дольше
    Ответ написан
    Комментировать
  • Как конвертировать модель в GGUF и квантовать?

    @rPman
    На самой странице модели есть пример кода на python или ссылка на github или докер образ, как ее использовать, обычно там же простым способом можно квантовать 8бит (более чем достаточно для исполнения, быстро, минимальные требования vram и без потери качества)

    Есть проект vllm, в котором поддержку универсально пилят для всех топовых моделей, попробуй его, у него же встроен веб сервер, а так же веб сервер с совместимым openai api, а там 100500 локальных вебморд для использования.

    p.s. только llama.cpp эффективно умеет работать на процессоре и главное использовать gpu и обычную память одновременно (например не хватает считанных гигабайт)
    Ответ написан
    Комментировать
  • Что выбрать за архитектуру LLM для обучения с нуля?

    @rPman
    У тебя ошибка в постановке цели - 'обучить с нуля'.

    llama3 обучалась на 15Тера-токенах, это примерно на три порядка больше чем в твоих гигабайтах, этого катастрофически мало, для того что бы что то внятное получилось.

    Для обучения модели, по мощности сравнимой с gpt3.5 нужно 10^26 степени flops (очень приблизительная оценка, скорее всего занижена, так как все очень зависит от использованного оборудования), посчитайте необходимое количество GPU и энергии, для того что бы достичь этого объема вычислений (для примера бери nvidia a100 80gb считая что ее мощность 20tflops это 2*10^13, да так считать не правильно, и в зависимости от задач число можно как увеличивать в 20 раз так и уменьшать в разы).
    ------------

    Что можно сделать и почему скорее всего это то же не получится и почему это тоже будет дорого - можно взять уже обученную (модели с пометкой completion а не instruction) модель и дообучить на своих данных. Если делать это в лоб то качество работы результата значительно упадет, если исходные данные будут хоть немного противоречить (не совпадать) с изначальной обучающей выборкой (есть алгоритмы анализа обучающей выборки на сравнение с исходной).

    НО! Ни одна компания, создающая топовые модели не делится исходными данными (это похоже стало по цене сравнимо с затратами на вычисления), а те что делятся - очень слабые, хуже openai gpt3.5 это уже давно стало минимальным эталоном, все что хуже не будет адекватной instruction.

    Единственное, где finetuning еще как то можно использовать, - это доработка формата ответа (обучающую выборку собирают в купе с ответами самой модели или анализируя эти данные с ее помощью), а так же для фиксации направления использования (не instruction), например превратить модель в классификатор, ты ей текст, а она тебе ответ - типа сообщение содержит хейт, например буквой ответит).

    После тюнинга модели на своих данных, ее нужно продолжить дообучать (из gpt35 так сделали gpt4), с помощью RLHF, это когда куча не дешевых людей (потому как дешевых уже давно заменяют другой моделью, например openai) анализируют ответы и помечают где модель ответила правильно а где нет, еще лучше когда дают оценку, или выбирают лучший из нескольких.

    Т.е. тебе нужна база вопросов, это еще одна обучающая выборка (специально подготовленная), скорее всего это еще одна причина, почему существуют сайты типа чат арены, где 'за бесплатно' у народа собирают огромную базу вопросов и их бенчмарков.

    p.s. резюмирую, если у тебя в кармане нет порядка $10кк а скорее всего в десятки раз больше, то 'с нуля' обучать свою модель у тебя не получится.

    В мире не так много компаний которые в принципе на это способны - в россии например на это способны богатейшие только сбербанк (гигачат) и яндекс (yandex gpt), последние этим занимаются давно (за долго до появления chatgpt) и единственная их проблема - не хватает денег (и блокировка доступа к покупке оборудования), и возможно специалистов.
    Ответ написан
    7 комментариев
  • Возможен ли запуск нейросети на видеокарте для майнинга?

    @rPman
    Есть шанс нарваться на проблемы с драйверами, ограничивающими использование видеокарты, но почему бы и не попробовать?

    Если есть opencl запустить то можно, с помощью llama.cpp можно запускать на любой видеокарте, причем даже если она не nvidia, и на встройках.. вопрос на сколько быстро это будет.

    И только смысла в этом нет, потому как главное у видеокарты должен быть большой объем оперативной памяти... 8b модели и так слабые, они сильнее реагируют (ухудшают качество) от квантизации, поэтому из меньше 8бит не квантуют, т.е. минимум только на веса 8гб, а еще на контекст нужно несколько гигабайт.

    С другой стороны, закупить несколько, весь софт для выполнения умеет распределять нагрузку по нескольким.
    Ответ написан
    Комментировать
  • Какая нейросеть оживляет картинки?

    @rPman
    Stable video diffusion, будет работать на 12-16gb gpu (например nvidia gtx 4060ti стоит 59т.р., а 3060 12гб - 35т.р. ), работает неплохо, но на сколько я знаю он работает от картинки а не запроса (т.е. если ты задаешь запрос, она генерирует из него только стартовать картинку).

    Облачные ресурсы дороже на порядок, как ни крути.

    Кажется Runway позволяет платить через alipay в России.

    p.s. Кандинский от Яндекса ты не использовал?
    Ответ написан
    Комментировать