Ответы пользователя по тегу Видеокарты
  • Как получить бесплатные вычислительные мощности для исследований?

    @rPman
    Университеты могут предлагать мощности своим сотрудникам, при условии что будет публикация с аффиляцией этого университета.

    Ты как бы покупаешь мощности за то что университет подмажется к твоим достижениям... Но нужно понимать что могут совсем уж кабальные условия выставить.

    Помню ТГУ предлагал свои мощности (там уже слабый суперкомп, вам не подойдёт) но права на результат универу нужно было отдавать

    P s. Глупо гадать, обзвонит университеты, поспрашивайте
    Ответ написан
    Комментировать
  • Как в Linux полностью программно сменить основную видеокарту?

    @rPman
    Уходите от Wayland, например к xfce или gnome, бонусом возвращения будет возможность, используя штатный loginctl, настроить два рабочих места, по отдельности на каждую видеокарту (и не важно что второе рабочее место с intel ark не будет использоваться). Доступ к второй видеокарте в числодробилках останется, а вот графический интерфейс будет привязан к указанному gpu железно.
    spoiler
    Исключение wine (ну и его потомки типа proton), я столкнулся с проблемой именно со вторым рабочим местом, wine видит первую видеокарту и часть работы перекладывает на нее, как не указывай.
    Ответ написан
    Комментировать
  • Есть ли вариант сочетания игровой и профессиональной видеокарты?

    @rPman
    Процессор слабый, игры с ним могут тупо не смочь утилизировать возможности видеокарты.

    Но, если речь идет о покупке железа на вырост, хотя бы на ближайшие пару лет, и нет денег на топовое то рекомендую nvidia 3060 12Gb (12гб ключевой момент) либо 4060ti 16гб.

    Почему?
    * потому что в будущем требования к оперативной памяти будут расти, сильнее чем к процессору gpu (процессор будет тратиться на 4k, но никто не мешает играть fullhd 1080 или просто hd 720)
    * потому что 16гб позволяют запускать современные нейронки локально, не топовые конечно но даже 13b помещаются (8бит квантизация), а llama.cpp позволит запускать с 4битной квантизацией (потеря качества 3-5%) частично на процессоре и 30b модели

    не игровые задачи пойдут на любой gpu, плюс минус в 2-3 раза разница во времени вычислений не критична.
    Ответ написан
    Комментировать
  • Видеокарта не работает без драйверов, что делать?

    @rPman
    Такое (включая отсутствие изображения в биосе) возможно если на материнке (с поддержкой процессора) есть встроенная видеокарта и в настройках биоса прописано инициализировать ее в первую очередь.

    В windows же можно указывать любую видеокарту как основную, поэтому после загрузки все видно.

    Решение - вставить старую карту чтобы зайти в биос, и включить в биосе настройку - инициализировать первым pcie (хотя вопрос, почему тогда со старой видеокартой такое, но могу предположить что встроенная вместе с ней не может работать, конфликты какие то)
    Ответ написан
    Комментировать
  • Разница в нагреве компонентов при разной нагрузке системой?

    @rPman
    На холостых в windows уже со времен 8-ки работает много лишнего софта, гиагабайтами, фоном, я молчу про мусорный софт от вендоров ноутбуков (вендроские декстопные компьютеры не видел и видеть не хочу, там по разговорам еще хуже), весь этот хлам потребляет процессор а тот в свою очередь греется.

    Чистить дело неблагодарное, хоть и реальное, примерно раз в год, с крупными обновлениями от майкрософта, все очищенное возвращается назад с изменениями от автоочищалок,.. какая то борьба с ветряными мельницами.

    Попробуй зайди в bios материнки и понаблюдай за температурой, на сколько я помню это единственное место где можно получить минимальную нагрузку и наблюдать за ней. Если и там температура будет заметной, то настоятельно рекомендую провести чистку системы охлаждения и замену термопасты.
    Ответ написан
  • Как запустить LLM на встроенной видеокарте?

    @rPman
    На встроенной видеокарте не запустить большие языковые модели, потому что не хватит оперативной памяти. Но даже если умудриться выделить в биосе для встроенной gpu нужный объем памяти, работать это будет медленнее чем llama.cpp на процессоре.

    При использовании llama.cpp требования можно снизить за счет квантизации (на самом деле код есть и для python tensorflow реализации, но там не так удобно все организовано, придется изучать и ковырять), но даже в этом случае начальный обем vram где то 8Gb (с 4бит квантизацией и 7B модели, будут работать плохо, минимально рекомендованная это 5_1 квантизация, штатный tensorflow код с которым релизятся модели, без проблем умеет 8бит квантизацию), не жди от 7B моделей хорошего качества, и тем более при использовании квантизации, они и так уже уменьшены по максимуму.

    p.s. llama.cpp умеет часть матриц переносить в gpu, это имеет смысл если vram не хватает чуть чуть, т.е. модель влезает почти полностью добавляй ключ --n-gpu-layers N где N число слоев нейронки, которые нужно перенести в vram, подбирать экспериментально пока не начнет ругаться на нехватку памяти.

    скорее всего тебе придется пересобрать ее с ключом OPENBLAS или CLBLAS
    mkdir build
    cd build
    cmake .. -DLLAMA_BLAS=ON -DLLAMA_BLAS_VENDOR=OpenBLAS
    cmake --build . --config Release

    (полистай документацию возможно еще ключи добавлять)
    Ответ написан
    Комментировать
  • Какую видеокарту выбрать для машинного обучения, майнинга, гейминга и 3д-моделирования?

    @rPman
    К сожалению, весь современный софт заточен на nvidia решения. С некоторыми оговорками на amd и скорее всего не на долго (т.е. скоро окончательно будет все), например stable diffusion еще запускают на топовых amd, с заметной деградацией скорости (т.е. карта в играх будет типа быстрее nvidia но в нейронках будет хуже, это вопрос исключительно софта и скорее всего политики).

    Самое главное для нейронок - это vram видеокарты, все остальное - частоты, количество процессоров, шина и прочее конечно важно, но обычно идет в комплекте если выбирать решения с большой памятью.

    Если денег мало, то имеет смысл обратить взор на медленную (еще вопрос на сколько, в играх это ~30%..50% от топовых но для нейронок возможно не так плохо) но с большим объемом vram - nvidia geforce rtx 3060 16gb с ценами порядка 35т.р. когда как остальные решения стартуют от 50т.р. а заканчиваются на 300т.р. (я про потребительские решения, серверные найти вообще нереал и цены там зашкаливают, соотношение цена/производительность у серверных хуже всего)

    Если денег меньше, то бери любую nvidia с максимумом vram, построив табличку цена, fps и выбирая наибольшее соотношение цена/fps или индекс производительности (бери один и тот же тест).

    ВАЖНЫЙ момент! почти все алгоритмы нейронных сетей могут быть распаралелены на несколько gpu (либо легко модифицированы для этого), я имею в виду когда размер самой нейросети такой огромный либо нейросеть маленькая но обучающая выборка большая, отсюда интересный вариант, если нужно больше чем 16гб vram, может оказаться дешевле набить материнку несколькими 3060 (она вообще самая дешевая за гигабайт), и за счет возможности загружать данные в несколько gpu одновременно, это даст интересный буст на решения, которые упираются в pci-e (не говоря о цене, nvidia 24гб начинаются по ценам от 110т.р., а 2x3060 обойдутся в 70т.р.)

    p.s. вопросы энергопотребления даже не рассматриваю, пока у тебя нет кластера на сотни gpu (или если тебе не повезло жить в какой-нибудь 'жопе мира', где энергия стоит порядка 1евро за киловат час)

    upd. минимальное требование по vram к stable diffusion - 3gb (минимальный размер картинок меньше 512x512, batch меньше 4, опции --xformers и --lowvram и невозможность генерации видео), рекомендуется 6Gb

    для генерации видео на stable diffusion нужно минимум 8gb лучше больше

    минимальный размер адекватной языковой модели 7Gb mistral может заработать на 8Gb с 8бит квантизацией, так же я слышал что llama13b тоже работает на 8gb видеокартах

    чтобы дообучать, потребуется больше vram, так как квантизация недоступна (можно использовать peft с 8-битной, но это только тюнинг качества для конкретного промпта)
    Ответ написан
    Комментировать
  • Видеокарта для обучения нейросетей, Palit P104-100 8Gb?

    @rPman
    Если выбирать при работе с нейронными сетями - больше памяти = лучше почти всегда (чтобы в память влезали нейронки, обучающая выборка и тесты и еще осталось), в идеале конечно и кеш больше но это архитектура (новее = лучше почти всегда). Выбор nvidia почти всегда для нейронок лучше, вопрос не железа, оно у них даже может быть хуже (соотношение цена/результат), вопрос софта, почти весь популярный ЛУЧШЕ или вообще работает с nvidia.

    Если тебе для обучения, видеокарта не нужна, она только экономит время (от 10х до 100х кратно быстрее на gpu). pytorch это не единственное место, где можно использовать ускорение gpu, скорее может оказаться что стартовая подготовка данных будет занимать значимо больше времени чем само обучение, и возможность ускорить этот этап с помощью gpu (используй напрямую opencl чтобы хотя бы на этом этапе не привязываться к зеленым, для начинающих разницы нет) будет значима... именно тут можно получить 100х кратное ускорение по сравнению с cpu

    p.s. стоимость видеокарты намекает на покупку с рук БУ, почти наверняка с майнинга, будь осторожен, можешь получить горелую.
    Ответ написан
    2 комментария
  • Хорошие ли видеокарты от таких брендов как asus, hp, msi и ТД?

    @rPman
    видеокарта это:
    1. чип - их производят пока только nvidia/amd/и не давно intel
    2. плата + система охлаждения - вот это всякие hp, asus, msi, gigabyte,..
    3. софт и драйвера - драйвера производят nvidia/amd/intel только для себя, но вот софт (например поддержка gpu в cad приложениях) пилят каждый себе сам

    Всегда приходится при выборе оглядываться на эти три пункта, исходя из третьего пункта - по задаче, и второго - по отзывам, принципиальные возможности тебе даст только первый пункт, т.е. производительность решений с одним и тем же чипом от разных 'производителей' будет идентична, с оговорками на систему охлаждения (редко), если ее не хватит будет немного хуже (одно время разные производители чуть чуть тюнили частоты и вольтаж, теперь такое редко встретишь, все под одну гребенку работают).

    Но очень иногда, под конкретные чипсеты, у некоторых производителей получаются проблемы, либо с подсистемой питания, либо с системой охлаждения, либо с ремонтопригодностью. Эту информацию приходится выуживать по форумам и обзорам.

    Очень часто слышу хорошее про msi, очень часто слышу о проблемах у palit... гугли конкретные модели
    Ответ написан
  • Ребутается ПК, отломлена pci-e линия, что делать?

    @rPman
    Восстановить конечно же, так как восстанавливают платы с гораздо большими повреждениями, технически проблем с этим нет, но есть вопрос цены.

    Отнеси в сервис, спроси о стоимости ремонта.

    В домашних условиях, т.е. забесплатно с риском потери железки, можно пропилить/процарапать в нужном месте бороздку, вложить в нее кусочек медной проволочки (сначала длиньше чем надо чтобы удерживать ее внутри канавки, потом отрежешь) и залить припоем, затем зашлифовать результат до плоского. Без канавки припой держаться не будет (кстати наверняка и на это есть реактивы, просто я не знаю какие), а без проволочки в ней припой туда не зайдет.

    Из инструментов - микродрель с разными дисками дисками и насадками и паяльник, смартфон в качестве микроскопа.

    Вручную без опыта это делать гиблое дело, но если потренироваться на мертвых устройствах, то почему нет.
    Ответ написан
    4 комментария
  • Что делать если лагает видео в режиме "картинка в картинке" после смены видеокарты?

    @rPman
    Драйвера нужно переустанавливать при смене устройства, даже если они ранее были уже установлены, одно время для amd драйверов требовалось даже удалять предыдущие с перезагрузкой, иначе нормально новые не устанавливались (повторяю, даже если это те же самые драйвера с того же установочного файла), это особенность подсистемы драйверов windows
    Ответ написан
  • Запуск ПК без дискретной видеокарты?

    @rPman
    На сколько я понимаю LGA 1151-v2 не совместим со старым LGA 1151 (хоть по контактам подходит), это фактически новая архитектура, интель старательно поддерживает политику - новый проц - новый комп (да здравствует глобальное потепление, все заводы работают на помойку).
    ошибка
    Ответ написан
  • После того как дома вылетели пробки видеокарта перестала работать, блоки питания уходят в защиту, уже так 2 ПК проверил .Какая может быть проблема?

    @rPman
    Первый кандидат на проверку - блок питания и видеокарта, но лучше нести в сервис сразу весь компьютер, так как нормальную диагностику можно провести только имея на руках совместимые рабочие компоненты (последовательная подстановка твоих комплектующих в заведомо рабочий конфиг) и только имея для этого оборудование и квалификацию.

    Любые самостоятельные действия будут иметь ошибочный результат с высокой вероятностью.

    p.s. если выход из строя питания - частые события, то проверь еще и жесткие диски, я отчетливо помню как смотрел на карту бедблоков старого жесткого диска (сотни и сотни по всему), на машине, работающей годами в условиях ежедневных (по нескольку раз в день) выключений питания в сети, без стабилизатора и источника бесперебойного питания.
    Ответ написан
    Комментировать
  • Что лучше rtx 3070 или rtx 4060 для ноутбуков?

    @rPman
    Очень неоднозначный выбор, если смотреть на 4к и ультра настройки (когда видеокарта больше влияет) то 3070 лучше (она быстрее в техническом плане, больше шина памяти, больше потоковых процессоров) но если смотреть различные тесты то там все по разному и как я понимаю очень сильно зависит уже от процессора ноутбука. 4060 чуть меньше TDP но там считанные ватты, реальное потребление давно уже не соответствует паспортному.

    И да, питания не хватает и как только куцая система охлаждения перегревается, все уйдет в тротл.

    Это как нужно себя ненавидеть, чтобы играть на ноутбуке (адски дорогой конфиг с кучей неудобств)! Правильный игровой 'ноутбук' - это стационарный компьютер.
    Ответ написан
    Комментировать
  • Как установить драйвера AMD Radeon HD 6320 в windows 10?

    @rPman
    но раньше спокойно работали
    т.е. поломали с каким то обновлением?

    Ищешь версию iso образа установки windows не новее того момента когда все работало, устанавливаешь ее (обязательно отключив интернет), ставишь драйвера на видеокарту и по одному устанавливаешь обновления (список обновлений получай с помощью ntlite) до тех пор пока драйвер не перестанет работать

    соответственно это обновление можно будет пропустить и с некоторыми шансами все будет работать (есть шанс что обновление важное и оно потянет за собой блок остальных)

    К сожалению конкретное обновление теперь нельзя поставить в черный список, но можно отдельно заблокировать установку драйверов, в общем вопрос экспериментов
    Ответ написан
  • Нужна ли видеокарта для сервера терминалов Windows?

    @rPman
    Не нужна
    Но я столкнулся со странностями, когда устанавливал windows 10 в virtualbox (последняя бета) и устанавливал дополнения ос, пытаясь установить драйвер видео, и он глючит. Забывает перерисовать изображение и главное при попытке подключиться по rdp клиент выдавал странную ошибку (нормально не гуглилось, какая сейчас не важно), исправилось удалением драйвера видео от vbox.

    Т.е. для работы сервера терминалов каким то образом зависит от работы драйвера видео.
    Ответ написан
    Комментировать
  • Какую подобрать видеокарту по таким параметрам?

    @rPman
    Посмотри внимательно на свою видеокарту, нет ли на ней DVI-i выхода? так как существуют пассивные переходники (с ценами 100р) на dvi (причем тебе подойдет любой dvi-i или dvi-d) в любую сторону, включая просто кабели, практически все видеокарты прошлых лет имели три или больше видеовыхода, правда это были div + dsub/dvi + hdmi + опционально display port

    Абсолютно все видеокарты на рынке сейчас pci-e и подойдут к твоей материнке, но осторожно с блоком питания (за твой бюджет ты наврят ли выйдешь за то что уже имеешь).

    За 20т.р. можно подобрать rtx3050 8гб vram (в dns в регионах 23т.р.) или 1650super 192bit 6gb vram /2060 и т.п., настоятельно рекомендую выбирать железки с vram >6гб и nvidia (за эту опцию придется переплатить 10-15% при равной производительности).

    Почему больше памяти - потому что таковы требования к современным и будущим играм, плюс такие видеокарты обычно снабжают большей шириной шины (любят производители с этим мухлевать) что тоже очень важно чтобы не было случайных лагов в играх.

    Почему nvidia? потому что при наличии vram >6гб позволяет играться с нейронными сетями, например stable diffusion, при наличии 8+ vram можно генерировать к примеру видео, при наличии 24+vram можно играть с младшими языковыми моделями и т.п.
    Ответ написан
    3 комментария
  • Заработает ли видеокарта через интерфейс usb3.0 не тандерболт?

    @rPman
    с вероятностью 99.(9)% нет

    Причина в прослойке usb -> nvme (я вообще считал что таких не существует и не гуглится, но допускаю, китайцы молодцы могли что то придумать), она должна и сможет инкапсулировать только sata команды, т.е. видеокарта тупо не получит нужных команд даже на инициализацию

    и даже если на аппаратном уровне вдруг внезапно препятствий не обнаружиться, нужны драйвера, которые бы понимали это садамаза
    Ответ написан
  • Какая частота монитора больше подходит для 60 FPS?

    @rPman
    Лучше хуже - вопрос личного восприятия.

    Низкочастотные мониторы 'имеют аппаратный морф' изображения между кадрами (светотень, кстати ее может не быть, если матрица высокоскоростная но процессор поставили слабый), считай между сменой изображения тебе добавляют несколько высокоскоростных кадров плавного перехода (правда там есть разница между отсутствием света и присутствием, т.е. светотень черного по белому и наоборот будет разной), можно придумать ситуации когда это кому то может нравиться (прямо вижу как говорят - теплое ламповое движение а не сухое и острое при высокоскоростной смене кадров).

    Мне кажется, для подавляющего большинства нужны циферки
    а не реальное ощущение. выше 60 кадров нужно только кибер спортсменам, а некоторым хватит даже 30-40 (если они стабильны).

    Ключевое слово - стабильность интервалов времени между кадрами, ее сложнее всего получить, особенно в играх, где каждый кадр генерируется разное время и наш мозг воспринимает эти разницы как еще одну гармонику смены кадров (а их будет много)

    upd. еще высокую смену кадров нужно дисплеям очков виртуальной реальности, там 90fps на грани минимума, все из-за особенности смены изображения при поворотах головы, но автору вопроса это не надо
    Ответ написан
    Комментировать
  • Какие серверные видеоускорители возможно интегрировать в оборудование и какие есть особенности?

    @rPman
    Важно что ты будешь делать с этими видеоускорителями внутри виртуалок. Играть бессмысленно. Вычисления гонять - глупо. Очень очень мало задач, которые бы требовали одновременно несколько видеоускорителей в одной машине и не могли бы сравнительно эффективно работать на нескольких.

    Как то считал и прикидывал, и понял что себестоимость виртуальной машины с проброшенной видеокартой выше чем стоимость отдельной железки той же производительности, причем значительно.

    Есть есть деньги, организуй кастомные корпуса с охлаждением и собирай кластер из mitx материнок с любой десктопной видеокартой (спасибо tenserflow все кушает) через рейзер (боком), из них получатся аккуратные блейды (блокпитания+материнка+видеокарта).

    Не экономь на рейзерах. Не экономь на охлаждении (даже о воде). Задумайся о 10G сетях, если тебе нужно считать, да тут материнки пошли с 2.5Gbit, уже приятно.
    Ответ написан
    2 комментария