Задать вопрос
@Val7713

Как запустить AI-модель с Hugging Face?

Здравствуйте!

Можете подсказать, есть ли программа для запуска моделей категории Document Question Answering на Hugging Face (https://huggingface.co/models?pipeline_tag=documen...)?

Как, например, LM Studio для GGUF-моделей или Alpaca Electron для GGML по генерации текста
  • Вопрос задан
  • 1957 просмотров
Подписаться 1 Сложный Комментировать
Помогут разобраться в теме Все курсы
  • Нетология
    Data Scientist: расширенный курс
    13 месяцев
    Далее
  • Яндекс Практикум
    Инженер машинного обучения
    4 месяца
    Далее
  • Skillfactory
    Профессия Data Scientist
    24 месяца
    Далее
Пригласить эксперта
Ответы на вопрос 1
@rPman
Выбираешь модель, в описании ищешь code examples или documentation, вот тупо первая же модель по твоей ссылке naver-clova-ix/donut-base-finetuned-docvqa и тут же по ссылке пример кода использования

Обычно код, который выкладывают на huggingface заточен на его же использование, все максимально автоматизировано, при первом запуске будет скачана модель, и вся возня - это установка необходимых python зависимостей.

Если модель небольшая, считанные миллиарды параметров, то она будет без особых проблем запускаться на процессоре, если больше, то рекомендуется gpu от nvidia (с некоторыми не самыми слабыми amd реально но будет много возни).

Требования к RAM обычно 2х-4х от размера модели в параметрах (т.е. 7B будет требовать порядка 14Gb-24Gb ram), но в некоторых случаях есть методы квантизации (например gpt квантизуют с помощью bitsanbytes) в этом случае требования к ram падают до количества параметров (т.е. 7Gb-9Gb для 7B модели)

p.s. если повезет, возможно выбранная тобой модель может быть запущена с помощью llama.cpp (там и мультимодальные VA модели уже запускают), с ней есть шанс разместить часть весов в GPU а не все, т.е. это имеет смысл если оперативной памяти gpu чуть чуть не хватает.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы