Задать вопрос
MAXH0
@MAXH0

LLM для школьных экспериментов. Существует ли что то подходящее?

Существует ли не особо интеллектуальное, и как следствие не требовательное к ресурсам решение LLM, которое позволит продемонстрировать школьникам LLM не как сервис в виде черного ящика, а нечто, что можно настраивать и ковырять? Желательно локально. У меня аллергия на облака
  • Вопрос задан
  • 71 просмотр
Подписаться 1 Средний Комментировать
Пригласить эксперта
Ответы на вопрос 3
Ollama + Open Web UI позволят подключить и понастраивать модели. На а какая заведётся и будет достаточно шустро работать на вашем железе нужно подбирать экспериментально, начать можно с DeepSeek с небольшим количеством параметров.

Но если под «настраивать и ковырять» вы понимаете что-то более низкоуровневое, чем промпт-инжиниринг, то это не подойдёт.
Ответ написан
GavriKos
@GavriKos
https://huggingface.co/models?sort=trending

Идете вот сюда, и выбираете. Самое к чему требовательна модель просто для запросов - оператива (в идеале кнчн видеопамять, но можно и в обычной). Приблизительно - размер модели - это и есть требование к оперативе. Для страховки - умножить на 1.2. Т.е. если модель весит 10 гигов - то вам надо точно 12 гигов оперативы или видеопамяти. Тут еще зависит от кучи вещей (можно ли размазать в видео и оперативу, квантинизация, вот это все).
И важно - чисто для запросов есть упрощенная версия моделей (не помню как называется, там что то из разряда уже скомпиленных весов).

А вот если хотите обучать - то вам нужна сырая модель, очень много времени и хорошее железо. Никаких ноутов, маков. Только нормальный писюк, видяха хорошая чтобы молотить флоты, и запас времени.

Я у себя запускал mistral например на 32 гигах оперативы. Можете начать с нее.
Ответ написан
Комментировать
@SWA512
Gamedev
Качайте и ставьте на компьютер LM Studio. В нем есть выбор разнообразных локальных LLM моделей, которые программа скачает самостоятельно. Выбирать стоит те модели размер которых попадает в 90% от размера вашей видеопамяти. Расчет на CPU идет раз в 20 медленней. Например Модель gemma-3-12b относительно "умна" и работает с русским.
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы
Wanted Москва
от 60 000 до 120 000 ₽
Wanted Санкт-Петербург
До 120 000 ₽
Metamentor Москва
от 80 000 до 120 000 ₽