Как запустить LLM на нескольких компьютерах сразу?
Хочу запустить большую языковую модель у себя локально, но одного большого компьютера с огромной памятью у меня нет. Хочу выпросить у ближних их ноутбуки и на каждый ноутбук выделить часть слоёв сети, так, чтобы они пересылали друг другу промежуточные результаты. Есть ли готовые решения, позволяющие это сделать? Насколько упадёт производительность?
Filipp42, ну давай рассуждать. Вот у тебя LAG передачи информации между слоями был равен нулю.
Потом ты внедрил сеть. Появился лаг. Сколько он будет? Я не знаю. Ну пускай будет от 1мс до 10мс.
Вот и думай как эти 10мс встроятся в каждый удаленный вызов процедуры. Да. У тебя-же не стриминг.
У тебя вызов процедуры. Синхронный. С ожиданием результата. И еще с сетевым штормом. У тебя-ж
не один ноутбук будет а 2 или 3 или 4. Все должны уведомить всех о том что расчет слоя закончен.
И ты спрашиваешь что не так?
Вот это я увидел в моем кошмаре. Ну может я сгущаю краски. И ты придумаешь алгоритм который
не требует синхронизации. Но это будут изменения в алгоритм обучения. Попробуй потом докажи
что алгоритм правильный. А это еще сложнее чем сеть строить.
mayton2019, не надо умничать, эта схема работает и первую крупную опенсорсную модель (то ли OPT то ли BLOOM) именно так и запускали
точно видел проекты по совместному использованию видеокарт, ты подключаешь свои мощности к общей сети и пользуешься ее возможностями, только не гуглится никак
Привет, архитектуры современных LLM достаточно сложны. Если у вас есть доступ к компьютеру с 32 гб рам можете смотреть в сторону lama.cpp. Не все архитектуры могут быть разделены да и модификация фреймворка глубокого обучения это серьезная задача. Так же есть варианты использовать colab или арендовать сервак на runpod.
Если совсем панкухой заниматся то можно просто построить марковскую модель на вашем корпусе текстов и запускаться хоть на ардуине зависит от вашей задачи