Ronaldo, Мне нужно, чтобы модель научилась хоть как-то генерировать что-то минимально осмысленное. Тексты, которые генерирует модель, обученная на Шекспире пока больше похожа на зубрилу.
Ronaldo, Хм... Даже не знаю... У меня вообще нет никакой возможности обучать модель на целый гигабайт!
Может быть, можно хоть как-то обучить модель так, чтобы она подавала признаки жизни? Чтобы можно было хоть как-то оценить, нормально она обучилась, или нет.
Rsa97, Ну... Как посмотреть. Генерируемые тексты имеют смысл. А у маленьких моделей он часто имеет только структуру. У больших ЛЛМ ответ закрывает поставленную задачу.
VoidVolker, Скажите пожалуйста, а каким должен быть FPGA, чтобы он мог обогнать процессор на 16 потоков, 4 с лишним гигагерц. В основном нужны логические и арифметические операции.
Кроме того, может быть вам известно, кто может дать мне попользоваться его кристаллом бесплатно? Есть ли провайдеры, которым даёшь описание на нужном языке, а они запускают?
Смотрите, мне не нужна видеокарта. Мне нужна FPGA, которая может меняться под задачу. Дело в том, что у меня есть одна очень интересная задача, которая не очень эффективна для процессора, но реализовать логическую схему очень просто. При этом, мне нужно сделать так, чтобы всё было очень параллельно.
«Пользователь удалён», Большинство Open Source LLM очень плохо говорят по русски. GPT-4 говорит по русски хорошо. Вот я и хочу научить маленькую LLM говорить по русски.
Виктор, А трудно ли написать программу, которая бы пересылала пакеты с одного компьютера на другой напрямую, без посредников? Это помогло бы улучшить качество связи?
Виктор, Я им пользуюсь. Но всё-равно есть проблемы. Скажите, а он пересылает видеопоток через цепочку подключённых компьютеров? Это не прямая пересылка с одного компьютера на другой?
А теперь этих моделей пруд-пруди!