Ronaldo, Мне нужно, чтобы модель научилась хоть как-то генерировать что-то минимально осмысленное. Тексты, которые генерирует модель, обученная на Шекспире пока больше похожа на зубрилу.
Ronaldo, Хм... Даже не знаю... У меня вообще нет никакой возможности обучать модель на целый гигабайт!
Может быть, можно хоть как-то обучить модель так, чтобы она подавала признаки жизни? Чтобы можно было хоть как-то оценить, нормально она обучилась, или нет.
Rsa97, Ну... Как посмотреть. Генерируемые тексты имеют смысл. А у маленьких моделей он часто имеет только структуру. У больших ЛЛМ ответ закрывает поставленную задачу.
VoidVolker, Скажите пожалуйста, а каким должен быть FPGA, чтобы он мог обогнать процессор на 16 потоков, 4 с лишним гигагерц. В основном нужны логические и арифметические операции.
Кроме того, может быть вам известно, кто может дать мне попользоваться его кристаллом бесплатно? Есть ли провайдеры, которым даёшь описание на нужном языке, а они запускают?
Смотрите, мне не нужна видеокарта. Мне нужна FPGA, которая может меняться под задачу. Дело в том, что у меня есть одна очень интересная задача, которая не очень эффективна для процессора, но реализовать логическую схему очень просто. При этом, мне нужно сделать так, чтобы всё было очень параллельно.
Everything_is_bad, Большинство Open Source LLM очень плохо говорят по русски. GPT-4 говорит по русски хорошо. Вот я и хочу научить маленькую LLM говорить по русски.
Виктор, А трудно ли написать программу, которая бы пересылала пакеты с одного компьютера на другой напрямую, без посредников? Это помогло бы улучшить качество связи?
Виктор, Я им пользуюсь. Но всё-равно есть проблемы. Скажите, а он пересылает видеопоток через цепочку подключённых компьютеров? Это не прямая пересылка с одного компьютера на другой?