речь про софт, который видит обыватель и который ассоциируется с этим самым linux, способ его разработки, выбор направления развития и прочее
Лично я не считаю это деградацией до windows, это свой путь деградации, грустный, говорить о нем долго, сложно и бессмысленно, и решения красивого нет ибо все требует денег, а они в свою очередь требуют все ломать...
Godless, неплохой выбор, это почти 1080 (чуть чуть меньше потоковых процессоров но там считанный процент), одно время это был безоговорочный лидер в домашних нейронках
Minkos, я не нашел ни одного упоминания о сенсорах температуры во встроенных в процессор intel gpu (не поленился посмотрел исходники вышепредложенного igt-gpu-tools, там есть куски от amdgpu и все), с помощью какой программы вы смотрите температуру в windows, проверь что она показывает именно температуру ускорителя а не дублирует к примеру одно из ядер.
с ssd читать может оказаться дешевле чем писать в оперативную память, но это требует исследования
ну и с точки зрения затрат на работу в режиме idle ssd выгоднее оперативной памяти, он вообще не потребляет энергии (на самом деле потребляет, тупо потому что там своя оперативная память есть (в дешевых используется оперативная память компьютера) но значительно меньше чем требуется на обновление ddr, так как каждый этап обновления это запись).
p.s. я хочу заметить что те операционные системы, что мы используем, не умеют работать с данными на ssd/hdd без копирования их в оперативную память, когда как технически такая возможность имеется (какой в этом смысл, другой вопрос). Это значит что чтение данных с диска тратит энергию еще и на запись этих же данных в оперативную память
но это не важно, я хотел подчеркнуть что эти затраты на столько мизерные по сравнению с остальными компонентами типового x86 компьютера, что на них обращать внимание не стоит
мне нужен вариант без готовых библиотек по типу TensorFlow, Keras и подобные
почему? нужно отказываться от огромного количества готовых низкоуровневых решений.
Они оптимальны, и единственный их недостаток - не работает нормально с amd видеокартами (ну возможно и с последними дискретными от intel и китайскими, у тех точно свои библиотеки или реализации)
вектор это и есть набор чисел, с заданным количеством, т.е. сигнал на входной нейрон задается вектором
Нейронные сети работают только с числами
В принципе если у тебя не опечатка и действительно на вход одного нейрона подается вектор, значит и дальше сигнал определяется вектором... т.е. используется линейная алгебра, я только краем глаза читал про это, не уверен, есть ли какие то бонусы от такого представления, ведь математика, определенная над векторами сложнее и не такая удобная как над числами...