VladimirFarshatov, может тебе оно не надо? Что ты хочешь получить от TensorFlow? Это сложная библиотека. И решение может быть овер-инжинерингом. Ты свою задачу реализовал? Она работает? Чего тогда беспокоиться? Лучше улучшай что есть. Оптимизируй и так далее.
Ты 30 лет игнорировал (как и я) достаточно интересную доменную область и сейчас за месяцок хочешь туда вкатиться? Не выйдет. Я вот начал с ML для bigdata. Шаг за шагом. Тихой сапой. И я даже не расчитываю разобраться как работает генеративный AI. Его создавали давно. Сейчас мы только-только увидели результаты. И то благодаря технической сингулярности железа. Его стало настолько много (памяти и ЦПУ) что задача вместо качественного решения была решена просто количественно. Сколько там в GPT? 12 млрд связей? Не десктопе просто так не посчитаешь. Вот. И командовать чятами мне не особо интересно. Я не вижу где я могу там руки приложить. И чтоб приложение это имело инженерную а не пользовательскую ценность. Вот. Мне мои задачи пока нужнее.
Можно только порадоваться что у Стима такой толстый канал. Я вот торреты качаю целый день и нигогда задержек в браузере не видел. Ну может youtube иногда переключаелся на низкое разрешение.
При таких условиях длину веревки не найти. Возможно эта задача будет сведена к решению треугольников.
Если ты хочешь потренироваться то не надо придумывать из головы задачки. Найди сборники задач по Геометрии и решай. Там - условия будут самодостаточны.
Если ты читал что-то через nano - это очень хорошо. Я не возражаю. Но убедись что мы говорим об одинаковых вещах.
SQLite вообще очень простая dbms. И каких-то особых коробочных продуктов с репликацией у нее нет. В Postgres например репликация реализована на базе WAL и нескольких (кажется) продуктов которые могут скачиваться или покупаться отдельно.
Пройдись скриптом по всем в цикле и получишь матрицу совместимости. Твой теоретический вопрос не имеет смысла пока ты сам не будешь знать чего ты конкретно хочешь от стандарта. Тогда можно уже и исходних переделать под любой стандарт. Я думаю что это не сложно.
Как я получил список. Я дернул clang с неправильным параметром -stx=x и он мне выдал список поддерживаемых стандартов. Там еще и семейство gnu есть.
В википедии по поиску логарифм и экспонента ты найдешь формулы возведения числа x в вещественную степень y.
Многие математические пакеты даже не содержат эту функцию. Предполагается что программист ее легко выразит
через exp/log. А эти функции считаются через ряды Тейлора внутри. Тоже самое что и логарифм произвольного x по любому основанию выражается через частное натуральных логарифмов. Я просто повторил код из wiki.
Хотя кубический корень из вещественного числа можно вычислить методом половинного деления или ньютона. Но это тебе домашнее задание.
Вообще алгоритмы машинного обучения не всегда обязаны базироваться на НС. Есть и старые проверенные способы. Линейная. Нелинейная регрессии. Они нормально работают. Другое дело что щас любой школьник заходя в QNA для любой задачи тут же затаскивает и Чяты и Нейросети а ему только надо 2+2 посчитать. Живем в эпоху завышенных ожиданий или перегрева рынка НС.
Ты хочешь выполнить работу компиллятора? Программирование - это практическая наука. А компиллятор может проводить доказательство правоты кода (Питонщики это не поймут у них не так).
Ты 30 лет игнорировал (как и я) достаточно интересную доменную область и сейчас за месяцок хочешь туда вкатиться? Не выйдет. Я вот начал с ML для bigdata. Шаг за шагом. Тихой сапой. И я даже не расчитываю разобраться как работает генеративный AI. Его создавали давно. Сейчас мы только-только увидели результаты. И то благодаря технической сингулярности железа. Его стало настолько много (памяти и ЦПУ) что задача вместо качественного решения была решена просто количественно. Сколько там в GPT? 12 млрд связей? Не десктопе просто так не посчитаешь. Вот. И командовать чятами мне не особо интересно. Я не вижу где я могу там руки приложить. И чтоб приложение это имело инженерную а не пользовательскую ценность. Вот. Мне мои задачи пока нужнее.