Армянское Радио, я же обяснил. если это уже делают то я лучше возьму или куплю готовое. мне нужен результат, готовое и дещевле и надежнее. с одной стороны лобовой путь это брать более мощное железо, оно нынче не дорогое. но сдругой стороны ресурсов всегда не хватает. сейчас наметился комплекс мер которые могут ускорить в несколько раз. это существенно. кстати когда сделаем и статейку на какой нибудь буржуйкий ресурс напишем. они оценят, там деньги считать умеют
Армянское Радио, я сам себе работодатель. и мне надо выжать максимум из железа. мне бы хотелось услышать что то полезное. прежде чем заказывать эту прогу я хотел бы поискать аналоги. я думаю что массовые продукты не делают в кодах не потому что не умеют а именно по тем причинам которые вы изложили. но у меня не массовый продукт
это полезная информация. физически ядра gpu 'это 32 разряда. я ожидал что снижение разрядности не используют. это вдохновляет. я написал в вопросе что тензорный процессор гугла использует 8 разрядов. можно обучить с этой точностью а потом утчонить. получится быстрее. некоторые призводители gpu дают ассемблер, можно попробовать с 8 разрядами
то что большиство закерских атак построено на фишинге это точно. ищут лохов, без лоха жизнь плоха. телефон не теряйте а потеряв или коли украдут сразу блокируйте счет
pulsework, fir реализован без проблем. для бих с итерациями реализован тоже. итерация это вычисления в цикле, при этом результат сходится к какомуто значению. можно заменить словом рекуррентность. если вообще сходится. вопрос во времени вычисления, я подумал может наука поимела такой прогресс что можно без циклов. я подумал может както используют z преобразования и тп
таких тестов я видел много. ты знаешь что такое интерпретирующий язык, умник? отвечай.
на чем написаны основные пакеты
Torch с
Caffe с++
Theano python, компилируется
tensor flow python, вычмсления на с и cuda
так где же обязательность питона, губошлеп?
mkone112, проблема не втом, что вы и подобные вам практически ничего не можете, а в том что вы морочите голову молодому человеку. например пишите что без питона в машинном обучении не обойтись. ML это тяжелые вычисления. питон во много раз медленне чем с , не говоря об ассемблере и cuda. ни один нормальный практик не работает с питоном
antares4045, буду признателен. похоже готовой проги я не найду, надо писать. вобласти максимума даже аппроксимация параболой может очень уточнить результат
https://qna.habr.com/q/1064934 я хочу попробовать для задач оптимизации, машинного обучения. матрица 1000*1000 по 2 байта на данное это всего 2 мб. мне не надо брать все точки, 1000 точек в области предполагаемго экстремума хватит
памяти более чем достатгчно. предполагается сначал использовать обычгые методы, например генетический. а по уже вычисленным значениям апроксимировать. я не просил оценить идею. так вы можете ответить на вопрос, известно ли вам используют ли аппроксимацию
все эти знания мало помогут при обучении реальной сети. помимо объема вычислений, который может быть неприемлимым, возникает проблема овражности и попадания в локальный максимум. убучение сети это шаманство
я живу в израиле. этот человек аытался ответить на мой вопрос как раз по машинному обучению. больше никто не ответил. но он неадекватный и невменяемый. если вы действительно хотите найти работу а не просто потрепаться то вы должны понимат, что это спциальность очень сложная. и того кто умеет берут на работу сразу. хороших математиков и програмистов очень много, а умеющих обучать сети очень мало. обратите особое внимание на методы оптимизайии функций многих переменных, это суть машинного оьбучения. проблема втом что детерминированные алгоритмы, типа градиентного, работают быстро но могут дать совепшенно не верный результа.
а случайные типа генетического и имитации отжига надежнее но гораздо медленне. надо их сочетать. также будующее машинного обучения это вычисдения на видеокартах а также специализированные процессоры вроде тензороного у гугла