Vlad122, если ты тут пошёл вверх, а бот пошёл вниз, то он сделал что-то не так и ему штраф, а если пошёл так же куда-то вверх, то бонус. Чем ближе к месту в записи, тем больше бонус. Вообще прочитай про reinforce learning
HamaVari, с точки зрения реализации, да, проще запускать консольное приложение, по ней и информации больше, если конечно тебе не нужно будет интерпретировать вывод из консоли, на предмет того, что там происходит, тот же прогресс показывать.
HamaVari, чтобы работало под все платформы, надо иметь сбилженый ffmpeg под все платформы. Можно и через API но тебе надо будет погрузиться в сишный код и собрать библиотеку под себя.
GNUBack, ну вот и выходит, он сделал то, чего не нужно было делать, потому что это делают всё целиком из коробки. А так, если он хочет взять свою часть, то ему придётся реализовывать и остальные, по хранению индексации и выборки по всему этому.
GNUBack, ну да, они примерно все так и работают. Где-то есть поддержка языков, например в posgresql можно явно указать язык текста, и там даже есть поддержка русского, который умеет выкинуть разные окончания, оставив корень. Или просто текст бьют на триграммы и работают с ними.
Василий Банников, Вообще там достаточный список, когда ПД можно хранить без согласия, в том числе, если того требуют другие законы. Поэтому ничего он не удалит, пока сроки всяких отчётностей не истекут.
Проведи больше эпох обучения. Ну и потом, отделить чётное от не чётного с помощью умножения несколько не очевидно как. Если нарисовать эти данные на плоском графике, то чтобы построить рассекающую ломаную, надо 2000 отрезков. А у тебя всего 1000 примеров на 1000 вариантов.
Так тут нет обратного хода распространения ошибки, которая меняла бы веса. Нету никакого обучения. Что же до больших значений, то relu не нормализует выход, поэтому верхней границы значений нет.