если будешь использовать tensorflow, то все будет совместимо, нейронная сеть созданная в python будет переносима на c++, так как по факту это один и тот же код.
и да, не легче ;)
не понимаю фразу про эмуляцию.
"обучить нейронку" это буквально - набрать обучающие данные (табличку в которой часть колонок входные данные и часть - выходные, т.е. ожидаемые) и подсунуть их специальному алгоритму, который чуть ли не перебором начнет подбирать такие веса нейронной сети, чтобы суммарно различия между ожидаемым и выдаваемым этой сетью данными минимизировались.
под данными подразумевается МНОГО (покрывающие всю область плюс еще немного) ситуаций, которыми обучаешь сеть. Т.е. если ты обучаешь сеть распознавать лица, значит тебе нужно сотни тысяч лиц скормить нейронной сети, и спасибо если у тебя есть возможность нагенирировать новых данных из старых (ну там поворачивать, искажать, добавлять мусора и т.п.)
чинить что либо без знаний и понимания команд невозможно, настоятельно рекомендую переустановить систему
например fdisk -l в консоли просто покажет список дсков и разделов на них в терминале, ничего не изменит и не починит.
p.s не надо 22.10, настоятельно не рекомендую, получишь проблемы сейчас и огромные потом, если вовремя не обновишься
Мало того сейчас даже 22.04 lts не рекомендуется, слишком много софта ориентируется на прошлый lts 20.04
А еще рекомендую не использовать unity от ubuntu, на столько испорченной комбинации софта еще надо поискать, полагаю это было способом идти к цели - дискредитации linux в общем через популяризацию неправильных решений. Поставь себе xubuntu, простая, дубовая, практически без проблем,.. кому надо можно поставить приложения от unity, одно другому не мешает
Еще рекомендую пользоваться виртуализацией, точнее контейнеризацией, размещая приложения-для-экспериментов в отдельных контейнерах, например с помощью libvirt lxc (почти все делается из графического интерфейса, но будут легкие неудобства с графикой), так эксперименты не затронут хост систему.. полагаю попытка завернуть много приложений в snap имеет ту же цель, но реализация грустная.
Blohinidze Escobaro, сдается мне что ты что то не понимаешь в том что такое нейросети и машинное обучение.
на тот случай, если понимаешь но сформулировал неправильно, намекну - нейросеть, созданная в приложении на питоне будет работать и в другой библиотеке/языке программирования (веса только перенести в нужном формате)
ааа, помню точно делали через постоянное редактирование старого сообщения, не реже чем определенный таймаут, то ли десяток минут то ли еще больше, пока это разрешает система
Что именно тормозит в виртуалке? вычисления? работа с диском? работа с памятью? вон windows на любой чих лезет в интернет, и если он настроен неправильно (например dns не работает) т могут быть задержки при запуске любого приложения...
как именно определил что тормозит?
как проверял что на соседней машине все работает норм? переносил файл диска vdi?
p.s. на скрине используется hyper-v и включен pae, отключи (удали службу например) и попробуй в закладке ускорение выбрать kvm
p.p.s. не пользуйся win11, рано еще, откатись до 10-ки
абсолютно все умеют работать, но для гарантии кабель должен быть обжат правильно (полагаю ты говорил про умные сетевые карты, которые умеют работать с любым кабелем, да не все такие умные)
у тикток внизу есть кнопка сохранения видео (отправки его в другое приложение), соответственно если автоматически нажимать нужную последовательность кнопок с паузами, можно бесконечно листать ленту и сохранять ее.
автонажатия на android можно делать через adb (подключение либо usb либо по сети), adb shell input tap <x> <y>а там либо на своей машине скрипт со слипами либо на android, там bash shell
само собой этот подход не смотрит на то, отловило ли приложение наждатие, завершилась ли предыдущая операция и т.п., для создания более умного приложения лучше делать на основе других инструментов
ну или вот например https://habr.com/ru/company/simbirsoft/blog/459292/
Слава Кривошейков, само собой, просто я это сказал только для того чтобы показать что технически windows это может (каждому приложению свой ip адрес) но как на практике это использовать непонятно
в linux разным приложениям можно объяснить как роутить пакеты на основе cgroup, в windows я видел что это сделали ibik aster, хз как не проверял, явно на уровне драйверов
мне кажется лучшим решением для тебя из простых будет виртуалка или взлом приложения
это ты опытный все можешь и все получается
а скажи новичку настроить питон, базы данных, да просто php с модулями, и у большинства начнут появляться вопросы как почему где взять и т.п.
под linux как минимум бинарники проблем не создают и 99% задач вообще в офф репах размещены и устанавливаются штатным apt, а вот с windows ... к примеру настрой java с openjfx, особенно если твоя задача сделать дистрибутив все включено а oracle внезапно распространять с приложением жаву не дает просто так (одно время бинарников openjdk новее 8 версии не было, потом появились сначала сторонние потом спасибо redhat подключился).
примеров тьма, они все эпизодические, то тут то там что то не сростается.
я не знаю что у тебя там за программа но в режиме интеграции приложения из гостевых систем virtualbox работают как обычные (только alt+tab и прочие системные кнопки действуют не так как ожидаешь и это кажется настраивается)
Слава Кривошейков, однозначно решение слишком специфическое для этого приложения
рекомендую спросить у этих других фирм или искать в интернете добавив к вопросу название программы :)
p.s. повторяю вопрос, виртуальные машины пробовал? в windows для virtualbox можно пробрасывать внутрь usb устройства, ну а если это pci устройство то при использовании linux можно его физически пробросить и попытаться обойти даже аппаратные ограничения
у anydesk есть 2 режима работы (оно предлагает это во время установки и в настройках кажется безопасности) - в режиме службы (это называется - неконтролируемый доступ кажется) и как обычное приложение (оно доступно даже без установки)
не уверен правда, останется ли постоянным id если приложение не установить а просто добавить его установщик в автозапуск, проверь сам
Эти ддос-ящие 50к клиентов выглядят как неправильная архитектура.
У меня вопрос, не пробовал ли вместо rsync использовать rtorrent (или наверное лучше deluge или другой безголовый демон) со включенной опцией dht и поиском локальных пиров, если 50к клиентов в локальной сети? Если отключить в настройках пересканирование содержимого файлов при обновлении торент файла, должно быть очень эффективно и красиво работать.
С точки зрения нагрузки, она станет максимально эффективно распределенной по клиентам, а сервер максимум как трекер будет работать ну и работать как одним из гарантированных клиентов и стартом dht сети. Под вопросом работа при большом (десятки тысяч) количестве файлов, а вот по трафику это будет наилучший вариант.
я про поддерживать
дистрибутивы имеют свойство меняться, причем во всем
скрипты автоматизации перестанут отрабатывать (или не будут затрагивать все) уже через пол года/квартал), а уж что происходит при обновлении дистрибутива и подавно кошмар
и да, не легче ;)
не понимаю фразу про эмуляцию.
"обучить нейронку" это буквально - набрать обучающие данные (табличку в которой часть колонок входные данные и часть - выходные, т.е. ожидаемые) и подсунуть их специальному алгоритму, который чуть ли не перебором начнет подбирать такие веса нейронной сети, чтобы суммарно различия между ожидаемым и выдаваемым этой сетью данными минимизировались.
под данными подразумевается МНОГО (покрывающие всю область плюс еще немного) ситуаций, которыми обучаешь сеть. Т.е. если ты обучаешь сеть распознавать лица, значит тебе нужно сотни тысяч лиц скормить нейронной сети, и спасибо если у тебя есть возможность нагенирировать новых данных из старых (ну там поворачивать, искажать, добавлять мусора и т.п.)