Сможет ли Raspberry pi запустить нейронную сеть по определению объектов на камере в реальном времени?
попробовал запустить нейросеть Yolo v4 на компе, без видяхи 3 фпс на интел 5 (с 3050, думаю на 40-50 потянет) Нейронка обучена на сотни тысячей фото, много объектов распознает. Все нейронные сети настолько много жрут производительность? В целом без видеокарты не вариант этим заниматься, а raspberry так вообще не потянет? Или есть менее требовательные нейронки?
Даже у yolo много вариантов. Но в среднем, чем больше ты хочешь от нейроки, тем производительней надо железо. Поэтому подход, взять самую крутую, он такой
Если нужна возможность определять предмет перед нейронкой с платы rapsberry надо самому обучать нейросеть на минимальное кол-во предметов, снижать разрешение до 100 на 100, а лучше до 50 на 50, и тогда может выйдет получить хорошую и стабильную производительность. Очевидно качество при такой работает страдает, может иногда не распознавать, но в целом работает такое хорошо. Yolo на рапсберри работать не будет
Да может. Мобильные телефоны используют уже обученные модели для коррекции лиц.
Поскольку речь идет уже об обученной модели - то от нее много не потребуется. Кроме того
в задачах работы с графикой всегда есть большая фора - разрешение картики. Если ее регулировать
то можно даже слабую конфигурацию заставить работать но она будет работать с разрешением 320х240
хотя и будет терять лица которые слишком далеко отошли от камеры.