Задать вопрос
  • Сможет ли чайник собрать костюм с помощью chatGPT и добрых Хабровчан?

    @ObelardO
    wassaby45, не прошло и 10-ти лет :)

    Автору вопроса хотел бы посоветовать сфокусироваться на основной задаче. Если стоит задача сделать игру, то этим и стоит заняться, не отвлекаясь на разработку оборудования. Тем более это не то оборудование, без которого невозможно обойтись и это не какая-то киллер-фича.

    Если важно записывать все же такой мокап (может быть у вас очень редкие анимации предполагаются) то лучше пойти в сторону готовых таких модулей. Из недорогих в голову приходит SlimeVR и PicoVR трекеры. Лучшим вариантом будет взять б\у базовые станции Vive и несколько Vive Tracker. Еще у antilatency из Воронежа есть клевые трекеры с мини-камерами, тоже интересный подход на подобие современных автономных шлемов. Нужно будет в Unity написать пару утилит для записи ключей анимации прямо в animationClip.

    Уже через полгода, после попытки сборки модульного костюма с MPU9250, я понял что проблему дрейфа нуля не могу решить только за счет сенсоров. Сделал оптическую компенсацию, Потом и вовсе перешел на Vive Tracker и забыл про пайку. Во второй статье показываю первые тесты по захвату движений: https://habr.com/ru/articles/406843/

    Сейчас, если бы передо мной стояла такая задача (именно сделать захват движений, а не игру) я бы пошел в сторону готовых трекеров и ИИ (хотя бы для сверки и компенсации). Сейчас нейронки могут даже в реалтайме (что кстати для вас не так важно) выдавать нормальное положение. Особенно если использовать камеру глубины типа Azure kinect. Можно сделать самодельные маркеры, сделать сетап из двух и более камер - это все будет сопоставимо, либо превосходить по качеству любую самоделку. Из инструментов вам понадобиться python, мощная видео-карта и какой-нибудь софт вроде TouchDesigner.

    C пайкой вы обожжетесь (во всех смыслах) Т.к. нюансов и тупиков на пути будет очень много, реально можно потратить очень много времени и сил, а получить далеко не то, что ожидаете. Хотя сейчас с информацией по таким сенсорам все намного лучше, т.к. тема DIY дронов развилась. Мир шагнул вперед, а точнее немного в сторону ИИ.

    P.S. Любую записанную анимацию придется чистить, тут без работы аниматора не обойтись. Анимацию оружия и рук делают вручную, уж очень она специфично выглядит. Либо нужен буквально актер движений, который умеет делать акцентные движения.