Я работаю с Kinect в течение нескольких месяцев и с тех пор использую OpenNI и Kinect для Windows SDK. Несколько месяцев назад, когда я начал его использовать, я использовал C # с WPF для создания меню, в котором пользователь мог бы использовать жесты для взаимодействия с ними с помощью WPF. Используя WPF, довольно легко обнаружить жесты захвата, пролистывания и жесты нажатия (это делается прозрачным способом для программиста), но, поскольку я перешел на C ++, я понятия не имею, как их обнаружить. Какие функции Kinect SDK используются для этого или где я могу найти учебник по этому вопросу?
Большое спасибо!
Я понимаю, что это старый вопрос, но у меня была та же проблема, и я не нашел ответа. Что я обнаружил, так это пост на форумах MSDN о том, что эти жесты являются неотъемлемой частью WPF / XAML и не могут использоваться без него. Человек из URL-адреса, на который я ссылаюсь ниже, сказал: «Я бы сказал, что нажатие, панорамирование и масштабирование в том виде, в каком вы их нашли, не являются« общими жестами »из коробки, а только взаимодействуют с некоторыми элементами управления WPF / XAML внутри KinectRegion». Хорошо, что эти функции не так сложно реализовать.