Kinect SDK. Часть первая (комментарии)
Это сообщение сгенерировано автоматически.
А Вы работали с OpenNI или только с Microsoft Kinect SDK? Конкретно хотелось бы услышать сравнение "аккуратности" userPixels (то есть там где стоит индекс 1 или 2 (это кстати максимум для сдк? 2 юзера?)). Извините если не очень понятно изъясняюсь, я имею ввиду точность определения принадлежит ли данный пиксел юзеру или бэкграунду. Eсли посмотрите видео (https://www.youtube.com/watch?v=5XiF0Uw1iLw&feature=player_embedded), то возможно станет понятнее, о чем я спрашиваю. Там видно что часть головы иногда не скрывается фильтром. Мне приходится расширять границы определенного пользователя чтобы скрыть "неопределенные" области.
Работал только с Kinect SDK. Человека определяет полностью, иногда бывают небольшие просветы, иногда часть, например, дивана или стула может определится как первый игрок (но это только если стоять рядом с предметом).
Ясно, спасибо за ответ!
Кстати, а мне пришла идея: Если kinect камеру сделать мобильной и совместить с акселерометром, то можно 3D сканировать различное пространство. Например, отсканировать какой-нить ландшафт для игры.
Да да
А ведь так можно взять в руки табурет и управлять им машиной.
Или надеть шлем виртуальной реальности, где комната перерэндэрена со свежими текстурами из интернета.
Ну типа того, только в случае шлема - у тебя на голове должен быть закреплен кинект :)
>Ну типа того, только в случае шлема - у тебя на голове должен быть закреплен кинект :)
Так для ориентации в пространстве 3D сканер не нужен, а нужен гироскоп и акселерометр.
спасибо за русский текст, очень приятно почитать. Ведь узнать как разрабатывать хочется, а устройство взять не можется :(
Кинект отжирает вычислительные мощности от самой консоли? если да то сколько? например в %.
3xter
Я так понимаю что речь про виндовое SDK.
Тема в архиве.