使用来自Kinect的深度信息从图像中提取手部区域

问题描述 投票:1回答:1

我有一个“ Leap Motion和Microsoft Kinect采集的数据集”数据集。它包含获取:

  1. depth.png:Kinect深度图(640 x 480)。
  2. depth.bin:Kinect深度图原始(640 x 480短16位。0表示没有有效值)。
  3. rgb.png:Kinect颜色图(1280 x 960)。
  4. leap_motion.cvs:跳跃运动参数。

[彩色图像(rgb.png)是显示一些手势的人的图像。

我想要的是仅提取这些图像的手部区域并将它们另存为单独的图像。但是问题是手部区域不在同一确切位置。一种方法是使用depth.bin文件,因为它由包含从相机平面到最近对象的距离(以毫米为单位)的像素组成。手部区域比身体本身更靠近相机,因此可以提取手部区域。但是我对这些过程不太了解。

如何使用.bin文件中的信息并提取RGB图像的手部区域并分别保存提取的图像(希望在OpenCV Python环境中>)>

如果问题的某些部分不够清楚,我将详细解释!

图像看起来像这样:

images look like this

并且数据集链接为here


Edit:

我已经在MATLAB中阅读了.bin文件,其大小为614400x1。它不是307200x1,因为640 * 480 =307200。为什么它大2倍?我错过了一些棘手的东西吗?

我有一个“ Leap Motion和Microsoft Kinect采集的数据集”数据集。它包含以下采集:depth.png:Kinect深度图(640 x 480)。 depth.bin:Kinect深度图原始图像(640 x 480短...

python matlab opencv gesture-recognition kinect-interaction
1个回答
0
投票

我遇到了同样的问题。您如何解决此问题

© www.soinside.com 2019 - 2024. All rights reserved.