模拟传感器值与目标位置(角度和距离)之间的关系

问题描述 投票:0回答:1

我想得到一个简单的模型,可以预测对象相对于目标的当前位置。

更具体地说,我的头部有4个相同的光传感器放置在90度之间。有一个发出可见光的光源(LED)。由于每个传感器具有角度光谱(最大值为90度并且在光入射角增加时降低其灵敏度),因此每个传感器的接收值由头部相对于目标的角度和距离确定。

我测量了不同角度和距离的四个传感器的值。

当入射光较低时(传感器远离目标或传感器背向目标),每个传感器的最大值约为9.5,而当传感器接近目标或直接面向目标时,值会减小。

我的输入和输出看起来像[0.1234 0.0124 8.342 9.232] = [角度,距离]:头部靠近灯光的示例。

来自传感器的四个输入和两个角度和距离的输出。

我可以通过什么策略来推导出一个可用于通过输入当前传入传感器值来预测角度和距离的方程式?

我在考虑多元回归,但我的输出不是单个标量(更多的向量)。我不确定它会起作用。因此,我写这里是为了寻求帮助。

任何帮助,将不胜感激。

谢谢

matlab math modeling
1个回答
0
投票

您对多变量回归的看法看起来很合理。

恕我直言,你需要训练两个模型,而不是一个。第一个将预测角度,第二个将预测距离。

为什么要将这两种模型结合起来?从优化度量的角度来看,这看起来很奇怪。构建角度模型时,最小化弧度误差。构建距离模型时,最小化误差(以米为单位)。那么在单个模型案例中您将最小化的指标是什么?

我相信下一个链接对您有用:

  1. https://www.mathworks.com/help/curvefit/surface-fitting.html
  2. https://www.mathworks.com/help/matlab/math/example-curve-fitting-via-optimization.html

注意:在某些情况下,数据规范化(例如通过zscore)会大大提高拟合性能。

附:也可以在https://stats.stackexchange.com/询问

© www.soinside.com 2019 - 2024. All rights reserved.