glm 中的“权重”背后的直觉是什么?

问题描述 投票:0回答:0

要使用 R 执行广义线性回归,在 glm 中有一个选项,我可以将 weight 放入 weights 的每个观察值。 现在我想知道它到底做了什么?我在这个网站上发现了一个类似的问题。然而,这并没有回答我的问题。因此,我用一个例子来说明我的问题。 示例数据如下

x1=rnorm(100)
x2=rnorm(100)
y=rbinom(100,1,0.5)
Data=data.frame(y,x1,x2)
w=rexp(100)
model= glm(y~x1+x2, data=Data, family=binomial,weights=w)

这些 weights 是重采样 y 吗?然后使用这个新的重采样 y 及其相应的协变量,y 对协变量进行回归??

换句话说,我可以将上面的程序重述为:

newsample=sample(1:length(y),length(y),replace=TRUE,prob=w)

newdata=Data[newsample,]

然后将 y 与其对应的 x1 和 x2 回归为

model= glm(y~x1+x2, data=newdata, family=binomial)

? 谢谢。

logistic-regression glm weighted resample
© www.soinside.com 2019 - 2024. All rights reserved.