Fisher information(费舍尔信息量):统计学与信息论中的一个量,用来衡量观测数据对某个未知参数所包含的信息量。直观上,Fisher information 越大,表示数据对参数的“约束力”越强,参数估计通常能更精确(在一定条件下与估计方差下界相关,如 Cramér–Rao 下界)。
/ˈfɪʃər ˌɪnfərˈmeɪʃən/
The Fisher information is larger when the data are less noisy.
当数据噪声更小时,费舍尔信息量更大。
In maximum likelihood estimation, the Fisher information helps quantify the curvature of the log-likelihood and sets a lower bound on the variance of unbiased estimators.
在极大似然估计中,费舍尔信息量可用来刻画对数似然函数的曲率,并为无偏估计量的方差给出一个下界。
该术语以英国统计学家 Ronald A. Fisher(罗纳德·费舍尔)命名;“information(信息)”在此并非日常“消息”的意思,而是指数据对参数不确定性的减少程度。Fisher 在 20 世纪早期建立了许多现代统计推断的基础概念,这一量因此得名。