本文共 798 字,大约阅读时间需要 2 分钟。
高维数据回归分析中基于LASSO的自变量选择
· 229 · 中国卫生统计 2013 年 12 月第 30 卷第 6 期
·综述·
高维数据回归分析中基于 LASSO 的自变量选择*
张秀秀1 王 慧1 田双双1 乔 楠1 闫丽娜2 王 彤1△
生物信息学背景下普遍存在着高维数据,所谓的 n
^ OLS { ( ) 2 } ( T ) -1 T
高维 即待估计的未知参数的个数是样本量的一个 β = arg min ∑ yi - ∑βj xij = X X X y
“ ” i = 1 j
〔1〕, ( ) 〔2〕 但是, 不再适用于高维数据分析 究其原因,主
或几个数量级 例如 Van't Veer 2002 等学者收 OLS 。
, 要有两个〔6〕:
集的乳腺癌数据集共包括 259 例乳腺癌患者 25000
, 第一 预测精度 估计虽是无偏的,但在自
个微阵列基因数据 研究变量个数 25000 远远大于样 、 。OLS
, 变量间线性相关程度较高时预测精度较差,即估计值
本量 259 存在“高维”现象。传统的方法进行参数估
(
计和统计推断的一个必要前提是待估参数的个数小于 的方差通常较大。而预测精度可以压缩 甚至设置为
, ) 回归系数加以改进,即通过适度牺牲估计的无偏
样本量 这样统计推断的结果才是稳定、可靠的。对于 0
,
高维数据回归分析,经验研究表明自变量进入模型的 性 以达到改进整体预测精度的目的。
顺序不同所得到的回归系数的估计方差亦不相同,甚 第二、模型的稳定性。OLS 估计在自变量个数很
,
至变异很大,提示估计结果不稳定,此时通常需要考虑 多时获得的结果不稳定。此时 我们往往希望筛选出
( ) 〔3〕 一个较小的自变量子集来获得最好的预测效果
其他变量选择策略。Fan 等 2001 年 提出变量选 。
: ( ) ; ( ) 常用的对 进行改进的方法
转载地址:http://gldnv.baihongyu.com/