爱气象,爱气象家园! 

气象家园

 找回密码
 立即注册

QQ登录

只需一步,快速开始

新浪微博登陆

只需一步, 快速开始

搜索
查看: 4449|回复: 8

为什么稳健回归在气象上的应用极少

[复制链接]

新浪微博达人勋

发表于 2017-7-1 10:23:12 | 显示全部楼层 |阅读模式

登录后查看更多精彩内容~

您需要 登录 才可以下载或查看,没有帐号?立即注册 新浪微博登陆

x
在网上看到了一种稳健回归方法,适用于异常值较多时进行回归分析,但是在知网上几乎没有找到气象方面采用这种方法进行回归分析的论文,想请教一下大家是否在求一个较短(20年)并且年际变化较大的时间序列的趋势时适用这种方法?
在网上看到可以用matlab直接计算robust 回归:  

brob = robustfit(x,y)

下面的分析转自http://blog.csdn.net/daunxx/article/details/51858208
最小二乘法的弊端之前文章里的关于线性回归的模型,都是基于最小二乘法来实现的。但是,当数据样本点出现很多的异常点(outliers),这些异常点对回归模型的影响会非常的大,传统的基于最小二乘的回归方法将不适用。
比如下图中所示,数据中存在一个异常点,如果不剔除改点,适用OLS方法来做回归的话,那么就会得到途中红色的那条线;如果将这个异常点剔除掉的话,那么就可以得到图中蓝色的那条线。显然,蓝色的线比红色的线对数据有更强的解释性,这就是OLS在做回归分析时候的弊端。


                               
登录/注册后可看大图



当然,可以考虑在做回归分析之前,对数据做预处理,剔除掉那些异常点。但是,在实际的数据中,存在两个问题:
  • 异常点并不能很好的确定,并没有一个很好的标准用于确定哪些点是异常点
  • 即便确定了异常点,但这些被确定为异常的点,真的是错误的数据吗?很有可能这看似异常的点,就是原始模型的数据,如果是这样的话,那么这些异常的点就会带有大量的原始模型的信息,剔除之后就会丢失大量的信息。
再比如下面这幅图,其中红色的都是异常点,但是很难从数据中剔除出去。

                               
登录/注册后可看大图

稳健回归稳健回归(Robust regression),就是当最小二乘法遇到上述的,数据样本点存在异常点的时候,用于代替最小二乘法的一个算法。当然,稳健回归还可以用于异常点检测,或者是找出那些对模型影响最大的样本点。
Breakdown point关于稳健回归,有一个名词需要做解释:Breakdown point,这个名词我并不想翻译,我也没找到一个很好的中文翻译。对于一个估计器而言,原始数据中混入了脏数据,那么,Breakdown point  指的就是在这个估计器给出错误的模型估计之前,脏数据最大的比例 α,Breakdown point 代表的是一个估计器对脏数据的最大容忍度。
举个简单的例子:有 n 个随机变量,(X1,X2,…,Xn), 其对应的数据为(x1,x2,…,xn),那么,我么可以求出这 n 个随机变量的均值:

X¯¯¯=X1+X2+⋯+Xnn

这个均值估计器的Breakdown point 为0,因为使任意一个xi变成足够大的脏数据之后,上面估计出来的均值,就不再正确了。
毫无疑问,Breakdown point越大,估计器就越稳健。
Breakdown point 是不可能达到 50% 的,因为如果总体样本中超过一半的数据是脏数据了,那么从统计上来说,就无法将样本中的隐藏分布和脏数据的分布给区分开来。
本文主要介绍两种稳健回归模型:RANSAC(RANdom SAmple Consensus 随机采样一致性)和Theil-Sen estimator。
RANSAC随机采样一致性算法RANSAC算法的输入是一组观测数据(往往含有较大的噪声或无效点),它是一种重采样技术(resampling technique),通过估计模型参数所需的最小的样本点数,来得到备选模型集合,然后在不断的对集合进行扩充,其算法步骤为:
  • 随机的选择估计模型参数所需的最少的样本点。
  • 估计出模型的参数。
  • 找出在误差 ϵ 内,有多少点适合当前这个模型,并将这些点标记为模型内点
  • 如果内点的数目占总样本点的比例达到了事先设定的阈值 τ,那么基于这些内点重新估计模型的参数,并以此为最终模型, 终止程序。
  • 否则重复执行1到4步。
RANSAC算法是从输入样本集合的内点的随机子集中学习模型。
RANSAC算法是一个非确定性算法(non-deterministic algorithm),这个算法只能得以一定的概率得到一个还不错的结果,在基本模型已定的情况下,结果的好坏程度主要取决于算法最大的迭代次数。
RANSAC算法在线性和非线性回归中都得到了广泛的应用,而其最典型也是最成功的应用,莫过于在图像处理中处理图像拼接问题,这部分在Opencv中有相关的实现。
从总体上来讲,RANSAC算法将输入样本分成了两个大的子集:内点(inliers)和外点(outliers)。其中内点的数据分布会受到噪声的影响;而外点主要来自于错误的测量手段或者是对数据错误的假设。而RANSAC算法最终的结果是基于算法所确定的内点集合得到的。
下面这份代码是RANSAC的适用实例:
下面这份代码是RANSAC的适用实例:
# -*- coding: utf-8 -*-"""author : duanxxnj@163.comtime : 2016-07-07-15-36"""import numpy as npimport timefrom sklearn import linear_model,datasetsimport matplotlib.pyplot as plt# 产生数据样本点集合# 样本点的特征X维度为1维,输出y的维度也为1维# 输出是在输入的基础上加入了高斯噪声N(0,10)# 产生的样本点数目为1000个n_samples = 1000X, y, coef = datasets.make_regression(n_samples=n_samples,                                      n_features=1,                                      n_informative=1,                                      noise=10,                                      coef=True,                                      random_state=0)# 将上面产生的样本点中的前50个设为异常点(外点)# 即:让前50个点偏离原来的位置,模拟错误的测量带来的误差n_outliers = 50np.random.seed(int(time.time()) % 100)X[:n_outliers] = 3 + 0.5 * np.random.normal(size=(n_outliers, 1))y[:n_outliers] = -3 + 0.5 * np.random.normal(size=n_outliers)# 用普通线性模型拟合X,ymodel = linear_model.LinearRegression()model.fit(X, y)# 使用RANSAC算法拟合X,ymodel_ransac = linear_model.RANSACRegressor(linear_model.LinearRegression())model_ransac.fit(X, y)inlier_mask = model_ransac.inlier_mask_outlier_mask = np.logical_not(inlier_mask)# 使用一般回归模型和RANSAC算法分别对测试数据做预测line_X = np.arange(-5, 5)line_y = model.predict(line_X[:, np.newaxis])line_y_ransac = model_ransac.predict(line_X[:, np.newaxis])print "真实数据参数:", coefprint "线性回归模型参数:", model.coef_print "RANSAC算法参数: ", model_ransac.estimator_.coef_plt.plot(X[inlier_mask], y[inlier_mask], '.g', label='Inliers')plt.plot(X[outlier_mask], y[outlier_mask], '.r', label='Outliers')plt.plot(line_X, line_y, '-k', label='Linear Regression')plt.plot(line_X, line_y_ransac, '-b', label="RANSAC Regression")plt.legend(loc='upper left')plt.show()

                               
登录/注册后可看大图

运行结果为:
真实数据参数: 82.1903908408线性回归模型参数: [ 55.19291974]RANSAC算法参数:  [ 82.08533159]
  • 1

Theil-Sen Regression 泰尔森回归Theil-Sen回归是一个参数中值估计器,它适用泛化中值,对多维数据进行估计,因此其对多维的异常点(outliers 外点)有很强的稳健性。
一般的回归模型为:

y=α+βx+ϵ

其中,α,β 模型的参数,而 ϵ 为模型的随机误差。
Theil-Sen回归则是这么处理的:

β=Median{yi&#8722;yjxi&#8722;xj:xi≠xj,i<j=1,…,n}

在实践中发现,随着数据特征维度的提升,Theil-Sen回归的效果不断的下降,在高维数据中,Theil-Sen回归的效果有时甚至还不如OLS(最小二乘)。
在之间的文章《线性回归》中讨论过,OLS方法是渐进无偏的,Theil-Sen方法在渐进无偏方面和OLS性能相似。和OLS方法不同的是,Theil-Sen方法是一种非参数方法,其对数据的潜在分布不做任何的假设。Theil-Sen方法是一种基于中值的估计其,所以其对异常点有更强的稳健性。
在单变量回归问题中,Theil-Sen方法的Breakdown point为29.3%,也就是说,Theil-Sen方法可以容忍29.3%的数据是outliers。
# -*- coding: utf-8 -*-"""@author : duanxxnj@163.com@time ;2016-07-08_08-50Theil-Sen 回归本例生成一个数据集,然后在该数据集上测试Theil-Sen回归"""print __doc__import timeimport numpy as npimport matplotlib.pyplot as pltfrom sklearn.linear_model import LinearRegression, TheilSenRegressor,\                                 RANSACRegressorestimators = [('OLS', LinearRegression()),              ('Theil-Sen', TheilSenRegressor())]# 异常值仅仅出现在y轴np.random.seed((int)(time.time() % 100))n_samples = 200# 线性模型的函数形式为: y = 3 * x + N(2, .1 ** 2)x = np.random.randn(n_samples)w = 3.c = 2.noise = c + 0.1 * np.random.randn(n_samples)y = w * x + noise# 加入10%的异常值,最后20个值称为异常值y[-20:] += -20 * x[-20:]X = x[:, np.newaxis]plt.plot(X, y, 'k+', mew=2, ms=8)line_x = np.array([-3, 3])for name, estimator in estimators:    t0 = time.time()    estimator.fit(X, y)    elapsed_time = time.time() - t0    y_pred = estimator.predict(line_x.reshape(2, 1))    plt.plot(line_x, y_pred, label='%s (fit time: %.2fs)'             %(name, elapsed_time))plt.axis('tight')plt.legend(loc='upper left')plt.show()

                               
登录/注册后可看大图

密码修改失败请联系微信:mofangbao

新浪微博达人勋

发表于 2017-7-1 15:23:51 | 显示全部楼层
不考虑方法的应用场景就随意引入新方法是很明显的水论文
你自己也说 这是用于大量离群点的情况
那么气象数据哪来那么多离群点?
还有,较短时间 年际变化较大 的数据,你的分析目的是什么?想要解决什么科学问题?
密码修改失败请联系微信:mofangbao
回复 支持 1 反对 0

使用道具 举报

新浪微博达人勋

发表于 2017-7-1 11:21:15 | 显示全部楼层
“物理”还是挺重要的
毕竟学那么多关于气象的知识,可能更期望“大家帮助人类更好理解气象”……
方法靠自己选了


“科学”还是要做的

“技术”还是要学的

“学以通经,术以载道”



上面写的有点儿杂,有点儿“愤青”了
我自己也是没文化的理科生
而且目前也做不成有素质的程序员
如果说自己是“数据分析员”又深感自己拉低了整体水平
只能捡捡空,做做“物理”了
。。。。。。。。。。。
密码修改失败请联系微信:mofangbao
回复 支持 1 反对 0

使用道具 举报

新浪微博达人勋

发表于 2017-7-1 11:15:26 | 显示全部楼层
本帖最后由 weinihou 于 2017-7-1 11:16 编辑

在气象统计中,计算方法、算法的大批落后是早就有的事了


现在我接触的好些老师都有那种观点:
“我们要做科学,不要成技术工”

好些甚至没想过,没技术的进步连更进一步靠谱的资料都没有,连更加靠谱的数据分析方法都没有
他们总会说“好的方法一定是结果简单的”,甚至认为“方法也应该是简单的”

有次我抽了不算少的时间研究个方法,竟然被认为“奇技淫巧”

我早就想吐槽了
感觉迟早要被淘汰一大堆




robust statistics方法很多很多很多很多
而且近几年的发展相当迅猛
之前简单看一点儿Outlier和QC的东西,简直一个方法比一个猛啊
比如之前看到的,基于MCD的方法,RMCD、IRMCD,看完效果简直神器
思想和上面的RANSAC相像,通过内部子集组合出协方差矩阵行列式最小值,作为最稳固的

很多地方他们没做好接轨的准备
然后近几年大化和气候方向基于大量观测数据,天气、中尺度基于快速发展的模式,使得整个大气科学似乎产生一种错觉:
“不需要太强的数理功底”

见鬼喽

我个人觉着就是因为整个业内风气造成的,整体对微分学、几何学、线代、统计学以及物理中理论力学等方向的轻视,毕竟好些工作不大能用得到这些,看起来“成果不也蛮好嘛”

没法对此说什么,时代趋势
整个学科发展方式转变,这也必然会出现吧
但各人感觉未必好事

等人工智能再进一步,等着回家种菜吧~~



如果楼主发现好的方法请一定坚定不移的用下去!
密码修改失败请联系微信:mofangbao
回复 支持 1 反对 0

使用道具 举报

新浪微博达人勋

 楼主| 发表于 2017-7-2 10:06:11 | 显示全部楼层
Lancelot 发表于 2017-7-1 15:23
不考虑方法的应用场景就随意引入新方法是很明显的水论文
你自己也说 这是用于大量离群点的情况
那么气象 ...

谢谢你的回复,我也感觉离群点是没有那么多,算出来两种方法的结果差的也很小。
其实也并不是我选的题目,是导师的项目,就是研究20年的温度变化,但是年际变化较大,得到的"趋势"的不确定性也很大,所以在考虑有什么办法可以减小些误差
密码修改失败请联系微信:mofangbao

新浪微博达人勋

 楼主| 发表于 2017-7-2 10:10:24 | 显示全部楼层
weinihou 发表于 2017-7-1 11:21
“物理”还是挺重要的
毕竟学那么多关于气象的知识,可能更期望“大家帮助人类更好理解气象”……
方法靠 ...

谢谢你的回复,待我慢慢理解,这才开始看这方面的内容
有你的"愤青",才能做出新的有价值的科学!
密码修改失败请联系微信:mofangbao

新浪微博达人勋

发表于 2017-7-2 11:02:20 | 显示全部楼层
flyapple1992 发表于 2017-7-2 10:10
谢谢你的回复,待我慢慢理解,这才开始看这方面的内容
有你的"愤青",才能做出新的有价值的科学!

哪里
我是渣渣~
看见有人说这一时激动


也确实如 Lancelot 说的,要看关注的问题,或者就是“物理”和“科学”的点在哪儿
如果真的是需要解决某问题,数学统计只是“工具”“方法”“手段”
就好像 Excel 能做均值能看方差能做回归能画图,能帮你把问题理解透彻了,也就不一定要用什么其他牛叉工具了
密码修改失败请联系微信:mofangbao

新浪微博达人勋

 楼主| 发表于 2017-7-4 08:52:11 | 显示全部楼层
是的啊,还不能把简单的问题搞复杂{:dizzy:}{:dizzy:}
密码修改失败请联系微信:mofangbao

新浪微博达人勋

发表于 2017-11-21 18:17:01 | 显示全部楼层
不明觉厉,高大上
密码修改失败请联系微信:mofangbao
您需要登录后才可以回帖 登录 | 立即注册 新浪微博登陆

本版积分规则

Copyright ©2011-2014 bbs.06climate.com All Rights Reserved.  Powered by Discuz! (京ICP-10201084)

本站信息均由会员发表,不代表气象家园立场,禁止在本站发表与国家法律相抵触言论

快速回复 返回顶部 返回列表