Skip to content
项目
群组
代码片段
帮助
当前项目
正在载入...
登录 / 注册
切换导航面板
R
ReadingList
概览
Overview
Details
Activity
Cycle Analytics
版本库
Repository
Files
Commits
Branches
Tags
Contributors
Graph
Compare
Charts
问题
0
Issues
0
列表
Board
标记
里程碑
合并请求
0
Merge Requests
0
CI / CD
CI / CD
流水线
作业
日程表
图表
维基
Wiki
代码片段
Snippets
成员
Collapse sidebar
Close sidebar
活动
图像
聊天
创建新问题
作业
提交
Issue Boards
Open sidebar
zengxin
ReadingList
Commits
0ce27737
Commit
0ce27737
authored
Feb 03, 2021
by
zengxin
Browse files
Options
Browse Files
Download
Email Patches
Plain Diff
discussion
parent
9c035025
显示空白字符变更
内嵌
并排
正在显示
2 个修改的文件
包含
45 行增加
和
0 行删除
+45
-0
discussion/What are the most important statistical ideas of the past 50 years.pdf
+0
-0
discussion/discussion.md
+45
-0
没有找到文件。
discussion/What are the most important statistical ideas of the past 50 years.pdf
0 → 100644
查看文件 @
0ce27737
File added
discussion/discussion.md
0 → 100644
查看文件 @
0ce27737
# What are the most important statistical ideas of the past 50 years, 2021
## The most important statistical ideas of the past 50 years
*
反事实因果推论( Counterfactual causal inference)
*
反事实指“某次操作没有产生的结果”。没有观测到的结果,是不可能看到的,即为反事实。
*
也就是对不可见的事物,进行因果推论。
*
自助法和基于仿真模拟的推理(Bootstrapping and simulation-based inference)
*
Bootstrapping (自助法),是一种对样本进行重采样以估计总体的方法。
*
过参数化的模型和正则化(Overparameterized models and regularization)
*
正则化用于避免过拟合;
*
马尔科夫随机场、高斯过程等模型的参数量会随着样本增大而增大;
*
有人认为过参数化的模型是稀疏的;
*
随着统计方法在大数据集中的应用推广,研究人员提出用于调优、调整和组合多种 inferences 的方法,比如贝叶斯模型平均、梯度增强(2001)、随机森林(2001)等。
*
多层模型
*
多层模型可以看作贝叶斯模型
*
通用计算算法
*
建模方面的发展,因为现代计算机才成为可能;
*
自适应决策分析(Adaptive decision analysis)
*
决策可以看作统计应用的一个领域;
*
统计决策分析的一些重要进展包括:贝叶斯优化和强化学习;
*
鲁棒性
*
探索性数据分析
*
属于数据分析领域
*
指为了形成值得假设的检验而对数据进行分析的一种方法,是对传统统计学假设检验手段的补充;
*
注重于对数据进行概括性的描述,不受数据模型和科研假设的限制。
## ## Looking forward
*
多技术融合的方法
*
使用正则化方法估计模型
*
更复杂的网络结构
*
过参数化模型的探索性数据分析(Mimno, Blei, and Engelhardt,
2015,Posterior predictive checks to quantify lack of-fit in admixture models of latent population structure)
*
机器学习算法
*
机器学习的可解释性 (Murdoch et al., 2019, Molnar, 2020)
编写
预览
Markdown
格式
0%
重试
或
添加新文件
添加附件
取消
您添加了
0
人
到此讨论。请谨慎行事。
请先完成此评论的编辑!
取消
请
注册
或者
登录
后发表评论