绿林网

《第四范式》读后感摘抄

《第四范式》读后感摘抄

《第四范式》是一本由90.00元著作,247出版的图书,本书定价:2012-6,页数:,特精心收集的读后感,希望对大家能有帮助。

《第四范式》读后感(一):如何让信息安全的研究和交流从第一二范式迈向第三四范式

现在业界的信息安全研究,基本上是作坊式的。都是第一和第二范式的,就是实验尝试,和模型推演而已。要引入第三方是的模拟和第四范式的大规模数据分析。新的范式会让很多原先的安全高手变得无所适从,大师还不如一堆数据。但是,这是应当走的路线。

在书中提到的eScience模式,讲学术交流。而现在安全圈的交流,除了普通论文、PPT模式的交流,还有就是特征库的交流。确实有两个国家级的漏洞库,而这种交流就是吉姆格雷所诟病的只交流结果,不交流原始数据和过程数据。这种方式需要改变。

《第四范式》读后感(二):检测技术还处在第二范式,第四范式就袭来了

现在信息安全检测主要还是通过特征匹配的方式来实现的。当然在特征匹配出原子事件之后,会通过关联分析来营造高级事件。但是特征匹配的误报率和漏报率一直是一个难以解决的困扰。可以说,这样的方法还主要是在第二范式下展开的。

搞安全的,很多美国电影是要看的。比如《黑客帝国三部曲》展现了Cyber-Physical的系统观和哲学观、《盗梦空间》表达了虚拟化的境界等等。

而尼古拉斯凯奇主演的《预见未来》这部电影,则可以理解为典型的第三范式(模拟仿真)。把安全检测(危险判断)都通过模拟来实现,在高性能系统的帮助下,这样的事情是可以的。比如,浏览器的沙箱就是这个思路的具体实现,我不匹配这个网页是否有问题,而是执行它看看。

这就是模拟被攻击,这就是第三范式的思路。

现在第三范式的安全检测还不是主流,而现在第四范式又袭来了。仔细想想《源代码》这部电影。就是在一段留存的海量信息中反复播放、反复做植入式检测,最终发现端倪。还有启发。而且其中所蕴含的哲理和伦理,也让人深思啊。

呵呵。做书评变成了做影评了。

《第四范式》读后感(三):读《大数据的科学价值》

面对当前这个最热的话题,还是总结一下我读过的靠谱资料吧,虽然与本书联系不紧。读李国杰院士的文章《大数据研究的科学价值》(http://kan.weibo.com/con/3508771083293629),很赞,以下是几个触动我的点:

1. 商业数据爆炸是大数据思潮的主要动力。不得不面对的现实,管理好可以带来巨大的利益,但尚无成熟、高效、稳定的工具应对,更缺乏深入的认识和深刻的理论来指导。

2. 大数据的工程技术先于科学认识,目前关注管理、传输、计算,缺乏科学表示和定性——如何抽象之、定义之,建立一个分析框架?换句话说,需要一个范式。

3. 静态看,数据虽大,特征却小(如平均路径长度、聚集系数),复杂网络和复杂系统理论可能是认识大数据静态方法论。

4. 统计学本质上是挖掘相关性的工具,无法检验逻辑因果性。对商业大数据,运用相关性已带来巨大价值(典型如ebay和google的广告关键字挖掘),而大数据场合的因果性既难找到又难验证,更麻烦的是各种因素纠缠一块儿互相影响,很难分出哪个是鸡哪个是蛋(所以系统动力学强调的反馈仿真才会那么受欢迎?)。不妨抛开康德的因果律是人类理性本质的假设?拥抱相关性,不顾因果性(哥德尔不完备定理已表明理性有漏洞),只管是什么,不管为什么(反正“为什么”总是剪不断理还乱)。就像google研究部主任Norvig说的“all modles are wrong, and increasingly you can succeed without them”……有点范式革命的味道了。

5. 相关性是比因果性更普适的概念,因果是相关的特列,因此大数据的哲学是对传统理性的推广。从这个角度来看,波普尔的哲学越发有道理:理论上的因果关系跟现实生活中的运行情况是两个“平行的宇宙”,实际案例只能对理论证否,没法对理论证是。物理学、经济学已经这样发展了吧。

6. 寻找希克斯波色粒子的实验是寻找小概率事假,小概率说明实验次数多、所得数据多,因此体现为大数据。社会科学中的分析、预测(比如风险事件管理)也就是在时序上的数据挖掘。

7. 有没有合理的数据规模(阈值,或者临界的范围)?高于阈值就太复杂无规律可找,低于阈值体现不了规律。

8.科学的第一范式是实验归纳,第二范式是模型推演,第三范式是仿真模拟,第四范式就是密集数据分析。从海量数据中用统计手段挖掘相关性知识(自学习型的超级专家系统?),而无需探索理论模型,这就是第四范式的目标……是不是有点激进了?

本文由作者上传并发布(或网友转载),绿林网仅提供信息发布平台。文章仅代表作者个人观点,未经作者许可,不可转载。
点击查看全文
相关推荐
热门推荐