绿林网

《算法霸权》的读后感大全

《算法霸权》的读后感大全

《算法霸权》是一本由[美] 凯西·奥尼尔著作,中信出版集团出版的精装图书,本书定价:68.00元,页数:320,特精心收集的读后感,希望对大家能有帮助。

  《算法霸权》精选点评:

●效率和公平的问题

●原因:因为我觉得这本书能让你感受一种控制霸权的算法。 感受:动力的启发与方法。 关联:先把现在的方法了解,在学习,学习的要点最后的成果从中得到收益。

●还可以

●其实就说了一个概念。但也给人们敲响警钟吧!

●大数据时代的盛世危言,可惜广度有限,且深度不足。算法霸权中的恶性循环,类似于电路设计中的正向反馈,其实也是先发优势的另一种表现。算法的出现本身就是为了追求效率,因为公平只是存在于人心的一个概念,没有客观的评判客观标准,但效率有客观标准。所以,再多的技术进步,算法升级,其实都只是在效率这个维度上优化。差的算法都有一个共同点,就是没有有效的反馈修正回路;而算法时代,一个有效但是很差(缺乏公平)的算法可以轻而易举地被应用在很多方便,从而杀人于无形,我们无法知道自己被算法陷害,这是算法霸权最恐怖的地方。

●【喜马拉雅】数学大杀器|徐英瑾1101

●主题很好,但说的不够透彻。大数据应用的目的是什么?模型的假设合理吗?结果是:不平等的自我强化,歧视的恶性循环,每个人都被大数据拖入陷阱。

●大数据算法的滥用细思极恐,需要更大的以公平公正为核心的数据伦理道德,否则自动化、规模化下的模型自我强化、以效率效益利润为目标的算法驱动将使得以往的偏见不公更为彻底极端。

●数据不会消逝,计算机也不会,数学更不会。预测模型日益成为我们的必备工具,我们利用这些工具经营各种机构,配置资源,管理我们的生活。但是,本书想要阐明的是,这些模型的建立不仅仅基于数据本身,也基于我们关注或忽视哪些数据的选择。我们的选择不仅关乎物流、利润和效率,从根本上来说,这是个道德问题。

●危言耸听的书名,加上角度刁钻的论述,对如火如荼的大数据热潮进行批判。书中阐述的不是没有道理,如大数据对教育评估的偏颇、商业数据统计对大众的“秒杀”、社会大数据对穷人的不公等等。但是大数据毕竟是一种工具,它对人类发展的重要意义是显而易见的,就像刀具也能杀人一样,但总不能给它冠以“大规模杀伤性武器”之名吧?

《算法霸权》读后感(一):中性的科技

虽然是很多事实的罗列,但如果不去看,可能永远也不会知道。前半部分比较无趣,后半部分有种战斗的感觉。

人类发明出来的许多工具都是中性的,关键是如何利用。这可能不仅仅是一个科技上的问题,更是一个道德问题。风险共担的意识在大数据时代更为重要和宝贵。因为一旦违背道德的逻辑被写入算法,其影响将远胜于前数据时代。

算法的问题可能是,算法实在过于复杂了,当加入了大量的计算逻辑数据点和平衡项,最后可能连设计它的人都难以把控计算结果。更不要说毫无知觉地被这些算法影响的人了。而有了迅猛发展的硬件和软件辅助,算法的发展又过快了,每一个算法都可以各行其是,缺乏监管。而即便想要监管,人力恐怕也难以企及了。

《算法霸权》读后感(二):新锐的观点,孱弱的论证

最近一段时间一直在思考大数据和推荐算法对我们的影响,正好看到这本书,就拿来大概翻一下。但总体来讲不尽如人意——作者始终在论证一点,就是算法模型忽略了太多人文细节,比如针对求职者设计的评价系统太过冷血、信用系统会造成穷人在信用分数方面的正反馈调节即穷人的信用分数会因为系统的限制而越来越低,等等。作者的观点是新锐的,但举出的例子大多都不太适合论证这一观点,而且最终也没能提出更好的替代解决方案,似乎作者认为需要针对每个个体单独设计评价体系,但这样的话,评价体系还能被称之为评价体系吗?算法还有其存在的意义吗?

马克思主义哲学教导我们,要一分为二地看问题,作者显然是过于重视次要矛盾而忽略了主要矛盾。

《算法霸权》读后感(三):Ⅵ.践行G(定量之化)

【春上春树随喜文化】 算法是层级和并行思维的融合 可视化,标准化,规模化,全球化 去中心化,分布式计算,智能虚拟助手 乃至宗教般毋庸置疑的 民主和科学的感召 最后所有人被既得利益者 网罗为囊中之物 辛普森悖论 是《国富论》所谓的 看不见的手 阶层难以穿透 跃迁机会渺茫 穷者愈穷 富者愈富的马太效应 《21世纪资本论》所述的 承袭制资本主义 堂而皇之登上大雅之堂 美其名曰贵族文化传承 区别于过往的家族观念 现在固化的是社会进步的原动力 人力资本的选育留用 你要我的山头 我要你的后方 当你把数据的主动权 与虚拟世界的游戏制定者交换 让他来掌控信用,生活,工作 人只是流量经济中 增加的随机变量 庶民的胜利 便是小趋势 不玩他们主导的游戏 对自己比较优势的识别 扩大生命硬件重塑的输入带宽 一以贯之投资自己 刷新文化软件源代码 明修栈道 暗度陈仓 演好他们认为的 沉默的待宰的羔羊 不可逆转的世界 剧情翻转终局

《算法霸权》读后感(四):观点并不新颖,消遣可以看看

先写结论:作者对数据模型做了很好的总结,但是观点并不新颖。举例过于冗余,后半部分有点像在冲字数。一些观点过于偏激,比如全盘否定数据模型的在社科领域的作用。

作者对数据模型有几个不错的总结,罗列如下:1. 数据模型擅长以低成本处理海量数据,2. 由于人们无法对模型进行修改,所以为了得到模型的高评价,人们的行为会偏向迎合算法的拟合结果,而非使用革命性的方式创造新的方法(data manipulate), 3. 由于人们无法直接测量他们想要获取的数据信息,因此会使用其他数据来替换这些直接的数据,并利用数据模型,通过分析其他数据来测算想要获取的直接数据,4. 由于经验,认知,文化等差异,模型制定者制定的模型会存在信息盲点,盲点也能够反映建模者的判断和优先级序列,5. 混淆相关性和因果性。

作者批判的几个点,例如data manipulate确实是有害的,因为这使得一个评价模型变成了具有指导意义的发展模型。本身是为了衡量教学质量而设计的模型,但是因为教师知道了其评价方式,而刻意去提高一下分值,是得模型结果对教师更有利。我认为如果教师如果真实去提升自己的教学质量,那么这些指标很可能也会有极大的提升。但是为了指标而提升指标,就出现了本末倒置,这确实是模型在做评价时候的一个问题,只是这个问题并非由模型本身引起,而应该更多去思考制度如何设计。

至于作者认为的,类似模型评价标准过于死板,千篇一律。我人为模型本身就是标准化和高效的产物,其评价必然是一个近乎冷漠的客观评价。如果要照顾到每个人的个性,那么模型是设置会更加复杂,最终演变为一个人一个模型,这显然不是模型设置的初衷。这个问题就好比:医学院是否应该对黑人学生降低毕业标准?如果按照毕业标准模型,那么很多黑人学生可能无法毕业,模型显然没有考虑黑人学生家庭条件困难,为了支付学费而疯狂找兼职,以至于无法专心学业的因素。从这点上看,模型显然是不公平的,是霸权的。但是如果模型设置的初衷是为了保障未来病人的权益,使所有医学院毕业生都可以高水平的救死扶伤,那么这个模型又是负责和公平的了。问题的关键在于,究竟是维护黑人学生公平重要,还是维护医学院毕业生的高水平声誉重要。其所谓的马太效应,很大程度上也源于此:究竟是要保护投资者的资金,还是要帮助更多贫民区的好人申请到贷款?

最后,作者大量抨击了现有模型的缺点,但是并没有提出自己的改进意见,而是一刀切的认为模型损害了社会,损害了人的利益。综上,作者对数据模型的总结可圈可点,但是其结论有待讨论。

《算法霸权》读后感(五):摘录点

模型中的犹太效应: 作者担心数据模型会不断的自我预言自我实现,例如贫困的人因为贫困只能不断损害自己的信用,进而无法找到合适的工作导致更加贫困.

作者的观点:

- 错误总会出现,因为模型的本质就是简化。

- 我们自己的价值观和欲望会影响我们的选择,包括我们选择去搜集的数据和我们要问的问题。而模型正是用数学工具包装出来的各种主观观点。

- 一个模型的信息盲点能够反映建模者的判断和优先级序列。

- 数学模型的本质是基于过去的数据推测未来,其基本假设是:模式会重复。

点评: 当能意识到这个问题的时候,其实市场本身已经做出反应了. 例如现在的芝麻信用分, 高分的人可以得到更多人信任,也可以借到更多的钱. 低分的人难道就没有翻身的机会吗? 不会,支付宝并没有公布计算的具体细节,但他给用户做出了引导, 你更多的社交,购物,等等会让我们相信你是一个有价值的用户进而有机会提高信用分. 对支付宝来说,他们需要推广他们的产品,他们不希望只有一小部分用户使用, 所以每个人可以在里面尝试.

模型与其说是一种简化,倒不如说是对现实生活的抽象. 问题不在于模型有优先级,我或许更害怕的是一个模型下来它就不会自我进化,也不会引导它的“实验对象”. 我更害怕的是这样的模型会在强制的条件下继续存在而没有被自然淘汰掉.

所有的预测都是基于一个前提: 你相信过去发生的接下来可能继续发生. 我觉得这是人类能继续发展的一个重要前提,为啥呢? 我当然很愿意相信人类不会明天灭亡,太阳明天还会升起. 但哲学家 休谟 已经质疑这一点. 我不是说太阳永远都会升起,我只是相信在我渺小的几十年里面,它会继续存在着.

不要去相信可以永恒的模式,但可以相信在你这辈子很有可能会有效的模式,这样的人生已经足够.

作者在这本书只有一个地方说到点子上了: 存在的一家强大的公司能搜集到你大量的数据,并有可能引导你去实现政治目的.

> 从未有研究人员从事过如此大规模的人类实验。Facebook能够在几小时之内收集数千万条甚至更多的数据,用以衡量每一个人对其投票行为的描述用语和互相分享过的链接带来的影响。这种权力是巨大的,而且拥有并行使这种权力的并不只有脸书一家公司。其他的上市公司,如谷歌、苹果、微软、亚马逊,以及威瑞森和美国电话电报公司等手机供应商也掌握着大量关于用户行为的数据以及引导我们做出特定选择的无数方式。我暂且不将Facebook 或者Google的算法视为政治领域的数学杀伤性武器,因为没有证据表明这些公司正在利用它们的算法伤害大众。但这些算法被滥用的可能性是巨大的.

本文由作者上传并发布(或网友转载),绿林网仅提供信息发布平台。文章仅代表作者个人观点,未经作者许可,不可转载。
点击查看全文
相关推荐
热门推荐