绿林网

新未来简史:区块链、人工智能、大数据陷阱与数字化生活读后感1000字

新未来简史:区块链、人工智能、大数据陷阱与数字化生活读后感1000字

《新未来简史:区块链、人工智能、大数据陷阱与数字化生活》是一本由王骥著作,电子工业出版社出版的平装图书,本书定价:58,页数:356,特精心收集的读后感,希望对大家能有帮助。

《新未来简史:区块链、人工智能、大数据陷阱与数字化生活》读后感(一):垃圾

完全就是蹭热点,没什么实质内容,就连书的标题都是蹭热点,书中每章节内容都是泛泛而谈,这样都能出书,不能再垃圾了。看似什么都有,其实什么都讲得不深,都是凭想象。什么两步逃离陷阱,滑向崩溃的极点、翻转未来、价值与颠覆、财富是如何被丢失的,万物可溯源与价值追算、互联网将会被这样替代、从比喻到文化,再到恐怖崇拜,几何级数的差别,完全就是一标题党。

《新未来简史:区块链、人工智能、大数据陷阱与数字化生活》读后感(二):无实质内容

1、读本书的目的?

学习人工智能,深入了解人工智能。

2、读后感受

作者表达人工智能的发展最终将是“使人类摆脱无用阶层,追求精神”以此回应“人工智能将奴役人类”的未来恐惧思想。自我感觉,专业度不够。

3、接下来怎么做?

1)、图书馆还书。

4、3个月后达到什么结果?

不遗忘即可,可以看看自己画的导图用以复习一下即可。

《新未来简史:区块链、人工智能、大数据陷阱与数字化生活》读后感(三):《新未来简史》很多观点,或许20年后才会让很多人接受的

书中对区块链、人工智能、虚拟时空、资本的未来破坏性、科技道德定律、大生态人理论,特别是未来的两大时空信息像等的展示与推演,或许20年后才会让很多人接受的。还有最后一章中的“乌托邦”的别致理解应该比传统定义超前了至少30年。

其他不在多说了,这里引用一篇读书笔记。这篇笔记算是认认真真多《新未来简史》的,同时并对作者的一些意图有比较正确的诠释的(与我读该书有同样的感受,所以援引于此)。

(作者:小木木 来自:小木木的新浪博客,链接:http://blog.sina.com.cn/s/blog_6989d406010310m1.html)

新未来简史,是一本叫王骥的人写得书。书中关于人工智能、区块链、大数据、数字化生活的探讨,由浅入深,并且论述的并不是很枯燥,读起来受益匪浅。

首先,开篇说的是大变局时代新范式突破的问题,新的范式突破,才是人类进步的前提。哪些范式呢?材料、能源、生物工程。作者并没有将大数据、人工智能、量子计算之类的东西列入进去。其实,从开篇就可以看出作者对这些当下火热技术的一点看法,有意见的看法。

从大数据开始,作者认为,当下的大数据,第一,并不大。我们掌握的仅仅是可以量化,可以认知、捕捉的数据,而一个人大量中信息的交互过程,对于如何打扫柜子的思考过程,可能当下的计算机都装不下,分析不了。更不要说,一颗种子发芽过程所蕴含的数据、信息的交互了。所以现在的数据,被称为感知数据。 大数据是有悖论的,因为大家都在使用大数据,所以悖论产生了。因为,我们知道的越多,往往能够选择的越少。这也就是上帝给人类创造了一个大脑,我们现阶段根本,未来很多年也无法认识其原理的大脑存在的美感。我们并不知道大脑是如何工作的,但是,我们使用它的完美,以及它的完美的缺憾。我们不去怀疑它的黑箱属性。大数据悖论,存在于人类竞争领域,尤其是使用大数据竞争的领域。中间的博弈过程,会让大数据失效。

引申出去,人类大脑包含的信息,根本无法用目前的一点点片面的数据能够试图分析清楚。而作者只是希望在大数据科学在应用方面更加普及的时候,我们的道德水平可以去包容中间潜在的风险。否则,大数据,会在某个领域,成为人类生存的杀手。

大数据流行起来,因为我们可以更多的在计算机上捕捉数据,而且可以用更多的算力去分析数据。这个时候,基于统计学的人工智能就产生了。但是作者认为工智能是一个从很多种概括人类统计分析能力的概念中提取 出来的,一个最容易引发人们误解的概念。诚然,人工智能确实在帮助我们更好地认识和分析问题,创造性的制造出能够辅助人类计算、决策、认识复杂数据的规律,实现图像识别、无人驾驶、语音识别等的工具,但它始终只是一个工具。

为什么人工智能是工具?因为在人类的智能面前,它弱爆了。它其实应该IA,是增强智能的意思。intelligence argumentation 。

在论述过程中,作者对人类社会的发展给予了很高的关注。作者认为人类社会的发展,科技道德等问题非常多,人类社会二八定律的逐渐实现,也是人类最终如何共荣和自我实现的挑战。科技,是其中一个重要推动力。只有将三大范式的问题解决,可控核聚变、纳米和石墨烯技术、基因改造的问题解决,人类才会向着另一个方向前进,脱离现有能力瓶颈的方向前进。其中,区块链的作用将会 非常大,应为它匿名、可信度高、透明、不可溯源等优势,可以让社会信用成本降到最低,让社会创造的财富能力公平合理地流动,而不是被阴谋和腐败吞没。

再回到人工智能,作者从深蓝开始介绍,把人工智能涉及的算法和原理介绍了一遍,结论就是,这些都是统计规则或者概率论的一种表现。未来,无监督学习和半监督学习将会深化它存在的意义,将人工智能的应用领域拓宽,但是,还是无法突破所谓的奇点。现实当中,可以像棋类游戏一样被参数化,又透明、规则清楚,可以使用奖励函数来训练的例子很少。

人工智能有存在黑箱的。我们暂时无法搞清楚一些算法指引下,数据训练的过程的情况,就好像我们祖先 只是知道火药是三种成分,但无法从分子层面去把握一样。现在对人工智能算法的审计过程,也是为了剔除人工智能的偏见,例如,犯罪预测中,对黑人的偏见。它所寻找的特征、标记点,可能是人类无法认识到的。而这些东西的公平性在哪里,在无法搞清楚原理的情况下,界定很重要。

最后还论事了大脑的事情。大脑,还是很难被解读。这是一个无边无际的星空。脑机接口,我们能够读取识别的大脑信号少之又少,未来的路,不清楚。只是希望大家能够认可认识到这些计算机学科概念的现实意义,不去盲目崇拜。因为有教派已经给将人工智能当做崇拜对象了,这是创造这个概念的人没有想到的。因为它远远没有达到控制人类社会的能力。

《新未来简史:区块链、人工智能、大数据陷阱与数字化生活》读后感(四):将AI拉下神坛2:为何说AI是低级能力,而人类大脑是超级智慧?

【按】来源与网络。提醒:有点“非人云亦云”的个性化烧脑,先不要急于反驳,慢慢看完再说哈!

(一)例证

以如今最高水准的AI人工智能AlphaGo Zero(是AlphaGo的升级版,原理基本相同 )来说明哈。

上文节选自《新未来简史》一书,要深度理解其原理,可参考该书第6章“炫技狗的秘密”一节(大约5000字)。

注意:上面提到“AlphaGo只需处理围棋这个只有十来条规则限制场景“,虽然学习下棋超级厉害,但是它其他什么都不会,更不可能将这种“超强的学习能力”转移到对其他什么技能、知识的学习上,甚至让其“给你上一杯茶、造个句、学句人说的话”几乎都永远学不会,除非推倒从来。

然而人,依靠你的大脑,可以处理(并学会)做饭、听音乐、聊天、玩耍、做针线、读书、交际、创意,制造数千数万的工具等数以亿计的生活场景,而且可以跨界的数以亿计的不同领域、数以亿计各类环境,并找到其中的逻辑联系,并寻求解决和适应的各类办法这种逻辑联系才是最高的智慧(非智力、智能,后将比较这三种概念)。这是多么的高级啊!!!

(二)类比

为何说超级计算能力是低级能力,是工具,而人脑是创造工具与利用工的超级高级的智慧,这里有个最为生动的类比,可谓一针见血地揭示了本质:

(三)升华

相对于计算机算力所造就的“智能”,这里需简单比较一下“智力”、“智能”与“智慧”三者之间的差别:

(四)境界

二、观点、文字与来源

上述回答的主要观点与文字皆来自《新未来简史》一书。该书与《今日简史》《未来简史》《人类简史》分别有80项、100项与50项对立观点。其中,用了8万余字,从50多个角度对AI进行了深度探讨,几乎摧毁了神话大数据、AI及其相关算法等的数十条流行或众人深信不疑的观点)一书。如图:

《新未来简史:区块链、人工智能、大数据陷阱与数字化生活》读后感(五):将AI拉下神坛3:无人驾驶老出车祸,独家揭秘致命缺陷

【按】本文来源前沿news ,其中,对《新未来简史》有很中肯的评价。基于人工智能的无人驾驶,为何老爱出车祸,这个涉及其内在机制的致命问题。这一致命问题在可预测的未来,是无法彻底消除的,因为这是基于深度学习的内在缺陷因素导致的,有如物种的基因,几乎无法更改。——《新未来简史》如是说。

频繁的无人驾驶车祸

我们先从全球著名的无人驾驶车品牌特斯拉开始谈这一主题:

2018年5月22日,美国中文网据KTVU报道,21日晚,基斯·梁(人名)驾驶着特斯拉(Tesla Model S)运动型多用途车(SUV)回家的途中,在无人驾驶状态下,车却突然偏离乌鸦峡谷(Crow Canyon)路,跌落山崖,最终在一个池塘中撞毁,司机当场死亡。

实际上,今年以来,半年不到,特斯拉的无人驾驶已经出了5起重大交通事故了:

1月24日,在美国加州,一辆特斯拉Model S在路边撞上一辆白色的丰田卡罗拉,导致两车车头变形。

4月15日,还是在美国加州,一辆特斯拉Model X在城市道路会车,撞上一辆黑色的雪铁龙,电池起火,导致1人死亡,2人受伤。

5月8日晚间,美国佛州劳德代尔堡海滩附近发生的一场特斯拉MODEL S车祸,导致两名年仅18岁的男子身亡。

5月13日,在美国佛罗里达,一辆特斯拉Model S在转弯处与私家车相撞,导致2死1伤,电池起火。

……

从警察调查的事故得知,这些特斯拉事故起因都是因特斯拉自动驾驶功能开启时发生的严重车祸。基于人工智能的无人驾驶老出车祸,这是为何?

从深度学习说起

无人驾驶车技术是人工智能深度学习(机器学习的一个分支)的一个应用方向。这门技术是基于监督学习、半监督学习或无监督学习(可参考「脑洞未来」深度学习系列的前4篇文章,或直接看《新未来简史》相关章节的深入解读)的,也就是说,无人驾驶技术的核心程序是通过训练(即机器学习)而来的。怎么训练的呢?

简单来说,就是把可能遇到的各种正常驾驶的场景标上标签,反复地输入,通过调节参数,让其输出符合给定了的要求,从而让机器“记住”这些是正确的,可以正常行驶的场景;同时,把尽可能多的影响驾驶的危险场景标上标签,输入输出让机器记住:这些是危险的,遇到后需要避免,不能触碰。这样反反复复地训练机器,让机器记住这些无数的场景,经过测试,无人驾驶车便可以上路了。但是,问题来了:

如此多正确、非正确因素,怎么可能让机器全部记住呢?盲点肯定存在。

有人可能会说,人也有盲点的。是的,但是,关键还在于:即便机器尽可能的记住了这些场景,但是,机器不能像人一样有智慧,并有庞大的跨领域思维体系,可以瞬间展开丰富联想性思考,甚至下意识地做出判断。如不能做出有把握的判断,人就会停下来,不会蛮干的。而机器不会的,它只要稍微有一点点干扰,那些训练数百次、数千次的非常熟悉的场景,就会让机器迷糊。迷糊倒也无所谓,但是,机器不会像人一样停下来,它会“蛮干”的。“蛮干”是导致无人驾驶发生车祸的根源。

这时,你可能有如下两个核心问题要问:

1、机器为何要“蛮干”?是人设计的程序,干吗还让其蛮干?

2、训练有数的机器为何会犯糊涂,不是很多场景都训练了吗?

根源解密

先回答第一个问题:

无人驾驶机器的程序设计就是要求“在机器犯糊涂时,必须做出判断”的,为何?

因为,不这样的话,你的无人驾驶车随时都会突然停下来,因为现实中的场景与其被训练过的场景随时都是不同(这个在回答第二问来讲)的。比如,你正在大街上,跟随拥堵的车流,慢慢地行驶,不能停下的,然而,车子却连续数次突然停下了,惹得后面的司机破口大骂,你会怎样?再比如你用无人驾驶车或程序的车送你女儿去高考,十几分钟的路程,车子莫名其妙地随时停下来五六次,影响交通不说,肯定会让你发疯的……所以,无人驾驶遇到任何场景(肯定多多少少与其训练的场景有所不同,你是不知道它在那种情况会犯糊涂的)程序必须要做出判断的。这是一方面的原因,另一方面,还有个很重要的原因:这是深度学习中正向、负向激励训练的必然结果,属于硬伤(此处不再啰嗦,请详见《新未来简史》相关章节的详细解读)。

现在回答第二个问题:

不论训练多么有数的机器,哪怕训练过千次、万次的某类场景,都是与千变万化的现实场景存在不同的(多多少少),都存在让机器犯糊涂的可能的:

这就是无人驾驶车为何老出车祸的致命缺陷和根源!

实际上,这一致命根源还涉及人工智能另一个最核心的缺陷,那就是“黑箱问题”。这一问题再与机器人的“毫无好坏、正误判断的人类意识”联动起来作用。如在生活中大量运用类人类的人工智能,将会非常恐怖的。比如,据报道:脸书开发的服务型机器人站在床边,女主人睡到半夜,突然听它发出“狂笑”,吓得主人一个半死!

上述危险,以及人工智能AI的“黑箱问题”,机器学习与人类学习的巨大到几乎“不可跨越的”差距等,我们将放在《「脑洞未来」深度学习……》系列的专题文章来讲解,或参看《新未来简史》一书更为系统的解读。

来源与说明

上文节选自《新未来简史:区块链、人工智能、大数据陷阱与数字化生活》。

该书以30多门前沿科技、学科展开深度推演,与《今日简史》《未来简史》《人类简史》至少分别有80项、100项与50项对立观点。其中,该书用了8万多字从50多个角度深刻分析人工智能AI,几乎摧毁了神话大数据、AI、算法等数十个观点。如图:

本文由作者上传并发布(或网友转载),绿林网仅提供信息发布平台。文章仅代表作者个人观点,未经作者许可,不可转载。
点击查看全文
相关推荐
热门推荐