绿林网

《编码歧视》经典影评有感

《编码歧视》经典影评有感

《编码歧视》是一部由Shalini Kantayya执导,纪录片主演的一部美国 / 中国大陆 / 英国类型的电影,以下这些影评,希望对大家能有帮助。

《编码歧视》影评(一):不同社会背景下,评判歧视标准也不同

老外好像很在意自己的生物信息被取样,同时影片中街头的面部识别的成功率也太低了,这么低的成功率按理说不能用来实践。影片的出发点是好的,但眼界过于狭隘,就好像走过头的黑命贵和女木又。动不动就拿主义的帽子乱扣,也能反映出西方社会的媒体还是井底之蛙。中国的古语早有总结,身正不怕影子斜,没做亏心事,不怕鬼敲门,心里怕了,就觉得被歧视了,真够娇气的。

《编码歧视》影评(二):编码歧视

豆瓣的热评第一把我想说的都说了。这部片子可取的地方在于指出了人工智能潜在的致命缺点,但片子的意识形态性让这部片子本身的意义打了折扣。

机器学习是一个黑盒子,它依照“多即是好”的原理,从历史数据中学习,因此它的学习过程即使对于创造它的程序员来说,也是一个黑盒子。这就导致了人类只是通过人工智能,在全自动化中复制自己的现有形象,没有鉴别,没有提升。就像片中说的,人工智能可以误判,但无法被质疑,也不被要求承担责任;作为一种唯数据论的技术,其设计目的是追求效率。

因此,就基于数据的机器学习本质而言,其产生的算法将不是中立的。因其通常为权势所用(如平台),机器学习其实会造成一种极危险的隐性的编码歧视,这也是片名的由来。

此外,盲目追求效率的一个弊端是人的物化。人被标准化参数所肢解,被片面化标签化。在教育系统,学生为标准化的培养体系和打分系统所评估,作为养料被高校挑选,再经过下一轮标准化的培养,然后作为“人才”输送入社会,被定义成一张张简历,简历再经过算法的筛查,剩下的简历才来到HR手里,再经过各种参数的标准化考核,把人物化为某一价格,体现为薪资待遇。这让我想起了最近的一部职场喜剧《破事精英》里面对绩效的刻画。

除了人的物化,人工智能还通过机械化,迎合并加深了现代社会对客观的追求。这种“机器客观”杜绝了人性的存在。Intelligence without ethics is not intelligence at all. 缺乏伦理道德的人工智能不是智能。人类的主观判断力、决策力、反抗力和拒绝的能力,是人性闪耀的光辉,这里有让我想起了《禅与摩托车维修艺术》中所提倡的“良质”,即不囿于可观察数据和传统主客观二分法的对quality的一种本能判断。

《编码歧视》影评(三):《大數據的傲慢與偏見》在“后视镜”中用算法“规划”

本片是凯西·欧尼尔《大數據的傲慢與偏見》一书的延展。

这是个演算法包围现代公民的时代!演算法在幕后影响着我们生活的各种决定,包括我们上什么学校、能否借到汽车贷款,以及医疗保险必须支付多少保费,愈来愈多判断是由数学模型,而非某些人所做出。这一切看似公平:因为所有人是根据相同的规则评断,不受偏见影响。

对热情的“问题解决者”来说,大数据像仙境,它搜集资讯、再运用数学模型,使我门得以更有效地调配资源、筛选最优的人事物、并做出最好的决定,这些热情的宣扬者更是四处宣传大数据应用的威力。

但是,曾在典型数据分析圈内工作的凯西·欧尼尔不是上述这种人。

她在《大數據的傲慢與偏見》中指出,事实与我们想的恰恰相反!这些数学模型不透明、不受管制,即便出错,受害者往往无法申诉。最令人不安的是,这些模型会“强化歧视”,例如,贫穷学生在申请学贷时,可能因自家的邮递区号,被审核贷款的数学模型视为还款高风险者,因而无法获得贷款……。这类问题会形成恶性循环——奖励幸运儿、惩罚遭践踏的人,创造出危害民主的“有毒鸡尾酒”。

欢迎认清大数据的黑暗面

欧尼尔在《大數據的傲慢與偏見》中揭开对我们人生各阶段有巨大影响的各种黑箱数学模型,不管我们愿不愿意,演算法系统都已经为我们打上“分数”。

当前许多数学模型已经失控滥用、还自作主张地替教师和学生评鉴、筛选履历表、审核贷款、评估员工绩效、锁定目标选民、决定假释名单,以及监测我们的健康状态,决定我们个人及社会的未来。

欧尼尔呼吁:在这个人人都被迫拥有自己在某种演算系统中持有“e化评分”的时代,那些建立模型的人应该为他们所创造出来的演算法负起更多责任,而政策制定者更应该负起监督管理的责任。

这本重要著作使我们得以提出关键问题、揭露这些“数学毁灭性武器”的真相和要求变革。

本片是此书的延展。

本文由作者上传并发布(或网友转载),绿林网仅提供信息发布平台。文章仅代表作者个人观点,未经作者许可,不可转载。
点击查看全文
相关推荐
热门推荐