当年轻人开始谈论AI伦理

语言: CN / TW / HK

编者按:本文来自微信公众号 “Alter聊科技”(ID:spnews) ,作者 Alter,编辑 胖爷。36氪经授权发布。

赛博朋克的电影里,常常可以看到这样的构想:

社会已经被财阀集团所控制,人工智能充当了统治的工具,所有人的行为都要遵循机器的逻辑、服从算法的规则。然后生活在社会最底层的主角,找到了其中的漏洞并尝试走出被操控的宿命。

可能在大多数的认知里,类似的反乌托邦世界离我们还很遥远。但当人工智能技术从象牙塔走进现实生活,与AI伦理有关的议题逐渐成为学术界争论的焦点,甚也有一些年轻人也开始思考算法的伦理和风险。

比如在B站上小有名气的视频博主“在下小苏”制作的一期内容里,对DeepFake、人机恋爱等话题进行了讨论 ,诸如DeepFake等黑科技被用来恶搞甚至是作恶的时候,我们对人工智能应该秉持什么样的态度?一旦“技术中立”被越来越多人抨击,我们应该如何处理新时代的人机关系?

或许AI伦理的概念还有些宏观,却是与每一个人息息相关的事。

01 无处不在的算法歧视

人工智能离我们并不遥远。

当你打开资讯应用时,算法会根据你的喜好自动推荐新闻;当你去电商平台购物的时候,算法会结合你的习惯推荐对应的商品;当你去求职应聘的时候,首先处理简历并进行筛选的可能也是算法;当你去医院看病就医的时候,医生可能会利用某个算法模型来判断患病的可能性……

算法正在以前所未有的速度渗透到我们的生活中。在支持者眼中,算法可以在一些决策中减少人为干预,进而提升决策 的效率和准确性。可从批判的角度出发,算法是否带有人为的偏见,人们的命运是否会被算法左右?

遗憾的是,算法歧视现象往往是算法落地应用的衍生品。

亚马逊曾在2014年开发了一套“算法筛选系统”,目的是在招聘的时候帮助HR筛选简历,开发团队打造了500个算法模型 ,同时教算法识别50000个曾经在简历中出现的术语,然后对应聘者的不同能力分配权重。

最后开发团队却发现,算法对男性应聘者有着明显的偏好,如果识别出简历中有女子足球俱乐部、女子学校等经历时,就会对简历给出相对比较低的分数。这个算法模型最终被路透社曝光,亚马逊也适时停止了算法的使用,令人深思的却是:为何“没有价值观”的算法开始有了偏见?

无独有偶,2018年IG夺冠的喜讯让互联网沸腾的时候,战队老板王思聪随即在微博上进行抽奖,结果却出人意料:获奖名单中有112名女性获奖者和1名男性获奖者,女性获奖者比率是男性的112倍,而参与用户的男女比率是1:1.2。

于是不少网友质疑抽奖算法的公平性,甚至有网友主动测试抽奖算法,将获奖人数的设置大于参与人数,仍然有大量用户无法获奖。原因是这些用户被算法判定为“机器人”,意味着在任何抽奖活动中都没有中奖的机会。

在算法的黑匣子面前,我们看到的大多只有结果,却无法理解决策的过程。与之相似的案例可能比比皆是,不过是鲜有人关注罢了。

最直接的教训就是互联网,硅谷自由的法度诞生了互联网,以至于一些原罪被人们选择性忽略,最终在20多年后出现了一轮轮对互联网的批判。正如纽约时报在《减少互联网是唯一的答案》一文中,将互联网归结为带有集权主义意识形态的技术,互联网企业被形容为一群驱使着技术的“邪恶魔王”。

对互联网的批判大概率不会让人们减少互联网的使用,却给出了一个思路:为何互联网会从万众仰慕的行业沦为过街老鼠,倘若算法的应用和算法歧视现象不被制约,又将在未来某一天掀起多大的波澜?

02 根源在于人性的偏见

当然,算法的“偏见”并不缺少合理的解释。

一种说法是将机器学习结果的偏见归咎于数据集偏见,而非算法偏见的“技术中立”。比较知名的支持者就有被称作“卷积神经网络之父”的杨立昆,比较常见的论证是:如果某人持菜刀砍了人,难道是菜刀厂商甚至“菜刀本刀”的错?

另一种解释是数据量太小,当算法学习的数据量越大时,算法的错误会越少,而且结果会越趋向于精准。即使可以开发出一套筛选系统,将不带偏见的数据输入给算法,也无法达到绝对的公平。毕竟“主流”永远拥有更多的数据,算法最终会偏向于大多数,对“非主流”产生所谓的歧视现象。

两种说法其实讲了一个相同的道理:计算机领域有个著名的缩写是GIGO,即Garbage in, Garbage Out。翻译成中文的意思是,如果输入的是垃圾数据,那么输出的也将是垃圾的结果。算法就像是现实世界的镜子,可以折射出社会中人们意识到或者无意识的偏见,如果整个社会对某个话题有偏见,算法输出结果自然是有歧视的。

德国哲学家雅斯贝尔斯曾在《原子弹与人类的未来》写道:“技术本身既非善,亦非恶,但它既可以用于善,也可以用于恶。它本身不包含任何观念:既不包含完美的观念,也不包含毁灭的邪恶观念;它们都有别的源头——在人类自身之中。”

也就是说,算法歧视的根源其实在于人性的偏见,“算法中立”之流的观点本质上是对人性偏见的掩饰,也恰恰是人工智能让人恐惧的地方 。

任何一项技术的出现,都有“工具性”和“目的性”两个维度,选择权其实留给了人类自身。然而人性往往经不起考验,无法想象当“工具”交到人们手中又缺少节制的时候,将会做出多大的恶。

就像“小苏”在视频中提到的DeepFake算法,2017年亮相时就引起了巨大的轰动,一位名为Deepfakes的用户将神奇女侠扮演者盖尔·加朵的脸换到了一部成人电影女主角身上,以假乱真的效果引发了巨大的争议。

由于DeepFake算法的出现,原本只有专业电影制作机构才能完成的任务,普通人经过一段时间的学习也能掌握,就像是一头冲出笼子的野兽:加蓬总统Ali Bongo利用DeepFake合成的新年致辞,意外引发了军方的兵变;有人用DeepFake合成马来西亚经济部长与男性在一起的视频,给政府造成了不小的烦恼;在世界上无数隐蔽的角落里,有人利用DeepFake进行欺诈勒索……

在这个“算法无处不在”的世界里,我们该如何自处?

03 把野兽关进铁笼子里

作为新时代的“火种”,我们可能无法拒绝人工智能。

因为人工智能的应用,质检线上的工人无须再盯着强光下的产品用眼睛寻找瑕疵;因为人工智能的应用,基层的医生也可以根据病人的检查结果做出准确的病情判断;因为人工智能的应用,一群不会输入法的老年人也能用语音走进互联网世界……

不过一切美好的前提在于,先将野兽关进铁笼子里。

或许可以借用《人民日报》在评论“快播案”时的观点:技术不但必然负荷价值,而且还有伦理上“应当”负荷的“良善”价值:维持法律与习俗的稳定,远离破坏和颠覆。一旦违逆了这条原则,任何技术都将被打上可耻的烙印。

言外之意,技术不应该是独立于现实的乌托邦,科技的崛起离不开必要的监管,在法律法规上划清技术应用的边界,为技术中立套上伦理的枷锁,可以说是人工智能技术行稳致远的前提所在。

同时越来越多的学者也在讨论代码与法律之间的关系,担忧算法会不会动摇现有人类社会法律的基本框架,并提出了“算法规制”的概念,一种以算法决策为手段的规制治理体系,可以理解为利于算法治理的工具。

而除了这些防御性的机制,或许还存在另外一种可能:对算法开发者进行适当的“AI伦理”教育,确定一些算法的“基本准则”,就像“机器人永不能伤害人类”的铁律一样,从源头杜绝算法的滥用。

以“在下小苏”为代表的视频博主不失为一个切入口。尽管“在下小苏”的AI伦理节目不排除和旷视合作的嫌疑,可如果一家人工智能企业愿意走进年轻人聚焦的互动场域,以年轻人熟悉的语境和表达方式,向外界传递AI伦理的概念和自身的AI伦理实践,何尝不是一种行之有效的启蒙方式 。

目前包括中国社科院、清华大学、复旦大学、上海交大等在内的科研机构与高校,均已经开始进行AI伦理的相关研究。世界人工智能大会、北京智源大会等行业顶级峰会,也将AI伦理作为讨论的议题。在人工智能普及过程中扮演了领头羊作用的企业们,同样应该肩负普及AI伦理观念的义务,为年轻人上好AI第一课。

早在一百多年前的时候,美国最高法院大法官路易斯·布兰代斯就曾发表言论称:“阳光是最好的杀毒剂。”同样的道理也适用于人工智能教育,在教会年轻人用人工智能改变世界的同时,还要让他们明白善恶、底线和边界。

沿用前面提到的那个例子,菜刀在设计它的时候就已经标注了它的用途,人工智能也是如此,应该将其控制在可理解的天花板下,而非放任在失控的黑箱中,AI伦理就是其中的天花板。

04 写在最后

无可否认的是,伴随着人工智能的大规模产业化应用,一些无先例可循的人机矛盾逐渐浮出了水面,以至于找到一种可预期的、可被约束的、行为向善的人工智能治理机制,成了人工智能时代的首要命题。

或许无须太过沮丧 ,从钻木取火的原始时代到计算机时代,人类一直走在学习科技、利用科技、掌控科技的路上,期间虽然走了一些弯路,终究做出了一次次善的选择,找到了正确的驭火之术。而学习AI伦理的“AI第一课”,恰恰就是规避AI走向恶的一面,理性驾驭AI的正确开始。

当Z世代的年轻人都在讨论AI伦理的时候,构建出一套完美的人工智能治理规则,已经不再遥不可及。

分享到: