您的位置: 驻马店信息港 > 时尚

智能技术机器与人的战争还是人与人的战争

发布时间:2019-05-15 07:05:42

人工智能的风险讨论已不再是新话题。在过去几年中,很多研究者提及了人工智能(和与之紧密相关的技术,尤其是机器学习和大数据技术)可能带来的危害与风险。值得注意的现象是:在公众话语空间中,所流行的关于智能技术伦理危害与风险的讨论,大多将人类整体视为潜伏的被害对象,大量的叙事被构建为机器VS人类的形式。

人类VS机器的讨论层出不穷,相干的小说、电影等也被大量的创作出来。

关于智能技术如何被当前的社会权利结构所主导,并反过来强化该结构,从而加深对弱势边沿群体的压迫,相关的讨论数量较少,且缺乏系统性。本文将展开关于智能技术伦理危害与风险的介绍,并侧重讨论其如何强化社会与经济的不公正。

想象未来世界:全人类被毁灭的讨论

有关智能技术伦理危害与风险,部份讨论已进入流行文化空间,引起了大众的兴趣。通常,其以未来学的形式示人:试图推测人工智能技术成熟、特别具有了自我完善的能力以后的未来图景。如超级智能、人工智能毁灭人类、技术奇点等讨论,引发了大众对其中伦理问题的广泛关注。

相关的讨论占据畅销行列,大众对人工智能的伦理问题也开始关注。

比起事关人类存亡、略带科幻感的宏大叙事,另外一些相关的伦理危害与风险,正在更加现实中产生。例如智能技术对就业的影响,是一个经常被提及的主题。Kevin Kelly认为,机器在工作中对人的取代是一个不可逆的过程,有一些工作暂时只有人类能做或做得比机器更好,但机器终将胜过人类,绝大多数人类在几十年后,将不再需要从事生产工作。麦肯锡的一个研究,具体地列出了各种职业被机器取代的可能性,其中生产线工作、准备食品、包装物品等可预测的物理工作是容易被机器取代的。

麦肯锡的报告更近一步,分析了哪些职业将被替换。

除了造成大面积结构性失业外,人们还担忧,赛博空间和物理空间的战争:控制了大量资源乃至自动化武器的人工智能,是不是会攻击它们本不应该攻击的对象?这种危险甚至没必要以战争的形式出现:考虑到它们已经在社会经济中扮演如此重要的角色,其错误行动(乃至只是不恰当的优化)是否会造成极端卑劣的结果?可以注意到,以上几类常见的讨论,总体上强调人工智能对人类整体的影响,并不凸显其对当前社会不同人群所造成的不同影响。

一样的趋势,也出现在对智能技术风险的分析中。众多此类分析聚焦于技术层面,而并未将社会和政治因素纳入考虑。例如斯坦福大学的研究者认为,通过机器学习尤其是深度学习得到的统计学模型,具有以下特点及安全隐患:

不透明:很难、乃至根本没法看懂其中的逻辑;

整体不可分:没法通过局部分拆理解输入输出之间的关系;

脆弱:输入的微小变化可能引发输出的重大且无法预测的变化;

不被充分理解。

作为对比,Weapons of Math Destruction1书作者Cathy ONeil也提到了众多智能算法工具的危险的特征,其广泛影响着人们的日常工作与生活:

它们是秘密的,常常是某家公司的商业秘密;

它们是不透明的,被它们影响的人群不了解这些算法如何运行;

它们运用的范围很广;

它们对成功的定义值得置疑,被它们影响的人们未必赞同;

它们制造了有害的反馈环。

未来世界也在折叠?

相比前一组特征,ONeil识别的特点具有一个值得注意的要点:特定的人群。她指出了一个极其重要、但绝非总是明显的问题:智能技术对人的影响是有区分的,同一个技术可能让一部分人受益、同时让另一部份人受损。2010年在伊利诺伊州开始实行的教师绩效评估算法,引发了芝加哥教师的广泛反对乃至游行抗议,这就是一个实例。

芝加哥教师反对教师绩效评估的算法

正如Linnet Taylor不无洞见地指出,在进行伦理评估时,人们倾向于抽象地谈论智能技术可能造成的伤害,而具体地谈论它带来的收益,因而实在的收益总能压倒模糊未知的伤害,从而使项目通过评估。通过将社会和政治因素纳入讨论范围,ONeil所提出的对具体人群的关注,给了我们一个重要的视角,来重新审视智能技术可能带来的损害和风险。

自此,我们首先可以注意到,智能技术对劳动力市场的影响并不是均质。Erik Brynjolfsson和Andrew McAfee在《与机器赛跑》中指出,教育程度较低、薪酬较低的劳动者更易被智能技术取代,同时他们也更难以取得新的职业技能,因而这群劳动者在结构性失业中遭到的损害被加重;Paul Krugman一针见血地指出,全能且高效的工作机器人(workbot)的出现,未必会让世界变得美好,因为没有能力具有机器人的那些人,处境将非常悲惨。尽管这方面的研究还很少,但现有的一些研究显示:在高度自动化、智能化的工作环境下,教育和技能水平较低的劳动者,正在面临劳动环境恶化、劳动强度增大、收入降低、缺少劳动和社会保障等挑战,此种现象在分享经济形态中普遍可见。在一些极端的情况下,劳动者被异化成数字机器上的幽灵和生产线上的奴隶。

作者邱林川讨论了新形势下的奴隶i奴

另外,智能技术可能正在加深对社会弱势群体的偏见和歧视。Wendy Chun认为机器学习就像偏见的洗钱,通过机器学习,偏见和轻视被包装成模型和算法,使不公正变得更加隐秘而影响深远:职场社交站LinkedIn的搜索引擎更青睐男性求职者,Google的广告平台Adsense存在种族偏见,饱受争议的预测性执法(predictive policing)对非裔美国人和穆斯林构成结构性轻视,低收入人群会由于智能技术更难从贫困中逃脱。性别、种族、宗教信仰、收入现实中的各种偏见与歧视,似乎都在智能技术中找到了落脚点。

除此以外,智能技术还被用于控制大众情绪。通过操控用户从定阅渠道看到的信息,Facebook成功地调节了用户发帖的情绪,从而证明情绪可以在大量用户之间沾染。一份曝光的材料显示,JTRIG(联合威胁研究智能小组,隶属于英国情报和国家安全机关政府通信总部)已在通过Youtube、Facebook、Twitter、博客、论坛、电子邮件、短信、自建站等渠道操纵大众情绪,从而消除犯罪、安全和国防威胁。在政治领域,智能技术可以诱导选民做出片面的判断(Cathy ONeil在2015年的发言);而在商业领域,其向消费者灌输消费理念,使他们成为对不断更新换代的消费品上瘾的被制造的奴隶(manufactured slave)。

JTRIG(Joint Threat Research Intelligence Group)是GCHQ(Government Communications Headquarters政府通讯总部)的一部分,图片来源:络

早在1980年代中期,研究者们就围绕计算机伦理是否具有独特性这1问题展开讨论。Johnson认为,计算机伦理只是把标准的道德问题以新形式呈现,逼迫我们在新的领域中延续旧的道德规范,它本身不是一个独特的新题目。而James Moor则认为,计算机会大幅度转化/强化现有的伦理问题,并且造成过去未曾出现过的新伦理问题,因此计算机伦理本身就是一个独特的新题目。

这两种观点,对我们全面认识智能技术的伦理问题,有着重要的启发意义。我们既需要充分了解智能技术的独特性,及其对伦理问题带来的独特影响,又必须认清新技术背后潜藏的旧有冲突、斗争和伦理准则,这样才能准确把握智能技术的伦理方向,使其向着对广大民众有益的方向发展。

经间期出血吃什么药
月经后期吃什么食物
怎样才能快速治疗痛经
猜你会喜欢的
猜你会喜欢的