强权之下,人工智能伦理如何自处?

2019 年 11 月 23 日

强权之下,人工智能伦理如何自处?

在近期刚刚落幕的梵蒂冈城“数字时代公共利益技术大会”上,天主教教皇方济各提醒Facebook高管、风险投资家和政府监管机构警惕人工智能等先进技术对人类社会造成的影响。他称:“如果所谓的技术进步成为公共利益的敌人,那么整个社会就将退化到被最强法则支配的野蛮时代。”


今年夏天,同一话题在不同谈话背景下展开。Joy Buolamwini 与民主党众议员 Alexandria Ocasio-Cortez(纽约民主党)一同在国会面前作证——在经过多次审核后发现,人脸识别技术针对白人男性识别效果最佳,针对黑人女性效果最差。


这两个事件的共同点是它们都涉及人工智能伦理与权力之间关系的争论。


关于人工智能伦理的争论可以在不提及“权力”一词的情况下展开,但我们却始终无法真正绕开权力。实际上,权力并不是焦点,却是让人无法忽视的因素。权利在人工智能领域就像地心吸引力,它是一种能影响人们对人工智能伦理思考的无形力量。


权利能左右人工智能在哪个领域使用、优先解决哪些问题;以及为谁提供什么样的工具、产品和服务。


一般来说,初创公司可能会把道德标准视为锦上添花,没有也未尝不可。想抢占市场第一顺位并在最后期限前完成产品发布的工程师们可能会认为把宝贵时间浪费在道德标准上有些滑稽。CEO 和政客们对于人工智能道德也仅是纸上谈兵,但是最后都会发出共鸣信号或忙着为自己“道德洗白”。


但是,人工智能伦理道德不应是锦上添花的存在,它应该成为一种主观愿望而非强制认同。人工智能被称为 21 世纪对人权最大的挑战之一。这已经不是做正确的事或做最好的人工智能系统的问题,这关系到谁将掌握权力以及人工智能如何影响世界。


这些权力能够定义商业、社会、政府、世界各地人们的生活、隐私甚至是我们未来所拥有的权利。正如所有人工智能产品经理所说的那样,事情才刚刚开始,如果权利不平衡的问题无法得到解决,那结果将非常危险。


劳动力市场和新镀金时代


在充满变革的当下,一系列趋势导致了人工智能“异军突起”。深度学习云计算、GPU 处理器等以及更快地训练神经网络所需的计算能力,技术已经成为大型科技公司的基石——推动了人工智能今天的复兴。


第四次工业革命随之而来的是巨大的收入差距和新镀金时代。就像 19 世纪铁路巨头们利用农民迫切想将作物推向市场的心态一样,拥有独家数据集的科技公司渴望利用人工智能进一步巩固市场地位并企图拥有垄断优势。



当数据比石油更有价值时,那些斩获大量有价值数据的企业最有可能巩固其行业领导地位并源源不断地积累财富。这一金科玉律适用于像苹果Facebook谷歌IBM微软这样的“大牌”公司,同样也适用于传统企业。


与此同时,收购和并购进一步巩固了企业的实力。一种趋势黏合着其他趋势,研究和开发几乎全部涌向了大型企业。据 2018 年 SSTI 一项分析显示,拥有 250 名或更多员每年 88.5%的支出用于研发,而拥有 5000 名或更多员工的公司每年将近三分之二的支出用于研发。


据“以人为本”的斯坦福人工智能研究院最近报告称,人工智能技术的不断蔓延造成了巨大的社会失衡。


“人工智能潜在的金融红利是巨大的,人工智能领域的贫富差距也相当惊人。据我们所知,全球经济平衡可能会被一些列灾难性技术变革打破,”一个名为 Hai 的作者在其提案中呼吁美国政府在未来十年里应对教育、研究和创业领域投资 1200 亿美元。


该提案的共同作者是谷歌云前首席人工智能科学家李飞飞博士。她指出:“如果指导得当,人工智能可能将人类带入高生产力和经济繁荣时代。”“普华永道预测,到 2030 年,人工智能将为全球经济贡献 15.7 万亿美元。但是,如果我们不能负责地利用它、公平地共享收益,那将会导致财富和权力更加集中在所谓的精英人群手上,而全球大多数人将陷入贫困和碌碌无为的窘境中。”


麻省理工学院数字经济项目主任 Erik Brynjolfsson 研究了人工智能对未来工作的影响并在近期斯坦福大学的人工智能伦理研讨会上发表了讲话。在谈到未来几年内可能被机器学习所取代的岗位数量时,Brynjolfsson 表示:“如果你从整体经济的角度看,就会发现一个潮流即将到来,但显然目前时机还未成熟。”


Brynjolfsson 称,“机器智能可以重新设计工作和提高工作效率,但是大多数情况下会被用来代替人工。”


布鲁金斯学会的分析以及卡耐基梅隆大学的 Brynjolfsson 和 Tom Mitchell 的研究显示,自动化对不同城市和不同州的失业率影响也不尽相同。例如,加州弗雷斯诺市预计会比明尼阿波利斯市受到的冲击更大,但不稳定就业或失业对低收入家庭和有色人种也会造成不同程度的影响。麦肯锡最近一份报告称,自动化将导致非洲裔美国人大量失业。



自 2000 年起,这种趋势导致了美国中产阶级的日子也不好过。中产阶级不再继续蓬勃发展的根源在于生产率的提高。这种现象被称作 Brynjolfsson“伟大的分歧(脱钩 decoupling)”。


Brynjolfsson 称:“在 20 世纪大部分时间里,生产、财富和生产率都是相互关联的,生产量越多、获得的财富越多、生产率就越高——人们过上了更富裕的生活,但最近这些角色间产生了分歧。”“蛋糕越来越大,我们创造了更多的财富,但是共享丰收果实的人却越来越少。”


Brynjolfsson 认为,来自人工智能社区的挑战已经使美国国防部高级研究计划局的自动驾驶汽车挑战赛和计算机视觉的 ImageNet 等最先进的人工智能领域实现了飞跃,但企业和人工智能社区应将注意力转向共享繁荣上。


“事实上,可能很多人已经被这股人工智能大潮拍在了沙滩上。所以我认为当前最重要的不是研发更先进的技术,尽管我也完全支持企业去这么做,但是我更愿意看到整个行业共创繁荣。”


科技巨头公司和权利


人工智能普及后的另一大主流趋势是,美国历史上第一次出现劳动力大多数是有色人种的情况。根据美国人口普查局的预测,到 2030 年,美国大多数城市,乃至整个国家,将不再拥有占人口大多数的种族。


人口结构的变化使得人工智能公司员工性别、肤色多样性失衡的问题更加突出。更关键的是,在制定决策时员工肤色和性别也过于失衡,人工智能 Now 研究所所长 Kate Crawford 称其为“白人问题”。


据 Wired 和 Element AI 在 2018 年的一项分析显示,大型人工智能会议上发表的研究中女性只占 18%,而 Facebook 和谷歌的研究人员中,女性分别占 15%和 10%。两家公司的发言人均表示,无法提供从事人工智能研究人员性别及肤色多样性的数据。


尽管人们都在谈论如何解决科技行业的从业者多元化问题,但科技行业的很多领域在这一问题上进展缓慢,对拉丁裔或黑人创业者的投资仍然落后于白人创业者。为了解决科技行业在人员构成多远性方面进展缓慢的问题,两位数据与社会研究员建议科技公司和人工智能公司采用“种族修养”。



Mutale Nkonde 是提出该建议的其中一位,她也是《算法问责法》的合著者,该法案于今年早些时候在国会两院提出,要求联邦贸易委员会对算法偏见进行评估,并允许该机构根据公司规模开出罚单。


Mutale Nkonde 也是人工智能的执行董事,还在哈佛大学 Berkman Klein 互联网和社会中心担任研究员。她现在正在评估哪些人工智能和错误信息在 2020 年大选时将被用来针对非洲裔美国人。据参议院情报委员会去年 10 月发布的一项调查显示,2016 年干预总统大选的行为只针对 Facebook、Twitter 和 Instagram 上的非裔美国人。


在此之前,她和她的小组一直致力于提升种族修养意识。


种族修养


一篇解释种族修养基本概念的文章中写道:“在科技领域建立种族平等的真正目的是为了让人们看到一个不同的世界,一个我们可以打破旧模式的世界。”“如果不去有针对性地解决技术领域的种族问题,新技术将不可避免地陷入老问题”。


文章合著者希望种族修养成为计算机课程和科技公司员工培训的一部分。他们的方法借鉴了 Howard Stevenson 为学校提供的种族修养培训中的内容,方法中还包括了关联测试来确认人们是否对种族问题持有刻板印象。


种族修养旨在帮助人们树立正确种族意识避免员工在工作中遭遇种族压力。这包括允许计算机科学家和设计师、机器学习工程师们公开谈论一个产品或服务为什么始终存在着结构性种族歧视问题,或为不同的用户带来了哪些不利的影响。


这样做的目的是让人们以一种开放和非对抗性的方式讨论产品或服务可能出现的问题。在对大中型科技公司员工的采访中,研究人员发现,在许多科技公司,与种族相关的问题是禁忌。


“采访时受到很多阻碍,甚至生活中发生的无关紧要的事人们也不愿承认其中带有种族歧视的成分。他们装作若无其事的样子,认为大家都有同样的想法,而这实际上助长了种族主义的不正之风,”Nkonde 说。“由此可见,企业必须明确自己的价值观,而不能用含糊不清的价值观来讨好所有人。”


Nkonde 认为,很多像 Alphabet 这样的公司开发出了与人类生活息息相关的产品,如医疗服务或出售给政府的面部识别软件等,种族修养将变得越来越重要。



种族修养培训将带来的另一种结果是,公司内将形成一种企业文化,让员工认识到这种多元性的企业文化能创造更多价值。波士顿咨询集团去年发布的一份研究报告表明,多元化程度越高的组织拥有更好的收入和更强的创新能力。其实公司招聘和员工留任的一些数据已经能够说明这一问题了,只是硅谷的那些科技巨头公司门似乎还没有意识到这一点。


LinkedIn 的高级软件工程师 Guillaume Saint-Jacques 认为 AI 伦理不仅仅是正确的事情,在商业上也同样不容忽视。Saint-Jacques 是今年夏天启动的公平项目的发起人之一,他称,偏见会妨碍利润。



Saint-Jacques 称:“如果你有很大的偏见,你可能只会迎合一个群体,最终这会限制用户群的增长,所以从商业角度来看,你实际上希望所有人都参与进来,因为从长远来看只有大众能都参与的项目才是一个不错的商业决策。”


人权终究不容忽视


有实力的公司有多种渠道提升整体实力,但是他们的商业计划里都离不开“人”。


企业和政府收集越来越多的数据来做出影响人类生活的决策,从使用移动设备跟踪用户活动到中国的“社会信用评分”体系。Snowden 最近在接受美国 NBC 采访时被问及为何不犯罪的人也要去关注监控技术时,他说,总体来讲这些数据的目的是剥夺人们的自主性。


他还称:“这些活动记录被公司和政府不断地创建、共享、收集和拦截。最终,这意味着当他们出售、交易这些记录数据时,他们出售的不是信息,而是我们。他们出售卖的不只是我们的未来,还有过去发生的故事,甚至是我们的历史、身份。最终,他们偷走了属于我们的权利,用销售我们隐私赚来的利润堆满他们的钱包。”


普林斯顿大学副教授、《科技之后的赛跑》一书的作者 Ruha Benjamin 也关注人的自主性问题,因为无论人们认为人工智能将带来世界末日还是带来美好的乌托邦,他们谈论的问题的焦点都集中在权力让位于机器。


不少大公司内部出现了截然不同的捍卫个人权利的方式。例如,大约一年前,全球 2 万多名谷歌员工因多种道德问题举行了罢工。据活动组织者介绍,此次罢工员工所抗议的问题包括“安卓之父”Andy Rubin 在被指控性骚扰女员工后拿出 9000 万美元“善后”,强制仲裁终结,以及谷歌参与五角大楼的 Maven 项目。



几个月前,数千名谷歌的员工联合签署了一封公开信,抗议该公司参与无人机目标检测人工智能项目。经过了几个月的挣扎,谷歌最终承诺在 2019 年终止其 Maven 合同,并公布了一套人工智能项目准则,其中包括不制造自动武器的承诺。


同样,Facebook 的员工呼吁CEO 扎克伯格去核实一些被纰漏的事实或禁止发布政治广告,而微软和GitHub的员工则呼吁终止与 ICE 的合同。ICE——美国国土安全局,负则执行特朗普的驱逐和拘留政策。


挑战大型科技公司需要有一定的胆识和组织性——尤其是对那些正受雇于这些公司的员工来说更是如此。但这些抗议表明,在面对这些巨头公司时,即使双方实力相差悬殊,只要勇于“亮剑”去捍卫个人的权利,最终也可以收获成功。


政府和社会


随着人工智能在当今的复兴,Elon Musk 已经成为了当代的 Paul Revere,他提醒人们警惕机器人杀手和强人工智能。当俄罗斯总统普京提及掌控人工智能的国家将控制世界时,特斯拉汽车和 PayPal 的联合创始人 Musk 回应称,他认为人工智能军备竞赛将成为引爆第三次世界大战的导火索。


Musk 加入了 4500 多名人工智能和机器人研究人员的行列,并签署了一份“为未来而战”的公开信,他表明自己反对无人干预的自动化武器。如果未来某一天某个国家引入了自动化机器人杀手,他们有权决定人的生死,那么到那时,人工智能就真正地沦为了权利的“刽子手”。


像电影《终结者:天网》这样的强人工智能场景可能还没有出现,但军方已经在考虑人工智能的伦理应用。


美国国会一年前成立了国家人工智能安全委员会,委员会近期刚发布了一份关于人工智能对战争影响的报告草稿。报告中的主要提及,“人工智能的发展将如影响造权力的未来”以及美国如何保持经济和军事优势。


一周前,一个由技术高管和人工智能专家组成的小组向美国国防部提交了一份人工智能伦理准则。


美国国防部目前正在研究这套由谷歌前 CEO Schmidt、MIT CSAIL 总监 Daniela Rus 和 LinkedIn 联合创始人 Reid Hoffman 等美国国内首席技术专家共同起草的准则。


据研究人员和议员们称,到 2020 年,也就是美国总统选举年,Deepfakes技术尤其令人担忧。


此外,Twitter 上还在使用僵尸网络来详细爆出国家议程,比如在前《华盛顿邮报》记者 Jamal Khashoggi 被杀后拥护沙特阿拉伯政府的机器人,以及 2016 年协助特朗普当选总统的俄罗斯机器人。机器人也被发现在俄罗斯影响南非竞选问题上也扮演了重要角色。


人工智能、权利和社会


虽然围绕使用人工智能来控制线上政治言论的争论仍在继续,但新问题依旧不断涌现。由苹果、Facebook 和谷歌等公司的人工智能研究人员创建的人工智能伙伴关系网,将 Amnesty 国际和人权观察等组织与全球巨头人工智能公司联系在一起。在今年夏天接受 VentureBeat 采访时,执行董事 Terah Lyons 表示,非政府组织和科技巨头公司进行了人工智能伦理讨论,主要辩论议题为人工智能将如何影响社会,而最终得到的结论是——权力是核心。


“我们为在人工智能伦理中权利是核心和关键因素,因为人们的日常工作总是无法绕开权利,”她说。“权力就算不是核心问题,也是核心问题之一。”她认为,权利在人工智能领域缺乏多样性的问题上起了一定作用,在系统和工具构建和部署方式缺乏影响力问题上也起了一定作用,甚至在科技公司和机构内部个人权利方面也起了一定作用。


资源有限的民间组织和非盈利机构与资源丰富的科技巨头公司合作时,权利鸿沟也是这其中不容忽视的角色。以人为本的斯坦福机构和一些人工智能机构支持设立机构代表,但是来自非盈利组织的员工往往不能像科技巨头公司的员工那样支付得起飞往人工智能股代表大会的机票。


类似买不起机票的尴尬还发生在想要参加国际会议的人工智能研究员身上。去年,在加拿大蒙特利尔 NeurIPS 举办的人工智能研讨会上,约有半数与会者被移民局官员拒签,今年,申请者面临着同样的问题。此类事件促使人工智能领域的合作伙伴敦促各国为人工智能研究会议的与会者发放特殊签证,就像在世界某些地区为医疗专家、运动员和企业家提供的签证一样。


国家和巨头公司之间的权利关系


Casper Klynge 是丹麦驻硅谷大使。一些国家在海湾地区设有商业和创新中心,但 Klynge 是第一位被特别指派到硅谷专门代表国家外交利益的大使。


丹麦政府已经派他与苹果、亚马逊、谷歌和 Facebook 等全球科技巨头公司保持联系,这些公司聚集了世界上大量的人工智能人才。Klynge 认为,更多的国家也应该这样做,这样它们才能为共同的目标而共同努力。Klynge 称,在他任职的两年间,与其他小国建立多边联盟也是他工作的一部分。


虽然政府对垄断企业已经见怪不怪了,但 Klynge 表示,像自动驾驶和搜索这样的人工智能已经改变了游戏规则,与这些科技巨头公司合作所带来的利益甚至高于与其他国家合作带来的利益,因此也就引发了丹麦所称的对技术外交的需求。


在上个月接受 VentureBeat 采访时,Klynge 指出,科技巨头公司正在篡改国际关系的本质,并在创造一个新的现实,即各国必须像对待全球超级大国那样对待科技巨头。


“我们不能再把这些科技巨头公司看成中立的平台,我们必须以更加成熟和负责任的方式看待他们,我们也要对它们提出要求并让其负起责任。”“我的工作只是一种具有代表性的个例,昭示着我们正努力做一些更系统化的事情,以对科技公司和科技本身有一个更平衡、更现实的看法。”


接下来会怎样?


在关于人工智能伦理的争辩中权利无时无刻不被提及。但是这并不意味着我们一定要让人工智能绝对脱离权利。就像上文种族修养的示例那样,我们可以找到另一种解决办法。


Ruha Benjamin 称,“大数据记录着我们的过去,但是并不会创造我们的未来。编纂未来需要伦理想象,这些只有人类才能做到。”


当然,也有很多人工智能被用来改善人类生活的例子。比如,麻省理工学院的研究人员发明了一种让学生更快到达学校的算法,每年为波士顿学区节省 500 万美元的交通费用。纽约消防局和纽约大学利用人工智能知晓到达事故现场最有效路径从而缩短急救时间——这是 Google.org 上几十个项目之一,他们利用数据驱动方式来创建造福人类社会的人工智能。


人类利用人工智能建造更高效的温室,提高农作物产量,这些利用人工智能所做出的改进可能让人类在未来十几年中避免饥荒,并在全球人口膨胀至 100 亿之际养活世界。这样的例子不胜枚举。


但是那些能预知未来、颠覆经济和社会秩序、把人送进监狱、或者决定我们健康的技术仿佛隐约传递着这样一种信号——在这些影响能社会变革的技术力量之下,涌动着权利的暗潮。


当有色人种在面临保释评估、就医保健、无家可归救助服务、人脸识别等情况时,这时权利不再“沉默”。


当欧盟的人工智能专家敦促各国避免大规模监控,而使用人工智能来增强和捍卫人的能力时,权利不再“沉默”。


当三星和联合国都提出了利用人工智能实现可持续发展目标的倡议时,权利便不再“沉默”。


当提及新兴的能够探测何时发生团伙枪击来以确保军人的孩子不受伤害的人工智能问题上,权利不再“沉默”。


当人工智能解答巴基斯坦少女性健康的问题时,权利不再“沉默”。



像 Masakhane 这样的开源项目正在为 2000 多种非洲语言创建机器翻译。该项目目前有来自非洲大陆各地区的 60 名贡献者参与,他们致力于开发出能够保存和翻译这些语言的人工智能技术。据联合国估计,非洲拥有地球上最年轻的人口,从现在到 2050 年,非洲将占全球人口增长的一半以上。非洲的机器翻译对于推动人工智能对话、交流和电子商务至关重要,但涉及这么多人口的人工智能技术却始终没有引起全世界的高度重视,由此可见,在这件事情上,权利也在这其中“插了一脚”。


编者按:


人工智能是让世界变得更好的一种方式,但当权利阻挡我们窥探未来时就会变得非常可怕。在绘制通往未来的美好蓝图时,必须认识到我们无法完全摆脱权利,关键在于如何使用它。就像人工智能本身就是一种工具或武器,它可以拯救人类也可以摧毁人类。


人工智能正在改变社会,它不能仅仅服务于少数掌握特权的人让他们去决定世界是什么样子。


原文链接:


https://venturebeat.com/2019/11/11/ai-ethics-is-all-about-power/


2019 年 11 月 23 日 10:052794

评论

发布
暂无评论
发现更多内容

Raft探索历程--Part2

老胡爱分享

分布式系统 raft

道路千万条,安全只三条

石君

安全评估 安全设计

Hexo blog 创建指导手册

想飞的鱼

GitHub Hexo GitHub Pages Blog

它们为什么这么快:从多进程到多线程再到I/O复用

Ya

多线程 进程 并发

一致性哈希 -- java 实现

lei Shi

公司一直用Mybatis的原因原来在这!不得不竖起我的大拇指

小闫

Java mybatis mybatis-config.xml mybatis缓存

k6简单入门

IT民工仁兄

性能测试

区块链系列教程之:比特币的问题

程序那些事

比特币 区块链 智能合约 以太坊

Git 的远端操作及解析(含思维导图)

多选参数

git GitHub gitlab

小白也有大厂梦,如何从零开始掌握高薪Java工程师必备技能?

无予且行

Java 架构 面试 后端 大厂

碎片化学习行不行

封不羁

如果张东升是个程序员

程序员生活志

程序员 张东升

针对GPU单指令多数据流的编译优化算法

GPU

gpu 编译器 程序语言 if-conversion

面试官:为什么需要happens-before规则和什么是指令重排序

无予且行

Java 编程 程序员 happens-before java面试

Java线程池最细的解释,看完后彻底征服面试官

小新

Java 架构 面试 线程 线程池

JVM中的双亲委派机制你还没懂吗?

阿文

Java JVMTI JVM 深入理解JVM JVM原理

大厂经验(3):Android端埋点自动采集技术原理剖析

DeeperMan

前端 数据采集 采集 埋点

Cordova项目使用Android Studio真机调试

麦叔

android Android Studio 真机调试

三十张图助你看清红黑树的前世今生

淡蓝色

Java 程序员 数据结构 算法

有了多线程,为什么还要有协程?

八两

线程 进程 协程 GMP 进程线程区别

【Python】 any() 和 or 区别你真的知道吗?

Leetao

Python 数据结构 Python基础知识

[1.3万字] 玩转前端二进制

阿宝哥

Java 前端 base64 Blob

对mysql事务的认识,再不懂我就捶死我自己!

你是人间四月天

MySQL 面试 mysql事务 Java 面试 大厂面试

工业4.0|振动分析能做到预防性维护吗?

清水河路人甲

Hash一致性算法的Java实现

wei

GeekPwn 2020少年黑客马拉松大赛即将开启 谁将CARRY全场?

Geek_116789

重学 Java 设计模式:实战策略模式「模拟多种营销类型优惠券,折扣金额计算策略场景」

小傅哥

Java 设计模式 小傅哥 重构 代码优化

现在面试这么难,背下题就能过的时代一去不复返了

小谈

Java JVM Java 面试 springboot SpringCloud

Java程序员的必修课之Spring理解透彻了吗?不会还咋去面试?

犬来八荒

Java spring 面试 后端 框架

计算机操作系统基础(十三)---线程同步之读写锁

书旅

php laravel 线程 操作系统 进程

架构师训练营第五周 - 总结

Eric

极客大学架构师训练营

强权之下,人工智能伦理如何自处?-InfoQ