联系我们
咨询热线:

产品展示

当前位置:官网首页 > 公司新闻 >

谷歌倒退,欧盟大步向前——AI的发展来到了新的十字路口

谷歌倒退,欧盟大步向前——AI的发展来到了新的十字路口
  • 产品名称:谷歌倒退,欧盟大步向前——AI的发展来到了新的十字路口
  • 产品简介:自AI诞生那天起,人类就开始担心一个问题:作为人类顶尖智慧和技术的结晶,AI会不会有一天超出人类控制,甚至反噬人类?阿西莫夫的机器人三定律&r......

产品介绍:

AI

博天堂官网登录AI诞生那天起,人类就开始担心一个问题:作为人类顶尖智慧和技术的结晶,AI会不会有一天超出人类控制,甚至反噬人类?

阿西莫夫的“机器人三定律”曾经暂时解决了这个问题,但随着相关技术的发展和应用的扩大,人们发现,机器智能所面临伦理冲突的复杂性,远不是简单的3条定律就能约束的。近几年各大科技巨头相继在AI加大注码,让外界对这个问题的担忧日趋加重。

在这个问题上,实际上存在一个悖论:当你决定针对AI建立一整套伦理体系时,就已经默认了,人类社会现有的伦理体系已经不适用于AI时代,但是反过来,建立新的伦理体系,依照的却仍然是旧的东西。一句话言之,针对未知的东西,你如何确保你的解决方案是对的?

前一阵子,谷歌就因为这事招致内外双方面的口诛笔伐。

谷歌向后

作为应对公共舆论的手段,不少AI科技公司专门成立了所谓的“道德委员会”,用来调节“AI和人的关系”,谷歌也不例外。3月底,该公司聘请了一个由第三方独立人士组成的AI伦理委员会,取名“先进技术外部咨询委员会(ATEAC)”。

从事后来看,谷歌成立ATEAC,与其说是为了真正解决AI发展所面临的伦理问题,倒不如说是装成努力解决问题的样子,以堵住外界的批评声音。然而事与愿违,这个组织本身导致了一场纷乱。

周一,谷歌员工集体请愿,要求公司撤掉ATEAC中的一员——凯伊·科尔斯·詹姆斯(Kay Coles James)。到周一晚间,在请愿书上签字的员工已经超过500人。詹姆斯之所以招人恨,是因为他是一名右翼分子,是著名保守派智库传统基金会(Heritage Foundation)的总裁。右翼在西方国家本身就是“政治不正确”的同义词,更何况他还是最政治不正确——反同反变性人——的那批。

外界还有声音,要求谷歌从委员会中撤掉无人机技术公司Trumbull Unmanned的CEO吉本斯(Dyan Gibbens),理由同样是政治不正确,因为她和Trumbull Unmanned另一位创始人都曾经和美军就无人机进行合作。而在美国科技行业,和军事扯上关系是非常敏感的事。

从根本上说,伦理学研究的是我们做的决定对别人的影响,以及我们因此该承担什么责任。所以,所谓伦理委员会本质上是要为弱者利益发声。而在AI研究领域,由于现在仍处于并将长期处于“实验”阶段,很多事情可能会在无意中越过客观数据处理和道德决策间的界限,导致更复杂的伦理问题,更加敏感。

《金融时报》评论称,谷歌为其委员会所做的选择表明,它不理解这一点,要不然就是有意忽略了问题的复杂性。

终于,在上周四下午,谷歌公开宣布解散ATEAC:“很明显,在当前的环境中,ATEAC不能按我们所希望的方式运行。所以我们要解散这个委员会,回到计划上来。”

或许有人想问,ATEAC解散了,AI技术的伦理问题怎么解决?

前面提到,ATEAC的存在本身是为了装装样子,这是因为在谷歌内部,其实有另一个几乎与ATEAC名字相同的团队,即“高级技术审查委员会(ATRC)”,据称这个团队才有真正的权利调动资源研究解决AI伦理困境的方法。

据彭博报道,相较于独立人士组成的ATEAC,ATRC的成员都是公司实权人士。团队领导人是谷歌首席法律官沃克(Kent Walker),其他成员包括谷歌基础设施主管霍尔泽 (Urs Holzle) 、AI主管迪恩(Jeff Dean)、Google.org副总裁富勒(Jacquelline Fuller)、教育和大学项目副总裁约翰逊(Maggie Johnson)以及谷歌母公司Alphabet旗下领先AI研究公司DeepMind联合创始人苏雷曼(Mustafa Suleyman)。

然而,像ATEAC这种“客观独立第三方”组织都不受信赖,更何况是ATRC这种内部利益人士组成的不透明小团体呢?

外媒指出,希望ATEAC的取消不会造成谷歌在AI伦理工作上的倒退,而是转为更具建设性地与外部利益相关者接触。

有意思的是,在谷歌宣布解散ATEAC 4天后,欧盟公布了一份官方的AI道德准则。

欧盟前进

新的准则和“机器人三定律”有很大不同,它没有提供一套直接针对AI的道德框架,而是梳理了AI在医疗、教育和消费技术等领域一些之前厘不清的问题。

举例来说,如果某个AI系统在未来某个时候诊断出你有癌症,在欧盟的指导方针下,AI软件不会因为你的种族或性别产生偏见,同时,它不会凌驾于医生的意见之上,患者可以要求AI解释治疗方案,也可以自主选择治疗方案。

总的来说,相比起“机器人三准则”的一刀切,欧盟准则更加温和,对多种细分场景提出针对性原则,更加适应当前的技术发展,但也更加复杂。为了实现这一目标,欧盟召集了52名专家组成小组,他们提出了未来AI系统应该满足的7项要求。具体如下:

1、人的能动性和人工监督。AI不应该践踏人类的自主性,AI不允许操纵或胁迫人类,人类应该能够干预或监督软件做出的每一个决定;

2、技术的稳健性和安全性。AI应当是安全并且准确的,它不能轻易被外部攻击(如对抗性的例子)影响,应具有相当的可靠性;

3、隐私和数据管理。AI系统必须保证收集到的个人数据的安全和私密性,在未经允许的情况下,不向任何第三方透露数据,也不应该轻易被盗;

4、透明度。创建AI系统的数据和算法应是可访问的,AI输出的决定也理应能“被人类理解和追踪”,换句话说,操作员应能够解释其AI系统所做的决定;

5、普惠、公平和非歧视。AI提供的服务应面向所有人,无论年龄、性别、种族或其他特征,反过来说,AI也不应该产生基于这些特征的偏见;

6、环境和社会福祉。AI作出的决策应该是可持续的,即对生态环境负责,还要有助于“积极的社会变革”;

7、问责制度。应设立机制,确保有人能控制AI系统,并对AI决策的后果负责。

其中一些准则非常抽象,很难量化评估,比如“积极的社会变革”的定义就因人而异、因国而异,但大部分准则都是直截了当、操作性强的。这意味着,许多准则可以通过政府监督进行检验。举个例子,共享行政AI系统的训练数据,可能有助于对抗算法偏见。

虽然这些准则并没有法律约束力,但作为欧盟广泛讨论的结果,它们可能就是未来所有AI相关立法的基础。欧盟一再表示,它希望成为AI伦理领域的领导者。早前的超级严格的《通用数据保护条例》已经表明了他们在信息技术安全使用方面的决心。

这不是应为欧洲人多有良心,只是大势决定,在投资和前沿技术研究方面,它已经失去了和美国及中国竞争的能力。所以,想要在AI时代保持存在感,它只能选择技术以外的方面——比如伦理——作为未来方向。

除了7条准则外,欧盟在同日还发布了一份“值得信赖的AI评估列表”,罗列出了AI软件中所有潜在弱点或危险的问题,包括“您是否验证了系统在意外情况的行为”和“您是否评估了数据集中的数据类型和范围”等细节问题。这些评估清单只是初步的,但欧盟将在未来几年收集各公司的反馈,并在2020年提交一份关于其公共事业的最终报告。

新的节点?

面对AI伦理问题,谷歌寸步难行,欧盟大步前进,这种鲜明对比似乎预示着,AI技术的发展已经到了一个新的节点,即技术的影响已经渗透到社会的每一个角落,私人公司通过技术获利的欲望和公共利益的冲突开始显现,单独某个公司很难再以一己之力摸索出行业前进的方向。

至少对于谷歌而言是如此。有业内人士怀疑,在谷歌声明的伦理原则与其财务利益相抵触的情况下,由高管组成的内部AI伦理委员会不太可能对谷歌起到认真的制衡作用。

这一点在《金融时报》的采访中也有所体现,某公司高管向记者表示,他对欧盟的监管准则表示欢迎,因为在竞争日益激烈的AI领域,这是唯一让他知道公司该在哪里“收手”的标准。除此以外,它不会承认任何形式的限制。

数字版权组织Access Now的政策经理希德韦吉(Fanny Hidvegi)表示:“评估列表是该报告最重要的部分。它提供了一个实用的、前瞻性的角度,指导我们如何减轻AI的潜在危害。在我们看来,欧盟有潜力和责任走在这项工作的前列。同时我们认为,欧盟不应仅仅满足于制定伦理准则。”

相关深度报告 REPORTS

2019-2024年中国人工智能行业市场前瞻与投资战略规划分析报告 2019-2024年中国人工智能行业市场前瞻与投资战略规划分析报告

本报告利用前瞻资讯长期对人工智能行业市场跟踪搜集的一手市场数据,采用与国际同步的科学分析模型,全面而准确地为您从行业的整体高度来架构分析体系。本报告主要分析了...

查看详情

相关产品: