加拿大华人网
当前位置:首页 > 新闻 > 国际

白宫发布重磅报告 奥巴马:我们需要新的社会契约

www.sinoca.com 2016-10-13  搜狐


  ITO:但是他们低估了这些问题,我觉得今年是让人工智能变得不再仅仅是计算机科学问题的一年。所有人都需要知道人工智能的价值观十分重要。在麻省理工媒体实验室里,我们用术语「延展智能(extended intelligence)」来表达这个问题。因为问题是,如何将社会价值观注入人工智能?

  奥巴马:当我们在午餐后回来时,Joi 用自动驾驶汽车作为例子。人工智能的技术实际上已经到来了。我们拥有可以做出大量快速决策的机器,可以显著减少交通事故的数量,显著增加目前交通网络的运行效率,同时还能帮助解决碳排放和全球变暖等环境问题。但 Joi 同时点出了问题,我们正在放进汽车的东西,它们的价值观是什么?还有大量问题必须解决,比如最经典的问题:如果你在开车,你需要急转弯避让行人,但这样你有可能撞墙害死你自己。这是一个道德上的抉择,但由谁来制定规则呢?

  ITO:谈到有轨电车难题,我们会发现大多数人希望驾驶员和乘客能够牺牲自我,拯救更多的人。他们还说他们永远不会购买自动驾驶汽车(笑)。

  DADICH:我们正在讨论的是伦理问题,政府在其中扮演什么样的角色?

  奥巴马:我考虑这个问题的通常框架是,人工智能的出现,在技术的早期,会百花齐放。政府在这个时期需要做相对很少的管控,提供大量投资来帮助研究,同时让基础研究和应用研究之间交流畅通。随着技术进入成熟期,找出如何让新出现的问题在已有框架中解决的方法是一个棘手的问题,政府需要在此阶段参与更多。不必总是强迫新技术进入已有框架中,但是需要保证新的规则能够反映广泛的基础价值。另外,新规则也许会损害某些人或某些群体的利益。

  ITO:我不知道你们是否了解多元神经(Neurodiversity)运动,但电影「自闭历程」(Temple Grandin)中存在很多有关情节,女主角在片中说莫扎特,爱因斯坦和特斯拉假如生活在今天,可能都会被认为是有自闭倾向的。

  奥巴马:他们是有可能得过自闭症。

  ITO:是的,得了自闭症。而如果我们有能力彻底消灭自闭症,让所有人都神经正常,我敢打赌很多麻省理工学院的学生都会变得大有不同。其中一个问题,无论我们在讨论自闭倾向还是广泛的多样性,这些问题只有我们让市场自由选择后才会出现。即便如此你可能也不会愿意让爱因斯坦成为你的孩子,你会说:「好吧,我只想要一个普通的孩子」这不会是使社会受益最大的选择。

  奥巴马:这会是我们围绕人工智能展开的主要伦理争论。其中的一部分会让人类变得扭曲。事物的发展过程中总会存在突变,异常,瑕疵,而往往这些才是新创造的灵感,对不对?我们一直假设,假如系统是完美的,它会是静态的。而让我们成就自己的那部分,让我们生存至今的那部分,是动态和令人惊讶的。我们必须思考,在什么时间,什么地点,这样的事情会发生,我们能否欣然接受。

  DADICH:当我们在讨论智能的发展时,它的研究同时存在于政府,私人企业和学术界,但其中谁来扮演核心角色,是否存在一个中心?

  ITO:我相信麻省理工学院会说这个中心是我们(笑)。历史上同样的技术发展大多基于被政府资助的各类学院。但现在科技公司的许多大型研究机构成为了主流。

  奥巴马:我们知道是谁在资助这些机构,如果你在说拉里·佩奇或者其他人,他们的看法,可以想象是:「我们最不想看到的就是在寻找独角兽的过程中有一帮官僚在拖我们后腿。」

  问题的一部分是,我们正在目睹旨在为社会服务的基础研究在逐渐衰退。我们的雄心正被意识形态或各种争议逐渐冷却。

  最好的例子就是:今天,我们仍在从 50 年前登月计划这一巨大成就中受益。有人告诉过我,太空探索计划在那时的花费只占 GDP 的 0.5%。这听起来不像一个很大的数字,相当于在如今每年投入 800 亿美元。在人工智能方面,现在我们每年的投入不到 10 亿美元,这个数字无疑需要增加,但我们需要明白的是,如果我们想要在这些突破性技术中代表的多元化的价值观,政府资助必须身在其中。而如果政府并没有资助这些研究,那么 Joi 刚才谈到的那些有关人工智能的价值观的所有问题有可能会导致失败,至少不会获得适当的讨论。

  DADICH:你的观点让 Joi 曾写到的事情变得更加令人不安了:人工智能和太空计划发展历程中的差异。我们如何来确保这些想法被所有人知道?

  奥巴马:我一直试图强调这些,因为政府正在资助人工智能的发展,帮助收集数据,这不意味着我们在囤积数据,或者仅仅将其用于军事目的。有一个很好的例子:我们精密医疗计划的一部分已经收集了足够的人类基因组数据,多样性覆盖到了所有的美国人。在这件事上我们并没有向斯坦福或哈佛大学注资──他们仍在囤积样本──我们现在的基因数据库非常完整,同时所有人都有权访问。政府有最完整的价值体系,结构,去保证研究结果得到分享,不会让某个团体单独受益。

  Dadich:但是风险肯定是有的。我们已经听说埃隆·马斯克和 Nick Bostrom 担心人工智能的潜在能力会超过我们对它的理解。当我们前进时,我们该如何考虑这些忧虑,不仅是为了保护我们自己还有整个人类?

  奥巴马:我来说说现在更让我担心的事——这是目前人工智能领域里的一个可以解决的问题,我必须注意到它。如果你有一台能下围棋的计算机,这是一种变化复杂的游戏,以此开发出一种能让你从纽约证券交易所最大获利的算法是显而易见的事情。而且,如果一个人或组织能率先开发出这个算法,他们就能很快弄垮交易所,最起码他们可以破坏金融市场的完整性。

  之后可能又会有一个算法说,「去搞定核代码,搞定某些导弹的发射。」如果算法的工作只是这些,如果它能自我教导,那它还真是一个效率挺高的算法,但是你们可能就会有麻烦了。我想我对我的国家安全局的建议应该是,不要过于担心机器会占领整个世界。要担心的是非国家势力或敌对势力渗入系统的能力,在这个意义上,它与我们做的很多事情在概念上没什么不同。仅仅意味着我们必须得做到更好,因为那些能会破坏我们系统的人现在已经做的比我们好了。加拿大华人网 http://www.sinoca.com/



上一篇:美最高法院大法官罕见一致 关注这例死刑判决(图)
下一篇:荷兰女王完美撞烂自己大门 监控拍下全过程(组图)

[声明] 加拿大华人网刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经加拿大华人网同意并注明出处。本网站部分文章是由网友自由上传。对于此类文章本站仅提供交流平台,不为其版权负责。如果您发现本网站上有侵犯您的知识产权的文章,请联系我们。

网站完整版 | 广告服务 | 网站声明 | 网站留言 | 联系我们 | RSS
Copyright © 2000-2015 加拿大华人网 SinoCa.COM All Rights Reserved.