您好!欢迎来到深圳市互联网学会官网!
首页 > 资讯中心 > 互联网要闻 > 热点话题 > 上升为国家级战略,宣布扩大战争应用,美国为何如此重视AI?

上升为国家级战略,宣布扩大战争应用,美国为何如此重视AI?

  • A-
  • A+
来源:百万庄通讯社 企鹅号    2019-02-20
  • 分享

提到人工智能(AI),大家并不陌生。

最近热映的科幻大片《流浪地球》中的高级人工智能机器人MOSS给观众留下了深刻印象。

MOSS不仅能够维持“领航者”号空间站的正常运转,还为了执行保留地球文明的高优先级任务“火种计划”,强行接管空间站总控制权,其信息采集能力和逻辑思维能力之强,令观众不禁倒吸一口凉气。

如今世界各大国家都在竞相发展AI技术,并将其作为引领未来的关键性基础技术。

2月11日,美国总统特朗普推出国家级AI(人工智能)战略,推动美国AI科技的研发和推广,达到“美国AI第一”的目标。2月16日,五角大楼发布美国军方的AI战略报告,希望扩大AI在战争中的应用。

AI时代意味着什么?这是一个值得深思的问题。

赞成派:AI是人类走向未来的福音

AI研究开始于60多年前,一直伴随着人类的大胆幻想和技术积累而探索前行。在诸多科幻小说中,机器人自主学习、决策、行动,简直成了必不可少的热点内容。

微软公司2001年发布的第一人称射击游戏《光晕》中,就出现了具象化的AI形象“科塔娜”。作为一位以科学家大脑为基础的智慧型人工智能,“科塔娜”借助自身强大的信息侦察、整合和处理能力以及人机脑控技术的进步,多次拯救地球于危难之际,在人类与外星入侵者的战争中扮演了重要角色。

在现实社会中,以信息化技术为基础的智能化技术发展方兴未艾。特别是近几年兴起的深度学习技术,通过算法和数据分析让电脑“学会”各种技能,在某种程度上赋予机器更多的自适应性和行动权限。

2018年9月,BBC网站曾发文指出,人工智能已经可以进驻新闻机构。

从写稿机器人交出球赛、股市新闻稿,到抢写独家头条新闻,前后不过三四年时间。研究发现,AI在搜集资料、整理数据、核查事实、版面校对等媒体内容生成中得心应手,这些工序大部分都可以交给AI。

时至今日,多家西方传媒已经在新闻传媒中引入AI助手。

BBC的人工智能机器人Juicer(榨汁机)已于2012年上岗,它每天可以采集来自850个新闻机构的RSS信息推送,并分类整合海量的新闻数据,贴上相应的语义标注,分成4类归档:组织机构、地点、人物、事物,方便编辑阅读调用。

《纽约时报》大楼2015年引入AI编辑,可以完成语义辨识和评论区管理。

在2016年巴西里约奥运会中,《华盛顿邮报》的机器人记者“自动化新闻写作”对源源不断的数据分析整理后,把信息跟事先定制的新闻模板里的对应词句配对,然后组成新闻稿,发表在不同的平台,包揽了大量数据密集型报道。

路透社与语义辨识技术公司Graphiq合作,研发智能型的新闻发表软件,自带自由互动数据视觉化功能,涵盖范围宽泛多样,包括娱乐、体育和新闻等。英国《卫报》引入聊天机器人,在脸书帐户上帮助读者选择阅读的版本、新闻推送时间,并负责推送……

英国《卫报》聊天机器人的屏幕截图

人工智能技术的迅猛发展,远远超过了人类的最初想象。AI的学习能力,也不止于新闻领域。

2017年5月,由谷歌DeepMind小组研发、具有自我学习能力的人工智能围棋AI“AlphaGo”战胜了中国职业围棋棋手、世界冠军柯洁九段。这意味着人类在引以为傲的思辨能力上,也输给了机器人对手。

美国投资人约翰·普利亚诺在《机器人来了:人工智能时代的人类生存法则》中预测,任何循规蹈矩而且可预测性的工作在未来5—10年都将有可能被人工智能取代。他还开出一份受到机器人威胁的职业清单,认为医生、律师、建筑师、会计、战机飞行员、警察与侦探、房地产中介等七大行业的饭碗,将来都会被机器人抢走。

AI技术的忠实拥趸者认为,机器人可以取代人类从事低级劳动,方便人类把更多资源和精力投入高级劳动,这是智能化社会的大势所趋。

反对派:机器人将成为人类的敌人

正如一枚硬币的A面总是伴随着B面。随着科技的进步,在科学家的眼中,AI技术的不确定性,也引起了很多人的警觉。

为了保护人类,1940年著名科幻作家阿西莫夫提出了最经典的机器人三原则:

机器人不得伤害人类,或看到人类受到伤害而袖手旁观;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾。

自AI技术发展以来,对机器人的威胁和怀疑就一直如影随形。

英国科学家斯蒂芬?霍金曾指出,AI会是“人类历史上最重大的事件,不幸的是,也可能会是最后的重大事件”。

科学家们的担心主要有两点:一是具备人类决策能力的机器人没有人类道德约束,将来可能无法遵守人类道德准则;二是人类创造了AI,AI又能创造更高级的超级智能,人类还没来得及设置防范措施,就可能面临机器失控的局面。

美国SpaceX公司CEO埃隆?马斯克(Elon Musk)也一直警告,人类对机器人切毋掉以轻心,以免被机器奴役或灭绝。

而就在银幕上的施瓦辛格与终结者机器人展开生死大战的同时,AI军事化已经成为现实。

美军无人机

目前,美军的无人机已经可以在阿富汗执行侦察打击任务,随着武器自主程度的不断提高,在未来战争中,可能会有不需要人控制的人工智能大炮、飞机、舰船和坦克投入战斗。一些美军将领认为,只要再过几年时间,自动选择目标并自主发动攻击的武器系统就会被广泛使用。

对此,一些人权活动人士和许多专家大声呼吁,在战场上使用完全自主的武器违反国际法,应当尽早采取行动,阻止“杀人机器”战争成为现实。

全球性非政府组织联合发起的“禁止杀人机器人运动”发布报告说,全面自主的武器违反了马尔顿斯条款(Martens clause)。该条款被国际人道法律广为接受。

“人权观察”机构武器部的高级研究员邦妮?杜克蒂认为,允许开发并使用“杀人机器人”,会破坏已经确立的道德和法律标准,不同国家应该共同努力,在这种武器全球扩散前就杜绝这种武器。

反对智能化武器的运动已经蔓延到国际层面。

据《卫报》报道,26个国家明确表示支持禁止全面自主性武器,包括奥地利、比利时和中国在内的国家对成千上万科学家和人工智能专家的呼吁表示了支持,这些专家学者们包括20位诺贝尔和平奖得主。

2017年,美国成立算法战跨界团队,试图通过Maven项目发展计算机视觉和深度学习系统,以自动识别静止图像和动态视频中的目标。

谷歌公司最初加入了这一项目,帮助军方培训AI的智能识别能力。Maven的军事化目的曝光后,4000名谷歌员工联名上书,迫使谷歌退出军用AI项目。

谷歌员工向公司首席执行官Sundar Pichai发送的请愿信

2018年,亚马逊公司获得了五角大楼一份价值1100亿美元的技术合同,发展军用面部识别技术,也引发了部分员工的强烈愤怒和不满。

控制派:保持对AI的终极授权

对于发展AI,很多国家采取了更加灵活的态度,相继选择了“控制+限制”的办法。

五角大楼发布的美国军方AI战略报告指出,美国军方将带头遵守国际法和国内法,支持美国社会在AI上的价值观。美军将采取“授权AI而不是用AI取代军人”的方式,妥善解决使用军事智能化技术与规避“机器杀人”的两难选择。美国军方正在与专家合作,为军用人工智能制定道德准则。

雷神公司负责任务支持和现代化的副总裁托德·普罗伯特透露,Maven等军用AI技术主要用于加快决策流程,机器所做的一切都基于人类的决策。

英国剑桥大学“生存风险研究中心”强调,鉴于机器人技术的双刃剑特性,AI系统设计者应该更多着力于如何防范AI被滥用、误用和恶意使用,以及如何化解这种情况可能带来的危害。政府和立法机构也必须拿出新的法律,制定新的法律框架来规范人工智能领域的发展。

撰文 / 石留风

(亚太智库研究员、云南财经大学“一带一路”国际问题研究中心特聘研究员)

编辑 / 张晶

  • 分享

深圳市互联网学会

学会的宗旨:整合行业资源,服务互联网,普及互联网知识,打造互联网在线学习、互联网生态服务。
更多学习进入互联网在线学习《互联网学会》公众号

欢迎加入学会
我们随时为您提供帮助

成为会员

热门文章

查看更多

咨询热线

0755-32875048

周一至周五 9:00-18:00

地址:深圳市福田区南园路68号上步大厦18A 特别声明: 本会所有证书与官网一致为准。

  • 深圳市互联网学会官方微博扫码加客服微信
  • 深圳市互联网学会官方微信关注微信公众号
@深圳市互联网学会 版权所有
  备案号:粤ICP备14018046号