人工智能专业学什么自主掌控武器 这个可以吗

周志华:自主武器是潘多拉盒子,不该把决定权交给人工智能周志华:自主武器是潘多拉盒子,不该把决定权交给人工智能澎湃新闻百家号如果人类研发智能武器,让其拥有了类似电影《终结者》中主角“天网”的意志,可以对人类进行肆意的杀戮,那我们该怎么办?对于这个问题的答案,众多人工智能界的研究人员选择了抵制。近日,逾50名顶尖的人工智能研究员宣布,向韩国科学技术院发起抵制。此前,这家韩国一流大学和一家军工企业合作开设了人工智能实验室。发起抵制的研究员称,这是一所“AI武器实验室”。除了抵制外,这场发生在人工智能界的事件,也引发了诸多讨论。4月9日,联合国《特定常规武器公约》政府专家小组还在瑞士日内瓦召开会议,预定讨论致命自主武器系统研发,也就是常说的“杀手机器人”可能带来的影响。如何防止人工智能技术被滥用,如何进行约束,如果我们自己坚持不将人工智能军事化,但未来某一天我们的对手是否会迫使我们去做?在人工智能浪潮高速向前的发展的当下,这些问题都急需解决。作为此次事件中唯一一位签名抵制的内地学者,长江学者、南京大学计算机系教授周志华在接受澎湃新闻(www.thepaper.cn)邮件采访时称:“AI用于军事是不可避免的事情,因为‘智能化’这个趋势是不可阻挡、不可逆转的,所有行业都必将被涉及。但是,AI用于军事本身未必是坏事,例如通过精确定位可能减少平民伤亡等等。我们反对的是把‘决定权’交给机器。绝对不能让机器自己去决定是否进行对人类的毁灭性打击。如果所有人都意识到这件事是一个潘多拉盒子,打开之后甚至会反噬打开它的人,那一切就会好得多。”起因:无需人类控制的自主武器今年2月份,韩国科学技术院(KAIST)和韩华系统公司开设了AI研究中心,后者是韩国两家集束炸弹制造商之一。这所大学表示,新的“国防和人工智能融合研究中心”(Research Centre for the Convergence of National Defence and Artificial Intelligence)将专注于利用人工智能命令和控制系统,对大型无人驾驶潜水器进行导航,以及利用人工智能进行智能飞行器训练,追踪和识别物体等。这样的研究方向引发了全球人工智能领域顶尖学者的反对。包括蒙特利尔大学的Yoshua Bengio、多伦多大学的Geoffrey Hinton、瑞士人工智能实验室的Jürgen Schmidhuber、加州大学伯克利分校的Stuart Russell、香港中文大学的华云生教授、香港科技大学的杨瓞仁教授、南京大学的周志华教授等人,通过新南威尔士大学官网发出了一封公开信。信中称,自主武器有可能成为恐怖分子的武器。暴君和恐怖分子可以利用它们对付无辜的人群,他们不会理会任何的道德限制。如果打开了这个潘多拉魔盒,将很难关闭。与过去禁用其他技术,例如禁用激光致盲武器(blinding lasers)一样,我们可以简单地决定不开发自主武器。我们敦促KAIST遵循这样的共识,致力于改善人们的生活,而不是伤害人的生命。在公开信发布后,韩国科学技术院也即刻发表声明说,他们没有研发“致命自动武器系统或杀手机器人”的计划。韩国科学技术院校长Sung-Chul Shin表示,该校“相当清楚”人工智能的伦理问题,他“再次重申,韩国科学技术院不会从事任何与人类尊严相违背的研究活动,包括无需人类控制的自主化武器。”概念:自主武器和强人工智能尽管韩国科学技术院最后澄清了不会研发无需人类控制的自主化武器,但在人工智能领域,自主化武器,以及它所涉及的强人工智能概念已经由来已久。据周志华介绍,在人工智能领域,长期存在两种不同的目标或者理念。一种是希望借鉴人类的智能行为,研制出更好的工具以减轻人类智力劳动,一般称为“弱人工智能”,类似于“高级仿生学”。另一种是希望研制出达到甚至超越人类智慧水平的人造物,具有心智和意识、能根据自己的意图开展行动,一般称为“强人工智能”,实则可谓“人造智能”。“近年来,科学界一般所说的人工智能是弱人工智能,希望借鉴人类的智能行为,研制出更好的工具以减轻人类智力劳动。”周志华告诉澎湃新闻。强人工智能和弱人工智能的区别在于:首先,强人工智能希望“全面”达到甚至超越人类的智能,而弱人工智能没有这个要求。第二,强人工智能希望其产物具有“自主意识”,而弱人工智能认为完全不需要、也不应该去考虑让产物具有“自主意识”。举例来说,人类看到鸟在天上飞,非常羡慕,于是受鸟的启发造出飞机这个工具来能帮人飞上天。这就是弱人工智能认为的目的就达到了。相对的,强人工智能则认为这不够,人类需要的是全面具备鸟的能力,例如鸟下蛋的能力人类也要有,另外这个飞机还应该有自主意识,它可以根据自己的意愿决定该往哪儿飞。换句话说,弱人工智能的目的是为了制造“智能工具”,而强人工智能的目的是“人造智能”。如果将智能工具替换成具有自主意识,且能对人造成杀伤性影响的武器,那后果可能就不堪设想。周志华向澎湃新闻强调,“自主武器”跟一般意义上的智能武器有本质的区别。智能武器早就有,例如带自动瞄准装置、导弹定位系统的武器等等,但是这些武器最终做决定的都是人类。而自主武器,是要把这个“决定权”交给机器,让机器自己去决定是否进行对人类的毁灭性打击,这就太危险了。为什么这些大咖都要反对自主AI在过去60几年的人工智能发展中,人工智能技术现在所取得的进展和成功,应该归功于弱人工智能而不是强人工智能的研究。国际人工智能联合会前主席、牛津大学计算机系主任迈克尔·伍德里奇(Michael Wooldrige)曾在CCF-GAIR 大会报告中称:强人工智能“几乎没有进展”,甚至“几乎没有严肃的活动”(little progress, little serious activity)。周志华称,事实上,人工智能国际主流学界所持的目标是弱人工智能,也少有人致力于强人工智能。这么做的原因并不是因为强人工智能太难,大家不得不退而求其次,而是,在大多数人工智能研究者看来,强人工智能不能做,也不该做。除了科学界对强人工智能的反对和抵制外,业界也有不少大咖对人工智能发展带来的威胁一再提出警示。马斯克就是其中的要员之一。自2014年开始,这位硅谷“钢铁侠”就多次在不同场合表达了自己的观点。他认为,人工智能比核武器更危险。并称全球人工智能竞赛可能导致第三次世界大战。这位企业家还表示,新兴技术可能会给世界带来更大的风险。在硅谷近期推出的人工智能纪录片《你信任这台电脑吗?》中,马斯克、前百度首席科学家吴恩达、《西部世界》的编剧乔纳森·诺兰、未来学家Ray Kurzweil以及Sebastian Thrun等纷纷出镜,共同聊到了人工智能成为独裁者的为题,以及谈到人类究竟应该信任这些机器到什么程度?马斯克的做法是人类应该加强防范。为此,他和英国著名物理学家霍金,人工智能防范联盟,主张在危险到来之前就加以控制。DeepMind创始人戴密斯·哈萨比斯(Demis Hassabis)也主张用道德和规则约束人工智能的发展,他的公司内部还成立了人工智能道德委员会。在周志华看来。强人工智能是具有自主意识、不受人类控制的。我们没法保障它不做出损害人类甚至毁灭人类的事情。主流人工智能科学界所研究的人工智能是弱人工智能,是在做智能工具,工具不存在自己“变坏”。好比说菜刀是一种工具,它自己并不会“变坏”,但是在坏人手上可能就成为凶器了,要防范的是坏人,不是菜刀。本文由百家号作者上传并发布,百家号仅提供信息发布平台。文章仅代表作者个人观点,不代表百度立场。未经作者许可,不得转载。澎湃新闻百家号最近更新:简介:澎湃新闻,专注时政与思想的媒体开放平台作者最新文章相关文章军用人工智能泛滥将比核武器更可怕
&&& 有评论文章指出,你越是近距离地观察机器人在战争硝烟中可能的用处,就越难分辨出道德的界限。(有限自主的)机器人已经被用于战场上,应用在拆弹、排雷和反导系统等。它们的应用范围还将大为扩大。这篇文章具有一定参考意义。
  想象一下这样的未来场景:以美国为首的联军正在逼近叙利亚的拉卡(Raqqa),决心消灭“伊斯兰国”(ISIS)。多国部队出动一批致命的自主机器人,围着城市四处飞行,追踪敌人。
  利用面部识别技术,这些机器人识别和杀死ISIS的指挥官,斩落了这个组织的头目。在联军和平民伤亡最少的情况下,瓦解了不知所措、士气低落的ISIS部队。
  有谁不认为这是很好地运用了技术呢?
  事实上,有很多人不这么认为,包括人工智能领域的很多专家,他们最了解研发这种武器所需要的技术。
  去年7月,众多人工智能研究人员发表了一封公开信,警告称这种技术已经发展到一定程度,几年以后――而无需几十年――就有可能部署“致命自主武器系统”(Lethal Autonomous Weapons Systems,它还有一个不相称的简称,Laws,意为“”)。不像核武器,这类系统可以以低廉成本大规模生产,成为“明天的步枪(Kalashnikov,即AK-47)”。
  “它们早晚会出现在黑市上,落入恐怖分子、希望更好地控制民众的独裁者和想要进行种族清洗的军阀的手中,”他们表示,“在军用人工智能领域开启一场军备竞赛是一个坏主意,应该对超出人类有效控制的攻击性自主武器施加禁令,以防止这样的军备竞赛。”
  美国大体上已承诺放弃使用攻击性自主武器。本月早些时候,联合国(UN)在日内瓦举行了有94个军事强国参加的新一轮谈判,旨在拟定一项限制此类武器使用的国际协定。
  主要论据是道德层面上的:赋予机器人杀人的代理权,将越过一条永远不应被越过的红线。
  因为开展反对地雷的运动而获得诺贝尔和平奖的乔迪? 威廉斯(Jody Williams)是“阻止杀手机器人运动”(Campaign To Stop Killer Robots)的发言人,他表示自主武器比核武器更可怕。“如果一些人认为把人类的生杀大权交给一台机器是可以的,人性又何以处之?”
  除了纯粹的道德问题以外,还有其他令人担忧的问题。杀手机器人会降低战争中的人员成本,爆发冲突的可能性是否会因此提高?如何阻止这类系统的扩散?当它们出问题的时候谁来负责?
  在一个哲学研讨会上,反对杀手机器人的道德理由已是足够明显。问题在于,你越是近距离地观察它们在战争硝烟中可能的用处,就越难分辨出道德的界限。(有限自主的)机器人已经被用于战场上,应用在拆弹、排雷和反导系统等。它们的应用范围还将大为扩大。
  据新美国安全中心(Center for a New American Security)估测,到2018年,全球范围内在军用机器人方面的支出将达到每年75亿美元。相比之下,该机构预测用于商业和工业机器人的支出将为430亿美元。这家位于华盛顿的智库支持进一步利用这类系统,主张它们能够显著提高“作战人员取得凌驾对手的绝对性优势的能力”。
  军工界用其最爱使用的置身事外的论调,对机器人不同的自主等级进行了区分。第一类被称为“人在环中”(humans-in-the-loop),包括被美军和其他军队广泛使用的“捕食者”无人机。即使一架无人机或许能够识别目标,还是需要一个人类来按下攻击按钮。就像电影《天空之眼》(Eye in the Sky)生动地体现出来的,这类决策可能会给人带来道德上的痛苦,你需要在打击关键目标和造成平民伤亡的风险之间进行权衡。
  第二级的自主是“人在环中系统”(humans-in-the-loop system),人对机器人武器系统进行监督,包括防空炮。但现代战争的速度和强度让人怀疑这种人类的监督能否形成有效控制。
  第三类是“人在环外系统”(humans-out-of-the-loop system),比如完全自主的无人机,这种可能是最致命的,但也很可能是最容易禁止的。
  人工智能研究人员通过发表公开信,引起人们对这场辩论的关注,这一举动当然值得赞扬。军备控制专家在帮助定义和应对这一挑战方面起到有用的作用,但他们的行动步伐却慢得让人沮丧。“这是一次有价值的对话,”新美国安全中心的保罗? 沙勒(Paul Scharre)说,“但这是一个极其缓慢的过程。”
  就像在其他很多方面一样,我们的社会在试图理解快速变化的技术现实方面就已穷于应付,更别提加以控制了。(文章来源:FT中文网)
  译者/徐行
(责任编辑:孙建楠 HN010)
03/16 09:5205/09 11:2105/06 10:2404/28 09:1504/27 01:1604/07 07:5203/29 09:1303/28 09:52
评论精品策划
特色产品:
社区精华推荐
  【独家稿件声明】凡注明“和讯”来源之作品(文字、图片、图表),未经和讯网授权,任何媒体和个人不得全部或者部分转载。如需转载,请与010-联系;经许可后转载务必请注明出处,并添加源链接,违者本网将依法追究责任。人工智能武器_百度百科
清除历史记录关闭
声明:百科词条人人可编辑,词条创建和修改均免费,绝不存在官方及代理商付费代编,请勿上当受骗。
人工智能武器
人工智能武器是具有指挥高效化,打击精确化,操作自动化,行为智能化等特点的智能武器将在未来军事领域将占有重要地位。它可以“有意识”地寻找、辨别需要打击的目标,具有辨别自然语言的能力,是一种“会思考”的武器系统。美国列入研制计划的军用机器人达100多种,并且一些部队已经开始小批量装备应用型军用机器人。
人工智能武器比机器人还危险!禁止迫在眉睫
智能武器的危险之处在于,软件工程师可以很轻松地给它重新编程,使其成为滥杀无辜的机器。
最近一段时间,很多知名人士都对人工智能武器表示了抵制,但他们给出的原因却比较偏颇,认为机器人有朝一日将会控制人类。这种说法其实并不合理,至少在短期内不合理。但是,人工智能武器所蕴含的危险,也确实不是那种常规的、由人类操控的武器可以比拟的。因此要求禁止人工智能武器的呼吁,也理应获得大家的声援。
人工智能武器迫在眉睫的危险
从()无人驾驶汽车的身上,我们可以一瞥人工智能的未来。现在你试想一下:一个凶恶的黑社会团伙偷走了一辆这样的车,在其顶端加装了一门火炮,然后给车辆重新编程,把炮口对准公众。如此一来,它就成为了一件人工智能武器。
各国政府的眼睛是雪亮的,当然不会看不到这种武器的潜力。美国海军今年宣布计划开发无人机武器,而韩国的Super aEgis II自动炮塔,俄罗斯的Platform-M 战斗机器也双双亮相。
但人工智能武器不会是政府的独家秘制。现在都可以买得到搭载GoPro 相机的四轴无人飞行器。现在想象一下,有人开发了一个简单的软件,可以让它自动飞行。而那个邪恶的黑社会组织,就是可以把无人驾驶汽车改装成武器的犯罪团伙,当然也可以把枪支搭载在无人机上面,给它重新编程,然后让它飞到拥挤的公共场所去杀人。
这就是人工智能武器近在眼前的危险,:它们很容易被人利用,改装成滥杀无辜的机器,其危害性远远超过了同样的、但需要有人操作的武器。
人工智能武器机器本身并不可怕
斯蒂芬·霍金、学家马克斯·特格马克以及伊隆·马斯克和其他很多人都签署了“未来生活”(Future of Life)请愿书,要求禁止制造使用人工智能武器。今年1月,马斯克捐款 1000万美元给发起该请愿的机构。4月份,联合国召开了“杀手机器人”会议,不过没有产生任何具有持久性的政策决定。“未来生活”请愿信指出,人工智能武器的危险非常具体,不出几年就有可能导致灾难,需要马上采取行动来加以避免。可惜的是,它并没有明确指出,有哪些人工智能武器已经出现在了地平线上。
很多人担心会出现“终结者”那样的世界末日场景:机器人具有了像人类一样的能力,能够完全依靠自己与世界交互,而且这些机器人试图征服世界。
物理学家、皇家天文学家马丁·里斯爵士就警告说,灾难性的场景,比如“愚蠢的机器人不按指令行事,或一个网络自己有了主见。”他在剑桥的同事、哲学家休·普莱斯也表达了类似的担忧,觉得当智能“不受生物学限制”时,人类可能无法生存。在两人的推动下,剑桥大学组建了生存风险中心(Centre for the Study of Existential Risk),以图避免人类的生存遭受如此巨大的威胁。
这些问题当然很值得研究。但是,它们远不如人工智能武器问题那么迫在眉睫。
我们很快就能开发出类似于人类的人工智能了吗?几乎所有的标准答案都是:不是很快。很多媒体都说,雷丁大学的聊天机器人尤金·古斯特曼(Eugene Goostman)是真正的人工智能,因为它真的让一些人以为它是一个13岁的男孩。但是,聊天机器人和真正的“像人类一样的智能”还差多远呢?计算机科学家斯科特·阿伦森(Scott Aaronson)的第一个问题就把尤金难住了:“是鞋盒大呢,还是珠穆朗玛峰大?”
尽管这样,还是有很多人都在“未来生活”请愿信上签了名,明确表示要抵制人工智能武器。原因在于:与拥有自我意识的计算机网络不同,在无人驾驶汽车上架机枪现在就可能出现。
人工智能武器的问题,不在于它们将会控制世界,而在于它们非常容易被重新编程,因此任何人都能够以低得惊人的预算,制作出一台滥杀无辜的高效机器。可怕的不是机器本身,而是黑客可以用比较适中的价格,用它们来做什么样的事情。
人工智能武器容易被改造和利用
不妨想象一下:一个正在崛起的的暴君,决心辣手摧毁反对派,他拥有一个数据库,知道每个人对他的忠诚度高低,以及地址和照片。在以前,暴君需要一支军队来完成这个任务,而还需要贿赂士兵,或者给他们洗脑,才能让他们枪杀无辜者。
而以后,暴君只需要花上几千美元,购买一些搭载自动枪械的无人机,就可以如愿以偿了。依照摩尔定律(自从晶体管的发明以来,1美元成本的计算能力是呈指数级增长的),人工智能无人机的价格某一天会降到和一支AK-47差不多。给四个软件工程师洗洗脑,其中就有三个有能力给无人机重新编程,让它们前去附近异见者的住处和工作场所,当场射杀他们。无人机犯错误的可能性更小一些,而且也不需要贿赂或者洗脑,最重要的,它们的工作效率比人类士兵高得多。在国际社会还没有来得及做出任何反应之前,野心勃勃的暴君就已经血洗了反对派阵营。
自动化大幅提高了效率,因此对于任何想要犯下这种暴行的疯子来说,人工智能武器的门槛也降低了。当年的独裁者需要动用一整支军队才能做到的事情,现在只要有点钱的人就能办到了。
有兴趣研发这种武器的制造商和政府可能会声称,他们可以提供出色的保障措施,以确保这些机器不能被重新编程,不会遭到黑客攻击。对于这种说法,我们最好是保持怀疑态度。电子投票机、自动取款机、蓝光光盘播放机,甚至飞驰在高速公路上的汽车,尽管都曾标榜自己有很高的安全性,最近却都已被黑客攻破。历史事实已经证明,在计算设备和试图改变其利用方式的黑客之间,赢家往往是黑客。人工智能武器不可能会是例外。
人工智能武器禁用人工智能武器
1925年签订的国际条约禁止在战争中使用化学武器和生物武器。而中空弹(Hollow Point Bullet)早在1899年就被禁用,因为这些武器会导致极大的、不必要的痛苦。它们特别容易导致平民伤亡。比如公众可能会吸入毒气,医生在尝试取出中空弹时可能会受伤。这些武器很容易给无辜者造成痛苦和死亡,所以它们遭到了禁用。
是否有某种类型的人工智能机器同样也应该被禁用呢?答案是肯定的。如果一种人工智能机器可以很便宜、很容易地改造成高效的无差别大杀器,那么我们就应该制定禁止它的国际公约。这样的机器与放射性金属在本质上没有什么不同。它们都可以和平利用,造福人类。但是我们必须小心翼翼地对它们加以管控,因为它们很容易被改造成毁灭性武器。不同的是,对人工智能机器进行改造,将其用于破坏性目的,远比把核电站的反应堆改成核武容易得多。
我们应该禁止人工智能武器,这不是因为它们全都具有不道德的属性,而是因为人们可以利用在网上找到的资料,把人工智能武器改装成“狰狞的嗜血怪物”。只需一段简单的代码,就可以把很多人工智能武器转变成不亚于化学武器、生物武器和空心弹的杀人机器。
人工智能武器恐怖分子正在“积极寻求”
近期,联合国一份研究报告警告称,恐怖分子正在“积极寻求”获得人工智能武器。
解读词条背后的知识
.腾讯[引用日期]
.腾讯[引用日期]
清除历史记录关闭人工智能武器化会带来哪些可怕结果
人工智能武器化会带来哪些可怕结果
[导读]关于自主武器的道德和法律问题的辩论已经开始,这并不是简单的答案。
  关于人们对的威力和危险有很多猜测,但主要集中在人工智能在不久的将来会对我们的工作造成什么影响。现在,科技领袖、政府和记者们正在讨论人工智能如何制造致命的自主武器系统,如果这项技术落入流氓国家或恐怖组织手中,将会发生什么。关于自主武器的道德和法律问题的辩论已经开始,这并不是简单的答案。
  自主武器已经发展起来
  联合国最近讨论了自主武器的使用以及国际上禁止&杀手&的可能性。这场辩论是在包括特斯拉的埃隆&马斯克和Alphabet的穆斯塔法&苏利曼在内的100多名人工智能团体的领导下进行的,他们警告说,这些武器可能会导致&第三次战争大战&。
  虽然人工智能已经在许多经济上的问题得到改进和增加效率(如从娱乐到运输在到医疗保健),但在武器机器人能够在不受人类干预的情况下自动运作的时候,许多问题都将被提出来了。
  目前已经有一些不同程度的人员参与的武器系统测试中了。
  在英国,Taranis无人机预计将在2030年全面投入使用,并能够取代人类驾驶的龙卷风GR4战斗机,这是皇家空军未来进攻空中系统的一部分。
  包括美国和俄罗斯在内的其他国家正在开发可以自主操作或遥控的机器人坦克。美国也有一艘自2016年发射的自主战舰。尽管它仍在研发中,但预计拥有包括反潜武器在内的进攻能力。据报道韩国使用的是一种三星SGR-A1哨枪,据称可以自动开火来控制其边境。
  虽然这些武器的开发是为了尽量减少军事冲突对人类生命的威胁,想象一下恐怖组织如果利用这些武器进行大规模杀伤,将会是一个什么样的场景。
  人工智能和杀手机器人的警告
  法国国防巨头Thales公司的研究副总裁阿尔文&威尔比(Alvin Wilby)告诉英国国会议员人工情报委员会说,流氓国家和恐怖分子&将在不久的将来掌握致命的人工智能&。谢菲尔德大学(University of Sheffield)人工智能和机器人研究的名誉教授诺埃尔?夏基(Noel Sharkey)也持同样的观点。他担心这种武器的&非常糟糕的副本&会落入恐怖组织手中。
  并不是所有人都认为人工智能弊大于利的,事实上,它对人类的潜在益处是巨大的。
  人工智能可以帮助打击恐怖主义
  在人工智能领域的另一边,Facebook宣布,它正在利用人工智能从其平台上查找和删除恐怖分子的内容。在后台Facebook使用图像匹配技术来识别和防止已知恐怖分子从其他账户弹出的照片和视频。该公司还表示,它可以利用机器学习算法在恐怖主义宣传中寻找模式,这样就能更快地将其从其他人的新闻推送中删除。这些反恐措施将延伸到Facebook旗下的其他平台,包括WhatsApp和Instagram。Facebook与包括Twitter、微软和YouTube在内的其他科技公司合作,创建了一个行业数据库,用来记录恐怖组织的数字指纹。
  人类被迫放弃了生死抉择
  那些希望禁止杀伤性自动武器的团体,如阻止杀人机器人的运动,这是一种压倒性的担忧,即如果机器完全自主,人类就不会在战争任务中扮演决定性的角色。这就造成了一个道德困境。而且,如果一些邪恶的政权使用致命的自治系统来对付他们自己的人民呢?
  就像威尔比先生说的,&妖怪已经从封印中出来了&。和其他创新一样,现在人工智能技术已经开始影响我们的世界,我们需要尽最大努力去控制它。如果恐怖组织想用人工智能来作恶,也许我们最好的防御就是人工智能的攻击。
千家智客微信公众号
扫描下方二维码,关注千家智客微信公众号(qianjiacom),随时随地知晓智能行业天下事!
100/100字符
全部评论(0)
千家智客APP
千家智客客户端
在这里,读懂智能行业!还记得美国国防部大名鼎鼎的“算法战跨部门小组”吗?这个曾经无数次登上新闻头条的项目课题组,如今有了新“娘家”。日前,美国国防部副部长沙纳汉正式发布关于成立“联合人工智能中心”的备忘录,将进一步加大人工智能在军事项目的应用,“算法战跨部门小组”也被转移至该中心。近年来,伴随着人工智能技术的快速发展,武器装备也驶入了智能化发展的“快车道”。然而,伴随着科技巨头谷歌公司中断与美国军方人工智能项目的合作以及承诺不会将人工智能技术用于开发武器,一场围绕人工智能武器化的思辨愈演愈烈。人工智能真的会成为“战场杀手”吗?人工智能是研究、开发用于模拟、延伸和扩展人类智能的理论、方法及相关技术的学科,是现代信息技术的重要分支。世界上第一台可编程的“巨人”计算机诞生于第二次世界大战期间,其设计初衷就是帮助英军的密码破译员快速破解德军的军用密码。早在上个世纪60年代,美军就曾尝试把尚不成熟的人工智能与军事应用“联姻”。从那时起,以计算机技术为核心的人工智能,就为军事领域带来了许多日新月异的革命性变化。
近年来,伴随着信息技术、传感器和物联网技术的快速发展,人工智能的军事应用也迎来了新一轮机遇期。美、俄等传统军事强国都把军用人工智能视为“改变战争游戏规则”的颠覆性技术,纷纷把人工智能作为武器装备现代化的优先发展方向。今年年初,印度军方还专门成立了人工智能路线图工作组,将力推人工智能在自主化和无人化武器系统中的应用。此次挑起谷歌公司人工智能军事应用争论“导火索”的,正是美国国防部“算法战争跨功能团队”的Maven项目。目前,美国国防部每天都会收集到来自无人机机群的海量战场视频数据,早已令人类图像分析师不堪重负。能否借助人工智能自动识别视频中的重要目标信息,成为美国军方与谷歌公司合作的重点。目前,人工智能早已渗透至军事应用各个领域,具备指挥高效化、打击精确化、操作自动化和行为智能化的人工智能武器装备,将在未来战场上发挥独特的“机器智慧”。早在2018年初发布的《国防战略》中,美军就深刻预见到人工智能将对未来战争形态和特点带来的深刻改变。也正是为了维持和扩大美国的军事优势,美国国防部才专门成立“联合人工智能中心”,加速人工智能相关军事应用的交付能力,进一步扩大人工智能在整个国防领域的影响力。人工智能的军事应用主要包括专家系统、深度学习和运动控制。研究结果表明,人工智能用于战争指挥和作战规划,能将以往50人耗时12小时的工作量压缩到1小时。美国国防部高级研究计划局就曾积极开展“深绿”系统研究,能提前预测战场态势变化,为指挥员计划决策提供重要辅助。将深度学习技术应用于武器装备,有望进一步提升武器装备的自动目标识别能力,为破解战场“数据迷雾”提供有力手段。美国国防部高级研究计划局开展的“对抗环境下的目标识别与自适应”项目,旨在借助深度学习实现合成孔径雷达图像中目标的自动识别定位。无人化作战平台的兴起,也对人工智能提出了新的技术需求。曾实现完美“后空翻”的美国“阿特拉斯”机器人,需要时刻监测机体各项参数并实现运动控制,人工智能算法为其“运动自如”提供了一颗“智慧的大脑”。随着人工智能技术的发展,其在智能化信息感知与处理、指挥控制辅助决策、无人化军用平台和机器人等军事领域将扮演着越来越重要的角色,推动战争形态从信息化战争向智能化战争加速演进。
然而,“来势汹汹”的人工智能武器化,也引发了人们对于“冷血机器”的深思,人工智能军事化事实上是一把“双刃剑”。韩国科学技术院研发的人工智能机器人武器,就遭到了30余个国家和地区研究人员的集体反对,人们甚至还表达了对人工智能武器可能引发的“终结者末日”的担忧。尤其是在复杂战场环境下,拥有高度智能的无人作战系统极有可能出现识别错误、通信降级甚至被敌电磁、网络攻击后“倒戈反击”等问题,而诸如滥杀无辜、系统失控等更是给智能武器的军事应用带来了无穷隐忧。即便是人工智能军事化日益完善成熟,也不能放任自主武器的“野蛮生长”。人工智能武器装备目前面临的最大问题,就在于它只知道应该如何工作,并不理解为什么要这样做。一旦人工智能武器被别有用心的人重新编程,尤其是恐怖组织和极端主义分子掌控了人工智能武器,极有可能轻易制造出一台滥杀无辜的“杀人机器”。因此,目前的人工智能武器系统多为“半自主式”,在完整的作战链路中,人必须始终处于“观察-判断-决策-行动”的战术循环过程中,牢牢掌握智能武器的“开火权”。在信息化和智能化战争的大背景下,把人工智能与军事应用“一刀两断”,恐怕谁也做不到。未来战争作战节奏越来越快、战场数据或将“井喷”,反应速度快、信息容量大、不受时空或体力限制的人工智能必然进入战场决策的“指挥圈”。此外,人工智能还将加速战场数据的信息融合,伴随着无人机、无人潜航器、机器人士兵以及无人与有人协同作战单元逐步走向战场,“云端大脑”、“数字参谋”、“虚拟仓储”等人工智能军事化应用或将在未来战争中发挥“颠覆性”作用。光明军事授权转载特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
一键安装官方客户端
重大事件及时推送 阅读更流畅
http://dingyue.nosdn.127.net/BNhNzJWfQ0PLOO3v9ijQK0CSVrl7ArMg=WAHp4c=P6UlF4.jpg

我要回帖

更多关于 人工智能相关专业 的文章

 

随机推荐