毕业论文
您现在的位置: 语言识别 >> 语言识别介绍 >> 正文 >> 正文

人工智能武器真正的威胁来自人类,而不是机

来源:语言识别 时间:2023/1/8
白癜风遗传 http://disease.39.net/yldt/bjzkbdfyy/6192225.html

作者

DavidPetersson

编译

LiuZhiyong

编辑

Vincent,Emily

据美国总统唐纳特·特朗普在Twitter上宣称,禽兽不如的阿萨德发动了一场令人发指的毒气袭击,造成了至少40人死亡,这些死者嘴角都有泡沫。

针对手无寸铁的平民发动的化学武器造成了他们所在地区所有生物的死亡。虽然这些武器被归类为大规模杀伤性武器,但我们对另一种被称为火药和核武器之后的“第三次战争革命”的武器提出了警告:人工智能武器。

AI前线(ID:ai-front)注:关于第三次战争革命的更多详情可参阅Vanguard的文章:Thethirdrevolutioninwarfare:AIWeapons

在新出的纪录片《你信任这台电脑吗?》(DoYouTrustThisComputer?)中,ElonMusk警告称,人工智能的独裁统治期限将远超出人类历史上任何一个政权,从而实现对人类的无限期压迫。“你会有一个永生的独裁者,而我们将永远无法逃脱。”Musk指出,过去那些邪恶的独裁者,比如阿道夫·希特勒,只是因为他们是凡人肉胎因而能力有限。如果一个邪恶但超级智能的电脑控制了局面,那就不是这样了。

在这部超过一小时的纪录片中,有多位人工智能专家出镜,给我们普及了什么是人工智能以及它能够做什么,但是这部纪录片提出了一个错误的观点。

AI前线注:《你信任这台电脑吗?》(DoYouTrustThisComputer?)是电影制作人ChrisPaine的最新作品,讲述的是AI已开始重塑我们生活的方方面面,从工作自动化到医疗诊断乃至军事行动,地球上的每一个行业正在经历转变。ElonMusk在Twitter上鼎力推荐,并在4月上旬出资让它在线上免费点播:

人工智能的回顾

人工智能可以被训练得比人类更高效。这种训练可以是监督训练或者无监督训练,但最终都归结于“模式识别”。有人脸构成的识别模式(即人脸识别模式)可以将猫和狗区分开来,并确定正确的识别路径。

在围棋和扑克竞赛中,人工智能已经能够击败人类,而要做到这点,人工智能只需观看人类如何竞技数百万次即可。人工智能比人类放射科医师在肺癌诊断方面的准确率高出50%,而开发人员对这方面几乎一无所知。另外,人工智能还在综艺节目《危险边缘》与人类对决,并接连打败了最高奖金得主BradRutter和连胜纪录保持者KenJennings,赢得了比赛的胜利。

然而,人工智能并不知道它在做什么。人工智能并不了解系统,它只是知道如何工作。它不理解“为什么”,只有“什么”,这就是本文讨论的核心。

屠杀机器人

Youtube这段视频展示了根据他们的在线活动利用人工智能来针对目标个体的可能场景:

无人机群能过穿过建筑物,定位目标个体的确切位置,精确地对目标个体进行斩首。但是,如果目标正戴着头盔怎么办?如果目标使用了面具呢?这不就简单地打败了无人机群的面部识别模式吗?人工智能甚至可能都无法将这些目标识别为人类,并且会错过目标,因为人工智能只能匹配它所训练的数据。

是的,军队或许可以用训练机群来为这些场景作出解释,但是,这需要人类。

人工智能并没有任何目的,它只是一台能够很好地完成人类交待的任务的机器而已。恶意的意图在于那些分配任务的人类。

指导人工智能

人工智能所解决的任务对人类来说,几乎是不可能完成的任务,如果有人想要为解决这一任务的系统进行编程——它需要几百万行代码以及耗时数年才能完成。人工智能(特别是深度学习)提供了一条捷径:受人类大脑工作方式的启发,这个系统实际上是可以自行编程的。它通过研究数以百万计的数据并调整其权重来得出最优结果。因此,没有人真正知道如何给人工智能编程,我们只是训练人工智能。这点就是人工智能的神秘部分之一,因为没有人知道人工智能到底是什么。

人工智能可以响应自然语言的查询,但它不会理解正在说的是什么。它可以做情感分析,但不会理解情感。眼下的人工智能系统擅长完成特定的任务,但它们并不像人类大脑那样是一个整体。

虽然这并非在某些领域产生高效结果的必要条件,但我们的结论是,人工智能没有意图——只有人类才有。

人工智能是否能拥有意识,并绕过人类智能?

“智能爆炸(intelligenceexplosion)”理论声称,如果我们创造出一台超智能机器,那么这台机器就能设计出更好的机器,而人类智能将被远远甩下。用IrvingJohnGood的话说:“因此,第一个超智能机器将是人类的最后一项发明。”

AI前线注:数学家IrvingJohnGood在年发表了一篇题为《有关第一台超智能机器的猜想》的文章中,提出了“智能爆炸”的概念,预测计算机将从各方面都超过人类的智慧能力。

但FranoisChollet认为并不存在所谓的“智能爆炸”,他说:“我们大部分智能并不在我们的大脑中;它是以书籍、计算机、数学、科学和互联网等的形式作为智能假体,来体现为我们人类的文明,这些是我们如今大部分认知能力之所在。”他继续讲道,“没有一个人,也没有任何我们所知的智能体能够设计出比自己更聪明的东西。我们所做的是,逐步地、共同地构建比我们自身更大的外部解决问题的系统。”他指出:我们解决问题的能力(特别是我们设计人工智能的能力)已经不断提高,因为这些能力不是主要存在于我们的生物大脑中,而是存在于我们的外部集体工具中。因此,智能的演进只能来自于大脑、感觉运动能力、环境、文化的共同进化,而不是单纯调整某些大脑的齿轮。单一的人类大脑本身并不能设计比自己更强大的智能。

AI前线注:可参阅FranoisCholletois撰写的文章《Theimpossibilityofintelligenceexplosion》

francois.chollet/the-impossibility-of-intelligence-explosion-5be4a9eda6ec)

人工智能终究只是一个工具而已。我们要看是谁在使用人工智能。

必然性

为防止人工智能的研究成果在军事领域遭到滥用,人工智能专家也在为防止出现人道主义灾难做出努力,这很值得尊重,但实际上,没有人能够真正阻挡住人工智能踏上这条不归路。当学生只需美元就能够设计出一种能够打败战术专家的人工智能时,那独裁政权或恐怖分子同样也能做到。而其中一条理由就足以让他们亮出武器:每一方都以“防御”为借口来发展人工智能。

AI前线注:文中提到的学生花费美元设计出打败战术专家的系统的新闻是:Beyondvideogames:Newartificialintelligencebeatstacticalexpertsin

转载请注明:http://www.0431gb208.com/sjszlfa/2937.html

  • 上一篇文章:
  • 下一篇文章: 没有了