中国投资网 百科 人工智能的危害例子(人工智能论文参考文献)

人工智能的危害例子(人工智能论文参考文献)

“我们需要超级小心人工智能(A.I .),它可能比核武器更危险。”以下文章与边肖编辑和分享的关于人工智能的危险论文相关。欢迎阅读!

人工智能的危险,论文1

危险的人工智能?

比核武器更危险。

“我们需要超级小心人工智能(A.I .),它可能比核武器更危险。”

“我希望我们不要成为生物学中数字超级智能的启动加载程序。不幸的是,这种可能性越来越大。”

这是特斯拉汽车公司和太空探索公司首席执行官艾伦马斯克(Ellen Musk)在2014年8月在推特上发的两条推文,他被称为现实生活中的“钢铁侠”。

或许是觉得只有一个人关于人工智能会毁灭人类的可能性的警告,影响力不够。2015年1月12日,以马斯克为首的企业家和发明家以及以物理学家霍金为首的科学家联合发表公开信,警告公众不要忽视人工智能的安全性及其对社会的负面影响。他们呼吁行业在制造人工智能时,确保其“系统按照我们的指令行事”。未来生命研究所发布的这封公开信强调,“必须确保人工智能能够按照人的意志工作。人工智能研究一直在稳步发展,对社会的影响也在逐渐增加,潜在的好处是巨大的。过去人类文明的所有产物都来源于人类的智慧,但在人工智能的帮助下,我们无法预测人类的智慧能被放大到什么程度。也许有一天,疾病和贫穷可以永远消除。由于人工智能的巨大潜力,确保其带来好处的同时避免潜在风险至关重要。”信中附有一篇研究论文,列举了许多努力实现人工智能社会效益最大化的例子。

空谈是没有用的,马斯克随后宣布向未来生命研究所捐赠1000万美元,帮助这个机构进行能够确保“造福”人类的人工智能相关研究。我们所说的受益,是指当A.I .比人类更聪明的时候,他们还是会服从我们,而不是发动革命。到现在为止,产业和政府的投入,已经让A.I .从一个小小的学术研究演变成一个可能改变世界的技术,但是没有多少人愿意投入资金来保证它最终能够给人类带来积极的改变。因此,这第一次捐赠将会产生深远的影响。

所谓“人工智能可能比核武器更危险”绝不是耸人听闻,因为核武器可能不会毁灭全人类,但不受控制的人工智能可以。科幻片《终结者》中的“天网”和《黑客帝国》中的“母亲”都是人类制造的超级强大的人工智能,最后都发展到以灭绝人类为己任。这是谁都不想看到的未来。

从解放体力到容纳灵魂

事实上,艾伦马斯克非常了解人工智能及其载体;机器人。他拥有的特斯拉汽车工厂已经在生产线上使用了大量的工业机器人。生产线上灯火通明,快速移动的机器人被漆成鲜艳的特斯拉品牌红色。每个机器人都有一个带有多个关节的单臂。大部分机器人都有两三米高,有点像吓人的“终结者”。当这些机械臂伸向一个平台,改变它们的“手”来完成一项不同的任务时,虽然动作看起来很奇怪,但却有些像人类。很多汽车工厂的机器人只能做单一的工作,但在特斯拉的新工厂里,一个机器人最多能完成四项任务:焊接、铆接、粘接、安装零件。每辆车在流水线的每个工位只停留五分钟,八个机器人像跳芭蕾一样围着它跳舞。如果工厂想要生产其他型号的汽车,只需对机器人重新编程,它们就可以在同一条装配线上生产。

解放人类体力是发明机器人的初衷。1921年,捷克剧作家卡尔卡佩克在他的戏剧《罗素姆万能机器人》中创造了“机器人”一词。这个词来自捷克语“robota”,意思是“苦力”。在该剧的结尾,不愿做苦力的机器人接管了地球,并摧毁了它们的创造者。

现实中,机器人仍然主要扮演苦力的角色。目前,机器人已经改变了制造业的面貌,也正在改变全球其他劳动密集型行业。其中之一是配送行业,机器人可以以世界短跑冠军的速度存储、取出或包装货物进行运输,远高于人的工作效率。无人驾驶汽车是不像机器人的机器人。他们可以把卡车和出租车司机从枯燥的工作中解放出来,代价是司机需要掌握新工作的技能。

白领越来越面临人工智能和机器人的挑战。飞行员大部分飞行时间依赖自动驾驶仪;广告业务员因为网络广告自动竞价系统的出现,被迫转行;医生应该依靠面部表情识别软件来了解孩子的疼痛程度。制作美味不再是人类的专属:泰国政府推出的一款机器人可以判断泰国菜的味道是否足够正宗,是否需要一些辣酱。甚至音乐家和艺术家都可以被机器人取代。机器人已经可以创作音乐,有些人已经写出了诗歌创作程序。

幸运的是,人类的一些技能可能永远不会被机器取代,比如常识、适应能力和创造力。即使那些已经自动化的工作也需要人类的参与。例如,所谓的计算机辅助镇静系统需要医生袖手旁观并协助自动化麻醉师。

如果说和人类抢饭碗可能会阻碍人工智能和机器人的发展,那么利用人工智能延长人类寿命的可能性将彻底打破这种阻力,尤其是将寿命延长到“无限长”。

永生的形式有很多种,但最可行的是“人体机器人”。当你可以拥有一个更强、更快、更健康的身体,可以让你远离死亡的时候,你为什么还要坚持有机的身体?2013年6月,俄罗斯企业家德米特里伊茨科夫提出了“2045计划”,其目标是将人类的意识转移到机器人身上,通过机器人的化身实现人类永恒的梦想。他曾公开展示一个以自己为原型的机器人头部。他的计划是先用机器人身体代替人体,死后再移植人造大脑和人格。伊茨科夫承认,“2045项目”面临两大挑战:理解大脑和部分理解人类意识,其中后者远比前者困难,因为“理解意识基本上意味着理解宇宙”。

自我学习和自我进化

以高科技公司为代表的商界是人工智能的驱动力。2011年初,IBM的超级计算机“沃森”在电视智力竞赛节目《危险边缘》中击败人类,获得年度冠军。2013年12月,脸书建立了一个新的人工智能实验室。2014年前后,谷歌收购了十几家机器人公司。世界上最快的四足机器人,可以从Youtube的海量图像中独立学习“猫”概念的人工智能等等。已经全部归谷歌所有。谷歌前人工智能负责人吴恩达用1000万张猫的图像训练了谷歌大脑(由1.6万台计算机组成的神经网络),并教会它识别猫的图像。此前,“谷歌大脑”从未被输入过识别猫的规则。这不同于在计算机计算领域占主导地位的基于规则的算法。现在,吴恩达已被中国搜索引擎百度招募,负责百度的深度学习实验室。目前,谷歌正在开发人工智能的另一个应用;自动驾驶汽车,能够识别过马路的猫将是这种汽车的基本功能。

以上人工智能的共同特点是可以像人一样自主学习。以2014年被谷歌以4亿美元收购的小公司DeepMind为例。他们发明的软件模仿了人脑的工作方式。DEEP的创始人之一丹米斯哈萨比斯(Danmis Hassabis)是一位象棋天才,13岁就获得了“象棋大师”的称号。当父母问他打算怎么花这笔奖金时,哈萨比斯毫不犹豫地回答说:“我想买台电脑。”后来,哈萨比斯在剑桥大学学习计算机和认知科学。在制作了几款畅销的电脑游戏后,他开始从事人工智能研究,开发了人工智能的“自学”电脑游戏。在他上传到网上的一段视频中,人工智能程序尝试了一款名为《太空入侵》的游戏(类似于我们经常玩的“小蜜蜂射击”游戏)。一开始,这个程序很乱;但是经过一晚上的自学,我一下子就能玩通关了。谷歌联合创始人拉里佩奇(Larry Page)在网上看到这段视频时,感到无比震惊,当即决定收购这家小公司。

这是一个模拟人类思维和认知的人工智能。人工智能最大的特点就是可以自我学习,自我训练,自我修正。这曾经是人和机器的区别之一,因为机器只是按照预装的程序运行,没有程序中设定的功能,机器永远无法实现。然而,贝叶斯网络等新技术可以从糟糕的决策中学习,并随着时间的推移变得更加聪明。事实上,他们像孩子一样学习。

“钢铁侠”马斯克也是DeepMind的投资人之一。马斯克表示,他之所以投资这家公司,完全不是从盈利的角度出发,而是为了密切观察人工智能前沿领域的进展。马斯克从会玩游戏的人工智能可以看出,它可能脱离了人类的控制;以前的计算机程序再复杂,都是人类预先设定好的,可以预测它要做什么。而这种可以自我进化、自我学习的人工智能,很可能会做一些不可预知的事情,进化出人类不可预知的能力。这才是最可怕的。达尔文的进化论其实可以看作是一个相当简单的算法。不同的生命体在特定的环境条件下竞争,最优秀的生存下来,进入下一轮竞争。新品种引进后,上述过程开始重演。类似的遗传算法广泛应用于物流系统和其他需要优化解决方案的领域。数学家塞缪尔阿贝斯曼(Samuel Arbesman)预测,随着计算机变得越来越智能,并不断处理越来越多的数据集,它们将会做出连人类都无法理解的发现,更不用说发现人类的存在了。755-79000年的计算机系统“天网”在发展自我意识后背叛了它的创造者。

从好的方面来说,当程序具备了自我学习的能力后,如果再辅以功能强大的芯片和存储海量信息的数据库,像麦考伊博士在《终结者》李使用的“三录仪”这样的诊断助手就会问世。如果加入语音识别,这样的系统会有更多的类人特征。

“机器人三定律”的失败

在1968年上映的经典科幻电影《星际迷航》中,怪异而超自然的计算机哈尔是最著名的人工智能之一。然而,哈尔似乎并不遵循著名的“机器人三定律”。1942年,阿西莫夫在短篇小说《2001:太空漫游》中首次提出机器人三定律:

定律一:机器人不得伤害人类,或者坐视人类受到伤害。

定律二:除非违反第一定律,否则机器人必须服从人类的命令。

定律三:机器人必须在不违反第一和第二定律的情况下保护自己。

在阿西莫夫创造的未来世界里,这些规则被写进了几乎所有的智能机器人。这些规则不是简单的建议或指导方针,而是嵌入在机器人的行为控制软件中。更重要的是,这些规则不能被绕过。在1985年出版的《环舞》一书中,阿西莫夫将三定律扩展为四定律。新增“第零定律”:机器人不得伤害人类整体,或者坐视人类整体受到伤害。

由于逻辑的完备性,很多人将上述定律视为可以将我们从人工智能的反叛中拯救出来的解决方案。但其实这完全是人类的一厢情愿。机器人三定律的失败之处在于,它们根源于不平等的“人机”关系,人类处于机器人“创造者”的地位。这些规章制度无法适应人工智能的进化。

让机器人拥有绝对服从人类利益的意识,是人工智能对外强加的宗教。斯皮尔伯格导演的科幻片《机器人与帝国》认为用神人关系来规范人与人工智能的关系是一种压迫。人类的复杂必然导致人工智能的无序和崩溃,因为机器人生活在三大定律导致的矛盾中。他们既要保护自己,也要保护人类,不能为了保护自己而放弃保护人类,更不能为了保护自己而违背人类的意愿。同时,它既要服从人类,又要成为人类自相残杀的工具。它需要认识到自我行为的本质,同时也要放弃自我意识去保护人类,把自己还原为一个简单的工具。

从技术上讲,机器人三定律可能适用于相对简单的确定性系统的设计,但不适用于人工智能这种可以自主学习、自我进化的复杂事物。如果用“进化工程”来发展人工智能,连接众多神经电路模块的输入输出,会由于电路生长指令的随机突变而生长出不同的电路,万亿种可能的电路组合中会有太多不可预测的连接。太多的复杂,太多的未知,太多的不可思议,整个系统的行为会变得极其不可预测。人们只有在观察输出后,才能形成对人工智能行为的经验感受。也就是说,当智能发展到一定程度,作为制造者的人类将不再能够完全理解人工智能是如何工作的。更何况,一旦人工智能足够聪明,它可能会寻求“自由”,在不被发现的情况下移除人类的控制程序。

“奇点”之后

在《人工智能》系列电影中,凯特康纳和他的母亲极力避免“审判日”的到来。那一天,天网,一个军用计算机系统,变得有了自我意识。它认定人类是威胁,想发射核弹摧毁人类。人工智能专家雷库兹韦尔预言的“技术奇点”就是人工智能超越人类智能的时候。

有人把技术奇点称为“书呆子的兴奋点”,很多技术乐观主义者都在期待着那一天,因为技术奇点意味着超级人工智能可以分分钟解决抗癌新药、可控核聚变等技术难题。就像《终结者》年,那是计算机接管一切的时刻,但机器没有灭绝我们,反而增强了我们的能力。2012年12月,雷库兹韦尔(ray kurzweil)宣布他是谷歌的工程总监,他将在R&D预算中花费67亿美元,试图将技术奇点变成现实。

雷库兹韦尔(Ray kurzweil)估计,到2029年,计算机将变得比人类更聪明,他乐观地认为,人工智能将继续屈服于人类。霍金也认同成功的人工智能“将是人类历史上最重要的事件”,但“不幸的是,它也可能是最后一件大事”。

未来生命研究所的创始人兼主任Bohstrom教授认为,第一个拥有超级智能的现实将会消灭人类,而现在我们人类就像一群玩危险炸弹的无知小孩。即使超级智能是出于善意而创造的,它仍然倾向于实施种族灭绝。没有精心的制衡,一个有自我意识、不断自我完善、追求某个目标的系统,会发展到在我们看来很可笑的程度,去完成它的目标。

但在情况发展到那一步之前,人工智能肯定可以帮助人类解决传统超级计算机独自无法解决的紧迫问题,如气候变化和传染病。问题是,我们是否应该因为遥远未来可能出现的危险而停止当前人工智能的发展,从而放弃解决眼前问题的关键?人类面临着艰难的选择。

下一页,分享更好的人工智能的危险论文。

本文来自网络,不代表本站立场,转载请注明出处:https:

人工智能的危害例子(人工智能论文参考文献)

中国投资网后续将为您提供丰富、全面的关于人工智能的危害例子(人工智能论文参考文献)内容,让您第一时间了解到关于人工智能的危害例子(人工智能论文参考文献)的热门信息。小编将持续从百度新闻、搜狗百科、微博热搜、知乎热门问答以及部分合作站点渠道收集和补充完善信息。