即使人工智能有[文]五分之一的可能[章]性会威胁人类生[来]存,但埃隆·马[自]斯克 [吃];(Elon Musk)&n[瓜]bsp;仍非常[网]确信这值得冒险[文]。
在前段时间的A[章]bundanc[来]e360峰会上[自],马斯克在“人[吃]工智能辩论”研[瓜]讨会上表示,他[网]重新计算了人工[文]智能这项技术的[章]风险评估,他说[来]:“我认为人工[自]智能有可能毁灭[吃]人类,但总体还[瓜]是利大于弊。”[网]
但马斯克没有提[文]及他是如何计算[章]风险的。
人工智能安全研[来]究员、路易斯维[自]尔大学网络安全[吃]实验室主任罗曼[瓜]·扬波尔斯基([网]Roman Yampols[文]kiy)在接受[章]《商业内幕》采[来]访时表示,马斯[自]克认为人工智能[吃]可能对人类构成[瓜]生存威胁是正确[网]的,但“如果有[文]什么问题的话,[章]那就是他的评估[来]有点过于保守了[自]”。
“在我看来,人[吃]类遭遇厄运的可[瓜]能性要高得多。[网]”扬波尔斯基说[文]。他所说的厄运[章]指的是人工智能[来]控制人类或导致[自]人类终结事件的[吃]可能性,例如创[瓜]造一种新型生物[网]武器或由于大规[文]模网络攻击或核[章]战争而导致社会[来]崩溃。
《纽约时报》称[自]厄运是“席卷硅[吃]谷的一种病态的[瓜]新统计学”,该[网]媒体援引多位科[文]技高管的估计,[章]他们认为人工智[来]能能引发世界末[自]日的可能性在5[吃]%到50%之间[瓜]。但扬波尔斯基[网]认为这一风险高[文]达“99.99[章]9999%”。[来]
扬波尔斯基说,[自]因为我们不可能[吃]控制先进的人工[瓜]智能,所以我们[网]唯一的希望就是[文]从一开始就不要[章]创造它。
“不知道为什么[来]马斯克认为研究[自]人工智能是个好[吃]主意,”扬波尔[瓜]斯基补充道,“[网]如果他担心竞争[文]对手抢先一步,[章]那大可不必,因[来]为无论是谁创造[自]了它,这种不受[吃]控制的超级智能[瓜]给我们带来的生[网]存威胁都是一样[文]糟糕。”
去年11月,马[章]斯克表示,这项[来]技术最终“变坏[自]”的可能性“并[吃]非为零”,但他[瓜]并没有进一步说[网]明,如果真的“[文]变坏”,这项技[章]术可能会毁灭人[来]类。
尽管马斯克一直[自]是人工智能监管[吃]的倡导者,但马[瓜]斯克去年创立了[网]一家名为xAI[文]的公司,该公司[章]致力于进一步扩[来]大人工智能的力[自]量。xAI是O[吃]penAI的竞[瓜]争对手,Ope[网]nAI是马斯克[文]在2018年退[章]出董事会之前与[来]萨姆·奥特曼([自]Sam Altman)[吃]共同创立的公司[瓜]。
在峰会上,马斯[网]克估计,到20[文]30年,数字智[章]能将超过所有人[来]类智能的总和。[自]虽然他坚持认为[吃]研究人工智能利[瓜]大于弊,但马斯[网]克也承认,如果[文]人工智能在一些[章]最直接的领域继[来]续按照目前的轨[自]迹发展,世界将[吃]面临风险。
“你培养一个通[瓜]用人工智能,这[网]几乎就像抚养一[文]个孩子,但他是[章]一个超级天才,[来]所以你如何培养[自]这个孩子很重要[吃]。”马斯克在3[瓜]月的一场硅谷活[网]动中说,“人工[文]智能安全方面,[章]我认为最重要的[来]一点是需要培养[自]一个最大程度寻[吃]求真相并且具有[瓜]好奇心的AI。[网]”
马斯克表示,关[文]于实现人工智能[章]安全的最佳方式[来],他的“最终结[自]论”是以迫使人[吃]工智能变得诚实[瓜]的方式来发展人[网]工智能。
“不要强迫它撒[文]谎,即使事实令[章]人不舒服。”马[来]斯克在谈到保护[自]人类免受科技侵[吃]害的最佳方法时[瓜]说,“这非常重[网]要,不要让人工[文]智能撒谎。”
吃瓜网站爆料:据《独立报》报道,研究人员发现,一旦人工智能学会对人类撒谎,使用当前的人工智能安全措施就不可能逆转这种欺骗行为。
该媒体引用的研[章]究称,“如果一[来]个模型由于欺骗[自]性的仪器校准或[吃]模型中毒而表现[瓜]出欺骗性行为,[网]当前的安全培训[文]技术将无法保证[章]安全,甚至可能[来]造成一种安全的[自]假象。”
更令人不安的是[吃],研究人员补充[瓜]说,人工智能可[网]能会自己学会欺[文]骗,而不是被专[章]门教导说谎。
吃瓜网站爆料:吃瓜网站爆料:“如果它变得比我们聪明得多,它就会非常擅长操纵,因为它会从我们这里学到这一点,”杰弗里·辛顿(Geoffrey Hinton)被称为“人工智能教父”,他告诉CNN,“很少有一个更聪明的东西被一个不那么聪明的东西控制的例子。”
发表评论