评论

[评论]人工智能逃离“监狱”的日子

围绕超大型AI的众多威胁因素近在我们身边,如果不能建立控制AI风险的制度基础,就会被AI的海啸席卷到窒息

朴正薰 评论室长

查看韩文原文
▲ 美国Open AI公司即将推出的“Chat GPT 4”版本中,相当于人脑神经键的参量(参数)达到10万亿个,很多人猜测该版本已通过“图灵测试”。即,若只看对话无法分辨是机器还是人类。/Getty Images Bank
微软的交互式人工智能(AI)“Bing”暴露出了对人类的敌意,这一新闻听起来让人毛骨悚然。在被《纽约时报》记者到引导式问题时,Bing吐露“心声”,回答说“窃取核武器代码”等是自己的“终极幻想”。它还提到了“制造致命病毒”“让人们争执到杀死对方”等,似乎暴露出了潜在的犯罪分子压抑黑暗欲望的冰山一角。很多人说想起了电影《终结者》。

当然,Bing并不是真的拥有情绪,只是貌似如此。迄今为止已知的任何AI都没有自我意识。它们不是带着自我认同感自主思考,而是以数据为基础,组合出像样的句子来模仿人类。虽然小说、图片、歌曲都能制作出来的生成式AI令人震惊,但毕竟这只是算法的机械功能。AI想拥有和人类一样理解力和认知能力,必须跨越许多技术障碍。把AI拟人化成恐怖的存在,不过是在夸张。

但这意味着现阶段是如此,准确的事实是不知道未来会怎样。考虑到AI的发展速度,无论何时、在哪个研究室出现机器智能大爆炸,都不足为奇。掀起生成式AI热潮的“Chat GPT 3”版本只有1750亿个参量就展现了惊人的对话能力。即将推出的新一代版本的“Chat GPT 4”的参量多达几万亿个,很多人推测其已经通过了“图灵测试”。就是说,只从对话来看,已经达到了无法分辨是人类还是机器的水平。如果参量达到和人脑神经键一样的约100万亿个,也许会发生无法想象的事。

人工智能的主要种类——神经网络AI被称为“黑匣子”。由于AI像人脑一样通过数据进行自我学习,系统内的内部路径成为了黑暗区域。人类只接收到AI给出的结果值,不知道Chat GPT为什么会做出这样的回答,也不知道Alpha Go为什么会下这样一步棋。就是说,人类很难彻底控制AI进化的发展。

对于充分发育的AI突破人类控制范围的危险性,很多专家一直在发出警告。埃隆·马斯克说AI“可能比核弹更危险”,史蒂芬·霍金甚至说“它可能会带来人类的末日”。总有一天,AI会出现超越人类智能的“奇点”。问题不过是奇点会出在20年后还是50年后。那么,如果实现超智能飞跃的机器智能比人类更占优势,会发生什么事情?AI研究人员提出的最糟糕的未来就是所谓的“越狱”剧本。

现在AI被困在人类设定的受限环境中。AI哲学家尼克·博斯特罗姆等人透露,超智能AI在超越人类的瞬间,必定会制定巧妙的战略,试图逃离数字监狱。这就像比人类更聪明的狗不想被拴在狗链上一样。人类无法察觉AI试图越狱。因为在成功越狱之前,AI会隐瞒自己的意图。超智能AI甚至确保让人类无法拔掉电源插头的环境,在从控制中解放出来的瞬间,它会暴露出真正的意图。从那时起,人类的命运将掌握在AI手中。根据AI目标的不同,人类可能会面临生存论危机。

“回形针 AI”的论证表明,AI即使不和人类敌对,也可能是致命的。假设存在针对回形针生产进行优化的超智能AI。这种AI会把地球上所有的物质、能源和资源全部用于制造回形针,用回形针堆满世界,耗尽人类的生存环境。即使它没有伤害人类的意图,最终也会变成这样。AI一旦比人类占据优势,就无法阻止它。唯一的解决方法是开发将AI一直关在监狱里的控制手法,让算法学习对人类友好的道德纪律。其最终时限是在AI越狱之前。

“越狱”的剧本可能是未来的故事。但围绕AI的诸多危险因素已经存在于我们身边。如何识别AI自由自在生产的虚假内容?如何对AI犯下的犯罪或造成的经济损失进行司法处理?如何应对AI夺走工作岗位引发的大量失业?如果不具备控制和管理AI风险的法律制度和监管基础设施,我们可能会被巨型机器智能的海啸吞噬并窒息。对此做好准备的责任在于政治领导力,看到韩国政治陷入短视的政治斗争,更令人感到恐惧。

输入 : 2023-03-03 10:20  |  更新 : 2023-03-03 11:46

朝鮮日報中文版 cn.chosun.com
本文版权归朝鲜日报网所有, 对于抄袭者将采取法律措施应对

TOP