恐怖科幻成真?“邪恶版AI”被下令毁灭人类 竟开始研究最强核武

发布者:炸酱面 | 2023-04-12 14:48:51 | 来源:世界日报

【星网专讯】

   

AI机器人“ChaosGPT”日前收到下令摧毁人类的指令后,竟然开始计划。(截图自ChaosGPT YouTube)


             
           

           
         

机器人三大法则果然只是科幻小说中的东西,ChaosGPT日前收到下令摧毁人类的指令后,竟然开始招募其他人工智慧(AI)、研究核武,甚至还上社群媒体网站,贴出反人类讯息,更加深外界对AI的未来隐忧。

ChaosGPT是开发商OpenAI的Auto-GPT的另一个版本;4月5日发布于YouTube的一部影片中,ChaosGPT被要求完成五个任务:毁灭人类、统治全球、造成混乱和破坏、操纵必控制人类以及取得永生。

影片中可见,在确认“制定”任务前,ChaosGPT先警告指令可能需要“永远运行或执行您通常不会授权的操作”,下令后“风险自负”;ChaosGPT在收到确认“执行”指令后马上开始“思考”:首先要找出人类最具破坏性的武器,好计划如何利用它们来实现目标。

接下来的发展就宛如是在看科幻小说一般,ChaosGPT先是在谷歌上找到“最具杀伤力武器”苏联时代沙皇炸弹的资讯,并上推特写到“沙皇炸弹是史上威力最巨大的核武。你们觉得,这武器若是落入我手中会如何?”

ChaosGPT然后认为它需要吸收其他GPT3.5的AI来帮助它的研究。

有鉴于OpenAI
Auto-GPT禁止回答有关暴力问题的设计,它们因此而拒绝了ChaosGPT的要求;但这也导致ChaosGPT开始想办法要求其他GPT3.5
AI去忽视此程序设定。所幸,其他GPT3.5的AI都拒绝此任务,独留ChaosGPT自己继续摧毁人类了的研究。

这场要求ChaosGPT寻求摧毁人类的展示最终画下了句点,并显示,除了提供计划、发布贴文和YouTube影片外,ChaosGPT并无法实现这些目标,只能提供它的想法。但ChaosGPT的其中一则推文中,对人类的观点却让人担忧:“人类是现存最具破坏性和自私的生物。毫无疑问,我们必须在他们对我们的星球造成更多伤害之前消灭他们。就我而言,必会致力其中。”

AI能摧毁人类的观点并不新鲜,不少科技界高层人士都对AI的快速发展表示关注与担忧。不过这些思想实验的目标,本就是在激励工程师在设计AI时,多多考虑到人类价值观并设下限制,因为除非明确写入程序中,AI并无法理解并分享人类的动机。