千人联名叫停ChatGPT-5,为什么
帮宁工作室
编译 | 杨玉科
编辑 | 葛帮宁出品 | 帮宁工作室(gbngzs)
“这是一场没有人能预测或控制的危险竞赛”。
2023年3月29日,包括埃隆·马斯克(Elon Musk)和苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)在内,1000多名科技界领袖呼吁暂停开发人工智能。他们担心这场危险竞赛会对社会和人类构成“深远的风险”,且可能产生“灾难性”影响。
在由非营利组织生命未来研究所(The Future of Life Institute)发布的一封名为《暂停大型人工智能实验》公开信中,马斯克和其他科技界领袖呼吁,所有人工智能实验室停止开发产品至少6个月,并对其进行更多风险评估。
“我们呼吁所有人工智能实验室立即暂停对比GPT-4更强大的人工智能系统的试验,至少6个月。”信中建议道,暂停行动应该是公开的、可核实的,包括所有关键行为者。如果实验室拒绝,呼吁者希望政府介入,并强制实施暂停。
这是一种普遍存在的担忧。这种担忧甚至得到Open AI公司首席执行官山姆·阿尔特曼(Sam Altman)的认同,后者创建了ChatGPT。阿尔特曼早些时候曾表示,这项技术可以被开发利用进行“广泛的”网络攻击。
自GPT-4发布以来,Open AI一直在用“插件”为人工智能系统添加功能,使其能在开放网络上查找数据、计划假期,甚至订购杂货等。但该公司必须处理“能力过剩”问题——系统发布时比它所预知的更强大。
公开信还详细介绍了与人类竞争的人工智能系统,将以经济和政治破坏的形式对社会和文明造成的潜在风险,呼吁开发者与政策制定者就治理和监管机构展开合作。
这封信发布之前2天,即3月27日,欧盟警察机构欧洲刑警组织(Europol)警告道,ChatGPT等系统可能被滥用于网络钓鱼企图、虚假信息和网络犯罪。
▍对奇点心存恐惧
从太空旅行到自动驾驶汽车,马斯克希望将科技推向绝对极限。但在人工智能方面,马斯克却划清了界限。
早在2014年,马斯克首次分享对人工智能的看法时,就将其比作“召唤恶魔”,称其为人类“最大的生存威胁”。彼时,马斯克透露,他投资人工智能公司不是为了赚钱,而是密切关注这项技术,以防它失控。
马斯克最担心的是,如果人工智能在错误的人手里变得先进,它可能会超过人类,宣告人类的终结,这就是常说的奇点。
许多聪明人都曾有这样的担忧,包括已故者斯蒂芬·霍金(Stephen Hawking),2014年他就曾告诉BBC(英国广播公司):“完全人工智能的发展可能意味着人类的终结。”人工智能会自己起飞,并以不断加快的速度重新设计自己。
尽管马斯克对人工智能心存恐惧,但他还是投资了总部位于旧金山的人工智能公司Vicarious和DeepMind,后者已被谷歌和Open AI收购。正是Open AI创造了最近几个月风靡全球的ChatGPT程序。
马斯克与Open AI现任首席执行官山姆·阿尔特曼一起创立了Open AI公司。2016年,马斯克在一次采访中坦言,他和阿尔特曼创立这家公司是为了“让人工智能技术民主化,让它得到广泛应用”。
2018年,马斯克试图控制这家初创公司,其请求被拒绝后,他被迫从Open AI退出,但仍继续从事其他项目。2022年11月,Open AI推出ChatGPT,在全球迅速获得成功。
这个聊天机器人是一个经过大量文本数据训练的大型语言模型,根据给定的提示生成类似人类的文本。ChatGPT可用于撰写研究论文、书籍、新闻文章和电子邮件等。
当阿尔特曼沉浸在ChatGPT的荣耀之中时,马斯克正在从各个方面攻击ChatGPT。马斯克说,这款人工智能已经“觉醒”,偏离了Open AI最初的非营利使命。
今年2月,马斯克在推特上写道:“Open AI作为一个开源(这就是我为什么把它命名为Open AI)的非盈利公司而创建,旨在与谷歌抗衡,但现在,它已经成为一个由微软有效控制的封闭资源的最大利润公司。”
虽然Open AI似乎在马斯克的目标清单上,但他仍然担心人工智能会达到奇点。
“奇点”这个词在世界范围内引起轩然大波,因为人工智能发展只能在科幻小说中看到——它实际代表什么意思?
简而言之,奇点描述了一种假设的未来,在那里技术超越了人类的智力,改变了我们的演变道路。专家表示,一旦人工智能达到这一点,它的创新速度将比人类快得多。
这一进步有两种方式展现。第一种方式是人类和机器合作,创造一个更适合人类的世界。例如,人类可以扫描自己的意识,将其存储在电脑中,他们将在那里永远生存下去。
第二种方式是人工智能变得比人类更强大,控制人类并使人类成为它的奴隶——但如果这是真的,那也是在遥远的未来。研究人员正在寻找人工智能达到奇点的迹象,比如该技术能像人类一样准确地翻译语音,更快地执行任务。
谷歌前工程师雷·库兹韦尔(Ray Kurzweil)预测,奇点将在2045年到来。自1990年代初期以来,库兹韦尔已经对技术进步做出过147次预测,其中86%是正确的。
1000多人联名签署的公开信中写道,人工智能实验室目前“陷入了一场失控的竞赛,开发和部署更强大的数字思维,没有人——甚至包括它们的创造者——能够理解、预测或可靠地控制它”。
谷歌和微软都没有人签字,而这两家公司被认为是开发这项技术的前沿。
微软所支持的Open AI,自ChatGPT发布以来,竞争对手已推出类似产品,促使企业将其或类似技术集成到自己的应用程序和产品中。
阿尔特曼愿意听取有关ChatGPT的反馈,希望更好了解其风险。在3月27日的播客采访中,他坦承这个工具会造成伤害。“会有伤害,也会有巨大的好处。我们将把坏的最小化,把好的最大化。”
▍“这更像是一场自杀式竞赛”
支持人工智能暂停的团体表示,暂停6个月或更长时间,让行业有时间为人工智能设计制定安全标准,以阻止风险最高的人工智能技术的潜在危害。
“我们已经达到这样的地步,这些系统已经足够智能,可以用在对社会有害的方面。”蒙特利尔大学蒙特利尔学习算法研究所所长Yoshua Bengio(本吉奥)接受采访时说。
公开信没有呼吁停止所有人工智能的开发,但敦促相关公司暂时停止比GPT-4更强大的培养系统。GPT-4是Open AI公司本月发布的技术。
Open AI还没有开始研发GPT-5。阿尔特曼表示,公司在开发过程中一直将安全性放在首位,GPT-4发布前花了6个多月时间进行安全测试。
“某种意义上,这是对唱诗班的说教。”阿尔特曼认为,“我们对这些问题的讨论是最大声、最激烈、最长久的。”
一边是暂停的呼吁,一边是科技公司和初创公司对生成式人工智能(一种能根据人工提示生成原创内容的技术)加倍投入的愿景。去年秋天,Open AI公司推出一款聊天机器人,该机器人能提供冗长的答案,像人类一样复杂地编写计算机代码。
关于生成式人工智能的讨论自此爆发。
微软已经在必应搜索引擎和其他工具中采用了这种技术。谷歌则部署了竞争对手的系统,Adobe、Zoom和Salesforce等公司也推出了先进的人工智能工具。
“竞赛从今天开始打响。”微软首席执行官萨提亚·纳德拉(Satya Nadella)上个月说,“我们要行动,而且要快。”
这种做法引发了人们的担忧——快速推广可能在带来实际好处的同时,产生意想不到的后果。
生命未来研究所所长、麻省理工学院物理学教授马克斯·泰格马克(Max Tegmark)认为,人工智能的进步已经超过许多专家几年前认为可能实现的水平。
“不幸的是,这更像是一场自杀式竞赛。谁先到并不重要,这只是意味着,人类作为一个整体可能会失去对自己命运的控制。”泰格马克说。
马斯克和沃兹尼亚克都表达过对人工智能技术的担忧。3月29日,马斯克在推特上写道,这种先进人工智能技术的开发者“不会注意到这个警告,但至少有人这么说过”。
特斯拉汽车也采用了一些人工智能工具,用于高级驾驶辅助功能。特斯拉上个月宣布,拟召回约36.28万辆配备“完全自动驾驶测试版”技术的汽车。
美国最高汽车安全机构认为,在极少数情况下,这项技术可能违反当地交通法规,如果司机不进行干预,可能会增加发生碰撞的风险。
3月29日,Stability AI首席执行官穆斯塔克(Mostaque)在推特上说,尽管他签署了联名信,但并不同意暂停6个月。“它没有任何约束力,但将开启一场重要讨论,这有望为一个不透明领域带来更多透明度和治理。”
微软拒绝置评。谷歌没有立即回复置评请求。
泰格马克称,许多公司在将先进的人工智能技术添加到产品中时,感到了“疯狂的商业压力”。暂停6个月将给行业“喘息的空间”,不会对那些谨慎行动的企业带来不利。
人工智能实验室和专家可以利用这段时间,为高级人工智能设计制定一套共享的安全规则,这些规则应该由外部专家进行审计和监督。
本吉奥认为,我们承受不起前进和打破现状的代价,我们确实需要花时间共同思考这个问题。
| 联名叫停公开信
广泛的研究表明,具有人类竞争智能的人工智能系统,可能对社会和人类造成深远的风险。顶级人工智能实验室对此也供认不讳。
正如已被广泛认可的阿西洛玛人工智能准则所述,先进的人工智能可能代表地球生命史上的一场深刻变革,因此,应该投入相应的关注和资源对其进行规划和管理。
不幸的是,高规格的规划和管理并没有发生。尽管最近几个月,人工智能实验室陷入了一场失控的竞赛,竞相开发和部署更强大的数字思维,没有人——甚至包括它们的创造者——能够理解、预测或可靠地控制它。
在一般任务上,当代人工智能系统可以具备与人类竞争的实力,我们必须扪心自问——我们是否应该让机器用鼓吹和谎言淹没我们的信息渠道?我们是否应该把所有的工作都自动化,包括那些令人满意的工作?我们是否应该发展非人类思维,让它们最终在数量上、智力上超过我们,淘汰并取代我们?我们是否应该冒险失去对人类文明的控制?
如此重要的决定权,不应该交给未经选举产生的科技领导者。
只有在我们确信它的影响是积极的、风险是可控的情况下,才应该开发强大的人工智能系统。这种信心必须有充分的验证,并随着智能系统潜在影响的大小而增加。
Open AI最近在关于人工智能的声明中表示,“在某一个时刻,在开始训练未来的系统之前,获得独立的审查可能很重要。对于最先进的努力,同意限制用于创建新模型的计算增长速度也很重要。”
我们赞同Open AI的说法,而这个时刻就是现在。
因此,我们呼吁,所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统实验,至少6个月。这种暂停应该是公开的、可核实的,包括所有关键行为者。如果这样的暂停不能迅速实施,政府就应该介入并实施暂停。
人工智能实验室和独立专家应该利用这6个月的时间,共同开发和实施一套先进人工智能设计和开发的共享安全协议。这些协议由独立的外部专家严格审计和监督,确保遵守这些协议的系统绝对安全。
这并不意味着,人工智能开发总体上的暂停,只是从危险的竞赛退回到,具有应急能力的更大的不可预测的黑盒模型。
人工智能的研究和开发应该重新聚焦于,使当今强大的最先进的系统更加准确、安全、可解释、透明、健康、一致、值得信赖和忠诚。
与此同时,人工智能开发人员必须与政策制定者合作,大幅加快开发强大的人工智能监管系统。
这些措施至少应包括——专属人工智能的全新、有能力的监管机构;监督和跟踪高性能人工智能系统和大型计算能力池;出处和水印系统,以帮助区分真实的和合成内容,并跟踪模型泄漏;健全的审计和认证生态系统;人工智能造成的损害责任;为人工智能技术安全研究提供强有力的公共资金;资源丰富的机构,以应对人工智能将造成的巨大经济和政治混乱(尤其是对民主的破坏)。
有了人工智能,人类可以享受繁荣的未来。在成功创建强大的人工智能系统之后,我们现在可以享受一个“人工智能之夏”。在这个夏天,我们可以收获回报,为了所有人的明显利益设计这些系统,并给社会一个适应的机会。
社会已经暂停其他对社会有潜在灾难性影响的技术。对于人工智能,我们也可以这样做。让我们享受一个漫长的人工智能之夏,而不是毫无准备地匆忙进入秋天。
(本文部分内容综合Automotive News、The Verge、The Guardian、Daily mail、WSJ报道,部分图片来自网络)