突发!AI恐将灭绝人类,350名权威签署联名信
现阶段AI领域,波诡云谲。一边大模型的多模态能力一天一个样,越来越强悍;另外一边,看着AI越来越聪明,感觉人类智慧生物的地位不保,开始寻求监管AI,避免发生威胁人类生存的危机出现。
AI头号种子GPT—4自然是首当其冲,为此ChatGPT之父Sam Altman赴白宫,阐明自己的立场和观点。也配合政府制定AI监管的条例和措施。
今天,又一则有关AI威胁的消息在全网疯传,其中不乏AI领域的专家和权威。
根据彭博社报道,非营利组织人工智能安全中心(Center for AI Safety)本周二发布简短声明:“降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项”。
包括 Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。
此外还有另外两家AI领先公司的CEO签署了这一公开信:Google DeepMind 首席执行官 Demis Hassabis和Anthropic 的首席执行官 Dario Amodei。
其中还有 Geoffrey Hinton 和 Yoshua Bengio 两位人工智能的“教父”。
把AI和流行病、核战争相提并论,真有一种《毁灭者》的既视感。
然而已经不是第一次出现这种AI威胁的声音了。
在上周,Sam Altman 和另外两位 OpenAI 的高管提出应该建立类似国际原子能机构这样国际组织来安全监管 AI 的发展。
早在3月,由马斯克等人牵头签署的一份公开信,就表示了社会对AI存在的恐惧心理。
该信呼吁所有的 AI 实验立即暂停研究比 GPT-4 更先进的 AI 模型,暂停时间至少 6 个月,为的就是把这些可怕的幻想扼杀在摇篮之中。
对于这一系列呼吁和公开信,一些专家认为它过分强调了人工智能带来的风险,有些人则认同存在这种可能性,但不同意信中的建议措施。
安全人工智能中心的执行主任丹·亨德里克斯(Dan Hendrycks)告诉《纽约时报》,5月30日发布的声明很简洁,没有提出解决人工智能威胁的任何潜在方法,这是为了避免进一步产生分歧。
他说:“我们不想为此推出一个包含30种潜在干预措施的大菜单。如果这样做,它会淹没主要信息。”