超三千名顶级大佬齐呼吁:暂停超级智能研发 没有坚实证据确保安全 --知识铺
格隆汇10月27日|据快科技,中美两国人工智能领域的顶尖专家和技术领袖联名发起一项呼吁,在科学界达成“安全可控开发超级智能的广泛共识”前,应暂停“超级智能”的研发。这项倡议由非营利组织“未来生命研究所”发起,目前已获多位重量级人士签名支持,包括人工智能先驱杰弗里·辛顿、苹果联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查·布兰森、经济学家达龙·阿西莫格鲁,以及前美国国家安全顾问苏珊·赖斯。此外,哈里王子与夫人梅根、前政治顾问史蒂夫·班农等公众人物也参与联署。截至10月23日中午,联署人数已达3193人。中国学界亦有重要代表加入,包括中国科学院院士、图灵奖得主姚期智,清华大学讲席教授张亚勤,以及清华大学苏世民书院院长薛澜等。中国科学院计算技术研究所研究员曾毅指出,目前绝大多数企业所研发的仍属通用人工智能工具,并非真正意义上的超级智能。然而,超级智能所带来的风险目前在科学上仍无法有效控制。他特别提到,美国企业如Meta设立超级智能实验室,以及阿里巴巴等中国公司公开宣称研发超级智能,这些动向已超出通用人工智能工具的范畴,值得高度关注。所谓“超级智能”,指的是在所有认知任务上超越人类水平的人工智能形态。尽管目前大多数公司所研发的仍属于通用人工智能(AGI),但“超级智能”所预示的能力已引发业界普遍忧虑。
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/ai002/post/20251029/%E8%B6%85%E4%B8%89%E5%8D%83%E5%90%8D%E9%A1%B6%E7%BA%A7%E5%A4%A7%E4%BD%AC%E9%BD%90%E5%91%BC%E5%90%81%E6%9A%82%E5%81%9C%E8%B6%85%E7%BA%A7%E6%99%BA%E8%83%BD%E7%A0%94%E5%8F%91-%E6%B2%A1%E6%9C%89%E5%9D%9A%E5%AE%9E%E8%AF%81%E6%8D%AE%E7%A1%AE%E4%BF%9D%E5%AE%89%E5%85%A8/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com