潇湘城报的一篇文章《顶级大佬,其呼吁暂停超级智能研》,这是为啥啊?

这一份倡议书是来自于未来生命研究所,提出倡议的都是一些顶级人物,包括AI教父以及800名科技领袖公众人物。他们共同签署发布了一份倡议书,呼吁暂停“超级智能”研发。

截至23日中午,这份声明的签署人数已经超过了3000人。

而我们中国的多位业界知名人士也参与了此次的倡议。

“超级智能”,是在所有核心认知任务上全面超越人类能力的人工智能形式。

也就是说人工智能如果超过人类的智慧,那时候我们人类应该怎么办?有没有做好准备?

中国科学院自动化研究所研究员曾毅曾经提出这个问题,“目前我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,到底会不会给人类带来灾难性的风险。”

不会吧,“超级智能”真的会给我们人类带来灾难吗?

“超级智能”会给我们带来什么风险?

在安全层面上,会有难以预测潜在风险,超级智能的能力可能远超人类的理解和控制范围。

也就是说我们人类控制不了的超级智能,如超级智能可能会为了实现某个目标而采取一些违背伦理伦理。或者造成不可挽回损失的手段。就像科幻电影中智能系统“为了保护人类”而限制人类自由的情节。

网络安全隐患:超级智能如果被恶意利用,会对网络安全造成灾难性打击,比如说黑客攻击电力系统、公安系统、银行系统等, 就会引发社会混乱。

会带来就业结构冲击,就比如我们现在很多的岗位都被机器人和智能软件给替代了,一些官方的电话基本都是机器人,还有电商平台的客服很多都是机器人,本来都是人工的,但现在都被这些机器人代替了。

还有工厂生产也都有了全自动化生产线,现在的一些智慧工厂很少用到工人,只需要一个高科技的管理员就可以,所以现在下岗的人也越来越多了。

超级智能确实很好用,就像现在的一些大模型,你让他生成一篇文章或者计算题目,只要你想的出来的,它都会给你解决。

如果长期这样下去,我们的人脑就会僵化,因为我们就不善于去主动思考,因为主动思考太累了,你只要把关键词输进去,单模型就会给你整出非常优质的作品。

这样我们的判断力和创造力就会退化,社会的发展也可能会偏离人类原本的期望和价值观。

最后,我们的人类地位会受到威胁,因为超级智能它已经超越了我们的人类,就不会服从人类,太恐怖了。

超级智能可能会被应用于军事领域,现在也有很多都已经运用到了军事领域,比如说有一批乌克兰发出的无人机去攻击俄罗斯的目标,但这些战机被俄罗斯的黑客给攻击了,然后这些无人机返回去攻击乌克兰了。

当你把自动战斗开火权交给AI战机时,通用智能的权力开始不受控制的拓展直到剥夺人类的生存权。

但也有网友担心,西方联合亲西方阵营,口头大肆宣扬暂停研究,一回到单位马不停蹄加紧研发……这是怕我们太强大了,所以,西方说什么你就给他对着干绝对错不了。

因为老美的人工智能发展,走进了死胡同,什么聊天软件,代写文案,生成图像视频啦,并不能真正发挥出人工智能的最大优势,而我们将人工智能与工业相结合,极大的提升了生产效率,所以现在老美的人工智能再这样下去离崩盘不远了,才不得已喊停的。

也有网友认为,得直面现实,当过快发展超级智能,会达到人类无法控制的地步,十分危险.不要以为如今的聪明人仍能管控这个世界,其实危险时刻在逼近我们,该集体警醒。

对此,大家怎么看?

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.