首页 动态 消费 创业 汽车 商业 房产 互联网 纵横 聚焦 快讯 热点 手机版
资讯 > 商业 >

焦点播报:迅猛突进的人工智能需要“缰绳”吗?

来源:上游新闻 发布时间:2023-03-30 13:37:56


(资料图片)

近日,美国亿万富翁埃隆·马斯克和人工智能领域顶尖专家、图灵奖得主约书亚·本吉奥等人联名签署了一封公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。尽管有人怀疑马斯克的动机,但对迅猛突进的人工智能技术进行规范和约束却是刻不容缓。

在人类历史上,多次出现颠覆性的革命技术,如蒸汽机、内燃机、电灯、电报、电视、卫星技术等,这些技术,极大地释放人类生产力,但却完全能为人类所驾驭和利用。

真正第一次对社会和人类构成潜在风险的,是核武器的出现。当时,各国对核武器的热情,也让全球陷入核恐怖之中,有识之士认识到不限制核武器,可能让人类亲手毁掉自己。在国际社会的共同努力之下,1968年,联合国大会通过了《不扩散核武器条约》。

在人工智能飞速发展之前,还有一项冲击人类伦理底限的技术,那就是克隆技术。克隆技术是“无性繁殖”的科学技术,技术上尚不完善,其使用干扰了自然进化过程,也违背了很多伦理问题。 因此,2005年,联合国通过《联合国关于人类克隆宣言》,要求所有成员国禁止任何形式的人类克隆。这也是前沿技术发展过程中得到规范和约束的范例。

回到人工智能,马斯克曾说人工智能比核武器更危险。危险在哪里?在于人工智能可能最终发展出在数量上、智能上超越人类,甚至能淘汰并取代人类的非人类思维。这意味着失去对人类文明控制的风险。

不同于人类以往技术创新成果漫长的转化过程,人工智能技术突破能借助互联网一夜之间遍布全球。而随着人工智能的不断进步,其无所不能的边界不断扩大。人类真想好了么?让人工智能把所有的工作自动化,或者将所有信息和渠道交由人工智能产生和控制?那人做什么呢?信息真假如何辨别呢?让人工智能控制人类么?

著名物理学家霍金也曾说过,“成功创造了人工智能,很可能是人类文明史上最伟大的事件。但如果我们不能学会如何避免风险,那么我们会把自己置于绝境”。

马斯克等呼吁的暂停并不意味着停止人工智能的开发,而是希望通过约束和规范来解决其发展可能带来的社会和伦理问题。没有规矩难成方圆,不能放纵人工智能“野蛮生长”,最后“反噬”人类社会。

上游新闻陈力

(文章来源:上游新闻)

关键词:
责任编辑:FG003


 

网站首页 | 关于我们 | 免责声明 | 联系我们
 

所有文章、评论、信息、数据仅供参考,使用前请核实,风险自负。
 

Copyright 2013-2020  高陵经济网 版权所有 豫ICP备20005723号-14
 

营业执照
 

联系邮箱:29 59 11 57 8@qq.com     glxcb.cn    All Rights Reserved