迅猛突进的人工智能需要“缰绳”吗?
2023年03月30日 12:59
来源: 上游新闻
东方财富APP

方便,快捷

手机查看财经快讯

专业,丰富

一手掌握市场脉搏

手机上阅读文章

提示:

微信扫一扫

分享到您的

朋友圈

  近日,美国亿万富翁埃隆·马斯克和人工智能领域顶尖专家、图灵奖得主约书亚·本吉奥等人联名签署了一封公开信,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。尽管有人怀疑马斯克的动机,但对迅猛突进的人工智能技术进行规范和约束却是刻不容缓。

  在人类历史上,多次出现颠覆性的革命技术,如蒸汽机、内燃机、电灯、电报、电视、卫星技术等,这些技术,极大地释放人类生产力,但却完全能为人类所驾驭和利用。

  真正第一次对社会和人类构成潜在风险的,是核武器的出现。当时,各国对核武器的热情,也让全球陷入核恐怖之中,有识之士认识到不限制核武器,可能让人类亲手毁掉自己。在国际社会的共同努力之下,1968年,联合国大会通过了《不扩散核武器条约》。

  在人工智能飞速发展之前,还有一项冲击人类伦理底限的技术,那就是克隆技术。克隆技术是“无性繁殖”的科学技术,技术上尚不完善,其使用干扰了自然进化过程,也违背了很多伦理问题。 因此,2005年,联合国通过《联合国关于人类克隆宣言》,要求所有成员国禁止任何形式的人类克隆。这也是前沿技术发展过程中得到规范和约束的范例。

  回到人工智能,马斯克曾说人工智能比核武器更危险。危险在哪里?在于人工智能可能最终发展出在数量上、智能上超越人类,甚至能淘汰并取代人类的非人类思维。这意味着失去对人类文明控制的风险。

  不同于人类以往技术创新成果漫长的转化过程,人工智能技术突破能借助互联网一夜之间遍布全球。而随着人工智能的不断进步,其无所不能的边界不断扩大。人类真想好了么?让人工智能把所有的工作自动化,或者将所有信息和渠道交由人工智能产生和控制?那人做什么呢?信息真假如何辨别呢?让人工智能控制人类么?

  著名物理学家霍金也曾说过,“成功创造了人工智能,很可能是人类文明史上最伟大的事件。但如果我们不能学会如何避免风险,那么我们会把自己置于绝境”。

  马斯克等呼吁的暂停并不意味着停止人工智能的开发,而是希望通过约束和规范来解决其发展可能带来的社会和伦理问题。没有规矩难成方圆,不能放纵人工智能“野蛮生长”,最后“反噬”人类社会。

  上游新闻陈力

(文章来源:上游新闻)

文章来源:上游新闻 责任编辑:43
原标题:迅猛突进的人工智能需要“缰绳”吗?
郑重声明:东方财富发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。据此操作,风险自担。
举报
分享到微信朋友圈

打开微信,

点击底部的“发现”

使用“扫一扫”

即可将网页分享至朋友圈

扫描二维码关注

东方财富官网微信


扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500