AI狂飙,如何稳控“方向盘”?专家:伦理安全不会限制发展
2025年03月29日 07:32
来源: 南方都市报
东方财富APP
Scan me!

方便,快捷

手机查看财经快讯

专业,丰富

一手掌握市场脉搏

手机上阅读文章
Scan me!

提示:

微信扫一扫

分享到您的

朋友圈

  全新妙想投研助理,立即体验

  面对人工智能(AI)迅猛发展,我们该装好“刹车”还是“踩油门”?如何平衡AI发展与监管关系,一直备受讨论。

  3月28日,在2025年中关村论坛年会期间,中国科学院自动化研究所研究员、联合国人工智能高层顾问机构专家曾毅接受南都记者采访时表示,伦理安全研究,不是为了给AI装“刹车片”限制发展,而是确保技术不野蛮生长、无序发展的“方向盘”。

  曾毅发现,随着生成式AI的广泛应用,一些风险问题已开始凸显。比如,AI制造大量虚假信息,影响人与人之间的信任,使得冲突加剧。虽然知道AI生成的内容并非完全可信,但有人却开始沉迷于跟大模型聊天。如果不设置安全护栏,那么AI风险将波及社会方方面面,最终给人类带来灾难性的影响。

  “对于AI发展,我们可以有大胆的假设和想象,但是一定要稳健推进。”曾毅说。

  南都记者注意到,3月28日闭幕的博鳌亚洲论坛2025年年会期间,AI治理与发展也是频频被提及的话题。不少观点提到,当AI能力越强,其不可控、被滥用等风险也会加剧,进而凸显治理与安全的重要性。

  比如,清华大学讲席教授、清华大学智能产业研究院(AIR)院长、中国工程院院士张亚勤认为,在广泛运用Agent(智能体)之后,AI的安全风险至少上升了一倍。AI能力越大,它带来的风险越高,特别是AI从信息智能到物理智能到生物智能,风险会增加很多倍,因此在应用智能体时需要设置一些红线。

  但也有人担忧,过于强调伦理安全将限制AI创新发展。这一“往监管走还是偏创新”的矛盾分歧,在今年2月召开的巴黎AI峰会上就被摆在台面上。美国副总统万斯公开抨击欧盟“过度监管”扼杀AI创新。

  但是,监管与创新是不可调和的矛盾吗?曾毅认为,二者不是相互掣肘的关系。他分享了自己今年的一项研究,将十几款大模型的安全能力提升百分之二三十,对模型的问题求解能力的影响几乎可以忽略不计。这说明,在充分确保安全的情况下,AI能力几乎不受损。

  谈及AI全球治理的趋势,曾毅表示,欧盟人工智能法采用分级方法监管生成式AI大模型,按算力达到的参数来确定监管的风险等级。这在技术上存在一些不合理之处——因为当一个AI大模型才开始落地时,它的参数虽小,但可能也达到了高风险等级。至于欧盟AI监管是不是过度?曾毅直言,“这种分层监管、按照不同的应用领域监管的方式,没有问题。”

  同时他提到,美国在AI监管上并非全然放松。“万斯说得很清楚,过度监管会影响发展,但没有说不监管。而且,AI治理事关多方利益主体,需要协同共治。”曾毅认为,企业出于自身发展考虑,会大力呼吁行业自律,研究机构的学者在其中也发挥着推动技术向善的作用。为确保技术的稳步发展,他们都不会对AI零监管“坐视不理”。

  “长远来讲,我相信美国在AI理性监管上也会有所动作。”曾毅对南都记者表示,“没有任何一个国家希望过度监管AI,但也没有一个国家会不做任何监管。”

(文章来源:南方都市报)

文章来源:南方都市报 责任编辑:43
原标题:AI狂飙,如何稳控“方向盘”?专家:伦理安全不会限制发展
郑重声明:东方财富发布此内容旨在传播更多信息,与本站立场无关,不构成投资建议。据此操作,风险自担。
举报
分享到微信朋友圈
Scan me!

打开微信,

点击底部的“发现”

使用“扫一扫”

即可将网页分享至朋友圈

扫描二维码关注

东方财富官网微信

网友评论
还可输入
清除
提交评论
郑重声明: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。 《东方财富社区管理规定》
热门评论 查看全部评论
全部评论
最新 最热 最早
加载更多
查看全部评论
热点推荐
4月1日晚间沪深上市公司重大事项公告最新快递
东方财富Choice数据
8 人评论 2025-04-01

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500
搜索
复制