如今的互联网上,看似信息海量,但也充斥着大量单调、重复且缺乏质量的内容。
美国《纽约时报》网站在12月8日的报道中指出,当前网络,尤其社交平台正泛滥一种被称为“AI垃圾”(AI Slop)的内容。英国《新科学家》网站10日也发表文章称,今年,许多人感觉仿佛置身于一堆华而不实的“AI垃圾”中。英国《经济学人》杂志更是将“Slop”一词选为2025年度词汇。这类错漏百出、古怪甚至令人尴尬的内容遍布各平台,也在悄然侵蚀着人们的思想。
“假冒伪劣”信息充斥网络
“Slop”原指“猪食”“泔水”等廉价、粗糙、缺乏营养之物。如今,借由AI技术的浪潮,一些如同“Slop”的垃圾内容正在互联网上肆意蔓延。
“AI垃圾”特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化内容农场。
美国科技网站CNET在10月28日的报道中提到,如今社交平台上“AI垃圾”五花八门:OpenAI的Sora可让人几秒内生成滑稽荒诞的视频;LinkedIn上满是由AI包装的“专家箴言”,例如“有时领导力就是保持沉默的能力”;谷歌搜索结果也宛如AI杂货铺,竟会出现“姜黄能治愈心碎”这类无稽之谈。
“AI垃圾”与“深度伪造”或“AI幻觉”虽有重叠,却并不相同,其区别在于意图与质量。
&sp; “深度伪造”指利用AI伪造或篡改影音,目的在于欺骗,从虚假政治演讲到诈骗语音皆属此类,其关键在于以假乱真。“AI幻觉”则属技术错误,聊天机器人可能引用不存在的研究,或编造法律案例,本质是模型在预测词语时出现了偏差。而“AI垃圾”范围更广,也更随意:当人们用AI批量生产内容却疏于核对准确性与逻辑时,便会产生此类垃圾。它们堵塞信息渠道,抬高广告收益,用重复无意义的内容占据搜索结果。其错误源于敷衍,而非欺骗或技术局限。
技术滥用与贪婪心态成推手
“AI垃圾”之所以泛滥,一方面因为AI技术日益强大且成本低廉。AI公司开发这些模型,本意是降低创作门槛,让有好点子却缺乏技能或资源的人也能制作出更优质的内容。然而,有些人却滥用AI工具海量生成文本、图片与视频,只为博取点击和广告收入。
随着ChatGPT、Gemini、Claude等工具,尤其是Sora、Veo这类新型生成器的出现,几秒内生成可读文本、图像与视频已成为可能。于是,内容农场应运而生。一些人发现,用AI填充网站、社交动态和YouTube频道,远比人工创作更快。
AI不在意真相、品位或原创性,它只关注概率。这使得“AI垃圾”易于制作,迅速传播。例如,某个YouTube频道仅凭4个视频,就积累了420万订阅和数亿播放量。
平台也在无形中助推此风。算法往往更看重内容的点击与互动数据,而非质量。发布越频繁,获得关注就越多,哪怕内容纯属胡扯。AI让这类操作变得易如反掌。
另一方面,利益亦是幕后推手。有些创作者大量发布虚假名人消息或夹带广告的标题党视频;也有人滥用AI内容误导用户,将其引向劣质网站。
乍看之下,“AI垃圾”似乎无伤大雅——无非是动态里几条劣质帖子,或许还能博人一笑。然而当数量爆发,一切便会不同。随着垃圾信息充斥网络,可信来源在搜索结果中排名下降,真实与虚构的界限也变得模糊。
这种信任危机带来切实后果:当无人能辨真假,错误信息便传得更快。
应珍视人类的真诚创作
目前尚未有完美解决方案,但一些企业已开始尝试。
例如,Spotify等平台开始为AI生成内容添加标签,并调整算法以降低劣质内容的推荐权重。谷歌、抖音与OpenAI等公司也承诺推出水印系统,帮助用户区分人工内容与合成内容。不过,若有人对内容进行截图、转码或改写,这些方法仍可能失效。
部分应对措施基于一项名为C2PA(内容来源与真实性联盟)的行业标准。该标准由Adobe、亚马逊、微软、Meta等企业共同支持,通过将元数据嵌入数字文件,记录其创建与编辑过程。若顺利推行,C2PA可帮助追溯图片、视频或文章的来源,无论其来自可信人类创作者,还是AI生成器。然而难点在于普及:元数据可能被剥离或忽略,且多数平台尚未形成一致的执行规范。
当然,最有效的防护,其实在于人类自身。“AI垃圾”依赖自动化生产和人们无意识地刷屏与转发——大多数人都曾有过这类体验。因此,放慢节奏、核实来源、支持那些仍坚持用心创作的作者,虽不能立竿见影,却是重要的开始。
垃圾泛滥在互联网世界并非新事。人们曾对抗垃圾邮件、点击诱饵、虚假信息……“AI垃圾”只是同一故事的新篇章:更快、更流畅,也更难察觉。网络能否保持其应有的品质,取决于人们是否依然珍视人类的真诚创作,而非机器的机械输出。
(文章来源:科技日报)