一篇7000字的结课报告,一个大三学生在AI的辅助下,仅用一周便完成了,比以往至少省去了一半的时间。
随着ChatGPT向公众开放,拥抱AI成为趋势,也带来了用与不用、用在哪里以及用多用少等争议。
在AI的辅助下,不少研究人员、高校学生开始习惯用各类大模型来协助他们完成论文润色、编写分析数据代码和制图。
但也正是因为AI渗透度提高,老师们担心学生的原创能力被削弱。同样在其他行业,AI辅助也面临着生产效率和相似度“双升”的矛盾。
边界问题不得不谈。
以复旦大学为代表,国内多所高校开始探索AI技术的应用规范。比如,对AI在本科毕业论文的使用,明确提出“六个禁止”。
至少,有了规范就能让学生心中有数,用好用对AI。在具体实操中,知道哪些具体环节是不被允许的、哪些不当应用属于学术不端、哪些环节需要标注使用情况等。
2024年被称为人工智能应用元年。人与AI的关系,在社交、游戏、教育和内容创作等多个场景,因为使用变得越来越紧密。
回顾ChatGPT问世两年,关于AI的技术革新和使用伦理的思考也逐步深入,AI应用的商业化步入人们的视野,资本对新赛道的生产力增长虎视眈眈。
AI借由算法生成的文字、图片甚至影像,其质量之高,越来越接近或者满足了人的预期,大家不约而同地意识到,“一刀切”禁止并不现实。
和大学生一样,很多打工人将AI工具作为工作学习的小助手,使其代劳一些前期准备和重复性工作,其实很正常。
不过,如果把AI当成是“枪手”“工具人”,自己退居幕后让AI全权代劳,对结果不负责任,任由其复制粘贴、随意拼凑,就逾越了合理边界。
AI时代,不会使用AI,其获取信息的效率、掌握知识的能力、运用新工具的技能都会减弱,而过度依赖AI,不仅会导致原创能力下降,还会在未来的职业发展中面临挑战。
和教育一样,很多行业都将面对人与人工智能深度合作,进入人机协同创作时代。
一边是惊喜不断,节省时间、提高效率、革新传统生产模式,另一边是矛盾重重,就业焦虑、创造力缺失、过度自动化……
在惊喜和矛盾之间,对于人机协同分工、方法的探索、边界的厘清都迫在眉睫。
规范边界,不断地找到卡尺和准绳,才能在具体的持续实践中形成与AI的良性互动。
当下,如何突破AIGC内容中人工智能单一、机械的“类人”身份与边界范式,让人工智能以“非人类”的智能与人类产生深度协作,成为与AI共存、让AI科学地为我所用的重要课题。
北京商报评论员陶凤
(文章来源:北京商报)