最近,网上出现不少“AI流浪汉”的帖子。内容多以整蛊家人为主,作者用AI生成一个脏兮兮的流浪汉放在家里,并将图片或视频发给家人测试他们的反应。看似是“老公赶回家了”“父母更关注我了”,实则是被吓得不轻,更有部分人在慌忙中报警求助,换来的是警察叔叔的一顿批评教育。
在笔者看来,这样的帖子终究是摆拍博眼球的多,但若是谁真的盲目跟风,想要将其用在家人身上,显然不合适。更何况,AI不止能生成待在家里的流浪汉,用一张照片制造出假场景、假视频更是轻而易举,其危害不亚于“狼来了”。
AI的伦理边界问题,自诞生以来就被高度警惕。最近,许多人都有这样的感觉:以假乱真的视频越来越多了, 迷惑性更强了。这背后离不开技术的进步,以及技术使用门槛的降低。
日前,OpenAI推出新一代音视频生成模型Sora2,尽管仍存在部分瑕疵,但说其性能“碾压”市面一众视频软件毫不为过。更流畅的人物动作,更丰富的视频场景,更垂直的应用领域,同屏出现的更多画面元素以及最重要的一点---更低的生产成本与更短的创作时间,让非专业视频创作者快速成为制作老手,抹平了技术鸿沟,也凸显出伦理困境。国产AI大模型同样在飞速进步,AI生成文字点评社会事件、提供生活讯息,部分作者只关注数量、流量却不考虑质量,读者也只当看个乐呵,却留下诸多隐患。
正因如此,落实《人工智能生成合成内容标识办法》,强制要求AI生成的每一段文字、每一张图片、每一条音频、视频“亮身份”,显得尤为重要。这既要成为一种显性信息,让观众看得懂,也要成为一种隐性标签,在平台传播、推流、检索时自动分类,避免产生数据污染。当下部分AI生成内容仍能以假乱真,或是因为标签变成了“小透明”藏在图片和视频的边角处,或是被人为隐藏歪曲。对于前者,需要平台层面探索更鲜明的标注方式;而对于后者,则应对情节恶劣的追究法律责任,避免恶搞内容进一步扩散形成示范效应。
铺天盖地的AI内容伤害了人与人之间宝贵的信任,这或许不仅是AI出现了幻觉,人类自己也沉溺于技术营造的幻象之中。总而言之,当AI生成合成的低质量内容缺乏约束,如垃圾般随处乱丢,污染我们的精神家园,人类也会自食恶果。 (据《南方日报》)