AI新闻侵权的表现、界定和规制

来源: 中国记者 发布时间: 2024-03-14

  近年来,随着人工智能技术的飞速发展,AI新闻全面重塑了新闻传播领域的生产流程、传播模式和呈现手段。AI新闻是借助人工智能(Artificial Intelligence,AI)技术来生成、编辑、分发或改进新闻内容的一种新闻生产方式,包括自动生成新闻内容、自动编辑和润色、个性化推送、数据分析和可视化、自动化采集信息,以及语音助手和虚拟新闻主播等。近年来,具备强大语言模型的生成式AI给新闻业带来巨大的机遇与挑战,尽管AI新闻已在各大媒体机构被广泛使用且发挥了积极作用,但与其如影随形的虚假新闻传播问题、侵权问题,以及信息过滤和监管问题仍然不可忽视。因此,伦理和质量控制仍然是AI新闻发展中需要解决的重要问题。基于既有研究和相关案例,本文对AI新闻现实应用中的侵权行为的表现和界定困境进行辨析,并针对AI新闻对隐私权、肖像权、名誉权及著作权带来的挑战展开讨论。

  一

  AI新闻的应用及侵权行为的表现

  人工智能新闻已经给新闻业带来革命性的变革,涵盖了制作、存储、呈现、传播和连接等方面,根据路透新闻研究院的报告《新闻、媒体和技术趋势及预测》,2023年是人工智能在新闻领域应用取得突破的一年。对AIGC技术的前瞻性研究备受新闻业瞩目,国内外各大媒体积极投身数字化转型,随之涌现的AI新闻侵权现象也引发广泛的关切和担忧。

  (一)AI新闻在国内的应用现状:踊跃转型但尚存伦理挑战

  2015年,新华社发布国内首个AI新闻写作系统“小新”,开启了中国新闻业的AI时代。自此,国内新闻机构都开始积极探索如何使用AIGC技术来提高新闻生产的效率以更好地满足数字时代的读者需求。上海人工智能实验室、中央广播电视总台联合发布“央视听媒体大模型”,百度“文心一言”已经与澎湃新闻、封面新闻、每日经济新闻、上游新闻等多家媒体合作;基于拓天媒体专业大模型研发的内容生产智能助手、新一代搜索与推荐等插件也已经在头部新闻单位中得到试用,由此可见,AI新闻已大范围铺开。

  但AI技术同样可以用于生成虚假新闻和深度伪造,又因公众难以辨别信息真伪,AI新闻正深陷虚假新闻和新闻侵权等伦理困境。2023年2月16日,浙江杭州某小区业主尝试使用ChatGPT,撰写了一篇《杭州3月1日取消限行》的不实新闻稿,这则消息被迅速疯转并登上微博热搜,造成恶劣影响,有关AI新闻带来的负面影响引发大众热议。为此,亟须明确AI新闻可能侵害隐私权、名誉权、肖像权和著作权等法律界限。此外,还需要思考如何采取应对措施,以降低虚假信息和潜在侵权行为对社会造成的负面影响。

  (二)AI新闻侵权的具体表现

  1.用户信息透明化:隐私权受威胁

  在智能系统面前,用户的个人痕迹无所遁形,享受智能服务的前提是个人信息的让渡。2023年6月29日,美国有16名人士向法院状告ChatGPT,因其在没有充分通知用户或获得同意的情况下收集和泄露了他们的个人信息,包括详细的账户信息、登录凭据、电子邮件、支付信息、浏览器数据、社交媒体信息、聊天日志和其他在线活动。在数据采集环节中,现行的AI新闻应用程序可通过海量学习从互联网上采集数据,它们根据程序与算法对用户个人信息进行未经授权的访问、收集、存储和使用。在新闻分发环节,这些数据被再次用于精准画像,由此将新闻精确推送至流量池。而当技术出现漏洞或者遭受恶意攻击时,这些被AI应用抓取的用户数据将面临泄露的风险。

  2.AI画皮:肖像权与名誉权被侵害

  肖像权涵盖了个体对其自身肖像和形象的控制权,但在未经许可的情况下收集用户肖像,通过扫描提取人脸,对面部特征进行编码、重塑,最后实现对他人肖像的模拟,制造假新闻。对于AI换脸技术的泛滥,首当其冲的即是知名艺人和政治家。著名影星斯嘉丽·约翰逊和盖尔·加朵等人的面部信息都曾被恶意用于不雅视频,并在网络平台广泛传播,美国前总统特朗普也曾多次被网友通过AI换脸恶搞。2019年6月,一则以Facebook创始人兼首席执行官马克·扎克伯格为主角的换脸视频出现,这条视频打上了CBSN电视台的角标,伪装成电视节目,事实上从未有过这个节目。因此,若缺少专业、完善的人为把关机制或严密的甄别技术,公众将深陷AI换脸所营造的人脸陷阱,甚至受到别有用心者的舆论误导。

  3.算法黑箱:著作权遭到挑战

  著作权是作者对其原创文学、艺术和学术作品的独有权利,包括复制、分发、公开展示和修改等权利。在训练大模型系统时,写作机器人会对海量信息源进行充分的学习和分析,在应用阶段只需要给出指令即可完成一篇新闻报道,但这些AI新闻很大程度上包含并展现出作为其他版权作品的元素及特征,甚至能模仿特定作者的写作风格。这些未经允许或未按照版权法规定所生成的内容侵犯了他人的著作权,包括照搬、杂糅、再加工其他信息源的文字、图片、音频或视频素材。2023年2月15日,《华尔街日报》记者弗朗西斯科·马可尼(Francesco Marconi)公开指责Open AI公司未经授权大量使用路透社、纽约时报、卫报、BBC等国外主流媒体的文章训练ChatGPT模型,且从未支付任何费用。[1]2022年1月至9月期间,上海某公司开发了一款实时抓取网络媒体的各类新闻信息的软件,智能降重后直接发布至自身运营的新闻栏目,严重侵害其他权利主体的著作权,并被法院认定构成不正当竞争。如果不对AIGC做出具体的版权使用规制,由AI生产的属于侵权性质的新闻将会被广泛传播,这不仅侵犯信息源的著作权,也将会使人类创作者的生产积极性大打折扣。

  二

  AI新闻侵权行为的界定

  因AI技术进行新闻创作导致的侵权行为频繁出现,如何界定AI新闻侵权行为却依旧模糊,主要是存在难以发现经过AI技术隐蔽处理后的数据隐患以及相关法律不明的困境。AI新闻合法需要整体效果和局部流程都不构成侵权行为,尽管AI技术对海量数据的学习是必然的,但对于用户个人数据的抓取、分析和使用的范畴需要有明确规制,在界定AI新闻侵犯著作权问题时需要考虑对其他作品的引用程度、转换性使用情况及对原作品的社会效益和经济效益带来的影响。

  (一)界定AI新闻侵权行为的困境

  1.难察觉:深伪技术处理数据

  AI技术通过数字化整合后生成的新闻作品,不仅难以被公众发觉,也能躲过现有侦查技术的识别。以ChatGPT为例,该技术作为一种“智能洗稿器”,在抓取用户数据的同时从海量受著作权法保护的作品中学习并掌握自然语言规律。这种模型输出的新闻稿件迷惑性极强,不仅在逻辑上无懈可击,行文也与专业新闻记者无二。2023年4月25日,平凉市公安局网安大队侦破一起利用AI人工智能技术炮制虚假不实信息的案件。犯罪嫌疑人使用ChatGPT将搜集到的社会热点新闻要素进行修改规避“百家号”查重功能,最后生成一则假新闻,造谣“甘肃一火车撞上修路工人致9人死亡”。[2]网民因无法准确辨别经由AI写作报道的事件的真伪,极易信以为真。即便不编造虚假新闻,AI新闻的生成内容也是基于对数据库内容进行重新组合,即使新闻文本与其他文章相似,ChatGPT也并未全盘复制现有内容,而是使用和原内容不同的文字组合表述相同的观点,所以此类AI新闻无法被现有侵权技术甄别到。

  2.难判定:法律边界模糊

  侵权主体常以“合理使用”这一条款作为侵权抗辩的理由。“合理使用”表示在特定条件下不需要得到著作权人的许可,也不需要支付报酬就可以使用作品。[3]日本和欧盟在著作权立法阶段,扩大“合理使用”的具体范围,把人工智能训练阶段的“文本数据挖掘”当作全新的合适使用情形纳入进去。[4]然而人工智能对于得到著作权法保护的作品进行复制是否可以适用合理使用原则目前并未出现定论。美国法院通过 Perfect 10 v. Amazon 案和 Authors Guild v. Google 案指出人工智能技术的单纯复制行为要应用“合理使用原则”必须达到下述标准:第一,机器对作品内容的复制不会激励他人创作全新的作品。第二,机器对作品的应用不会影响被复制著作权作品的潜在市场价值。此外,著作权法不保护创作者的观点或思想,仅保护观点或思想的表达形式,若AI新闻利用自然语言模式仿照某作者或某文章的思想主旨进行创作,同样无法被界定为侵权。

  (二)AI新闻侵权行为的界定尺度

  1.数据合法:隐私权红线

  隐私权的界定相对复杂,涉及法律、伦理和技术等多个层面。在数字时代,个人在互联网上的行为数据成了重要资源,浏览历史、搜索记录等信息的收集必须在合法的基础上进行,并遵循隐私权法规。涉及商业和国家信息更要遵守数据保护法和隐私权法规,采取适当的安全措施,因为AI技术对数据的攫取并不仅限于公开可用的数据,若在这一阶段爬取、泄露或滥用了未公开和授权的数据,则属于侵权行为。欧盟的《通用数据保护条例》对隐私权的保护提出严格的规定,在界定隐私权范围时,需要平衡技术创新、商业需求和个人权利,以确保合理的隐私权保护。

  2023年4月11日,国家互联网信息办公室起草《生成式人工智能服务管理办法(征求意见稿)》(下称《管理办法》),提出在数据合规方面,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。[5]《中华人民共和国民法典》(以下简称:民法典)第1033条明确了部分隐私数据利用的责任规则,如基于国家安全、重大公共利益等的需要,对个人(隐私)信息的收集、使用无需信息主体的授权同意。其他情况下,任何组织或者个人不得侵害他人的隐私权。[6]虽然AI技术对公民用户数据的学习是必然的,但不能没有屏障、没有边界地攫取所有数据,在此过程中必须遵守法律和伦理规定。

  2.公众知情:肖像权、名誉权高压线

  AI新闻侵犯公民肖像权的同时往往伴随着对名誉权的侵害。肖像的核心在于可识别性,且有充分指向性,当公众能将AI合成后的人脸与特定主体建立起对应关系时,该形象受到肖像权制度保护,可判定AI构成肖像权侵权行为。若AI模拟肖像权利人的面容作出不当行为、发表不当言论甚至进行违法诈骗,给权利主体的社会评价带来严重负面影响,则构成名誉权侵权。

  民法典第1019条规定“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权”,2023年1月10日正式施行的《互联网信息服务深度合成管理规定》中明确规定:深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示被编辑的个人,并取得其单独同意;对可能导致公众混淆或者误认的,应当显著标识,向公众提示深度合成情况。[7]因此,AI新闻合规使用合成人像需要取得肖像主体同意,不能恶意损害主体形象并且在新闻中做出醒目提示。

  3.表达独立:著作权底线

  美国知识产权法专家保罗·戈斯汀表示:“著作权从一开始就是技术之子。”在形式上,AI新闻与人类作品具有接近性,在没有明确标明内容来源的情况下,其生成内容与人类作品在表象层面已经较难区分出来。[8]在现实应用中,传统的著作权保护法的“秩序说”与“私权说”无力应对AIGC强大的技术特性的挑战,所以部分新闻作品侵权问题只遭到舆论批判,未能受到司法上的侵权处罚,因此对数字经济时代版权保护的挑战要作出积极回应。

  在界定AI技术创作新闻内容是否存在侵权问题时,一方面可以采取思想与表达二分法,先判定AI新闻是否具备独创性,是否能被视作符合著作权法的新闻作品,进而对其中的文字、图像、音乐等具体表达方式进行分析,判断其是否构成侵权。但我国对该原则没有在著作权法中给出适用标准,因此还要与独创性原则、实质性相似原则结合起来考量。另一方面,可以使用抽象概括法将公共性知识排除在著作权法保护范围之外,从中剔除缺乏独创性的元素,将仅剩下的内容视为应受著作权法保护的部分,若AI新闻使用了“过滤”后的内容则构成著作权侵权行为。

  三

  AI新闻侵权行为的规制

  如果不对基于AI技术生成的新闻内容进行规制,将无法保障所产生的内容符合新闻伦理和质量标准。因此,对智能内容生成在新闻传播中的侵权行为进行科学研究、作出明确规范并加强价值引领,能有效助力安全、健康的新闻传播生态的建立。

  (一)法律层面:完善法律法规,明确主体权责

  现行知识产权领域的相关法律法规的制定和执行远滞后于AI新闻的实际应用,且AIGC跨越国界,需要国际合作来制定全面的法律框架。不同国家的法律制度和法规之间的差异增加了法律漏洞的可能性。最新修订的著作权法和《管理办法》都为确保生成式人工智能的应用不会非理性地侵犯他人的合法权益作出了大致规范,但未对应用范围和强度提供充分明确的规定,因此依然存在法律漏洞,无法对AIGC的侵权行为作出明确裁定或判罚。故而要想充分发挥AI技术的价值,将其和新闻工作深度、合法地结合起来,必须健全和完善法律政策和法规,充分保障和维护新闻出版行业的伦理观念。

  在新闻内容创作过程中,需要界定可以使用人工智能技术的环节。对于违规使用人工智能技术进行新闻内容创作的问题,必须制定对应的惩罚方案,增强法律条文的可行性,为新闻媒体行业的健康发展奠定基础。例如,加强数据共享与使用的合法性。在共享或者使用数据的前提下,明确数据产权、数据授权、数据使用范畴等各种权利义务。国家立法部门既可以在已有法律规范的基础上进一步完善关于人工智能技术应用的内容,如在著作权法中加入AIGC内容版权规定和责任主体,为人工智能时代的新闻内容生产保驾护航,也可以通过立新法进一步满足人工智能时代新闻内容生产的多样化规制需求。

  (二)技术层面:强化数据辨析技术,实现风险把控

  作为人工智能技术的研发者,技术供应商必须自觉承担责任。在新闻内容创作领域,技术供应商必须通过优化技术,制定解决方案的方式,即为新闻媒体提供人工智能技术的时候,设计科学的、可行的虚假内容识别技术,帮助提高新闻内容的真实性,尽量避免出现误导性、虚假性新闻内容。

  此外,还可以建立技术安全策略,用技术规制技术,把人工智能技术使用到虚假新闻内容的识别中。如开发自动化识别算法,通过比对已知的版权作品来标识潜在侵权行为;利用区块链来记录和验证内容的创作者信息和版权信息,从而确保内容的真实性和版权归属;在生成的内容中嵌入数字水印,以标识和跟踪其来源。人工智能技术拥有记忆功能,可应用加密技术和数据掩蔽技术,加强数据的安全防护,采用访问操纵或过滤技术等拦截涉嫌构成侵权行为的AI新闻。

  (三)行业层面:筑牢人本意识,自治自查

  人机协同的最终目的不是彻底依赖机器对数据的再创作,而是筑牢新闻作品的质量链,提供更全面的视角,展现更深层次的思考,将人的情感融入新闻报道,确保社会舆情的正面导向。新闻媒体肩负着舆论监督的职责,新闻工作始终要在一线展开,这需要新闻工作者坚持深入一线、笔耕不辍,全面提升新闻报道的核心竞争力。

  再者,新闻媒体必须共同建设行业监督机制,积极承担新闻生产的管理责任,这不仅需要从业人员在对AI技术的使用中自律自省,遵守职业道德,更需要新闻媒体设立针对使用人工智能技术编辑创作的行为修订检测规则,制定统一且标准的管理体系,同时建立“人机责任捆绑机制”,严格把关,明确AI新闻可能出现的侵权情况,将各AI新闻与记者、编辑对应起来,对于存在侵权性质的AI新闻,要做到分环节问责,以实现责任到人。

  总之,“人机共创”是未来新闻业的发展趋势,随着AI技术应用日益成熟,新闻内容创作领域出现翻天覆地的变化,由此产生的侵权和虚假内容随之增多。积极应对AI新闻给新闻业带来的挑战需要始终坚守新闻报道原则,通过“人”的理性思考和批判能力,实现对“技术”的规制。在人工智能和新闻传播“深”度结合的环境中,必须从法律、技术与新闻行业入手,积极发挥智能技术的使用优势,在创作高质量新闻内容的同时,科学规避侵权问题,号召业内自律,遵守新闻基本原则,共创和谐的新闻创作生态环境。

  (作者胡荣锦、陈功分别系湖南科技大学人文学院2023级硕士研究生,湖南科技大学人文学院副教授、新闻与传播硕士点负责人)

  注释:

  [1]雷晓燕,邵宾.大模型下人工智能生成内容嵌入数字素养教育研究[J].现代情报,2023,43(06):99-107.

  [2]刘霜,张潇月.生成式人工智能数据风险的法律保护与规制研究——以ChatGPT潜在数据风险为例[J].贵州大学学报(社会科学版),2023,41(05):87-97.

  [3]杨斌,刘智鹏.论作品利用困境下的创作共享制度[J].法制与社会,2011(13):47-48+56.

  [4]朱鸿军,李辛扬.ChatGPT生成内容的非版权性及著作权侵权风险[J].新闻记者,2023(06):28-38.

  [5]孟庆振,王少峰,温玄林等.ChatGPT在犯罪中的潜在应用分析及执法应对策略初探[J].刑事技术,2023,48(04):331-339

  [6]肖之云.公民个人信息法律保护探究[J].法制与社会,2020(21):18-19.

  [7]宋钦章,张宏. 揭秘AI变脸生意链:1.5万元包学会[N]. 每日经济新闻,2023-06-20(005).

  [8]朱鸿军,李辛扬.ChatGPT生成内容的非版权性及著作权侵权风险[J].新闻记者,2023(06):28-38.