发布时间:2024-01-03 作者: 王利明
我们已经进入了人工智能时代,人工智能是未来新一轮科技革命和产业变革的核心力量,生成式人工智能以亿万的庞大的数据为参数,具有更出色的生成能力,其用途广泛,并且具有惊人的应用价值。
作者王利明系中国人民大学原常务副校长,重阳金融研究院联席理事长,本文转自2024年1月2日新经济学家智库。
我们已经进入了人工智能时代,人工智能是未来新一轮科技革命和产业变革的核心力量,生成式人工智能以亿万的庞大的数据为参数,具有更出色的生成能力,其用途广泛,并且具有惊人的应用价值。 生成式人工智能的发展所产生的最大挑战就是引发侵权风险。 与传统的侵权行为不同的是,ChatGPT引发的侵权行为,主要是侵害人格权和著作权。 例如,在ChatGPT问世后,有人就利用它生成了受著作权保护的书籍的缩略版,用以帮助他人快速阅读书籍,由于此种行为会构成对原书的市场替代,很难构成合理使用,因此有可能会被认定为侵害著作权的行为。 同时,生成式AI也可能侵害商标权。 如果未经授权许可,在生成式图片中使用他人的商标,并将其作为某种广告宣传或者产品装潢,引发消费者的混淆,这就可能构成对商标权的侵害。
但与侵害知识产权相比较而言,生成式人工智能因可能产生虚假信息等原因,而对人格权侵害的风险更大。 具体而言,生成式AI不仅会引发针对各类人格权的侵权行为,还带来了新的人格权侵权形式,主要表现在以下四个方面。
第一,侵害隐私和个人信息。 生成式AI可能引发大规模隐私或者个人信息泄露问题。 大型生成式AI需要大量数据作为参数,而AI产品的提供者在训练AI产品时违规收集大量的个人信息,或者运用大量没有合法来源的信息训练AI产品,这就可能带来一些侵害隐私和个人信息的新形式。 有研究发现,由于大模型收集大量个人信息和隐私,且模型越大,所搜集的信息和隐私越多,因此,不法行为人有可能通过攻击大规模语言模型,提取出训练数据中的核心隐私和敏感个人信息,从而导致个人信息、隐私的大规模泄露,形成了“大规模微型侵害”的现象。
第二,侵害名誉权。 大型生成式AI模型主要依赖消化人类文本输入生成输出产品,如文本、图像、音频、视频等,一旦这些输出的信息是虚假的,就有可能导致对他人名誉权的侵害。 ChatGPT也会带来一些侵害名誉权的新形式。 OpenAI公司首席执行官山姆·阿尔特曼在接受采访中说,“我特别担心这些人工智能被用于大规模制造虚假信息”。 例如,生成式AI如ChatGPT的“臆造”现象,可能会导致ChatGPT在回答问题时,编造有关他人涉嫌性骚扰、某人与他人非法同居等消息,造成对他人名誉的损害。 还可能自动生成虚假图片、音频、视频,不仅可以“以假乱真”,还能够“无中生有”,导致对他人名誉、隐私等人格权益的侵害,生成式人工智能自动生成的包含虚假信息的图片、视频、声音,已经达到了以假乱真的地步,甚至生成式AI都难以辨别其生成的图片等是真实拍摄的还是自动生成的。 如果这些虚假信息在产生之后,不法行为人利用这些信息传播,受众就很容易受到虚假的影响,造成对他人名誉等人格权益的重大侵害。
第三,侵害肖像权。 因为生成式人工智能可以自动生成图片、视频,随着生成式人工智能的发展,其比深度伪造更加难以辨别。 所以,利用生成式人工智能自动生成的图像,比深度伪造造成的损害后果更加严重,其不仅会侵害个人的肖像权,甚至可能透过图片、视频扭曲个人的形象,特别是当生成的图片涉嫌性骚扰、猥亵、非法同居等虚假信息后,将会造成对他人的名誉权、隐私权等权益的严重侵害。
第四,侵害死者人格利益。 生成式AI的技术超越深度伪造,可以将死者的图像和声音汇集在一起,生成虚假的信息。 例如,在自然人去世后,他人可以利用ChatGPT生成具有死者风格的文字,用来生成一些歧视、偏见、仇恨言论或者其他有毒害的言论,事实上构成对死者人格尊严的侵害。 又如,侵权人还可以利用生成式AI来模仿死者的口吻与死者近亲属进行交流,实施侵权,这样的行为也可能导致对死者人格利益的侵害。
随着生成式人工智能运用的场景越来越宽泛,由此造成的侵权风险必须在法律上予以应对。 但面对像生成式AI这样的新技术带来的问题,民法上首先应当秉持鼓励创新、预防风险的价值取向。 一方面,不能因为可能引发侵权风险而对人工智能服务提供者课以过重的责任,从而妨碍人工智能技术的创新。 另一方面,也应当要求服务提供者尽可能采取必要措施(例如,将人工智能产生的信息明确标识),预防损害的发生和扩大。 在引发侵权之后,除了大规模泄露个人信息之外,仍然应当由服务提供者承担过错责任,以兼顾服务提供者、用户等各方的利益,公平确定责任的承担。
(欢迎关注人大重阳新浪微博:@人大重阳 ;微信公众号:rdcy2013)