发布时间:2023-05-09
4月20日,由中国人民大学高瓴人工智能学院和中国人民大学国家版权贸易基地共同举办的“AIGC内容生态与版权保护论坛”在京举行。抖音集团法务部商业化法务总监朱小荔发表题为“浅谈AIGC对平台内容和生态治理带来的机遇和挑战”的主旨演讲。以下内容为朱小荔发言实录。
AIGC产业全球竞争激烈
以及各国监管现状
AIGC产业全球竞争激烈,积极的产业政策以及合理包容的法律和监管环境在国际竞争中尤为重要。
最近,科技界、产业界最具热度的话题无疑是美国OPEN AI公司开发的ChatGPT面世,ChatGPT发布两个月即获得了1亿注册用户。事实表明,人工智能技术发展至今,我们已迈入全新的AI时代。
AIGC是数字化环境下一种新型的内容生产工具和生成方式,各国企业正在积极拥抱新技术带来的机遇和变革。除了企业、科研机构等参与主体加大技术投入之外,AIGC产业的发展更离不开积极的产业政策、合理包容的法律和监管环境,为产业发展保驾护航。
为了回应AIGC产业的发展需求,各国各地区从本国的产业利益和价值判断出发,制定和执行AI产业政策和法律监管制度。
一、海外AIGC产业监管动向
2017年起,全球已有69个国家签署人工智能相关法规。各国政府基于不同的监管目的,在监管方式的选择和侧重点上有所不同,但普遍认为应根据AI应用带来的风险和后果进行差异化分级监管。目前,各国政府有两类主要监管态度:以美国为代表的弱监管和以欧盟为代表的强监管。
美国:强调促进AI的创新和发展,以维持和增强其在AI方面的科学、技术和经济的领导地位,对立法监管采取非常谨慎的态度,更倾向于通过自愿适用的指引、框架或标准等非监管方法对AI应用采取软治理。
英国:英国政府也采取了一种相对谨慎的立场,通过颁布《人工智能发展白皮书》阐述人工智能发展核心原则,以发布呼吁和建议的方式来规范相关企业的行为,表达了政府鼓励可信任人工智能发展的态度。
欧盟:欧盟的《人工智能法案》即将出台,ChatGPT发布后,针对法案中“高风险AI系统”的定义、归类标准和保护措施的相关争论更加激烈。欧盟立法者非常关注如何应对大语言模型等新型AI带来的未知挑战,这在一定程度上延缓了立法进度。近期,意大利成为了欧盟首个暂时禁止ChatGPT使用本国公民数据的国家,并宣布将对ChatGPT展开进一步调查;未来,欧盟委员会将与欧盟理事会和欧洲议会密切合作,进一步明确《人工智能法案》中针对通用AI系统的规则。
二、中国AIGC产业监管现状
国内业界十分关注AIGC可能引发的法律风险,部分学者认为中国目前已有的科技伦理、算法、深度合成法规体系,一定程度上覆盖了现有技术的监管需要,但究竟如何在具体场景中适用,以及相关公司和消费者如何应对风险,各方仍有不同看法。
4月11日国家网信办发布《生成式人工智能服务管理办法》(征求意见稿),充分反映出监管层对AIGC技术的高度关注以及国家在立法、监管层面的快速回应,努力为中国AIGC的产业发展设置一套切实可行的运行和发展规则。
02
平台在AIGC领域面临的机遇与挑战
一、技术的发展和应用是把双刃剑
AIGC给平台内容生态带来了双向影响。
(一)AIGC技术的A面:AIGC的广泛应用引发了一场内容生产革命,让数字内容生产朝着创意更多、效率更高、成本更低的方向发展。
互联网时代初期,内容创作方式主要为PGC,由专业内容生产团队(如新闻媒体、出版社等机构)来生产内容;进入移动互联网时代,随着社交媒体产品和平台的兴起,UGC成为了主流的内容生产方式,即用户自行创作内容并上传平台进行分享(如社交媒体上发布图文、短视频等)。
随着技术发展,AIGC正在成为继PGC和UGC之后,一种更为高效、便捷的新型内容创作方式,AIGC的技术应用必将成为内容生产的强大引擎。当下,AIGC的内容生成技术已全面覆盖了文本、图像、音视频、代码、游戏、3D以及多模态内容生成,并被融合到toC和toB等商业场景下使用。新技术赋能使传媒和文化创意产业的内容生产效率提升、生产成本下降、更多创意涌现,据红杉资本分析,AIGC有潜力产生数万亿美元的经济价值。
(二)AIGC技术的B面:技术带来的消极影响不容忽视。
一是AIGC产生错误信息的技术风险。各种AI模型通过各种数据集的投喂获取知识图谱和源数据,其生成内容的质量依赖于训练数据本身的质量和准确性。让通用模型对专业领域具体问题输出准确无误的答案极具挑战性,AI模型常常在出错后仍向用户回复错误信息,如果非专业人士无法分辨答案的准确性,将会被严重误导。
二是技术滥用和违法使用的风险及挑战。前不久海外社交平台发布了特朗普“被警察围捕”的AI生成图片,照片极具真实性,随后引发网友恶搞浪潮。又如违法分子使用“AI”换脸技术,利用他人的面部信息从事虚假宣传、商业诈骗等违法犯罪活动,会造成他人的人身、财产损失。此外,社会中因此充斥着大量真假难辨的新闻信息,严重扰乱社会秩序,引发社会信任危机。
因此,AIGC在各种应用场景下的生成内容中,可能会出现大量错误信息、虚假信息以及因算法歧视和不透明所带来的信息客观真实性与内容安全性等问题。承载着海量信息的通用信息平台在内容分发和传播方面面临着巨大的挑战及压力。新技术应用下如何保障平台内容的真实性与安全性,已成为通用信息平台高度关注的生态治理问题。
二、平台当前在大模型开发和AIGC内容应用场景下涉及两个具体法律问题
(一)数据训练与“合法使用”问题
AIGC通用大模型的开发和训练,离不开算法、算力和数据三大要素,其中国家对数据使用合法性问题的制度设计和安排,将直接影响到AI模型产业的发展速度。
AI模型开发主体可以何种方式、需承担何种程度上的法律义务来获取海量和优质的训练数据,是当前产业发展要解决的核心需求,也是目前所有开发AI大模型的企业和机构共同面临的法律难题。如在全球最大商业图库网站之一Getty Images诉Stability AI案中,Getty Images认为模型开发者非法复制和处理未获得许可的版权图像,损害了内容创作者的权益。
国家网信办《生成式人工智能服务管理办法》(征求意见稿)第7、17条规定中,强调了人工智能服务提供者应对训练数据的合法性负责(包括预训练数据、优化训练数据),并且要求训练数据中不含有侵犯知识产权的内容,如果数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定。但在产业实践中,模型的训练来源广泛复杂,可能包含他人的作品内容以及他人的公开信息,如果使用公开发表的作品数据均需获取每个作者的授权,使用他人的公开信息也需征得每个个人的同意,将为模型研发者获得合法的训练数据增加巨大的成本,需要配套建立高效的数据集许可使用制度,否则可能限制模型的快速开发。
对GPT模型的迭代训练,美国国内也有声音认为数据训练不能构成美国版权法下的“合理使用”。从GPT1到GPT4,OPEN AI除了使用各类公开数据集外,也使用了经典的大型书籍文本数据进行模型预训练。正是这样相对宽松的产业发展环境,成就了这款颠覆全世界认知的现象级产品。
如果对数据训练采取一种极为严格且脱离产业实际发展需求的合法性标准,则可能让企业丧失在大模型赛道上获得竞争优势的宝贵时机。因此部分国家和地区已经将数据挖掘作为合理使用的情形进行立法,如日本采取了“计算机分析例外”的立法设计,未限制主体及使用目的,为大模型训练提供更加灵活、开放的法律基础保障;英国则规定允许科研人员为了非商业性目的复制作品并对其进行计算机信息分析,版权人通过合同限制该复制和分析的条款无效。
产业发展需要适度宽松的政策和法律支持。技术领先靠制度领先来保障,制度领先又可以更好地推动技术领先。美国千禧法案是一个很好的先例,在美国互联网产业方兴未艾之时,通过制度创新,以避风港原则构建了权利人、平台方和用户三者之间有效的法律责任分配制度和利益平衡机制,为产业发展提供有效的法律保障,从而促成了美国互联网产业的全球领先地位。
当前,在大模型的全球产业赛道上,适度、宽松的制度政策是当前产业发展的重要影响因素。一些学者提出,希望在产业发展的关键时期,立法者和政策制定者在制度设计上,能充分融合各国的实践和经验,同时让著作权法下的 “集体管理组织”制度、法定许可制度、合理使用制度等与时俱进,提供便利的许可制度和利益平衡机制,帮助AI技术发展中的利益相关方解决好数据合理使用和各方利益平衡问题。
(二)AIGC生成内容识别与平台责任界定问题
随着AIGC的广泛应用,如何清晰合理地界定平台方的法律责任,也是平台高度关注的问题。
场景一:用户上传自行生成的AIGC内容在平台上进行传播
第一类场景下,平台面临的压力和挑战是如何在海量信息和内容中去帮助内容接收者识别AIGC的内容,以及如何通过设置平台规则去引导用户规范生成和使用AIGC的内容,这需通过预防风险,降低虚假信息、错误信息对用户、消费者带来的干扰和侵害。
这类场景下,平台的合理注意义务和法律责任仍应当适用避风港原则。由于存在海量的信息和内容,不应提高平台的合理注意义务,但需提供高效便捷的内容投诉通道,积极履行通知删除义务。同时,为了规范和引导内容生态下AIGC内容的安全性、准确性和真实性,平台愿意也应当付出更多努力,通过发起倡议、制定社区规范等治理举措,与各方共同构建安全可信的内容生态环境。
场景二:平台提供自研或接入第三方AI产品和服务提供给用户和客户进行使用
第二类场景下,平台为了更好的服务用户和生态伙伴,将AIGC的产品和服务引入到平台生态中,服务于内容生产和创意制作,让生态更加繁荣。在这种场景下,如何界定平台的法律角色及法律责任问题,对平台在应用层面的生态发展至关重要。
网信办征求意见稿第5条定义了“生成式人工智能服务提供者”的范围,将利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人定义为提供者,同时也包括了通过提供可编程接口等方式支持他人自行生成文本、图像、声音等服务的主体。办法中对履行义务的主体并没有根据行业相关方的角色进行划分,“提供者”的概念似乎涵盖了人工智能产品的开发者、利用其他开发者的模型提供服务的提供者以及技术的支持方等所有相关方,这也就意味着公司无论是自研开发模型提供服务,还是调用外部模型对C端用户提供服务,亦或是对toB客户提供API或SDK服务,将承担同等责任。
根据第5条,以上提供者都需承担内容生产者(对输出的内容负责)、个人信息处理者(对收集的个人信息负责)的法律责任。结合前述第7条,即意味着提供者需要对训练数据来源的合法性负责,如果平台调用外部模型,还要对该模型训练数据的合法性负责。
目前,学界和产业界大多认为,征求意见稿的这部分规定可以根据技术服务提供方在现实中的不同角色,进一步区分优化,以避免对AIGC应用层面的灵活发展造成束缚。学者建议在相关规则的制定上,能采取适度宽松的规制方式,以分类规范形式,根据产业链中不同环节不同参与者所扮演的角色进行精细化的区分和责任分配。在目前产业发展中一些问题和风险尚不明朗的现状下,建议监管层把更多责任机制的设置权下放到市场主体自身,并通过行业协会等组织尝试总结经验、进一步凝聚共识,促进形成更科学、合理的责任分担机制。
03
展望与建议
《生成式人工智能服务管理办法》(征求意见稿)表明了国家层面支持创新、鼓励使用的立场,第3条明确规定了“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源”。
目前,AI产业正处于发展关键期,我们呼吁并希望为产业发展打造一个更加开放和宽松的法治环境。我们也希望通过产业界、学界及政府各界的共同努力,让AIGC产业实现蓬勃发展,为进入AI时代的互联网经济发展创造出更多可能性。
01