
9 月 1 日起,《人工智能生成合成内容标识办法》正式施行,所有 AI 生成的文字、图片、视频等内容都要“亮明身份”。
今年 3 月 14 日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合制定并印发了《人工智能生成合成内容标识办法》。国家互联网信息办公室有关负责人表示,《人工智能生成合成内容标识办法》旨在促进人工智能健康发展,规范人工智能生成合成内容标识,保护公民、法人和其他组织合法权益,维护社会公共利益。
根据相关条例,人工智能生成合成内容的标识主要分为显式标识和隐式标识两类。显式标识是指在生成合成内容或其交互界面上以文字、声音、图形等形式明显呈现,使用户能够直观感知的标识;而隐式标识则是通过技术手段在内容文件数据中嵌入,不易被用户直接察觉的标识。
为了细化标识要求,《人工智能生成合成内容标识办法》还明确指出,服务提供者在提供生成合成服务时,若属于《互联网信息服务深度合成管理规定》规定的特定情形,需按要求添加显式标识。同时,服务提供者还需在内容文件元数据中添加隐式标识,包含内容属性、服务提供者信息及内容编号等关键信息。鼓励服务提供者采用数字水印等形式增强隐式标识的效果。
对于网络信息内容传播服务提供者而言,《人工智能生成合成内容标识办法》要求其采取一系列措施规范生成合成内容的传播。这包括但不限于核验文件元数据中的隐式标识,并根据情况在发布内容周边添加提示标识,以明确告知公众该内容是否为生成合成内容。同时,服务提供者还需提供必要的标识功能,并提醒用户主动声明发布内容中是否包含生成合成内容。
值得注意的是,《人工智能生成合成内容标识办法》严禁任何组织和个人恶意删除、篡改、伪造或隐匿生成合成内容标识,也不得为他人实施此类行为提供工具或服务,更不得通过不正当手段损害他人合法权益。服务提供者在履行算法备案、安全评估等手续时,需按法规要求提供生成合成内容标识相关材料,并加强信息共享,以支持防范和打击相关违法犯罪活动。
为了确保法规的有效实施,《人工智能生成合成内容标识办法》还规定了相应的法律责任。对于违反规定的行为,将由网信、电信、公安和广播电视等主管部门依据职责,按照相关法律法规进行处理。
参考链接:
评论