9月14日,国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》。对人工智能生成合成内容添加显式标识和隐式标识拟定强制性国家标准,对人工智能生成合成内容服务提供者、网络信息内容传播平台、互联网应用程序分发平台等均提出具体的合规要求。
人工智能生成合成内容,即当下很常见的AI技术参与内容生产,再通俗点说,包括各种AI作文作曲、AI制图制片甚至AI合成声音图像在内的多形态深度合成。
AI技术不间断进化,在给人类社会诸多工作提供帮助的同时,“眼见不一定为实”的情况也成为反诈防骗的重点。国家网信办此番面向社会征求意见的《标识办法》,在《国家标准化法》层面看属于非常明确“必须执行”的国家强制规范,而非所谓国家鼓励采用的推荐性标准。在此之前,国家网信办、公安部等多部门已密集出台《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等多份部门规章,明确提及网络服务提供者对AI生成合成内容的标识义务。
作为国家强制性标准,此番新规提供了更加具体的指引。比如对AI生成文本的具体标识方式,新规就给出文首、文尾及角标的具体示范举例;对AI生成音频、视频、图片等内容具体的标识方式、位置,也给出了指引。这样的强制标识对包括普通用户、人工智能生成合成内容服务的提供者、网络信息内容传播平台、互联网应用程序分发平台等,均提出了各异的合规要求,意味着为进一步落实前述深度合成内容国家规范提供了可监管、可衡量、可追责的标准。
AI生成合成内容的强制标识,对于网络受众而言最直接的感受就在于,内容因此具备了可识别性,从而避免合成内容对社会公众的某些错误诱导。而比较AI生成合成内容的不同关联主体可以发现,国家规范对于网络信息内容传播平台的要求显然更高,因为对于普通用户而言,平台是其接触相关内容最直接的一道屏障,担负着最大的内容安全责任。征求意见稿明确要求,内容传播平台除了应核验用户上传的文件元数据中是否含有隐式标识、提醒用户主动声明外,还强制性要求对未标识、未声明的合成内容进行最后一道关口的显著性标识,由此可见传播平台的法律责任。这样的要求也为后续监管、追责提供路径线索,让个案调查和追责目标明确、不留死角。
AI合成的技术入口多元、主体庞杂,而网络出口的把关责任尤为关键。据南都大数据研究院的梳理,目前国内不少AI大模型已在其生成的图片、视频等内容中主动添加显式水印。抖音、小红书、微博等多个知名内容传播平台也已上线自主声明功能,提醒用户自主声明内容是否为AI生成合成,并对部分生成合成痕迹明显的内容主动添加提醒标记。
对于区域性、行业性的小规模传播平台,强调AI合成内容的标识责任杠杆炒股,则要注意避免“劣币驱逐良币”的情况,规范大平台,同时也不能忽视小平台。在具体的监管细节里,则尤其需要对显著标识的字体字号、标识内容的不可消除性给出明确监管指引,不能像备受诟病的药品说明书那样,必须拿着放大镜才能看清内容。要避免AI生成的内容产生误解,就得强制性要求标识信息清晰可见。
2024-12-24
2024-12-18
2024-12-14
2024-12-12
2024-12-08
2024-12-05
2024-12-03
2024-12-02
2024-11-29
2024-11-25
2024-11-24
2024-11-14
2024-11-09
2024-11-06
2024-11-03