自ChatGPT发布以来,生成式人工智能研究与应用热度居高不下。和以往的人工智能技术相比,生成式人工智能(AIGC)体现出强人机交互、强语料依赖等典型特征,在技术发展与风险控制两方面存在诸多挑战。
10月18日,为进一步促进AIGC服务健康发展和规范应用,推动高校院所与产业界协同创新,由北京市科学技术协会指导,北京软件和信息服务业协会主办,北京人工智能产业联盟人工智能安全专委会协办的“生成式人工智能应用与安全”专场活动在北京举办,来自信通院、中国政法大学、腾讯等各界专家学者受邀参会。在圆桌交流会上,腾讯安全内容安全总经理王翔围绕AIGC相关政策、技术趋势、安全风险与治理等问题作重点分享。
(腾讯安全内容安全总经理王翔在专场活动上发言)
王翔介绍到,随着《生成式人工智能服务管理暂行办法》正式施行,我国首次填补在生成式人工智能研发与服务方面的政策空白,这也是全球首部针对生成式人工智能进行监管的法律文件。“《办法》对生成式人工智能服务实行包容审慎和分类分级监管,规定推动公共数据分类分级有序开放,将促进行业的发展和应用更加健康规范,进一步激发市场活力和社会创造力。”
生成式人工智能的发展,标志着人工智能正在从专用智能发展到通用智能,进入了崭新的发展阶段。相关数据显示,我国人工智能产业蓬勃发展,核心产业规模达到5000亿元,创新成果不断涌现,AIGC行业将迎来更大的发展机遇。其中,AIGC厂商共有300多家,主要分为应用层、模型层、数据层、算力层。王翔提到,目前应用层厂商占极大比重,主要集中在营销、客服、办公、交互设计、数字人、写作助手等六大场景,因此能够快速贴合终端用户的公司仍有机会突破;而模型层、数据层、算力层的技术要求则相对较高,因此这些赛道的企业需重点围绕效果、成本、服务质量不断精进,以实现更大的突破。
生成式人工智能的快速发展也存在内容安全、数据安全、AI应用安全等诸多潜在风险。从风险来源来看,基本涵盖模型训练阶段、生成阶段到应用上线之后的全链路;从风险类型来看,数据质量和可信度问题、对抗样本攻击、信息安全问题、技术滥用和道德风险、用户隐私和身份安全等问题同样饱受诟病。此外,由于AIGC的生成能力主要来自数据和模型,而数据来源本身可能就会产生侵犯他人著作权、肖像权、名誉权、个人信息等多项权利的风险,因此全球范围内关于如何保护人类主体的智力活动呼声将会越来越高。
王翔提到,AIGC赛道的企业需严格把控从模型训练到上线运营的全链路内容安全治理,保障数据源的真实、无害和可用性,同时搭建安全团队,通过机器审核+人工审核对生成内容进行全方位审核,以满足监管需求和避免侵权问题。同时,企业也可以寻求外部三方厂商的接入和助力。
针对这些问题,腾讯安全具备AIGC全链路的内容安全解决方案,提供包含审校服务、安全专家服务、机器审核服务、版权保护服务四大能力板块,覆盖AIGC类应用从模型训练到内容生成再到事后运营全过程的内容安全建设,可以助力企业更高效地应对挑战。
该方案可以通过三个层面的风控措施来帮助企业解决AIGC内容风控难题。首先是在输入端部署相应的风控策略,来判断输入指令是否违规,从源头上避免违规内容的产出。然后再加以屏蔽的措施,例如当输入的违规词条触发部署的风控策略后,该词条会反馈给客户,并提示问法有问题,或者是不合规等等,以避免不合规的消息吐出。在输出端也会进行相应风控,可以通过标记黑样本并保存至样本库,在输出端匹配关联特征并拦截,避免模型生成不合规内容。
目前,腾讯安全在AIGC内容安全领域有多个场景实践落地,为文生文、文生图、医疗级视频内容、长小说文本等类型企业提供内容安全服务。从2019年9月起, 腾讯安全就对B站平台上UP主上传的原创视频进行版权监测服务,累计监测作品500余万部,累计发现侵权链接近3000万条,发起维权近百万次,维权成功率达98%。此外,依托丰富的版权素材库,腾讯安全通过“生成图片”与“图片库”的版权比对,成功帮助某文生图AIGC创作APP消除侵权风险。
王翔提到,“虽然全世界都在积极拥抱AIGC,但其内容安全风险也将给社会、经济、文化等多个层面带来影响,如何促进生成式人工智能有序健康发展值得政府、企业等社会各界共同关注。未来,腾讯会秉持科技向善理念,打造安全可信的AIGC技术和应用,助力AIGC时代实现高质量、健康可持续的发展。”
(免责声明:此文内容为广告,相关素材由广告主提供,广告主对本广告内容的真实性负责。本网发布目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责,请自行核实相关内容。广告内容仅供读者参考。)
最新评论