黄斌:直播虚拟人也会“塌房” 须重视合规问题

2022-06-14 15:11:02 中新经纬 

中新经纬6月14日电 题:直播虚拟人也会“塌房” 须重视合规问题

作者 黄斌 北京德和衡律所元宇宙科技与法律研究中心主任、《互联网法律评论》特约专家

持续近三年的新冠疫情让人们开始习惯于长时间的“线上工作和学习”,同时推动虚拟人大规模集中出现,以满足人们的“线上工作和娱乐”。虚拟人是连接现实、开启元宇宙的重要角色,并且成为元宇宙中一条重要的交互赛道。与此同时,商家的虚拟人直播如雨后春笋般出现在各大平台,“虚拟人+故事场景”直播颠覆了传统的真人直播模式,刷新了用户对平台、品牌的认识,构建起一种全新的营销生态。为实现可持续运营,平台和直播虚拟人商家有必要高度关注其中的运营、合规风险。

直播虚拟人发展概况

虚拟人起源于20世纪80年代,近年来随着建模、AI、动捕、渲染技术的发展进入高速成长期。2021年10月20日,广电总局发布《广播电视和网络视听“十四五”科技发展规划》,在虚拟主播方面提出“探索短视频主播、数字网红、直播带货等虚拟形象在节目互动环节中的应用,增加个性化和趣味性”,首次明确地鼓励和支持虚拟人的发展。“现在进入了一个时间点,已经不太需要去教育客户,同他说为什么要给你推虚拟人,很多品牌直接问有哪些虚拟人可以和他们合作,目的性非常强,这也和市场成熟度有关,”动图宇宙创始人丁焱表示。

2022年6月8日,Anycolor于东京证券交易所上市,这是全球首家以虚拟人为主营业务的上市企业,其旗下有彩虹社,也有直播事业部。如今出现了一些品牌虚拟人深度定制,以及提供虚拟人IP代运营服务的公司,平台、商家都开始定制品牌虚拟人,或者与提供虚拟人IP代运营服务的公司合作,试图以虚拟人形象的IP价值输出打开在Z时代中的影响力,拓展新消费人群。

直播虚拟人同样会“塌房”

业界普遍认为,真人主播有人设崩塌的风险,而直播虚拟人不存在人设崩塌的风险。但事实上,虚拟人人设同样也会崩塌。人工智能虚拟人是通过大量的预设人格相关数据进行机器学习,然后通过算法进行自动化决策,并与用户实现交互。人工智能虚拟人的人格塑造可能贯彻了平台、商家的商业目的,该商业目的可能因为一些歧视和偏见导致人设崩塌。算法设计者固有的偏见和歧视也有可能导致人设崩塌,例如,某品牌智能音箱在回复用户心动周期的相关问题时建议用户自杀,某人工智能软件将黑人识别成灵长类动物等。

《顶流虚拟偶像A-SOUL一夜塌房,背后的五个女孩真的就是工具人?》一文也指出:但无论是AI直播,还是完全按照剧本设计的人设,都不是粉丝真正想要的。资本或许认为粉丝爱的是皮套,但是对很多粉丝来说,虚拟偶像提供的情绪价值比冰冷的皮套更重要。皮套和灵魂是相辅相成的,粉丝第一眼肯定是被皮套吸引,但有趣的灵魂才是维持人气的关键。

真人驱动型虚拟人及人工智能虚拟人面临合规问题

虚拟偶像虽然是技术产物,但目前还是得依靠人来驱动。智能虚拟人是指利用人工智能技术,通过多模态技术和深度学习模型的运算结果,实时或离线驱动虚拟人的语音表达、面部表情、具体动作,其通过人工智能技术打造直播虚拟人的完整人设,并赋予直播虚拟人“灵魂”。

人工智能的运用应符合可理解原则和公平原则,人工智能应该能够为人类社会现有的道德所理解;人工智能的运行应当保持透明可见的原则,不让特定个人或少数群体遭受偏见、侮辱和歧视;人工智能应当尊重人格尊严和个人隐私,保障人工智能参与者的知情权和选择权;最后,人工智能的发展应当可控,人类不从属于人工智能,也不应受到人工智能的胁迫,保障人类在人工智能中的决定作用,当人工智能失控时,应当有毁灭装置。针对智能虚拟人的直播运营,平台及商家需要关注的合规风险如下:

对于汇集大量直播虚拟人的平台而言,平台的善良管理者义务是与其从虚拟人直播中直接获得的经济利益正相关的(例如,在直播虚拟人获得的打赏中分成),获得的经济利益越大,自然应对此负有较高的注意义务,其应当承担的法律责任和注意义务与之前所述真人驱动型虚拟人基本一致。

商家在制作和运营直播虚拟人时,应当坚持科学伦理先行。伦理是指在处理人与人、人与社会的相互关系时,应遵循的道理和准则,是指一系列指导行为的观念,是从概念角度出发,对道德现象的哲学思考。它不仅包含处理人与人、人与社会、人与自然之间关系时的行为规范,而且也蕴涵着依照一定原则来规范行为的深刻道理。

人工智能最大的弱点是,缺乏直接的感受能力,在价值判断上存在弱点,而人工智能伦理准则所倡导的造福人类、避免伤害、公平正义等价值理念,为人工智能技术层面的开发和运用提供了价值判断标准。

以机器学习为代表的人工智能技术需要大量数据,数据是机器学习的根基,数据的真实性、完整性,以及数据的规模和质量是人工智能进行分析与建模的关键。人工智能公平性的核心基础是数据,数据的不公平主要体现在:不同群体在数据中所占比例不均衡,数据固有的歧视,数据固有的偏见,数据的包容性不够,数据的通用性及数据的准确性等。数据具有固有的歧视和偏见,是因为一些带有歧视和偏见的价值观映射在数据上。如果没有对上述数据不公平现象进行调试和校验,这种不公平将反馈到人工智能算法模型,并最终映射到人工智能的公平性上。

算法是一种“数据处理活动”,包括收集和处理数据,挖掘数据价值,涵盖数据的生成、采集、存储、转换、处理和输出的全过程。智能直播虚拟人需要通过算法实现自动化决策,以达到与用户之间的强互动。算法的出现和使用,是为了执行大规模重复的任务和计算,是为了实现商业上高效快速的交易,是为了实现公权力具有广度、深度和效率的运行。随着算法的日益广泛应用,算法成为促进政治、经济、文化和社会发展的工具,应当遵循人类共同价值观,遵守国家或地区的伦理道德;算法应当尊重人类主体地位,给用户选择权和决策权;算法应当抑制人类社会无处不在的歧视和偏见;算法应当保障用户的人身权和财产权。(中新经纬APP)

本文由中新经纬研究院选编,因选编产生的作品中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。选编内容涉及的观点仅代表原作者,不代表中新经纬观点。

责任编辑:孙庆阳 实习生 李佳文

(责任编辑:王治强 HF013)
看全文
写评论已有条评论跟帖用户自律公约
提 交还可输入500

最新评论

查看剩下100条评论

热门阅读

    和讯特稿

      推荐阅读

        【免责声明】本文仅代表作者本人观点,与和讯网无关。和讯网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。