分论坛 > 西安 > 新闻动态
CCF YOCSEF西安举办“如何信任你,我最AI的‘某某同学’? ”观点论坛
2024-11-30 阅读量:44 小字

2024年11月23日由中国计算机学会(CCF)主办、CCF YOCSEF西安学术委员会承办的“如何信任你,我最AI的‘某某同学’?”观点论坛在西安碑林环大学创新产业带管委会顺利召开。论坛聚焦AI语音助手在智能化发展过程中所引发的数据安全隐私问题,从AI语音助手背后的技术原理、关于个人信息保护的国家政策法规、针对语音的前沿攻防探索等方面进行深入交流研讨。

论坛由YOCSEF西安AC委员、西北工业大学教授崔禾磊和YOCSEF西安副主席、西北大学副教授崔磊共同担任执行主席;邀请到科大讯飞西安研究院常务副院长、西北工业大学副教授付中华,陕西仁和万国律师事务所执业律师潘睿轩,西北大学信息学院教授、西安市先进计算与软件安全重点实验室主任汤战勇等引导嘉宾;浙江大学“百人计划”研究员、国家级青年人才林峰,某市公安局某支队某大队大队长白龙等特邀嘉宾;本次观点论坛还邀请到多位相关领域专家、学者共同参会。

论坛伊始,崔磊向与会嘉宾简要介绍CCF YOCSEF文化和西安分论坛的发展历史,随后崔禾磊通过典型案例和影视片段介绍了论坛背景。

1-1

论坛分为引导发言和议题思辨两个环节:

引导发言1:语音助手背后的技术与实践

付中华详细介绍了AI语音助手的核心技术,从演进关键技术发展趋势等深入浅出展开讲解,他指到随着深度学习技术的发展,语音助手的识别率和智能化水平显著提高,已经成为下一代人机交互的重要入口,更快响应、更懂情绪、更加灵活、更加百变是未来的发展方向。

2

引导发言2AI语音助手的个人信息保护部分合规要点及案例分析——基于《个人信息保护法》视角下

   潘睿轩围绕《个人信息保护法》进行了相关内容的解读。他强调企业在开发和部署语音助手时必须遵循“告知—同意”规则,确保用户对数据收集和用途的知情权和选择权。同时,他通过案例分析了部分企业在隐私保护上的违规行为,并呼吁企业在技术创新中加强合规管理。

3

引导发言3:基于声学超材料的不可听声攻击与隐私信息获取

   汤战勇分享了基于超材料的不可听声攻击与隐私信息获取的研究成果,展示了技术进步可能带来的安全风险。他指出先进技术虽然在情报侦查等特殊领域具有应用价值,但也可能被恶意利用,从而对公众隐私造成威胁。他呼吁科技界在推动技术发展的同时,应加强对其潜在负面影响的准确评估与管控。

4

5

随后与会嘉宾围绕本次观点论坛的三个议题展开讨论了,并形成以下观点

议题一:AI语音助手的数据共享与隐私保护的平衡点在哪里?

·数据共享可以提升语音助手的服务质量,但同时也带来隐私泄露的风险。如何在功能优化与隐私保护之间找到平衡点,是当前主要挑战。隐私保护与数据共享之间如“跷跷板”,需要从技术和管理上共同推进,尽量实现两者的共同发展。

·建议语音助手尽量在设备本地完成数据处理,避免上传到云端以降低隐私泄露风险。利用隐私计算、联邦学习等技术,实现数据在共享过程中的保护。为用户提供个性化的数据使用选项,例如选择简单服务模式或深度服务模式,减少非必要的数据上传。

·当前法律法规对数据收集、使用和管理的执行力度仍需加强。建议通过更严格的立法和监管,规范企业对用户数据的使用,防止过度采集或非法滥用。企业必须定期接受隐私影响评估,并向用户公开数据使用方式,保障用户的知情权和选择权。

·用户对数据共享的主要担忧来源于对技术处理过程的不了解和对企业的不信任。企业需要加强透明度,明确告知用户数据的采集范围、用途及保护机制,给予用户删除数据、设置数据保留期限等权利增强用户对企业的信任度

   ·企业需在法律规范下,主动承担隐私保护责任。大企业应发挥行业标杆作用,严格遵守法规并自我约束。学术界需继续研发隐私保护技术,推动行业在隐私保护和服务优化之间找到最优解。

6

议题二:AI语音助手的道德和行为边界在哪里?

·AI语音助手的行为边界既涉及技术能力,也涉及道德与法律约束。技术设计输出的结果需要明确限制,例如,避免AI生成虚假或误导性内容(如医疗建议或导航指引),应符合社会价值观,避免偏见、歧视及不符合伦理的行为防止用户隐私数据的滥用。

·法律是AI行为边界的最低标准,但现行法律在AI领域仍存在空白。与会嘉宾提出应推动法律完善,以明确AI在隐私保护、数据使用和伦理规范方面的界限。

·AI语音助手需要在技术上优化,减少误唤醒、歧义回答等问题,同时明确功能限制。例如,在提供回答时,需标明信息来源,避免“一本正经地胡说八道”。

·企业在设计AI产品时,应遵循主流价值观,同时通过技术手段和政策监管,确保AI产品的输出符合不同用户的需求与期待。企业需承担社会责任,加强AI产品的伦理审查与行为限定,防止因商业利益而突破道德底线。

·国家应出台政策和监管机制,推动企业守住技术和伦理的双重边界AI语音助手的行为边界需从技术、伦理和法律三方面综合治理。

7

议题三:如何制约AI语音助手的数据滥用?

·AI语音助手的数据滥用涉及隐私泄露、非法数据利用及生成内容的侵权等问题针对AI语音助手及其数据滥用行为的法律法规尚未健全,现行法律和技术手段不足以完全应对当前数据滥用现状,现行法律对数据使用者的惩罚力度不足。

·数据滥用的定义尚无共识,需制定明确的数据确权和滥用判定标准,将声音等语音数据纳入隐私保护范畴。通过颁发技术资质或牌照,对语音相关技术的研发和应用进行严格监管,降低数据滥用的风险。

·通过声音水印与溯源技术,追踪语音数据的来源及使用情况,并在滥用发生后追责加强语音数据的加密与保护,确保数据在使用过程中的安全性和不可篡改性研发检测机制,识别语音是否为AI生成,以防止伪造声音用于诈骗或侵权。

  ·用户需提高隐私保护意识,明确自身语音数据的价值,主动维护自己的数据权益。企业在采集和使用语音数据时应遵循合法性、合规性和透明性原则。社会加强对平台和企业的监督,明确“谁采集,谁负责”的原则,通过论坛、教育等方式加强公众对数据滥用风险及保护措施的认知,推动全社会共同关注和解决数据滥用问题。

8

9

最后,YOCSEF西安主席宋霄罡对本次论坛进行总结:如何信任你,我最AI的“某某同学”? 通过本次观点论坛,与会嘉宾各抒己见,寻求共识,AI语音助手的数据滥用问题需从技术、法律与社会三方面入手,形成多层次、多维度的制约机制。既要通过技术手段保护数据安全,又要完善法律法规明确数据滥用的界限,同时加强社会各方的责任,共同推动数据使用的合法化、规范化和透明化。CCF YOCSEF西安也将继续围绕AI智能语音隐私保护的发展,团结更多的力量和资源,推动促进相关技术和政策的进一步落实。

10

11


CCF聚焦