CCF YOCSEF福州于2023年8月26日在福建师范大学福建省网络安全与密码技术重点实验室举办“追求真相的迷径:大语言模型披荆斩棘追求真实的技术之路”技术论坛,此次活动采用线下的方式进行。活动由CCF YOCSEF福州分论坛副主席尤玮婧和学术AC焦金涛担任活动执行主席,学术秘书黄琼霞、AC委员吴伶担任在线主席。来自厦门大学、华侨大学、中国科学院信息工程研究所、福州大学、福建师范大学、福建农林大学、福建理工大学、福建师范大学协和学院、闽江学院、武夷学院、福建警察学院等院所的专家学者,百度(中国)有限公司、东软集团(广州)有限公司、福州市电子信息集团有限公司、福建省亿力信息技术有限公司、福建风林火山有限公司、福建思知行信息技术有限公司、迪讯信息技术有限公司等企业代表及对大语言模型感兴趣的朋友们共三十多人汇聚一堂,就大语言模型内容可信的话题展开讨论和思辨。
ChatGPT引领了大语言模型的发展,也带来了内容可信的问题。一方面,大语言模型易受输入数据影响,那如何避免因此导致的生成信息不准确呢?另一方面,大语言模型又该如何甄别生成内容,提高生成内容的质量?国产大语言模型有可能避开“胡言乱语”,走向“字字珠玑实事求是”的彼岸吗?
图1 “追求真相的迷径:大语言模型披荆斩棘追求真实的技术之路”技术论坛
论坛现场活动包括引导发言和思辨环节两部分。针对论坛主题,现场邀请了1位特邀嘉宾和4位引导嘉宾,他们分别来自大语言模型内容可信研究方面具有代表性的研究院、高校和企业——福建师范大学、厦门大学、中国科学院信息工程研究所、华侨大学和百度(中国)有限公司。
特邀嘉宾福建师范大学计算机与网络空间安全学院(软件学院)院长、福建省网络安全与密码技术重点实验室主任许力教授首先进行了发言,许力教授表示ChatGPT带来了新的生产模式,同时也产生了很多安全问题,大语言模型内容真实可信是诸多安全问题的重中之重,而可信性问题来源与大语言模型所使用的训练数据质量是息息相关的,如何筛选获取高质量的数据,并对大模型生成内容质量进行评价就显得尤为重要;大模型在各行各业中的应用关乎国家经济发展和社会稳定,设计高质量、安全的国产大模型也是我们今后需要努力的方向。随后4位引导嘉宾分别以“Truthful AI:路艰且长”、“探索可信的大语言模型:从可解释性出发”、“AIGC背景下的可信内容甄别”和“百度文心大模型解读”等方面作引导发言。
图2 特邀嘉宾福建师范大学许力教授进行现场发言
厦门大学教授史晓东作了题为《Truthful AI:路艰且长》的引导发言,史教授的发言从Truth GPT开始谈起,认为较为理想的大模型应具备理解宇宙本质、非营利性和基于常识生成内容等特质;接着提出大模型存在的问题的根源是随机性,但禁止随机性就禁止了创造性,创造性正是大语言模型的可贵和可怕之处,ChatGPT为了与人类价值观对齐,其能力也受到了很大的限制,同时自然语言中存在的隐喻能力是大语言模型难以获取的;随后说明为提高大模型内容真实度,需处理训练数据中的非事实错误,并介绍了针对非事实错误的最新处理方法;最后展望了理解数学、结合物理定律、连接感官设备和自省等四个要素是大语言模型通向真实的必经之路。
图3 厦门大学史晓东教授进行现场引导发言
图4 YOCSEF福州主席熊金波为厦门大学史晓东教授颁发感谢证书
图5中国科学院信息工程研究所张逸飞博士进行现场引导发言
图6 22-23主席魏丽芳为中国科学院信息工程研究所张逸飞博士颁发感谢证书
图7 华侨大学李越博士进行现场引导发言
图8 优秀AC王沁为华侨大学李越博士颁发感谢证书
华侨大学李越博士作了题为《AIGC背景下的可信内容甄别》的引导发言。她阐述了AIGC的背景以及其带来的内容安全、技术滥用、知识产权、用户隐私身份安全、AIGC的内生安全等方面的挑战;梳理了主动防御和被动检测的多媒体伪造鉴伪方法。AI生成或合成虚假媒体信息等深度伪造内容的甄别多采用被动检测,这类被动检测技术主要包含基于物理约束的甄别与取证、基于统计特征的甄别与取证和基于数据驱动的甄别与取证;展望了AIGC内容甄别面临的应用场景的局限性、模型鲁棒性不足、方法可解释性差的问题。
图9 百度(中国)有限公司王江天现场作引导发言
图10 优秀AC卢晓亮为百度(中国)有限公司王江天颁发感谢证书
百度(中国)有限公司的王江天作了题为《百度文心大模型解读》的引导发言,阐述了百度大模型及其在多模态生成领域中的技术架构,百度大模型结合了百度搜索的技术能力,更好地提升了准确性和时效性;介绍了百度大模型目前在故事生成、基于本地知识库的问答对话和数字政府等场景中的应用;展望了国产大语言模型的发展,认为科技企业不仅是前沿技术的发明者,也是最早使用前沿技术的企业,而成功的原因是站到未来的赛道上。
在思辨环节,引导嘉宾、特邀嘉宾及所有的参会人员从“如何避免由数据缺陷引发的大语言模型‘胡言乱语’?”、“大语言模型如何对生成数据进行判别,提高信息质量?”和“国产大语言模型如何‘字字珠玑实事求是’?”这三个问题展开思辨纷纷表达了自己的观点。
图11 引导嘉宾思辨组图
图12 现场嘉宾思辨组图
经过一个下午的深入探讨和热烈思辨,本次论坛观点总结如下:
(1)为降低数据缺陷对大模型生成内容可信度的影响,在大模型建模前,对训练数据质量的进行判定和优化,同时引入高质量的、经过验证的知识库,确保模型学习到的是准确可靠的信息,此类知识库可以从权威机构或专业领域的专家提供的数据中获取;在建模中,利用知识增强、知识限制和知识图谱等技术优化模型精准能力;在建模后,结合实际应用场景,人工审核和干预可有效解决大模型生成内容的质量不足问题。而在利用大模型生成代码时,鉴于代码具有明确的正误判定标准,可有效提高大模型生成代码的质量,作为主要的应用场景优先展开研究。
(2)在对大语言模型生成内容的质量进行判别时,因生成内容的类型和格式均不同,对大模型生成内容应该分行业、分领域判别,若有明确评判指标,可直接进行有效的判别;若无明确指标评价质量,可从传播、营销、工业质检等多个不同的应用领域进行凝练,结合欧美、国标、行业、企业等多种不同标准,设定模型自评的评价指标,判定生成的信息质量在应用领域使用成效,通过是否可用来验证数据质量。而大语言模型的内容判别最终仍需提高模型的可解释性,因此需同时考虑判别函数、目标函数、需求和目的优化建模,提高大语言模型的可解释度。
(3)国产大语言模型应该突出中文处理能力,构建规范和高质量的中文语料库是提升国产大模型质量的关键,其中谐音字、多音字、错别字等需进行特殊的处理、识别和训练。国产大模型的发展道路还很长,机遇和挑战共存,国产大模型只有迎头赶上,直面创新带来的挑战,才能做出应有的贡献。
图13 部分论坛参与人员合影留念