2023年4月22日下午,在上海交通大学总办公厅和新加坡管理大学计算与信息系统学院同时开展了关于AI for Open Society的双向技术论坛,沪新两地与会人员就相关议题进行了激烈的思辨。本次论坛由中国计算机学会CCF主办、YOCSEF上海承办、新加坡管理大学协办,本次论坛的执行主席是YOCSEF上海AC委员张冰雪(上海理工大学)和新加坡管理大学朱飞达副教授。参与本次论坛的还包括上海会场人员:孔令和、刘通、李晋国、李洋、刘斐、朱能军、吴一鸣、马骏、弋维峰、许文波、尹强等AC委员和通信委员,以及新加坡会场人员:YOCSEF上海主席裴颂文、引导发言嘉宾孙军教授、孙爱欣教授、刘杨教授、Leo Jiang先生,胡楠先生等专家和学者,线上、线下、直播平台总参与人数超过3000,有较高的社会影响力。
图一 上海和新加坡两个会议现场
活动伊始,首先由朱飞达(新加坡管理大学副教授,副院长)介绍论坛背景,裴颂文(上海理工大学教授,YOCSEF上海主席)致辞并介绍了YOCSEF的基本情况和活动形式。
接下来,论坛主要分为引导发言和思辨讨论两个环节。在引导发言部分,朱飞达副教授介绍了人工智能与数据治理;孙军教授介绍了人工智能安全之路;孙爱欣副教授介绍了Large vs Small Language Model, Which Model to Use for Information Extraction;刘杨教授介绍了AI for DevSecOps。
图二 新加坡会场引导发言(演讲人分别为:朱飞达、孙军、孙爱欣、刘杨)
在思辨环节,主要就如下四个议题,分别在沪新两个会场进行了激烈讨论,然后由双方代表汇总报告了各会场情况。
上海会场最终形成如下主要观点:
议题一:为什么大模型没有率先在中国出现?
1、近年来,中国学者发表的AI论文数量不断上升,但是整体科研水平和美国还是存在原创性差距,大多是追赶。学术研究是存在偶然性的,在大模型研究方面,OpenAI和Google是两个技术代表,前期中国的研究主要跟着Google Bert为主导的方案走,所以与Transformer大模型这条路线存在一些偏差。
2、在研究的习惯方面,国内部分学者存在不够自信的问题。其实有些研究只要坚持下去,可能就可以出成果了,但是由于经费、考核、职称晋升等多方面的原因,迫使学者从事“短、平、快”的研究。同时,资本市场对长时间没有看到回报的投资也缺乏耐心。所以未来的我们更需要提倡“工匠精神”,培养适合长期和原创成果发展的土壤。
3、中国互联网的数据质量比较差,比如存在大量水军等。同时国内乐于分享和善于分享的人很少,这一点国内外文化上差异很大。促进开源社区良好发展是目前可以努力的一个方向。
4、ChatGPT的成果不只是学术的东西,还需要大量工程技术支持,但国内学术团队在工程上的投入相对少;而大的互联网公司不太愿意花大力气投资短期内看不到收益的项目和技术,同时存在技术跟风情况。
议题二:持续增加数据量和超大规模参数是大模型技术发展的方向吗?还会继续出现“大力出奇迹”的现象吗?
大力出奇迹肯定会有突破,会有一些意想不到的效果。但对于国内来讲,目前存在的机会应该是曲线救国,可以在小模型或某个垂直领域里发展。因为无论是在算力方面,还是在算法方面,目前国内还是明显落后于美国的。
议题三:大模型的 “涌现”现象有哪几项关键技术,是如何发挥作用的?
这个议题偏技术,目前ChatGPT并没有开源,所以具体的技术方案还不是特别清楚,但是有几个技术点,比如强化学习尤其是逆强化学习和人类反馈的强化学习,肯定是其中的核心技术,而这些技术当前做的比较好的还是国外的研究单位,比如伯克利强化学习实验室。
议题四:GPT出现的绘画等版权问题和“以假乱真”现象,需要预先制定哪些应对方案?
AI绘画的版权到底是属于数据提供方、还是提出绘画要求的用户、亦或是AI技术的开发方?目前没有定论,现有的版权相关的法规也并不适用,亟需制定新方案。有几个原则可供参考:
1、从开源中来,也回到开源中去。如果GPT在训练过程当中,使用的是开源素材和数据,那么由其生成的绘画应该也属于开源。
2、谁付费,属于谁。如果是购买了GPT的服务,那么由使用者操作产生的绘画版权应该属于使用者或者使用者的单位。
3、有约定的按照约定。在不侵犯其他版权的前提下,可按照事先约定和协议确定绘画版权。
图三 孔令和代表上海会场总结汇报
新加坡会场最终形成如下主要观点:
议题一:大模型到来以后对各行业带来了哪些改变?
1、对于商学院的学生来说这是一个机会,因为技术能力不再是比拼谁的模型更厉害,而是比拼整个的解决方案或是对一些问题的思考,这时商学院学生的一些能力就显得非常重要。
2、大模型的到来对一些大的厂商是一个更大的冲击,像Google,Facebook这些大的科技巨头将会受到威胁,需要考虑怎么去商用它。
3、对于创作者来说,它可能是一个生产力的改变,它可以帮助普通人在极低的门槛之下,快速的创建高质量的内容,这样的内容在未来将是一个蓬勃的爆发式的增长。
议题二:大模型可能带来哪些风险?
1、大模型是由数据喂养训练出来的,它代表的观点由训练集决定,对于没有绝对正确答案的问题它可能给出很多不一样的版本,这可能带来很大的隐患。
2、监管的完善可能还需要几年的时间,但GPT的发展很快,每天都有很多新的技术出现,不能确定到最后它会发展成什么。
3、上一个议题中提到创造高质量的内容变得简单,同样的高质量的造假变得简单,这导致之后互联网信息中可能充满了高质量的造假信息。
4、对于创作者而言,很多艺术家的创作可能被作为数据集训练出模型,在这样的情况下原始创作者的利益得不到保障,导致了很多创作者在抵制AIGC的技术,这不利于整个生态的发展。
议题三:如何避免大模型带来的风险?
提到的一些风险点的确是比较根本的问题,我们现在好像做不了什么,但有些还是可以做一点的。首先,现在的OpenAI模型可能突然间就不能用了,那么是不是可以把它先去中心化,做一个没有人可以shut down的模型,这样的模型也可以通过社区治理来决定要不要进行升级;第二点就是用类似区块链这样的技术给它一些控制,至少我们能够在利益的分配,数据的共享方面给它一个“枷锁”。
议题四:新加坡相较于其他地区目前的优劣势有哪些?
新加坡有一些高端人才,可总体的人才方面还是比较匮乏,但监管方面相较于国内有一些优势,有一些更灵活的沙盒政策,可以更大胆的去尝试一些新奇的领域。
此次论坛历时四个多小时,与会人员充分交流,并在多个平台进行了直播,其中蔻享和腾讯wiz分别达到2322和784人次观看量,腾讯会议参会人数最高达到142人,总关注度突破了3000人次,取得了良好的会议效果。