核心要点
大模型的商业应用场景上,预计C端会快速落地,B端则是爆发式落地。由于目前大模型的训练数据更多是通用数据,更易面向C端产生个人应用。B端的部分数据未打通,一旦供给打通,落地将是爆发性的。闭源有利企业短期先发优势,开源则“后劲更足”,有利企业长期生态建设。
把一项新技术注入产品,去赋能业务的时候,要考虑很多因素。当前这个阶段,大模型进步非常快,但还是有很多问题没有解决。另外,用户场景的需求本身也不完全一样,应用程序的运行环境也不一样。比如知识更新需要重新训练大模型,费时费力,所以它的时效性有缺陷,无法做到对最新消息的知晓,对信息时效性要求高的场景并不适合。大模型是千亿级参数的,需要设备端和云端实时连接,所以对于网络通讯能力较弱、低功耗的设备不太适用。因此,大模型虽然在很多地方适用,但也有一些场景不适用,作为企业,要去考虑如何调整,如何去抓住机会。
(相关资料图)
黄燕铭认为,人工智能的发展会导致证券研究人员数量可能会在一定程度上减少,大量研究助理的工作可能被机器替代。机器虽然能帮助我们记忆和计算知识,却无法代替人类去感悟智慧。“形而下”的工作可以交给计算机,但是“形而上”的感悟,目前来看,人工智能还很难去帮我们完成。
ChatGPT横空出世,其表现出来的强大的人工智能能力,让无数人叹为观止。它是一个现象级的技术突破和应用,是人工智能数十年发展历程中又一个重大的突破点和转折点。面对ChatGPT带来的新的机遇和挑战,产业界和学术界应紧密携手,持续推动相关技术的发展和产业应用,让我们的生活更加美好。
以上是联想集团首席技术官、高级副总裁芮勇博士,以及国泰君安证券研究所所长黄燕铭,在《所长对话》第一期中分享的观点。
以下是国君研究《所长对话》第1期的分享实录:
01 关于技术发展
黄燕铭:ChatGPT不单单是文本生产的工具,其强大的语言处理和生存能力也增加了很多的用户体验,同时也为我们降低了生产经营、交易的成本,同时也提高了企业的经营效率,而这种大规模的适配器以及迭代的能力也是ChatGPT的特点,它在特定的领域、专业语言以及自动化的客户服务等各方面都做出了巨大的成就。我们认为ChatGPT在未来有非常广阔的发展空间,这种情况下我们对ChatGPT未来的发展前景非常看好,在这里我们今天要特别跟芮博来聊一聊ChatGPT的基本情况。
投资者普遍认为这是一个划时代的技术进步,甚至可能替代掉很多人类的工作岗位,请问该如何理解ChatGPT、GPT-4的技术能力,其自然语言处理能力、多模态、定制化相较以往AI模型有何突破,会带来怎样的产业变化?
芮勇:首先,非常感谢黄所的介绍,也非常高兴能够跟黄所来一起聊这个话题。刚才黄所总结的都已经非常精辟了。这个ChatGPT,我觉得它是可以说是一种现象。最近也有不少人在聊,它是一个类似于iPhone 的现象,类似于网景的现象。我们都知道,网景是第一个真正商业化的浏览器,在网景出现之前很多年浏览器就已经有了,但是没有火起来,直到网景出现之后,整个浏览器才火了起来,整个互联网才火了起来。iPhone其实也是一样,智能手机出现了很久,但是没有那么火,到最后真正腾飞起来、火起来是iPhone。
那么ChatGPT也是类似,大家称这是一种现象。AI也是火了有一段时间,但是没有那么火,有起有伏。大模型也出现了挺长时间,那么直到最近不久ChatGPT出现了之后,它才带来了一个大的飞跃,所以我们称为ChatGPT是和网景和iPhone类似的一种现象。
但我更想说,今年ChatGPT非常的火,是表面上的一个现象,更重要的ChatGPT后面起到核心作用的大模型。所以我先想跟大家聊一聊大模型,大模型的英文叫Foundation Model.它是一个基础模型,好比我们盖房子时候打的地基。什么是大模型呢?大模型是用互联网级的、没有标注的数据,来训练千亿级参数的AI模型,这里面有好几个关键字。大模型也是下游很多任务的基础。并且很有意思是,它不用做模型参数的调整,对不同的任务,它不用去调整参数,这个事就非常的奇特了。
这么多的特点,为了便于记忆可以总结为三个字,叫做“高大上”(这里没有褒义和贬义的意思)。“高”是什么意思呢?大模型的训练方式很高明。之前的机器学习,典型的训练方式是一种全监督式的方式。比如说,我如果要教一下机器,这是一个苹果的图像,这是一个橘子的图像。我告诉它,这些图像你都看一看,并且我告诉它这是橘子。它就知道,原来这样的图像是橘子。但是让人工来标注,要花很多的时间、精力和金钱。那么大模型是用自监督的学习方式,它不需要去标注海量的数据。我觉这是非常重要的,在训练方式上很高明。
第二,很高明的训练方式还表现在它使用一种叫做“基于人类反馈的强化学习”,英文叫RLHF,Reinforcement Learning from Human Feedback.有了这个非常强大的训练方式,它就和人类的价值观点越来越近了。比如说,从互联网它可能看了很多东西,但是它不知道哪是对哪是错的,哪个是正义的哪个是不好的。那么,有了这个基于人类反馈的强化学习之后,它就和人类的价值观越来越近了。
高大上的“大”,是说模型规模很大。我们如果还记得,2012、2013年前后深度学习开始火起来的时候,当时很流行的一个人工神经网络模型叫VGG,VGG16大概有 1.38 亿个参数。那今天我们的大模型会有多大呢?GPT-3 有 1,750 亿个参数,是当时的大概有 1,000 倍那么大。这样的规模就使得大模型能够学到大量的模式与常识,甚至建立一定的推理能力。
第二个“大”是指训练的数据大。我刚才提到,它是用互联网级别的海量数据训练出来,这里面包括互联网上的文本、高质量的网页、维基百科、书籍的语料库。它的训练词元(token)大概是千亿级的。所以是训练方式“高”,模型规模“大”,训练数据“大”。
“上”是什么意思呢?这也是一个挺神奇的事,是说它的逻辑推理、知识推理、泛化能力突然之间就能更上一层楼。它的英文单词叫做emergent ability,就是突现的能力、涌现的能力。用一个更通俗易懂的话来说就是,它突然会开窍。
语言模型随着规模的增长,突然对于训练时候没有见过的任务也能够懂是什么意思能够胜任,它开窍了。那么到多大的规模,这个模型才会开窍呢?基本上是在 650 亿个参数,超过这个规模时它就开窍了。
这就是大模型的几个特点,“高大上”。这几个特点就决定了,如刚才黄所提到,它带来了很多新的东西。这是我想跟黄所探讨的第一个事。
黄燕铭:芮博刚才讲到ChatGPT基于大数据大模型650亿的参数以后能开窍。我们知道这次ChatGPT的出现离不开背后大模型的突破,二级市场的投资者普遍认为大模型相对于之前的场景化的小模型有本质的不同。您认为大模型是不是实现通用人工智能的一种可行的路径?我们也看到GPT-4发布也增加了图片作为输入的新模式,您觉得大模型未来会往怎样的方向发展?
芮勇:黄所问的这几个问题,都很深刻。我试着来一起来探讨一下。第一个,大模型的出现是不是一个人工智能范式的一个转变?这个事其实很有意思,我们来看一下。我们知道GPT大模型的版本有1、2、3、3.5等等,它这一系列的论文题目,就反映了每个阶段的变化。GPT-1,论文名字叫做Improving Language Understanding by Generative Pre-Training,生成式预训练提升语言理解能力。GPT这三个字是Generative Pre-trained Transformer 的缩写,是生成式预训练的Transformer。
在GPT-1的时候,它其实比较大,但是还没有达到我刚才讲的那个阈值,它还是一个比较小的模型,对语言有一定的理解。这个时候它有上亿个参数,但是离650亿个参数还有距离。
但到GPT-2的时候,它论文的题目叫做“语言模型是无监督的多任务学习者”。GPT-2主要是通过多任务学习,获得了迁移学习的能力,零样本学习,和执行任务的能力,这个是一个非常重大的突破。所以,从GPT-1到2跨越了从小模型到大模型的一个飞跃。
到GPT-3的时候,就更有意思了。它讲的是“语言模型是一个小样本的学习者”。这个时候它显示出非常强大的学习能力,你只需要把训练好的大模型,给他几个,比如说从中文到英文翻译的几个例子,它自己就理解了,哦,原来你给我这几个例子说是让我做翻译,它就会给你去做翻译了。
到GPT-3.5,也就是我们看到的ChatGPT后面大模型的时候,它又厉害了,连例子都不用给了,你就直接用自然语言的方式告诉它要做什么任务,它也能够理解了。
前几天,GPT-4发布,它就又上一层楼。它不仅仅是支持文本的交互,它的输入也可以是图像,这是和之前一个比较大的区别。它的上下文的大小,之前GPT-3.5大概是2K,那么现在GPT-4的达到32K.所以它的上下文能力更大,特别有利于支持多模态多轮对话的场景。
所以刚才黄所的问题,大模型的出现是不是一个AI的范式?从这角度看,确实是。这是从小模型加上面向特定任务的微调,转换到了一种大模型加上上下文的学习,这样一种新的范式,这确实是一种新范式的出现。
那么刚才黄所还问这个大模型,是不是通向今后的通用人工智能的一条路?这个就要看我们是怎么来定义通用人工智能。如果我们定义一个狭义的通用人工智能,比如说通过人类的各科考试,那么,这个GPT-4做的已经很不错了。它现在已经参加了美国的各种考试,比如说LSAT满分是180分,它考了163分,打败了88%的考生。还有一些别的考试,考的也都不错。但是还有几种考试,比如说这个十年级的就是大概是高中吧,高中数学竞赛的那个考试还不够理想。
我们如果定义通用人工智能,它的狭义是说能够通过人类的各科考试,现在GPT-4做还是可以了。
如果定义这个通用人工智能的意思是说和人类的智能要看齐,那它还是有些差距。我觉得可能主要有几个方面,第一个是闭环的自主反馈纠错能力。今天我们都知道有自动驾驶,也有人类司机的驾驶。有的时候我们还是会比较担心,说人类司机是不是比自动驾驶发生错误的概率还高一点?但是人类是一个闭环反馈系统,他能够实时去纠错,碰到意外情况的时候,他能马上反应出来。但是这种开环的,比如像今天的这个大模型情况,它没有实时反馈纠错的能力,碰到意外的、之前彻底没看到过的情况的时候,它有时候会发生问题。所以今天不少人可能宁愿坐我们人类开的出租车,也不愿意去信任自动驾驶的能力。
第二,它是跟人类这种深度理解的能力也有比较大的区别,我就不举例子了,就是你给它几个比较绕的数学题的时候,你能把它绕进去。人类其实是懂了,而它没有真正懂。你把它给绕进去了,它的答案就是错的。所以这么说,大模型是不是通向通用人工智能的一条路径?我们如果定义是狭义的通用人工智能,我觉得可能是其中的一条路径。如果是广义的通用人工智能,那就要向人类的智能看齐,它可能还有一些距离。
黄燕铭:您讲的非常清楚,这要看具体的这个应用场景,我们本来的这个应用场景觉得很大,放到一个更大的范围里面,它就变得很小,所以我想这个是一个层层推进的过程。我们今天觉认为的大模型在将来可能还是一个小模型,我们在未来会有更大的一些模型的出现。
02 关于商业应用场景
黄燕铭:海外像大摩这些金融机构把ChatGPT技术应用在理财投资顾问的工作领域,我们相信这种应用也会越来越多、越来越快,相信在不远的将来ChatGPT技术也会在中国大陆全面开花。除了技术,投资者最关注的莫过于未来可能出现的应用场景。我们看到微软已经把ChatGPT整合到了办公软件、会议软件当中,直接跟消费者收费;同时,海外也已经有很多公司把GPT模型用在了不同的领域,比如面对企业的内容创作、绩效营销分析等等。不知道您更看好GPT系列未来在哪些场景中的落地?比如是更看好B端还是C端,开源还是闭源?
芮勇:黄所说的非常好。一个技术到最后,还是要落地的,要有场景的。这个事儿从企业上来看也是完全一样的,我们任何的技术都要落到场景去,要产生经济效益。那么刚才黄所说,有哪些场景是落地会比较好?其实,我们如果去OpenAI的官网去看一看,他们列出了非常多的场景,有48个不同的使用场景,大致有7个类别,包括问答、分类、代码、对话、生成、翻译、转换等等。
我们可以简化一点看这个问题,就看两个大类,一个是理解,另一个是生成。大模型其实非常强,它的语言理解能力要比之前准确很多,所以这是人机交流的一个大的里程碑。比如今后我们使用搜索引擎,可以用自然语言进行搜索了,而不用去找到底是用这个关键词,还是用那个关键词,你只要用自然语言就可以了,这是它理解能力的应用场景。
第二个是生成能力的应用场景,这里有很多智能化的内容生成,比如辅助写作、代码编写等等,这些东西它都可以做了。在节目开始之前,我跟黄所聊的时候,黄所还问说证券分析师是不是也有一部分会被取代?我觉得今后可能社会上有一些职业更容易被取代一些。数字社会劳动力市场有一个新的特征,就是很多这种像能写会算的专业知识技能,逐渐会被标准化、模块化、和程序化。
反而是那些没有被模块化的技能可能更难被取代。有两种技能,我觉得看起来比较难被取代。一种是创意,它包括分析能力、创造性思考能力、理解和表达能力。
第二种是社交智慧,我们人类是一种社交的动物,具有智慧的社交能力,和人际的融合能力、沟通能力和领导力,这些是很难被取代的。
刚才黄所也问到,C端B端、开源闭源。我个人认为C端可能会快速落地,然后是B端的爆发式落地。我为什么这么认为呢?因为我们看今天的这种大模型它的通用能力非常的强,可以立刻就支持C端,包括像个人应用、内容创作、文章、代码、图像视频的生成,等等,所以它可以立刻支持C端,也就可以立刻快速落地。但是这个B端还需要一段时间把大模型和B端给连接起来。一旦能够打通之后,那么B端的落地增长会是爆发性的。这是我个人的看法,关于C端和B端。
那么开源和闭源呢?我觉得闭源现在有一些先发优势,虽然我们叫OpenAI,但是它现在的这些模型,它并不开源,还是闭源,所以它有一定的先发优势。我们从一个比较长期来看,开源是有利于生态建设的,比如说我们今天大家都用的Linux,RISK-V,PyTorch,它都是开源的。开源有后劲,所以我觉得闭源现在有一定的先发优势,但是开源有利于生态建设,它的后劲会比较强。
黄燕铭:芮博刚才讲到人类有两种能力可能是机器暂时还替代不了,第一个是创意,第二个是社交。我们知道在大模型出现之前,也有很多的场景里边存在一些基于特定模型的AI应用。随着大模型的兴起,您认为之前这些AI企业的发展是否需要全面转向大模型?在大模型兴起的过程中,这些AI企业怎么根据自己的比较优势做出相应的战略调整呢?
芮勇:黄所这个问题也是特别的好,我觉得可能所有做产业的,做企业的同仁们都会问这样一个问题。我是这样考虑的,把一项技术注入产品,或者去赋能业务的时候,还是要综合考虑很多的因素。我们当前阶段大模型进步非常快,但不少问题还没真正解决。另外用户场景产生的需求也不是完全一样,并且它的应用程序运行环境也不一样。
所以我觉得,大模型会是非常重要的一支力量,但是可能也不会是放之四海而皆准,所有人都需要上。如果来比较细的来看,有这么几个方面。一个是比如说我们就用这个ChatGPT的知识库作为一个例子,它的知识库截止于2021年,那么问它2022年或者2023年的事,它基本上是不知道的。对于需要经常性知识更新的业务场景,大模型今天还做的不太好。这个也比较容易理解,因为每训练一次大模型非常耗时,并且强大的算力后面还需要很多人工,还要去人为给它一些强化学习的一些反馈。所以它的实时性不强,对最新的消息它也不知道。
所以,对这些场景可能它不是特别适合。第二,它的泛化能力有时能泛化的挺好,有时又泛化的不好。对一些工业应用,真正的应用可能还有点不是很安全,因为谁也不想看这东西时灵时不灵。所以我们觉得还有些场景,它不太能够用得到。大模型的参数是在千亿级的,它需要设备端和云端的实时连接,云端去做各种计算、生成和推理。那么,对于网络通讯能力比较弱,或者是低功耗的设备,它可能也不太适用。
所以我们说,大模型有很多地方都非常适用,但是可能也有一些场景,它并不完全适用。刚才黄所也提到企业怎么去做调整,怎么去抓住机会。我也趁这个机会插播一个广告。大模型里面有几个非常关键的核心技术,刚才我和黄所聊的时候我们都聊到了,比如Few-Shot Learning,就是小样本学习,还有增强学习等等。这些技术,其实联想我的团队很早之前一直在看这个事。
我们把它用在一个比较有意思的地方,用在工厂的智能排产。联想有一家非常大的工厂,在合肥,它的占地有42个标准足球场那么大。全球的每8台PC有1台就是在那里生产的。它有上百条的产线,它能生产的机器类型也是上百款,每一天都从全球飞来成千上万的订单。这些订单那到底是应该排在哪个产线的哪个时间去生产?这就很有学问了,如果这个排产排的好,它的成本就会低很多,它的速度就会快很多,它的产线利用率就会突飞猛进的增强。如果我们用深度学习加上强化学习的这种方式去做,就会得到非常好的效果。所以我们也是在合肥工厂用到了这种强化学习,使得我们排产水平和排产效率大幅的提高。
那么联想现在大的战略方向是“端边云网智”,我觉得这几个方向都会跟大模型发生关系。特别是大模型把新的机会点、新的需求都提出来了。在“端”侧,无论是PC、手机、平板、AR/VR这些设备它都会成为大模型某一种输入的入口。那么“边云网”这些基础设施,如果我们要训练大模型的话,并行计算、分布式大规模训练的基础设施就非常重要。这块儿是联想基础设施业务群会着力去看。
在“智”这方面,我们在看很多的行业智能化,比如说智能制造、智慧交通、智慧教育等等。那么大模型出来之后,不仅是联想了,我相信很多公司也会说,这种通用领域的大模型,如何和垂直行业的知识相结合,在垂直行业做智能化?所以这几个方面,我觉得大模型确实有很多重要的方向,也带来了非常多的机会。
黄燕铭:到目前为止,实际上我们关于AI的主要应用都是在生产管理、企业经营方面。当然AI其实也很大的一块是用在艺术方面,现在大家都在强调人工智能作画。随着AI作画和ChatGPT的“出圈”,我们也看到有越来越多的创业者把生成式AI作为了自己的创业方向。但同时,大模型的人才投入和成本都是非常大的,各大巨头也都已经在做。您觉得如果作为AI创业者,机会在哪里?
芮勇:黄所,这又是一个特别好的问题,我先尝试着从两个角度来回答一下。我过一会儿也特别想听听黄所怎么来看这个问题。第一个角度,我觉得这个就像黄所刚才讲的初创企业,大模型的训练成本非常高昂,可能初创企业不太适合从零开始,与现有的大模型竞争。但是这并不代表初创企业跟大模型就不发生关系。我觉得有很多地方它都可以去发生关系的。
比如在大模型基础之上,进行不同行业的创新。像黄所刚才提到的AIGC,在生成方式,在艺术方面,这些都是一些非常好的方向,在大型之上去做创新。那么,大模型和这个之上的创新就有一点像,比如说在10-15年以前移动互联网时代开始蓬勃发展的时候,一些公司负责开发操作系统的平台,另外一些公司在这个操作系统之上去做它的开发套件API,还有一些公司在这个之上去开发应用。
我觉得今天可能也是一样,有做大模型的大型企业,有做专业知识的专业企业,还有一些初创公司的小型企业,我觉得大家可以形成一个生态,从不同的角度来进行创新和推进。
第二个角度,我觉得有一些企业可以去把垂直行业和大模型做一些适配,尤其是在数据端的适配,因为有一些垂直行业它可能不想把私有数据共享给大模型公司,大模型公司又没有办法去训练它的数据。这个时候就不是一个最优的答案。那么,有没有一些企业可以去做一些很新颖的方式,使得私有企业比较安全地把私有数据共享给模型公司,这个时候就可以吸引更多的数据训练出更好的模型,再吸引更多的用户,这样整个的数据飞轮就能够转起来了。我觉得确实有很多方向,这些初创企业都是可以做的。我也想和黄所讨论一下,在这方面黄所怎么看?
黄燕铭:其实站在我的角度来说,我也思考了很多问题,我自己做证券研究29年,我认为证券研究的原料是信息,证券研究的成果依然是信息。信息研究、信息管理的整个过程贯穿了证券研究的管理的整个过程。但是在这个过程当中,我们有些东西是可以用计算机记录下来,用计算机来进行计算,用计算机来进行记忆,但是有些东西计算机做不到。
我一直在思考一个问题,1946年冯诺依曼在设计计算机结构的时候,他把计算机的主要功能设定为记忆和计算,但是他少了一块东西,跟人类相比,那就是心智,人类的智慧。为什么他没有设计智慧?知识是记录在纸上的,知识可以用机器来记录和表达,但智慧是人需要感悟和认知的,所以知识在书本,在电脑。智慧在人的内心,在大脑。所以是两个不同的东西。因此,计算机能够帮助我们去记忆知识,帮助我们去计算知识。但是计算机不能帮助我们人类去感悟新智慧。
所以我自己认为人工智能再怎么发展,可能有一条鸿沟,没有办法突破,就是“转识成智”,怎么把知识变成智慧,变成智慧是需要相当长的时间学习锻炼,然后不断的去感悟的过程,而且不同的人对智慧的感悟可能是不一样的。
我相信,ChatGPT以及类似的这些人工智能的发展会给我们各行各业在未来带来很大的变化。这种变化主要还是在记忆和计算两大环节给我们提供帮助,毕竟我们在人类的日常大脑的活动当中,计算和记忆占了大量时间,而参悟智慧占的时间并不多。虽然它是最重要的,但是我们相对来讲占的时间不多。
如芮博所言,人工智能没有办法帮我们完成的工作,第一个是社交,第二个是创造性的工作。那从我的角度来说,哪些东西电脑能够完成?哪些东西电脑不能完成?我的理解是形而下的工作可以交给计算机,但是形而上的感悟,目前来看,人工智能还很难去帮我们完成。
什么叫“形而下”?有具体的数据、具体的语言、具体的计算公式,能够按照一种方式,放进去这些条件出来的结果就是这个。这些工作在我们证券研究里面其实有很多,比如说我们日常做证券研究,我们要收集信息,要收集上市公司年报的信息,要收集公告信息,收集各个媒体发布的信息等等,通过把这些信息收集过来,加工整理成我们一系列的研究产品,包括信息汇编类的报告、年报点评类的报告、行业点评类的报告。这些通过简单的人工收集信息,然后简单加工,就可以形成的这一类日常点评性的报告,我相信用人工智能都可以完成。
而这类工作其实在我们日常当中耗费了巨多的时间和人力,所以说我相信人工智能的发展会导致证券研究人员数量可能会在一定程度上减少,大量研究助理需要干的活被机器替代,很多研究助理晚上可以减少熬夜,让机器帮助完成一部分的工作。
不过,是不是证券的研究中所有的东西都可以让电脑来替代呢?我就说一个问题,2014年本人的那篇文章,《股票价格不是树上的花》,这篇文章能让机器写出来吗?我相信也不能。这就好比以前大家在探讨有没有可能让机器写出优美的散文和唐诗、机器能不能参悟人类的智慧达到更高的一个境界。我相信智慧还是需要人类自己去完成。
所以我们也在讨论一个很简单的问题,机器能不能写出让人类满意的研究报告?我的答案是机器可以写出让机器满意的报告,但是机器很难写出完美到让人类最满意的研究报告,但它能够帮助我们解决记忆和计算。
芮勇:黄所讲的非常精彩,我特别认同这样的一些看法,关于机器和人之间的关系,“形而下”和“形而上”之间的关系。我从事信息行业,计算机是信息科学的一个分支。从信息科学来看,数据是一些最原始的东西,数据升华以后才是信息,信息升华以后才是知识,知识再升华以后才是智慧。它有好几个不同的等级,所以我特别同意刚才黄所讲的,确实人类和机器还是有很多不一样的地方。黄所另外讲的一个观点是人和机器的之间的关系,我也非常认同。
我从2015、2016年开始就跟大家说AI到底是哪两个字,它不一定代表Artificial Intelligence,我们今天所说的人工智能,我觉得它更代表的是Augmented Intelligence,是一个增强以后的人类智能。其实人和机器的关系不是人和机器PK,而是人加上机器,机器是一种辅助的工具使得我们人类更加强大。
机器应该为人类服务,而不是人类为机器服务。那么刚才黄所提到的一个是计算、一个是记忆,这两个让机器去做吧。这两个机器本来做的都很好,它算的比我们算的快,记得也比我们记得多。但是很多它不会的东西是在我们人类的脑子里,那刚好机器干机器强的事,人类干人类强的事,所以结合在一起,应该是一个更加强大的人,就是我认为是一个增强的人类,所以认同黄所刚才讲的这几点。
03 关于AI技术伦理
黄燕铭:我们也注意到,不管是ChatGPT还是最近发布的GPT-4,在回答一些问题时也生成了一些对部分人群不友好的回答。您觉得随着人工智能的发展,未来我们可能会面临哪些技术伦理方面的问题?
芮勇:黄所问了一些非常高深的问题,这也是上升到哲学高度了。这个事我是这样看,伦理这个事确实很重要,如果看我们古代的一些先贤,他们对这些事情的看法。比如说从《道德经》的角度来看,《道德经》里有一句话,“天之道,利而不害”。这就是说,自然规律是利万物。我们的先贤在几千年以前的这些理念、观点,对今天的AI发展仍然有指导意义。
在人工智能技术走向产品的时候,一定也会碰到道德和伦理的问题。之前的某款聊天机器人就可能会讲一些不太准确、不太合适的话,上线不到24小时就被迫关闭了。那今天的ChatGPT在这方面已经做了很大的改进,它的情商还是比较高的,很少会有侮辱性语言和偏激行为,因为它的训练方式已经和7、8年前相比有很大飞跃了。但即使是这样,我们仍然需要看看怎么能让它更加遵守我们人类的伦理。
我们来回顾一下大模型的训练过程,它其实用了互联网级别的海量数据来训练。这就是像一个孩子,他学习了很多基本的文化知识,但是他没有建立价值观,他不知道什么叫对,什么叫错,什么叫正确的,什么叫不正确的。对于这一点,我们要教这个孩子什么是对的,什么是错的。
在ChatGPT里有一个算法,我们刚才也提到了,就是基于人类反馈的强化学习。这个就是为了去教这个大模型人类的价值观是什么,人类认为什么是对的、什么是错的,使得大模型向人类的价值观来靠拢。所以,这是一个挺重要的问题。所以我们看到的在人工智能的发展过程当中,给我们带来了很多生活的便利、生产效能的提高,但是这些伦理和道德问题,我们也要花大力气去想,这些人工智能产品的落地时需要遵循的一些原则,才能使之健康有序的发展。
现在业界比较公认的几个人工智能基本原则,包括公平、可靠、保密、包容、透明、负责,等等。我们再回来看这几个字,很多理念也是我们中华民族这几千年来文化的根基。所以基于这样的一些理念,我们能够让人工智能以一种合乎伦理的方式进行使用,也可以设计出让人更加信赖的人工智能、更加体现道德原则的解决方案。
黄燕铭:还想跟芮博交流最后一个问题,改革开放40多年,中国的科学技术突飞猛进,中国的金融行业也是日新月异,您作为一个走遍世界的技术领军人物,站在您的角度,对中国的人工智能,特别是对GPT的发展前景如何看待,能否做个展望?
芮勇:对,我觉得我们的前景非常的好!首先,整个科技领域,人工智能领域,无论是从基础算法,还是从我们的数据,都非常丰富,非常先进。其次,中华民族有一个比较重要的美德,我们非常的勤奋。那么在强大算法的基础之上,加上这种勤奋的美德,我们愿意合作的这种美德,我觉得我们无论是人工智能,还是更广阔的整个科技领域的发展,都会变得越来越好!好,谢谢黄所!
黄燕铭:谢谢芮博!我相信人工智能的未来发展,前景非常广阔,现在才刚刚开始,未来还有很多新的技术发展、新的应用值得我们期待!我们大家可以期待一个更加美好的未来!我们今天的节目就到这里谢谢大家!
(文章来源:国泰君安)
关键词: