您当前位置:首页深度人物

许卓:ChatGPT对我们的意义

浅谈珠宝首饰行业管理应用软件

许卓


华为四级流程专家、PMP资深项目管理顾问、EBPM企业数字化智能管理顾问,主导构建过多家知名企业CRM客户关系    管理系统,擅长LTC、MCR、MPAR、ITR等销服流程建设,曾服务华为、TCL、长城移动等企业。


人类从原始社会开始,不断地探索我们的外在生存环境,工业革命前的数千年间,科学树的扩展一直都很缓慢,随着人类活动空间的延伸,很多自然现象无法解释,人类无奈之下于是创造了神灵的概念来缓解群体的恐慌,这个技能一直延续到现代社会:对于不甚了解的领域,人们愿意神化之,如外星人、宇宙、人工智能等等。


大多数人面对着人工智能(AI)这个问题时,和原始人一样,有一种既害怕又神往的情愫,一方面激动于人类所能达到的技术高度,另一方面对于运用新技术所带来的生存环境的变化,不免有些惴惴不安,惶惶不可终日。回顾2016年,当Google的AlphaGo战胜地球上的围棋绝顶高手李世石之后,甚至是远在1997年,IBM的“Deep Blue”战胜国际象棋大师Kasparov的时候,很多人就开始担心,是否世界上所有的事情计算机都能做得比人好?今天,当ChatGPT再次引爆人工智能这颗炸弹时,很多人就更恐慌了。为什么会恐慌呢?我们今天花一点篇幅来探讨一下这个问题。


今天ChatGPT让人感到神奇的地方主要有两个:一个是它能回答复杂的问题。另一个是你可以要求它给你写一篇公文。多数人不知道,ChatGPT会画画那是因为GPT向外挂的AI绘图软件发出指令的结果,并非他本身的功能,这点我们会在后面谈到。面对ChatGPT,有人赞扬它,有人不以为然,有人用它贩卖恐惧。不过,那些内容里大多数的理解都带有想象的色彩,甚至违反了基本的信息论和物理学原理。为了破除误解和迷信,我们先要对ChatGPT有一个理性的认知。


首先了解一下,所谓的人工智能(AI)是什么?包含些什么内容?人工智能(AI)望文生义可分为“人工”和“智能”两部分,“人工”实际上就是指人工系统,即人类加工改造的自然系统或人类借助系统创造出的新系统,例如立体成像系统,生产系统等;“智能”的概念相对有些争议,但主要还是指通过软件来模拟人类某些智能行为的基本理论、方法和技术,这其中这涉及到诸如意识、自我、思维(包括无意识的思维)等等问题。也就是说,人工智能是研究使用计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用等等,而最近火遍全球的ChatGPT就是这样一种应用。


许卓:ChatGPT对我们的意义


ChatGPT是美国OpenAI 公司研发的聊天机器人程序,第一次发布于2022年11月30日。其全名是Chat Generative Pre-trained Transformer,chat直译是聊天,Generative 是生成式,Pre-trained 是指需要预先训练,Transformer是训练模型,所以ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。


ChatGPT并不是一夜之间实现了很多过去没有的功能。可以说,它就是科技发展累积而成的结果。那为什么今年之前,我们没有看到ChatGPT这样的产品呢?其实ChatGPT现有功能谷歌公司三年前就实现了,但谷歌如此规模的公司基于版权和法律的因素还不敢快速产品化,如今一些机构不为难OpenAI,因为跟它打官司榨不出多少钱来,换成谷歌来试试?  


现在ChatGPT被炒得那么火,实事求是地说,有做得好的也有不尽如人意的地方。人们使用ChatGPT的目的大致可以归结为三个:


第一个是信息查询,过去Google是给出有答案的网页链接,但今天ChatGPT是直接给出答案,这也是Generative(生成式)的涵义;第二个是让它帮助写作业,这是很多大中学生使用它的原因。第三个则是写一些应付差事的汇报,这主要是职场上的人士使用。


这三件事的核心是两个,一个是理解自然语言,明白人的意图;另一个是产生自然语言的文本,满足人的要求。在理解自然语言这方面,ChatGPT做得比较好,但是在产生内容方面的表现就不稳定了。有时让人眼睛一亮,有时也让人大跌眼镜。至于为什么它的表现不稳定,这和它之前使用的训练数据有关,也和人对它提出的不同要求有关。


虽然GPT自称是可以自己产生训练数据,但实际上,它要依赖人为产生的初始数据,才能产生新的数据。没有好的初始数据,它产生的数据也是乱七八糟的,当然,训练出的模型质量也就无法保证了。比如计算机很早就能帮助人类写财经文章,这是因为这方面的数据多,而且这类文章格式固定。一些人认为用ChatGPT写每周汇报很方便,也是因为这种汇报的格式很固定。


说起来,ChatGPT的底层技术已有50年历史了!ChatGPT的本质是语言模型,也就是对人类语言建立数学模型,如同汽车、手机不断迭代一样,语言模型诞生后也在持续演进。


第一个阶段是解决语音识别问题和机器翻译问题。在上世纪90年代采用通信中的算法并且引入语言模型之后,IBM的语音识别系统可以识别22000个英文单词,而且错误率从过去的30%左右降低到了10%以内,换言之,十个单词的识别仅有不到一个单词的错误率是有很大应用价值的。当时在卡内基梅隆大学的在读博士李开复就采用IBM的技术开发了一个实用语音识别系统,从而享誉天下;与此同时, IBM的另一个小组也解决了英语和法语的互译。


第二阶段,尝试在语言模型中加入语法和语义信息,并且解决随之而来的计算量指数级增加的问题。由于海量的计算以及天价的计算力成本,也限制了技术的快速发展,当时是把拥有上千名科学家的IBM沃森实验室所有空闲的服务器都用上,然后计算了一年,才完成了模型的训练。比如,2012年,我们在Google做机器问答时,就需要对几百亿个句子做深入的语法分析,提取各种有用的信息,而不是简简单单地进行统计。这个计算量,即便是Google也感到很吃力。今天,ChatGPT的语言模型利用的语言信息更加丰富,计算量也更大,即使利用大量的计算能力更强的GPU(图形处理单元),计算的成本也很高。


从上世纪90年代起,科学家还提出了自适应的语言模型。也就是说,一个人使用语言模型的过程中,他个人输入的信息和间接提供的反馈信息,能够被用来改进语言模型。今天的ChatGPT其实就有这个功能,它会根据用户的输入不断迭代优化。你如果用它写几篇文章,然后不断对那些文章进行修改,它就会学到你的行文习惯,然后根据你的行文习惯输出内容。基于ChatGPT的这个特点,说明它有可能会在运行过程中有意无意地探知敏感数据并加以利用,或会造成不可预知的巨大损失。因而2023年4月,中国支付清算协会倡议支付行业从业人员谨慎使用ChatGPT。 另外2023年4月,意大利宣布临时禁止使用ChatGPT;同年4月13日,西班牙国家数据保护局和法国国家信息自由委员会分别宣布对ChatGPT展开调查。同日,欧洲数据保护委员会宣布成立专门工作组,以促进各国协同调查,并就各数据保护部可能采取的执法措施交流信息。各国纷纷采取措施限制ChatGPT的使用,充分说明全球政府已经认识到数据是国家的核心资产,与此同时中国的AI公司也借船出海,成熟不成熟的诸多互联网、软件服务公司也都推出各种基于自然语言处理的AI工具(如下图)。


许卓:ChatGPT对我们的意义


当然ChatGPT是被训练出来的,训练数据是一把双刃剑,如果人们刻意误导它,输入垃圾信息,则它输出的文本质量也会跟着下降。


之前我们提到,挖掘语言中更深层的信息,能有效提高语言模型的能力,但与此同时,也让计算量变得巨大。因此,为了让计算机更有效率地工作,在2000年之后,很多语言模型的研究工作就转到提高算法效率上了。


第三阶段,2010年前后,谷歌开发了深度学习的工具——谷歌大脑:一方面,能够更有效地利用计算资源,这使得语言模型能够越做越大;另一方面,也让模型计算出的概率越来越准确。由于数据量的增加和语言模型准确率的提升,通过十年的反复训练,计算机已经蜕变成可以做到了从写一句话到写一个完整的段落,可以说,计算机真的变得“智能”了!根据信息论原理,输入的信息量少、输出的信息量多,这中间的差异必须有办法给补回来,否则输出的内容里一定会充满不确定性。补充的信息从哪里来呢?实际上,都是存在于语言模型中的,需要在训练时先把信息输入语言模型。这时的语言模型就是所谓产生式的了,也就是GPT中的G—Generative。


比如,对GPT-3训练的数据就包括了好几十万本的图书、以及全部维基百科的内容。这么多的数据还不到它所用数据的五分之一。实际上,仅仅是维基百科的内容就足以回答人们提出的绝大部分有意义的问题了。因此,ChatGPT的表现令人拍案叫绝这并不奇怪,因为人一辈子学习的内容可能连它的千分之一都没有。当然,光有信息还不够,为了保证一段文字中每个句子之间的连贯性,还需要语言模型能够计算出几个句子出现在一起的概率。在段落这个层级进行计算,要比在句子这个层级计算,计算量大出成千上万倍,而不是几倍几十倍。同时,为了让语言模型产生的段落不太发散,通常还要用一些模版对生成的文字进行限制。这也是为什么ChatGPT写汇报和简历能写得很好,写不受限制的文章就显得非常枯燥的原因。


ChatGPT被热炒的原因,其实是在于它看上去有了“自我进化”的能力,照眼下的迭代速度发展下去,不断扩大应用领域,它可能可以解决很多原本需要人类才能解决的问题,在人类终其一生才能学会有限技能和知识,并以此为生的背景之下,每个人都产生了被机器替代的危机感。


但其实ChatGPT的能力也是有限的,他的能力基本上不会超出以下三类:


第一类是将信息从一种形式转换为另一种形式。在语音识别中,输入的信息是语音声波,输出的信息是文字,它们是一一对应的,因此是信息在形式上的转化。机器翻译也是如此,是从一种语言的编码,转换成另一种语言的编码。依照这个原理,ChatGPT也可以运用到医学领域的基因测序上,因为DNA也是一种信息载体,可以转化为人类掌握的ATCG碱基对形式;另一个就是可以进行简单的软件编程,因为这也是一种机器的语言脚本。


第二类是根据要求产生文本。像回答问题、回复邮件、书写公文都属于这一类。这一类都是输入远远少于输出,因此需要ChatGPT补充大量信息,这个是语言模型里最难的部分,同时也是需要大量人工干预的部分。想要提升ChatGPT的写作质量,需要不断地跟它进行反复迭代,如提一个要求,它写完以后,再提出修改要求,如此反复几次,就能达到高质量的输出。


第三类是信息精简。例如为一篇长文撰写摘要,按照要求进行数据分析,分析上市公司的财报,都属于这方面的工作。这类工作的难点在于,删除哪些信息,保留哪些信息?这就要看算法是如何设计的,它所依赖的语言模型之前都统计过什么样的信息等等。正常来讲,这一类工作,机器会比人类做得更好,因为它在做摘要、做分析或者剪辑视频时,能够做到比人客观,当然另外就是它给出的结果缺乏个性和情感色彩。


我们上文阐述了ChatGPT的来龙去脉,实事求是地讲,ChatGPT 既不像很多人说的那么神奇,也没有那么可怕,但也不是毫无用途,如果ChatGPT这件事是一个方向,早一天或晚一天开始这方面的工作差别不大,毕竟追赶别人比自己在前面摸黑探索要快得多。在消费电子展(CES)上,从一个概念原型到挣钱的产品,中间通常要七年时间来进行产品化。而七年前展示原型的,和七年后展示挣钱产品的,常常是两家公司。如果一项技术只有一年的窗口期,不是说明它发展得太快,一年就把全部的问题解决了,而是说明它一年后讲不会存在了。


那么说点实际的,ChatGPT的“横空出世”将会抢了谁的饭碗呢?会被ChatGPT取代的人有三个特点:从事不费体力的工作,不动脑子的工作,不产出新信息的工作。如果一个人的工作不创造新的知识,只是把现有的信息整理整理,那么一定会被机器替代掉。


我们可以尝试罗列一下类似的工作岗位如下:


1.单纯的文字处理工作者

2.短视频剪辑工作者

3.行政公文、法律文书制作者

4.从事运营、测试、数据处理的IT从业者

……


我只是举个例子,大家可以按照这个标准去自己琢磨一下。


另外一方面,越是到了各种智能工具不断涌现,做事情越来越便利的时候,从事创造性的工作也就越来越重要,在智能的时代,个性和思想才是弥足珍贵,不可被替代的存在。


相关资讯