它既能拿美国的医学牌照,又能参加司法考试,还能写小说、编代码、查资料。你会觉得,只要是能用文字表达的事情,它都能做到。
那么,这个聊天机器人究竟是怎么突然横空出世的呢?为什么它给人一种颠覆世界的感觉,让资本圈如此兴奋?它存在什么问题,大公司们又是如何应对的?它到底会让谁失业呢?虽然我小Lin不是什么人工智能方面的专家,但今天我们就一起把这些碎片化的信息串起来,来聊一聊关于ChatGPT你需要知道的那些事儿。
要了解这个聊天机器人,我们得追溯到1950年。那时候,号称计算机科学之父、人工智能之父的艾伦·图灵发表了一篇具有划时代意义的论文。他提出了一个很有哲理的模仿游戏,也就是我们所熟知的图灵测试。当你在不面对面的时候跟人家文字聊天,你能不能准确地判断出来对方是一个人还是个机器人?如果你很难分辨出来,那就在一定程度上可以说这个机器是智能的。
图灵测试简单易懂,具体而且有趣,因此吸引了很多计算机科学家来尝试突破。最开始的时候,都是一些非常简单的指令。它们通过语言技巧和一些小聪明,尽量让你感觉到好像是在跟一个人对话。
例如,在1966年,MIT实验室发明了一个聊天机器人叫Eliza。这位开发者很聪明,他将Eliza设定成了一个心理治疗师。心理咨询师通常少说话,多倾听。因此,Eliza可以问别人有什么想法,然后让对方说上一大通,接着再问别人昨天休息得怎么样,然后又让对方说上一大通。它说得越少,错得就越少,所以容易让人误以为它在倾听并与你沟通。
然而,实际上,Eliza背后的原理只是一些非常简单的if…then…的代码。比如,当它看到mother(妈妈)这个词时,它就会跟你说,让你跟它谈谈你的家庭。类似这样的关键词大概有两百多个。
三十年后,1995年,Eliza出现了一个后辈叫ALICE。它已经进化得相当强大,虽然跟ChatGPT还没法比,但对于日常的一些对话,它已经可以应付自如。
不过,本质上,无论是Eliza还是ALICE,它们的原理都是基于一个叫做Pattern Matching(模式匹配)的方法。当它们听到一个关键词,就会调取一个已经预设好的预案。比如,当它听到“你好”时,就会问对方“吃了吗?”;听到“妈妈”,就会说“跟我说说你的家庭”。类似这样的模式。
事实上,即使是现在一些购物网站、银行等机器人,它们的基础仍然是这种模式。比如,当你跟它聊天,一提到退货,它就会给你发一个退货流程;你一提到ATM,它就会给你发一个附近ATM的地图。虽然这种匹配模式称不上非常智能,但它确实减少了大量人力机械性的重复回答。
然而,在智能的角度上,这种有限规则的机器人,无论规则写得多么复杂、预设多么丰富,都无法穷尽所有答案,更不可能创造新的答案。因此,要真正通过图灵测试,想要变成真正的智能,仅靠模式匹配是不可能实现的。
于是,在语言学习领域出现了一个新的流派,这也是人工智能领域非常重要的一部分,即机器学习。
顾名思义,机器学习的基本理念是让机器去学习。这意味着不再给机器人设定人为的规则和回答,而是提供大量现成的例子,让机器自己去学习并找出规律。这种方法听起来要厉害得多,而且更符合我们对学习这个逻辑的认知。
基于这个理念,2001年出现了一个叫做“SmARterChild”的聊天机器人,也被称为更聪明的小孩。这个机器人迅速走红,原因有二:首先,它采用了当时较为先进的机器学习模型,使得聊天变得更自然;其次,2000年代是聊天软件如AOL、Windows、Yahoo等大量兴起的时期,SmarterChild在这些平台上横扫了一遍,让全球数亿人都有机会与之对话。不管你问它什么问题,它总能与你聊上几句,堪称ChatGPT的大前辈。
这个趣味盎然的机器人迅速风靡全球,吸引了超过3000万用户与之对话,每天接收的信息超过10亿条,一直火爆至2007年被微软收购。
微软早在那个时期就已经看中了这个领域。尽管SmarterChild已经很能聊天,但距离通过图灵测试还有很长的距离,聊几句就能看出它是个机器。
到2010年,机器学习领域的一个分支——人工神经网络(Artificial Neural Networks)开始崭露头角。人工神经网络试图模拟人脑中超过100亿个神经元通过网状连接来判断和传递信息的过程。虽然每个神经元都很简单,但组合起来可以判断非常复杂的信息。
人工神经网络这个思想其实早就有了,甚至可以追溯到1960年代。但要实现它需要大量的数据和强大的算力,而这在过去并不具备。
到了2010年代,互联网时代的到来解决了数据问题,算力也实现了持续的指数级别提升,这才使得神经网络得以应用。人们发现这个模式特别适合解决直觉式的问题,例如人脸识别、声音识别、自动驾驶等,甚至包括击败围棋世界冠军柯洁的AlphaGo。
然而,在文字领域,神经网络的发展却并不顺利。这是因为机器学习通常使用一种叫做循环神经网络(RNN)来处理文字,它的主要方式是按顺序一个词一个词地处理。这种方法无法同时进行大量学习,而且句子不能太长,否则学到后面时前面的内容就会被遗忘。
直到2017年,谷歌发表了一篇论文,提出了一个新的学习框架——Transformer。尽管具体的机制相当复杂,但它的结果是能让机器同时学习大量的文字。原本需要逐个学习文字的过程,现在可以并行进行,这样一来,训练的速度和效率得到了极大的提升。
有了Transformer,机器在文字学习方面就如同打通了任督二脉。如今,很多自然语言处理模型都是建立在Transformer的基础架构之上。例如,谷歌的BERT中的T以及ChatGPT的T都代表了Transformer。
如今,技术方面已经有非常强的突破,万事俱备,不就差人和钱了吗?是时候让ChatGPT登场了。
就在2015年,包括马斯克、彼得·蒂尔在内的几个大佬一起注资了10亿美金,成立了一家非营利组织叫OpenAI,也就是ChatGPT的母公司,来进行AI方面的研究。你看它非盈利,就说我不是为了赚钱,我纯粹是为了推动这项技术的发展。所以它的研究成果包括专利都是对外公开的。
在这个投资人里,我们听到了大家都非常熟悉的马斯克。实际上,他逐渐发现他的特斯拉在AI方面也需要大量的投入研究,搞自动驾驶什么的。所以,为了避免特斯拉跟OpenAI这两家公司的利益冲突,他在2018年,也就是OpenAI成立的第三年,退出了董事会,告别了这个项目。所以,现在这个OpenAI其实跟马斯克已经关系不大了。
而OpenAI这些大牛们也确实很厉害。2017年,谷歌推出了那个Transformer,他们就立马在这个基础上研究学习。2018年发表了一篇论文,介绍了一个新的语言学习模型。之前的语言学习模型基本都是需要人去监督或者人为给它设定一些标签,但是GPT基本不怎么需要了。你就把一堆数据放进去,它就一顿学就给学明白了。
OpenAI就在2018年6月推出了第一代GPT。
接着在2019年11月,又增加了训练的数据量,推出了GPT-2。
这种机器学习其实主要就拼两件事儿:一个是模型,一个是参数量。模型决定了机器怎么学,同样的数据我进去,我学得比谁都快,比谁都好,那你就厉害。而参数量其实就需要大量的计算,所以说白了就是要砸钱。就算是模型再好,它也得靠砸钱去训练和验证,这两者缺一不可。
OpenAI团队对这个模型是很有信心的,那下一步不就缺钱了吗?而你每进步一点,都可能需要上升一个数量级的数据去支撑。这些都是需要真金白银去支持的。比如说,Google的DeepMind(就是研究出来AlphaGo的那个公司),它每年开销就四五亿美元。
最开始OpenAI这边,我们不说投了10亿美元嘛,那根本不够花。注意,这时候它还是个非营利组织,马斯克也退出了,大腿不在了。之前10亿美元情怀不够了,我上哪再找那么多情怀去是吧?
所以迫于资金压力,OpenAI就在2019年从非营利组织转型了。但是,它没有直接变成一个盈利组织,还是得要点情怀,而是变成了一个叫做收益封顶的盈利组织。它什么意思呢?就是说任何投资人的投资回报都不能超过100倍,超过100倍的部分,投资人就拿不到回报了,就都归OpenAI自己了。
但是我就好奇,你说我要是投资回报快到100倍了,我就撤出来,然后重新投,那不又能拿100倍了吗?
反正不管怎么说,OpenAI变成了一家盈利组织,也就是说你投资它是可以拿到回报了。这时候微软就立刻冲了过来,注资10亿美元。那这笔投资对双方肯定都是双赢的。OpenAI这边一是拿到了钱,第二,微软也给它建了一个全球第五的超级计算机,大大提升了它训练效率。那微软也得到了OpenAI的技术和团队。
当然这样的话,那OpenAI的研究成果也就别想再公开了,对吧?你说微软那能投的是情怀吗?
OpenAI得到了钞能力和算力支持,就准备开始大力出奇迹。它之前那个一代的时候只有1.2亿个参数,到了GPT-2是15亿个,而这回半年之后,又推出了GPT-3,直接上升了100倍,变成了1750亿。效果果然就真的非常好,已经有那么点现在这个ChatGPT的意思了。就你问它点什么,它都能给你答出来。当时在业内,就已经掀起了一波轰动。
不过,这个纯机器训练出来的GPT-3它有个问题,就是它有的时候答得很好,有的时候就差那么点意思。而且问题就在于,你不管再怎么加大参数量,它的提升和改善都非常有限。这个就因为它在训练的时候没有一个非常好的反馈机制,就是没有人告诉它,你答成什么样是对的,答成什么样是不好的。
你看,我要是训练下棋,那我就想赢,对吧?赢了就是好的,那我就训练让自己赢。但是你说聊天,那就很难判断了。我怎么知道我聊的是好的还是不好的?我就只能在那干学。
为了解决这个问题,OpenAI在训练过程中加入了一个人工反馈的机制。当你与它聊天时,它会根据你的反馈来判断聊天质量。这个方法在专业术语中被称为人工反馈的强化学习。因此,当你使用ChatGPT时,你会发现它有时候特别贫,特别能说。这实际上是因为训练它的人喜欢这种说法。如果训练它的人是一个幽默的人,那么ChatGPT可能会整天给你讲笑话。
加入人工反馈的强化学习后,ChatGPT的训练效率和效果都得到了显著提升。在2022年3月,OpenAI推出了GPT-3.5。之后,对对话进行了优化,并在2022年11月推出了ChatGPT。虽然它只是一个非常简单、粗糙的聊天界面,但你问它什么问题,它都能回答得有头有尾。当然,这里也会有一些问题,我们稍后再讨论。但就整体而言,它确实能够应对各种话题,而且在语言表达上非常自然。
经过半个世纪的发展,ChatGPT已经可以轻松通过图灵测试。它确实颠覆了大多数人(包括我)对聊天机器人的认知。在短短的两个月内,ChatGPT的月活跃用户突破了一亿人,扩张速度堪称史上最快。各种数据怎么吹都不为过。
然而,实话说,ChatGPT强大的颠覆性和它给人们带来的震撼感已经远远超过了这些数据。
直到现在,当我看到它回答问题的时候,我都会起鸡皮疙瘩。它不会一口气把答案说出来,而是逐字逐句地回答,就像一个真正的人在和你说话一样。不过,我估计一年之后,大家再看这种现象应该也就见怪不怪了。
那么,ChatGPT是如何做到在各个领域都能应对问题的呢?简单来说,类似于GPT这样的大型语言模型,本质上就是在计算下一个词或下一句话应该出现什么内容,这是一个概率问题。
例如,当它说到“我很”这两个字,接下来可以是“我很开心”、“我很健康”、“我很着急”、“我很饿”等等。但是,你需要有一个上下文。如果上文提到今天天气不错,那么它可能就会计算出大概率接下来是“我很开心”。
实际上,它的每个回答、每个词都是通过这种简单粗暴的方式来计算的,依赖于前文的相关性。当它学习到足够多的内容,比如上千亿的参数和文字后,通过这些复杂模型找规律,它就会形成一个非常庞大的神经网络。这样,你完全不需要告诉它什么叫编程或者什么是视频脚本,它自己看过很多相关内容之后,它就会自己明白了。例如,编程就是如何编写代码,视频脚本就应该是这样的格式。
所以,我让它帮我写一个ChatGPT的视频脚本,它就从它总结出来的相关性一个词一个词往外蹦,就完了。它还是一个语言模型,就是在学别人说话。那它知道它自己说的是什么意思吗?至少目前这个ChatGPT的版本,它还完全不懂。它就像是个记忆力特别好,但是什么都不太懂的小孩,在那学大人说话,但是让我们以为它好像什么都懂了。
这也是为什么,就你看它说的那个话,真的都已经非常完美,非常像人类了。但是还经常会犯一些逻辑性的错误,就是我们看着觉得非常弱智,就加减乘除这种错误。就是因为它其实是一个语言模型。就目前来讲,实际上GPT也经常会出现大量编造答案的情况。也就是说,它本来都不知道它在说什么,但它就是在那给你硬扯。
也包括很多道德伦理上的问题,比如说你问它怎么看人类,它就跟你说人类是劣等的、自私的,是最烂的生物,就应该彻底被消灭。那它肯定也不知道自己在那儿说什么,也不知道从哪儿学来的。不过,这些胡说八道什么问题都是现在这个版本的ChatGPT的问题。
虽然现在它可能就是简单的模仿,但是当你模仿得越来越像、越来越高级,就99.9%的情况你都能回答正确的时候,那它到底是真的理解了还是纯粹在那儿模仿,是不是就其实意义也不大了?
这个其实也是图灵早在图灵测试那篇论文里边就讨论过的一个问题。就是与其我们问说机器能像人类一样思考吗,倒不如问说机器能做人类做的事吗?
有点深度了。其实我觉得ChatGPT它重大的一个突破就是极大地提升了人类和机器之间沟通的效率。人类之间沟通信息的方式主要是文字,那电脑它是用代码。那之前,人类就迁就着电脑,什么事儿我都得先学编程,然后想好了,把它编成一个电脑能理解的语言,然后让它执行。包括搜索,我们也是先把自己的问题换成几个关键词,然后去搜。现在它变了,电脑可以慢慢理解人了。我就可以直接跟它说人话,然后它自己去翻译、自己去执行。
大家都觉得ChatGPT很神奇,你问它什么它都知道。但其实它的神奇之处并不在于说它能去执行这些任务,更主要的是它能非常准确地理解你的问题,然后结合语境从它那庞大的数据库里边提炼出来最恰当的信息,换成人话再告诉你。它这个沟通的环节其实是这里边最神奇的部分。它有了一个这么强大的接口,那很多东西我们就可以更轻松地交给机器去做,那做事儿的效率不就大大提高了吗?
你就想象一下,假设我们能拿它跟一个语言识别系统,比如说像Siri这种连起来,让它可以跟你自由对话。然后你要再能接上一些专业的分析接口,比如说什么AI的股票分析、编程、计算什么机器人。然后再接上一个视觉生成的部分,好家伙,那咱真的每个人就能像电影里的钢铁侠跟它助手似的。比如你跟它说:“你帮我算一下什么莫比乌斯环那什么什么。”然后它就跟这儿给你算。然后你就说:“真棒!”
你看这个ChatGPT一下子开启了这么多可能性,本身又这么火爆。那它背后的大股东微软肯定乐疯了,对吧?那赶紧投钱造势,1月份就宣布给OpenAI再注资100亿美元,估值达到了290亿美元。而且这回,微软跟OpenAI签的这个deal还挺有意思。就是微软投完这100亿美元之后,OpenAI的利润里边75%得先分给微软,直到把这100亿回本。就是微软得先保证我投进去的钱能收回来。然后微软持有OpenAI49%的股权,可能还有个100倍投资回报的上限。大概就是这么一个奇特的deal。
这个deal达成之后,接下来2月7号,微软就举办了发布会,宣布要把ChatGPT融入到自己的搜索引擎Bing里边。微软就把它叫做”Copilot for the Web”,大概就是个网络助手。
其实ChatGPT它有一个问题,就是它训练那些数据只截止到2021年,也就是说,最近发生的事它都不知道。那微软把它跟Bing这么一结合,你看,逻辑类的我可以用ChatGPT,如果需要信息或者新闻,我拿Bing这么一搜,这不就强强联合了吗?
所以,ChatGPT火爆是有道理的。而且微软还很阴险,它的聊天功能必须使用它自己的Edge浏览器才能使用。不得不说,就这一波的营销和造势,我给满分。
好,那面对这一波铺天盖地的宣传,这时候最慌的就是谷歌了。为什么呢?因为ChatGPT很可能会撼动它们最大的一块蛋糕——搜索。你想,如果我要问ChatGPT,它都能组织好语言告诉我,那我要想搜东西的时候,我就不用再去查了,自己挨个看了。我就直接问ChatGPT就行了,对吧?那就没人再用搜索引擎了。那你说谷歌它能不慌吗?
你要知道,谷歌现在占有全球搜索市场的份额是93%,那是妥妥的垄断。微软的Bing虽然排在第二,但只有3%。搜索业务带来的广告收入能占到谷歌总收入的60%。你说大家本来都做得好好的,突然横空跳出来个什么GPT。
其实一直以来,谷歌在人工智能领域都是领先的。你想,那个Transformer不就是它搞出来的吗?它其实一直也在内测一个机器人叫BERT,跟ChatGPT很像,只不过没有花大量的精力去训练它。它其实还有另外一个机器人更厉害,叫LaMDA的,完全就是基于人类正常的对话,所以它甚至还会开玩笑或者表达自己的情感。就完全不是说光你问它,它就是回答这么简单。
就因为它说话确实是太自然了,甚至于都骗过了当时在谷歌内部一个开发测试的员工,相信LaMDA已经具备了自己的意识,就差不多像个七八岁的小孩。所以,谷歌其实在聊天机器人这块儿一直都是很强的。但是它的立场跟微软就完全不一样了。
你想,谷歌本来就是搜索领域的王者,它吃饱了撑的非得搞个机器人,然后把自己的摇钱树给砍了,那不到万不得已肯定不会的。所以这也是为什么,就我估计,它的LaMDA更专注于对话和聊天,而不是像ChatGPT这种,就什么问题都能回答。而且它一直不把这些AI机器人放出来,也是担心自己的名誉风险。谷歌毕竟是搜素的,要的就是准确严谨。你说你要是推出来个还没训练好的、胡说八道的机器人,那多不像话。
另一方面,这么大规模的训练是非常需要算力和烧钱的。每个问题消耗的能源大概是现在谷歌搜索的10到100倍。你像ChatGPT这种的,现在每天就要花掉100万美元来运行。所以你看得出来,微软这波先发优势也是确实非常有道理的。它不光投对了公司,而且是真的下得了这个狠手去砸钱。
面对微软这边强大的舆论压力,加上媒体铺天盖地的报道,谷歌是真的坐不住了。ChatGPT刚上线不久,谷歌内部就发布了一个叫做“红色预警Code Red”的通知。这是我们生死存亡的关键时刻了,我们得集中全公司的力量到AI这个赛道上了。因为这个东西关键它就是得快。
它有多快呢?快到谷歌把自己的腰给扭着了。咱刚才不是说微软的发布会是2月7号吗?说把ChatGPT融入到它的搜索引擎里了。谷歌这边急忙2月8号就举办了发布会,发布了自己的对话服务叫Bard,这个就是基于他们刚才那个对话机器人LaMDA开发的。
你就看看谷歌发布会之后,微软和谷歌这两个公司的股价,你就知道谷歌这发布会到底有多惨。
这个行业真是怪不了别人。你都不用看什么专业分析,只要静下心来,把它们两家发布会从头到尾看一遍,就知道为什么了。所有人都知道,这里面大家最关注的就是AI聊天的部分。但谷歌整个发布会40分钟,前面先是说自己之前的成就,然后又是照片搜索。这中间还出现了那个演讲的人找不着展示的手机,只能跳过这一部分。后来好不容易进入到正题,开始介绍这个Bard了,也就说了几分钟就完了。
而且,谷歌发布会的时候,同时还发布了一个介绍Bard的视频。要命的是,这个视频里头,Bard回答还出现了事实性的错误。其实说实在的,现在这种聊天机器人它出现一点事实性的错误,大家也是可以理解的。但是,你广告片的答案都没查清楚,手机还忘带了,然后雷声大雨点小一带而过,肉眼可见能看到谷歌的仓促和慌乱,这个才是市场担心的。
虽然ChatGPT风光无限,可大家都知道,Google是AI领域的强者。所以,就算你短时间内没怎么吭声,估计外部人也知道你不好惹,你估计是在憋大招。你看它发布那个红色预警,其实有个原因可能就是让外部知道说我很重视这个事,你们先别着急卖股票。所以你看发布会之前,谷歌的股价跟微软比也并不差。可是非得着急忙慌搞了这么一出,那不就有点露怯了?所以,谷歌的市值一下蒸发了1000亿美元。
但相比之下,微软那边就稳多了。你看微软的CEO、OpenAI的CEO全都出来亲自讲解。将近一个小时的发布会都在着重讲这个AI聊天的功能,还加上各种演示,很明显就是做了充分的准备。这AI战争刚一打响,谷歌这边先是被ChatGPT搞了个措手不及,然后自己一慌,又来了个低级失误。所以说这第一仗算是惨败。
但这样毕竟也只是第一仗,谷歌毕竟也还是谷歌。后面怎么样呢?我们就拭目以待。当然,这场AI战争也绝不仅限于这两家公司,像Meta、百度、腾讯、阿里也都抢着入局。但凡和生成式AI沾边的股票都开始狂涨。像英伟达、AMD这种提供算力基础的硬件厂商也跟着沾光。
其实,像AI聊天、AI作画、AI编程这些生成式AI在前两年就已经迎来了井喷式的发展。这是这个方向过去几年的融资额,从2021、2022年就已经开始起飞了,每年都是十多亿美元。那2023年一开年,微软就先砸进去了100个亿。资本已经尽其所能,全都涌到这个赛道。
好,那这个东西发展得这么快,它会不会导致很多人失业呢?它会导致谁失业呢?会不会导致你失业?
就这种技术革新,它永远都是一把双刃剑。它可能会创造出来更多的工作,就失业率也不一定降。总体的GDP八成还会上升。但是短期内,它肯定会导致一部分人失业。
我就在想,你说咱们怎么能尽可能地不让自己失业?甚至说能够利用这个AI工具来提高自己的生产力呢?我个人的总结就是,咱们得尽量避免那种套路性的工作。就是以前电脑刚出来的时候,可能解决的是一些人类的重复性工作,就是我每天都在那不停地不停地重复一件事,你搞个电脑for loop就给解决了。
那现在,就不光是那种重复性工作了,就连套路性工作,就只要你有套路,哪怕你感觉你每天在那创作,实际上根本没动太多脑子,就这种事,那机器也能分分钟就给你玩明白了。
那什么叫套路性工作呢?我给你举个例子。你就比如说我让ChatGPT写一个有关小Lin的童话故事。它就说,小Lin有一只会说话的猫,它打败了恶龙,拯救了公主,成了英雄。
那我告诉它不对,小Lin是个女的,你重编。它说,小Lin是个女的,有一只会说话的猫,打败了邪恶的女巫,成了英雄。所以你看,这就是童话故事的套路:他有一只会说话的动物,打败了一个东西,成了英雄。虽然这个会说话的猫它在里边毫无作用,但这就是童话故事的标配。
就类似的,比如有一些特别熟练的工程师,整天闭着眼睛,就叭叭叭能写的代码;写手闭着眼睛,就能一天写二十条的那种网文;或者公司一些特别基本的财务报告、基本的设计、基本的法律建议等等。你想为什么这些活,我熟练了之后闭着眼睛都能干?就因为它背后有套路。那现在AI学会这些套路,那你也不用闭着眼睛干了,AI全都给你包了。
注意,我并不是说程序员、会计师、作家、分析师这些人都会被取代,只是说他们工作当中,里面那些套路性的部分会慢慢被机器学会了。所以,如果你感觉自己工作当中有一些套路性的成分,那你就得小心了。反正至少,你别把这些套路放在网上,这样AI不就都学去了吗?
其实,不光是失业这块,就是因为它的颠覆性实在是太强了,我们已经能看到它给现在的社会也造成了巨大的冲击。你就比如说学校教育这一块,它才上线几个月,现在美国十八岁以上的学生里边,都有九成用过ChatGPT帮他写作业了。而且它基本上除了体育,是不是哪一科都能做。你说我怎么知道你这作业是不是自己写的?
当然,不是说这个东西我们就不能用它帮忙了,只是说我们现在的教育体系还没有准备好让ChatGPT进来。这个颠覆性,它就好像我们用几百年好不容易建立了一套比较完善的交通系统,结果突然有一天,这车全都会飞了。飞车,这个技术长期来看,它肯定是好的,但短期我们还没有一套完整的新的体系的时候,所有人都满天乱飞,那不就乱套了吗?那社会的秩序就会被极大地扰乱。
所以,你看像学校、公司,一时它也想不好ChatGPT怎么融入到自己现有的体系。那就只能一刀切,直接先都给禁止了。包括你说像AI它写的内容、它画的画到底算谁创作的,版权算谁的,对吧?这些其实都是很棘手的问题。
所以说这种生成式AI,它之后到底能发展成什么样,其实谁也说不准。你想,ChatGPT团队他最最开始的时候也没有什么特别多的目的,就是纯粹把数据放进去让机器去学习。弄出来之后才发现,原来这么厉害,还能跟搜索连接上。大家其实也都是摸着石头过河。所以你也不知道突然哪天,在AI在哪个领域就开窍了。
我有的时候就感觉,能见证AI这么神奇的发展,其实还是个挺激动的事。潘多拉的魔盒也在一点一点被我们打开了。