正在加载

ChatGPT是什么「有什么适合做情侣网名的古诗,意境优美的」

  • 作者: 柳霞涵仪
  • 来源: 投稿
  • 2024-03-04

有什么适合做情侣网名的古诗,意境优美的?

   其实这样的经典诗词有很多,随手拿出几句仅供参考:

   “郎骑竹马来,绕床弄青梅

   *长干里,两小无嫌猜”

   ——青梅竹马(李白)

   “身无彩凤双飞翼,心有灵犀一点通”

   ——心有灵犀(李商隐)

   “此情可待成追忆,只是当时已惘然”

   ——此情可待(李商隐)

   “在天愿为比翼鸟,在地愿为连理枝

   天长地久有时尽,此恨绵绵无绝期”

   ——天长地久(白居易)

   “红豆生南国,春来发几枝,

   愿君多采撷,此物zui相思”

   ——南国红豆(王维)

   “两情若是长久时,又岂在朝朝暮暮”

   ——朝朝暮暮(秦观)

   “衣带渐宽终不悔,为伊消得人憔悴”

   ——为伊憔悴(柳永)

   “天不老情难绝,心如双丝网,中有千千结”

   ——心结千千(张先)

   “众里群他千百度,蓦然回首,

   那人却在灯火阑珊处”

   ——蓦然回首(辛弃疾)

   “此情无计可消除,才下眉头,却上心头”

   ——却上心头(李清照)

   “曾经沧海难为水,除却巫山不是云”

   ——曾经沧海(元稹)

   “问世间情为何物,直教人生死相许”

   ——生死相许(元好问)

编者按正如AI绘画快速席卷游戏行业一样,前段时间突然爆火的 ChatGPT ,也成了不少游戏人夜不能寐的「技术心魔」。

没办法,据葡萄君和身边的朋友分享,ChatGPT已经能熟练地帮助他们写游戏营销、策划、运营方案等拥有一定范式的文案;


偷懒摸鱼生成一些日报周报和预案也不在话下;


举例,不代表游戏运营实际情况

有人会拿它编写游戏代码或查BUG;


还有人让它跟AI绘画联动,快速生成一些适合出图的关键词。


……

当然,这还只是目前游戏从业者们能够探索出来的功能,根据AI绘画发展的前车之鉴,即使目前 ChatGPT 的一些回答还不算完美,未来它也会快速迭代得更加成熟——换句话说,除了美术之外,更大范围的游戏从业者或也将面临着被AI「取代」的尴尬局面。

那么,这次来势汹汹的 ChatGPT 究竟为何物?又从何而来?相信看完下面这篇文章,你会比较清晰地理解这些问题,以下为正文:

01

从ChatGPT的横空出世讲起

在回顾历史前,首先要跟风提一下几天前发布的 ChatGPT,一个绝对神仙级别的自然语言生成式AI。

ChatGPT 诞生的重要意义,恐怕不亚于 StableDiffusion 等AI绘画生成模型的出现。有兴趣的朋友可以感受去 Chat.openai* 感受一下这个当今zui*没有之一的自然语言问答式AI的巨*。

ChatGPT 是明星人工智能公司 OpenAI 的GPT自然语言生成式模型的zui新衍生品。在这之前,坊间已经传闻 OpenAI 的下一代自然语言生成模型GPT4即将出现。而且,有一个让人震惊的*传言:GPT4据称通过了图灵测试。

图灵测试究竟是什么意思?简单的说,就是隔着一个小黑屋问各种话题,然后是否能分辨小黑屋里回答问题的究竟是机器还是人类。如果无法辨别,就就说明了机器具有和人一样等级的智能,通过了图灵测试。

迄今为止,还没有AI模型能真正通过图灵测试。看来临界点已经到,笔者都迫不及待的期待GPT4的真正推出了。

谁知道,还没等来 GPT4 ,衍生自 GPT3.5 的 ChatGPT 却先来了。顾名思义, ChatGPT 就是「聊天GPT」,以对话的方式交互,用户问问题,它来回答。

咋听起来,似乎也没有很新鲜。但情况是,ChatGPT 的智能化远远超出了那些它的聊天AI前辈们。

好比StableDiffusion/Midjo*ney也就是AI绘画,但所能生成的AI绘画质量甩了前辈无数条街。

网上有越来越多的文章开始安利 ChatGPT,不过多是拿了外网英文问答的截图,其实 ChatGPT 可以直接上中文。

先随意上几个问答大家感受一下,问中国菜,算是送分题:


问从希格玛大厦如何去*,开始有点难度了,回答非常正确(要知道,这可不是某个特地为了中文导航优化的AI,ChatGPT是从它通用的知识积累里得到的理解)。


对龙珠的剧情理解,回答中规中矩,80分+,本来作者期望它能讲得更详细些:


吃货国家问题,有点刁钻了:


广东人真的喜欢吃甜的?这个问题很多中国人都不一定答得上:


另外,可以直接问 ChatGPT 怎么写代码,比如写一个俄罗斯方块:


没有悬念,代码完全正确。

而更有想象力的,是让 ChatGPT 来生成AI绘画的输入关键词。让AI自己来指导AI作画,多美妙的主意。

这仅仅是一个开始,随着 ChatGPT 在全网的各种自来水安利,相信还有更多古灵精怪的玩法不断被网友们挖掘出来。

ChatGPT 的回答给人的感觉是,这是一个特别靠谱的聊天AI,真正的上知天文下知地理,zui关键的是,它不*。正因为它回答的准确性,看起来ChatGPT有了替代通用搜索引擎Google的可能性。

OpenAI 的CEO萨姆・阿尔特曼(SamAltman)对 ChatGPT 的未来发展表示很有信心。他在推特上说,语言接口是未来的一个发展方向,OpenAI 只是一个先行者,相信很快大家就能用上真正智能的提供建议的AI助手了。

测试版的ChatGPT仍有一些缺点,但这都只是战术级别的;在战略上,ChatGPT 的前景已经相当令人期待,特别是 OpenAI 下一代GPT4加持下的 ChatGPT,其能力恐怕更加突破天际。

我们也许正在经历又一个AI突破的时刻,一如2022年初到年中AI绘画的势如破竹。 而这次,则是人类通用信息生成的突破。

喜欢刨根问底的读者们会问, AI是如何走到这一步的?让我们远离现实的喧嚣,把目光投回到那有点遥远的过去吧。


02

人工神经网络的起源

从某种意义上,语言表达是人类信息和思想交流的窗口。人类并没有第七感,也没有脑电波直达的交流(目前没有:P),信息沟通都通过口头语言和书面语言来传递(当然, 可以说还有一些手势和肢体表达,但信息量基本可以忽略不计)。

针对语言信息的人工智能处理,或者学术一点,「自然语言处理 NLP」,是科学家们zui早研究,人工智能zui早发源的领域。

远在 1956 年,美国的达特茅斯学院举行了一次具有传奇色彩的学术会议(DartmouthConference),计算机专家约翰·麦卡锡提出了「人工智能」一词。这被广泛认为是人工智能正式诞生的日子。


十位参与1956年的达特茅斯会议的科学家,A之父们

这个会议很有意思,事后诸葛亮的我们,一起来看看这个会议个特别有前瞻性的主要议题:

1. Automatic Computer 自动计算机:

「如果一台机器可以完成一项工作,那么就可以对一台自动计算器进行编程来模拟这台机器。目前计算机的速度和内存容量可能不足以模拟人脑的许多高级功能,但主要的障碍不是缺乏机器容量,而是我们无法编写充分利用我们所拥有的机能。」

现代di一台电子计算机 ENIAC 的发明日期是 1946 年 2 月 14 日,也就是说,当时距离di一台电子计算机的诞生仅仅过去了 10 年。先驱们的遗憾是当时高级程序技术还基本没有,无法充分发挥计算机的作用。

2. How can a Computer be Programmed to Use a Language?如何对计算机进行编程以使用一种语言:

「可以推测,人类思想的很大一部分是根据推理规则和猜想规则来*纵词语的。从这个观点来看,形成泛化就是承认一个新词和一些规则,其中包含这个新词的句子暗示和被其他句子暗示。这个想法从来没有被非常精确地表述过,也没有例子。」

先驱们对语言文字的机器理解充满了预期,而直到现在,有了 GPT 这些当超大规模的自然语言 AI 模型,我们才堪堪敢说,先驱们的期望逐渐在实现,计算机开始真正理解了语言。

3. Ne*on Nets 神经网络:

「一组(假设的)神经元如何排列以形成概念。很多当下的计算机科学家等人已经就这个问题做了大量的理论和实验工作。已经获得了部分结果,但这个问题还需要更多的理论工作。」

神经网络。在 AI 概念诞生之时,先驱们就意识到了,人工神经网络的概念将要在 AI 里发挥重要作用。

4. Theory of the Size of a Calculation 计算规模理论:

「如果给一个很好的问题(一个可以机械地测试所提出的答案是否是有效答案的问题),解决它的一种方法是按顺序尝试所有可能的答案。这种方法是有效的,要排除它,必须有一些计算效率的标准。一些考虑将表明,为了获得计算的效率的度量,必须手头有一种测量计算设备复杂性的方法,如果有函数复杂性理论,这反过来也可以做到。香农和麦卡锡已经获得了关于这个问题的一些部分结果。」

计算机科学里重要的计算复杂性理论,就是这个时间点被提出和发展起来的。

5. Self-improvement 自我改进:

「也许真正智能的机器会进行自我改进的活动。已经提出了一些这样做的方案,值得进一步研究。这个问题似乎也可以抽象地研究。」

这是一个很有挑战性的问题,用现在的观点可以换个说法:AI 是否能实现自我编程自我提升?或许很快就可以了。

6. Abstractions 抽象

「许多类型的「抽象」可以被清晰地定义,而其他一些类型则不那么清晰。直接尝试对这些进行分类并描述从感官和其他数据中形成抽象的机器方法似乎是值得的。」

通过机器智能来对各种信息自动加以分类和抽象,这正是当今各种*闪闪的AI大模型正在达成的成就。

7. Randomness and Creativity 随机性和创造性:

「一个相当吸引人但显然是不完整的猜想是,创造性思维和缺乏想象力的有效思维之间的区别在于注入了某种随机性。随机性必须由直觉引导才能有效。换句话说,受过教育的猜测或直觉在其他有序的思维中包括了受控的随机性。」

先驱们非常直观的理解,是否有随机性是创造性思维和非创造性的分析思维的重要区别。

而随机性需要由一些「直觉」引导, 或者说真正的 AI 需要一种「受控的随机性」。

其实, 当前 AI 绘画生成机制里很好践行了这个洞察:在每一幅 AI 绘画背后都是一个 AI模型(比如 Stable Diffusion)+ 一个确定的输入(一组关键词)+ 一个*生成的随机数。同样的「关键词组 + 随机数」输入到 AI 模型里,必然生成一个完全相同的 AI 绘画作品。这不就是「受控的随机性」嘛。

达特茅斯会议的参会先驱们都是大神,也值得在这里简单提一下:

约翰·麦卡锡(John McCarthy), 率先提出了 AI 的概念, 开发了码农熟知的程序语言 Lisp。有意思的是,Lisp 是在 1958 年发明的,看看会议的di一个议题,抱怨没有好用的编程语言可用,大牛的态度就是没有趁手的工具吗?那我就自己发明一个。

约翰·麦卡锡在 1971 年获得了图灵奖。

马文·明斯基(Marvin Minsky),在 1951 年在普林斯顿大学读博士的时候,建立了di一个神经网络自学习机器 SNARC (Stochastic Ne*al Analog Re*rcement Calculator 随机神经模拟强化计算器),这是di一个真正意义上的人工神经网络硬,用 3000 个真空管来模拟了 40 个神经元的信号传递。

明斯基的博士*也正是神经网络。有趣的是,明斯基拿的是数学系博士学位。当时有人挑刺说神经网络的研究能算数学?而当时支持明斯基的正是大名鼎鼎的现代计算机之父冯·诺伊曼。冯·诺伊曼说:现在不算,但很快就得算了。

明斯基在 1969 年获得了图灵奖。

克劳德·香农(Claude Shannon),通信科学鼻祖,大名鼎鼎的香农定理是所有通信制式zui基本的原理。和计算机鼻祖并驾齐驱的香农同学就不需要图灵奖了,因为在通信领域有以他的名字命名的的zui高奖香农奖:)

赫伯特·西蒙(Herbert Simon)和艾伦·纽厄尔(Allen Newell)在达特茅斯会议上报告了世界上di一个 AI 项目「逻辑理论家(the Logic Theorist)」。

这个 AI 证明了《数学原理》第二章 52 个定理的 38 个,甚至找到了比原教材更优美的证明。两人合作提出了搜索式推理的方法,开创了人工智能除神经网络学派之外的第二条路线:符号主义学派。这两位在 1975 年一起拿到了图灵奖。

题外话是,这两位牛和当时数学系主任、di一届图灵奖获得者阿兰·珀里思(Alan Perlis)一起创立了卡内基梅隆大学的计算机系,从此,CMU 成为计算机学科的重镇。

在达特茅斯会议之前,还有一个1955年的小讨论会「学习机讨论会」,在那次讨论会上,主持人也是神经网络的鼻祖之一的皮茨 Pitts 做了一个有趣总结:

「...一派人企图模拟神经*(Ne*on Net),一派人企图模拟心智(mind,就是上面西蒙的符号派)...但zui终大家的目的一致」。

这句眼光毒辣的话,冥冥之中预示了随后几十年间 AI 研究「结构 V.S. 功能」的神经网络派和符号主义派两条路线之争。


03

潮起又潮落

达特茅斯会议之后,AI 进入了一个大时代,人们惊奇的发现,计算机居然可以证明数学定理,学习使用语言。在众多AI研究方向中,搜索式推理,自然语言处理zui有影响力。

从 1955 年到 1974 年是 AI 的di一次发展*,大量成功的初代 AI 程序和研究方向不断出现。AI 先驱们非常乐观的预言:

「十年之内,数字计算机将成为国际象棋世界冠军。」(1958年,H. A. Simon,Allen Newell)

「二十年内,机器将能完*能做到的一切工作。」(1965年,H. A. Simon)

「在三到八年的时间里我们将得到一台具有人类平均智能的机器。」(1970年,Marvin Minsky)

结果呢?事后诸葛亮看回来,当然是被*的打脸啦。

到了 70 年代初,AI 科学家们逐渐发现,虽然机器拥有了简单的逻辑推理能力,但遇到了当时完全无法克服的基础瓶颈,这些瓶颈基本就是时代的局限:

1) 当时计算机的运算能力问题:

且不说当时zui原始的计算机那点可怜巴巴的算力了,我们知道,一直到了zui近十来年,个人计算机组网之后的并行算力才真正达到了可以支持现代 AI 大模型训练迭代的要求。

2)推理需要积累大量对世界的认知信息:

这就是个大数据的基础积累问题。而大数据的积累,也是在现代互联网的迅猛发展之后,才得到了真正的解决。

还有一个神奇的事情是,人工神经网络这个当下zui主流的 AI 发展路线,在当时阴差阳错的遭到了巨大打击一蹶不振。而暴击了整个神经网络研究的,正是人工神经网络的缔造者马文·明斯基本人。

前面说过,明斯基搭建了di一个神经网络自学习硬件机器。当时有一位明斯基低一届的高中学弟弗朗克•罗森布拉特(Frank Rosenblatt),从康奈尔大学获得博士学位后,跟随师兄的步伐,获得了美国海军研究室资助,研制了人工神经网络「感知机(Perceptron)」。

1957 年,di一个版本的感知机以软件*的形式运行在 IBM704 上。1962 年,罗森布拉特出版《神经动力学原理:感知机和脑机制理论》,引起了全球 AI 实验室的大量关注和效仿,并将感知机*运用于文字识别,语音识别等领域,神经网络研究达到了di一次*。

而这个时候,明斯基自己回到哈佛任教,申请国防项目却遭到了挫折,让明斯基特别郁闷的是,自己曾服役的海军把经费投给了学弟,支持的却是自己好几年前就玩过的神经网络。

数学背景深厚的明斯基拿起数学*对人工神经网络进行了扎实的理论分析,并在 1969 年出版了《感知机》,通过数学理论推演指出罗森布拉特的感知机功能有限,甚至不能解决线性不可分问题(如不能用一个直线或者一个直面把二维或者三维坐标系中的两类数据很好的划分。就是线性不可分)。

明斯基在《感知机》书中暗示说:把感知机从一层神经网络推广到多层的思路是没有希望的。

既然连 AI 先驱和人工神经网络缔造者本人的明斯克都说,神经网络这个方向没戏,所有的研究者都深感气馁,神经网络的研究从此走向了低潮。更可惜的是,在两年后,发明感知机的学弟罗森布拉特遭受意外去世,再也没人出来挑战明斯克的结论了。

然而,历史总喜欢和人开玩笑。事实上,是明斯克错了。

我们现在已经知道,恰恰是只要把感知机从单层网络变成多层,就可以解决线性不可分问题。其实当时罗森布拉特以及其他研究者也想到过多层感知机,但苦于一直没有找到训练多层神经网络的方法。直到了 80 年代中期,相关算法才被找到和提出,人工神经网络的研究再一次走向繁荣。

总而言之,在 70 年中后期,因 AI 完全达不到所预言的完全智能的程度,只能停留在「玩具」阶段。原先过高的承诺引发了公众过高的期望值。转而变成彻底的失望和针对 AI 研究的激烈批评,zui终大量机构对基于神经网络的人工智能研究减少甚至停止拨款。AI 研究走进了di一次寒冬。

04

希望越大, 失望越大的专家*

在 80 年初,一类名为「专家*」的 AI 程序开始为全世界公司青睐,人工智能研究又迎来一波*。

什么是「专家*」?百度百科的解释如下:

专家*是一个智能计算机程序*,其内部含有大量的某个领域专家水平的知识与经验,它能够应用人工智能技术和计算机技术,根据*中的知识与经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题,简而言之,专家*是一种模拟人类专家解决领域问题的计算机程序*。

一句话说,专家*根据过往的知识经验积累来模拟人类专家从而进行逻辑推理和判断。

等一下,这个说法是不是有点熟悉?听起来似乎有点像 AI 先驱赫伯特·西蒙(Herbert Simon)和艾伦·纽厄尔(Allen Newell)所做的di一个AI项目:「逻辑理论家(the Logic Theorist)」。

事实上,这正是人工智能两大路线的符号主义派的成果体现。di一条路线神经网络派在当时被自己的鼻祖明斯克按在地上摩擦,第二条路线则在 80 年代初恰逢其时的站了出来。

和神经网络旨在研发通用结构的 AI 模型不同,专家*基于符号逻辑的概念。它们通常是由特定领域的专家(比如医药、金融或者制造业)开发的,仅限于一个很小的知识领域,依据一组专门知识推演出的逻辑规则来回答特定领域的问题。而随着专家*的热门,「知识处理」也随之成为了主流 AI 研究焦点。

专家*的一个典型项目是专家配置器 XCON(eXpert CONfig*er), 由卡内基梅隆大学为 DEC 公司设计开发。该*可以说是世界上di一个(特定领域的)推荐引擎,通过几千条规则来对计算机部件的选择进行zui优化。从 1980 年投入使用以来,它为 DEC 公司制造 VAX 系列电脑节省了数千万的成本。随着 XCON 的成功被更多企业所了解,专家*在 80 年代中期迎来了它的繁荣,造就了一个数十亿美金的市场。

不过,zui为普通人所熟知的专家*应该是后来的 IBM 超级计算机「深蓝」。IBM 从 1985 年开始研发「深蓝」计算机。它是一个专门针对国际象棋的专家*。1996 年,它在六场比赛中的一场中击败了国际象棋*加里·卡斯帕罗夫(Garry Kasparov),名扬天下。

但专家*在工业界多少有点昙花一现,繁荣之后迎来的是迅速的没落。这是因为 80 年代的专家*存在着基础性的问题,首先就是专家*的知识领域过于狭窄难以拓展。

说到这里,笔者读书时曾经困惑过,为什么「深蓝」那么*的*,赢了国际象棋后好像就泯然众人矣,并没有继续在其他领域发挥光和热。

而答案就是,看来它只能用来下国际象棋...

此外,在专家*变得越来越庞大后,为其提供和管理数据、开发和测试都变得越来越复杂。更要命的是,专家*是不会自己学习的,这意味着必须不断更新底层逻辑来保持专家*解决领域新问题的能力。这大大增加了*维护成本和复杂性。

因此,到了 80 年代末期,大家都看明白了,专家*虽然有点用,但领域过于狭窄,更新迭代和维护成本非常高。专家*开始迅速在业界失宠,很多相关公司破产。

这就是人工智能的第二次繁荣后的又一次寒冬。而导致第二次AI寒冬的原因,除了前面所说的应用范围的局限性和商业过分追捧导致zui后泡沫的破裂,还有那两个老大难问题:

1)计算机的算力瓶颈仍然无法突破

2)仍然缺乏训练AI的足够海量数据

有些读者或许会问,在当下这两个老大难问题或许可以说初步被解决了,那么专家*这条路线是否重新有用武之地呢?

答案是肯定的,就在zui近,Meta 提出的人工智能 Cicero 成为了 AI 领域的热门新闻,Meta 做出了这个史上zui复杂的多人外交策略 AI,和人玩在线版「外交」游戏。 在每场比赛中,Cicero 可以自己查看比赛情况,了解各个玩家的行动历史,模拟真人和不同玩家沟通,从而预测其他玩家的行动。它能自行制定计划,并通过人类语言与其他玩家进行协调执行策略,没有人察觉出它是 AI。

Meta Cicero AI 成功的关键因素,正是重新引入了和大数据模型结合的专家知识*。

在当年的专家*开始走向低谷之时, 深度学习的前身人工神经网络却取得了*性的进展,在1986年戴维·鲁梅哈特(David Rumelhart)、杰弗里·辛顿(Geoffrey Hinton)等人推广了由保罗·韦尔博斯(Paul Werbos)发明的反向传播算法(BP 算法),使得大规模多层神经网络训练终于成为可能。

反向传播算法使得神经网络的中间级可以学习到数据输入的有效表达,这就是神经网络乃至深度学习的核心思想。困扰AI先驱们的多层神经网络无法训练的难题终于被突破了。

不知道曾亲自给神经网络盖棺定论的明斯基,当时听到这个消息的心情是什么:)

稍作休整,在我们步入当下的第三次浪潮之前,先再来回顾一下人工智能的两条路线之争:

符号主义:

传统的研究思路,主张通过功能模拟入手,把智能看做是符号处理的过程,采用形式逻辑来实现人工智能,所以称之为「符号主义(Symboli*)」或「逻辑主义(Logici*)」。

符号主义可以对形式化表达的问题(比如下棋、数学定理证明)有效,但人类很多的常识,以及接收的很多信息都无法用符号表达,比如视觉听觉等基本感知能力,虽然不像逻辑推理这样高大上,但符号主义至今都没有好的办法处理;而类似想象力、创造力、情感和直觉这些人脑特有的认知能力,目前更是符号主义无法企及的领域。

神经网络:

和符号主义功能模拟这种自上而下的思路相反,神经网络就是彻底的自底向上的结构*路线。直接模仿人脑智能的物质基础神经网络,希望通过人工方式构建神经网络,从而产生智能。


从罗森布拉特的感知机,一直到当下大众所知道的深度学习网络,这个路线把智能活动看做是大量简单神经单元通过复杂连接和并行运行之后的结果,所以也被世人称为「连接主义(connectioni*)」。


05

大算力,大数据,大力出奇迹

2006 年,杰弗里·辛顿(Geoffrey Hinton)在 science 期刊上发表了重要的*,提出深度信念网络(Deep Belief Networks,DBNs),「深度学习】正式诞生,基于人工神经网络的第三次 AI 发展浪潮开始了,且一直延续至今。

和前两次浪潮不同的是,当下计算机性能已经能让大规模的人工神经网络模拟得以成为现实,在 1957 年,罗森布拉特用 IBM704 去*感知机,每秒完成 1.2 万次浮点加法,而如今超级计算机速度是 IBM704 的 10 万亿倍以上。

此外,个人计算机 GPU 近些年发展迅猛,尽管 GPU 的初衷是为了加速 3D 图形计算,但通用 GPU 的计算模式正好匹配了神经网络并行计算的需求特点,从而进一步推动了神经网络模型的发展。

除了算力之外,*前两次 AI 浪潮发展的另一主要因素就是数据的缺乏。在深度学习理论模型提出之后,zui早之一意识到了 AI 学科发展的数据钳制并着手去解决的是华人女 AI 科学家李飞飞。年轻的李飞飞以坚韧不拔的大无畏精神推动完成了一个超大规模的开源图片标注数据库,这就是著名的 ImageNet 项目。在 2009 年正式发布时,ImageNet 有超过 1000 万数据,两万多个类别。

2010 年开始,Image Net 大规模视觉识别挑战赛(ILSVCR)开始举办,全世界图像领域深度学习的专家们同台竞技和交流,从此拉开了计算机视觉的新篇章。

额,本文主要是关注自然语言大模型的前世今生的,而 ImageNet 完全是图像领域的工作。但是,ImageNet 的出现和发展给了自然语言 AI 模型研究一个很重要的启发。这就是图像领域深度学习的预训练概念。

大家都知道,「深度学习」顾名思义,就是具有很多层级的神经网络模型。现代神经网络模型的网络结构层数很深,动则几百万上千万参数量。而这些神经网络模型在能做特定任务之前,都是需要经过「训练」的,即根据标注好的特定训练数据去反复调整模型里的参数,zui后所有参数调整到位,模型能匹配训练数据集的输入和输出。

那么,问题来了,要调整深度学习神经网络模型里那成千万的参数量,如果训练数据少了,肯定很难调整到位啊。这就好比一个内部齿轮复杂精密的新机器,如果只稍微动一下,内部能牵扯到的齿轮机构说不定都很少,达不到磨合的目的;只有大规模长时间运转起来,内部的齿轮才能全速转起来,互相磨合好。

但是,那些特定的 AI 任务往往没有那么多训练数据啊,这可怎么办呢?

非常值得庆幸的是,AI 科学家研究发现了深度学习网络一个有趣的特性,对于图像领域的深度学习神经网络而言,不同层级的神经元学习到的是不同逻辑层级的图像特征。


如上图所示,若将训练好的网络每层神经元学习到的特征可视化,会发现,zui底层的神经元学习到的是线段等特征,第二层学到的是人脸各个五官的特征,第三层学到的是人脸轮廓的特征,这三层构成了人脸特征的逻辑层级结构。神经网络越底层的特征越基础抽象,比如什么边角弧线等,而越往上层,就具体和任务相关。是不是很神奇?

一个训练好的深度学习网络的内部参数,在底层体现了通用和基础的特征,而越到高层,越和特定任务相关。这是深度学习神经网络一个特别棒的特性。

人们开始动脑筋了,既然是这样,那么是不是可以先用标准的大数据集比如ImageNet来做深度学习网络的「预训练」呢?反正那么多层的神经网络里,大多数的层级都和特定任务关系不大,我们只需要把通用大数据预训练得到的网络模型结果,再结合任务相关的那点可怜的标注数据去微调(Fine-tuning)高层的网络参数,使得高层参数输出更匹配当前领域的任务,不就 OK 了吗?

这样一来,原本因为数据不足而无法训练的特定任务也能解决了。即便任务的训练数据不缺,先通过预训练过程也能极大的加快特定任务训练的完成速度。预训练这种通吃的解决方案人见人爱,很快在图像处理领域广泛流行开来。

既然在图像处理领域的深度学习里预训练这么管用,搞自然语言处理 AI 的同学们自然也会在心里想,为什么不在自然语言处理领域里做预训练这么香的事情呢?


06

自然语言 AI 的深度进化

首先呢,自然语言处理的研究里,有个基本概念叫做「语言模型」,大致理解起来也简单,就是想办法打造一个核心函数 P,这个函数通过一个句子里前面的所有单词来计算下一个单词的概率大小。一句话里的单词总是顺序出现的,每个单词都可以通过前面所有单词计算出这么一个概率,把所有这些单词的概率乘起来,总概率数值越大,说明这越像是人说出的话。

怎么构造这个神奇的函数 P 是 AI 科学家的事情,但读者们一定可以明白,有了这个*的「语言模型」函数 P,计算机就会说人话了。

而从神经网络学派的同学看来,是不是可以用神经网络来打造这样一个语言模型呢?就是说用很多的现成语料,来训练出一个神经网络,然后给这个神经网络模型输入一句话的前面几个词,这个模型就能计算出这句话的下一个单词。

这就是大名鼎鼎的「神经网络语言模型 NNLM」。

NNLM 神经网络语言模型的想法并不是zui近冒出来的, 它的历史要追溯到 20 年前。NNLM 的*在 2003 年就被发表出来了,而当时,深度学习的概念还只存在于杰弗里·辛顿(Geoffrey Hinton)的脑袋里。

所以,不幸的是,NNLM 当时没有引起学界多少反响,被埋没了近 10 年。事实上,在深度学习大火之前,用神经网络做自然语言处理甚至会被笑话,之前自然语言处理的主流研究方式还是基于统计学的机器学习方法。神经网络语言模型 NNLM 这个概念太超前时代了。

一直到了 2013 年,在深度学习概念提出来 7 年之后,深度学习神经网络模型先是在图像和语音领域大显神威,自然语言 AI 的同学终于想起了这篇十年前的*。NNLM 重出*,为世人所知:

在 2013 年,AI 研究人员倒腾了一个自然语言处理的处理模型 Word2Vec。顾名思义,「Word2Vec」就是「word to vector,从词到向量」。研究人员的目标是把一个单词变成一个数学向量,这个数学量在 NLP 里有个专门的名词,叫做Word Embedding(词嵌入)。

为啥要变成一个向量,出发点也很简单,如果能将每个单词都能表示为数学空间里的一个向量,那么是不是理论上,在这个向量空间里比较接近的词,就是意义接近的单词呢?这样计算机不就可以方便的理解单词之间的联系了吗?

Word2Vec 翻出了十年前的 NNLM。NNLM 的初衷只是想构建一个神经网络语言模型,根据前面的词,来预测后一个是什么词。NNLM 网络内部构造了一个随机初始化的矩阵,通过不断的训练,来达成 NNLM 模型预测单词的目的。

特别凑巧的是,研究人员发现这个训练出来的内部矩阵的每一行,正好可以作为每个词的嵌入向量 Word Embedding,这真是得来全不费功夫啊。

NNLM 和 Word2Vec 使用了类似的神经网络结构,不过因为目的不同,其训练方法理念是截然不同的。NNLM 作为语言模型,是要看到上文预测下文,所以训练时输入的是句子上文单词;而 Word2Vec 呢?因为它的目标是要找出所有单词之间意义远近的数学关系,所以训练时都使用句子上文和下文作为输入。

不知道读者意识到没,这两种训练方式在更高的意义上有着一些本质区别,就好比我们人类说话,都是顺序说出来一个个单词的,说不定呢,人的潜意识或许也是一个类似 NNLM 的 P 函数,自觉不自觉地的决定人说话里的下一个词是什么。因此只从上文预测下文的训练方式,貌似天然更契合「生成式」的逻辑。

而 Word2Vec 这种通过上文和下文输入来训练的方式,可以比喻成机器来做阅读理解,就像是我们做语文或英语的阅读理解,一定是通读全文,然后根据上下文来理解和判断问题的答案。这样的人工智能,就是所谓分析式的 AI。

两种模型训练的思路,在后续发展里变成了自然语言模型的两种路线。本文开头提到的 OpenAI 生成式模型 GPT 系列,坚定的只用上文进行训练,用以追求「纯粹」的生成;而 Google 公司的大语言模型 Bert,则采用了上文和下文一起训练的模式,此乃后话。

前面提到,图像处理领域里使用大规模通用数据进行「预训练」所取得的效率和成果实在让人羡慕,而在自然语言处理领域里,其实也有一点点「预训练」概念的,这个预训练就是,每个单词的 WordEmbedding 可以反过来初始化神经网络的内部参数。

不去探究数学细节,读者只要知道,这种「预训练方式」和前面图像处理领域的低层级网络预训练方式有点类似,但问题是利用 WordEmbedding 只能初始化di一层网络参数,和图像处理领域的预训练能有效初始化大多数网络层级不可同日而语,只能说是一种比较原始初级的「预训练」了。

但直到 2018 年前,这就是 NLP 领域里能采用的预训练典型做法了。

采用 WordEmbedding 来初始化 NLP 神经网络有那么点效果,但没有期待的那么好。这里面还有一个逻辑上的原因:一个单词有多义词问题。所以企图在一个数学空间里用一个固定的数学向量来表征一个单词的意义,还要求含义相近的单词都聚在一起。在面对多义词的时候,这在逻辑上显然就是矛盾的。

当然了,聪明的 A 研究人员肯定还是有办法。既然一个单词存在多义性,固定的 WordEmbedding 向量无法表达单词的多个含义,那么是不是可以先训练好一个单词的 WordEmbedding,然后在实际使用中,根据句子里的上下文语义去动态调整这个 WordEmbedding 数值,这样经过调整后的「动态 WordEmbedding」更能准确表达单词在上下文的具体含义,同时自然的,解决了多义词的问题。

这个根据当前上下文来动态调整 WordEmbedding 的想法就是*学术会议 NAACL 2018 年的zui佳*《Deep contextualized word representation》,这个 NLP 模型命名为 ELMO (Embedding from Language Models, 基于语言模型的词嵌入)。

ELMO 引入上下文动态调整单词 WordEmbedding 后,多义词问题就被彻底解决了,而且比预期的解决得还好:利用 ELMO 改进过的多种不同 NLP 任务,性能上都有幅度不同的提升,zui高达到了 25%,不愧是zui佳*。

此外,ELMO 还有一个贡献,研究人员发现 ELMO 所使用的深度神经网络模型里,不同层次提取到的特征是有差异的。看到这里,读者想起了什么没有?是不是和图像预训练的模型层级特征有点像了?

让我们复习一下,前面讲过,图像处理领域进行大规模预训练后,把深度学习网络每层参数做可视化后可以看到,深度学习网络每一层都对应着不同抽象层级的「特征」,在图像领域里,就是从底层的线段,到中间层的具体五官细节,再到高层的脸型,等等。

再说一次,「预训练」为什么是一个特别重要的概念?这是因为好的「预训练」可以直接利用大量标准通用的的训练数据(图像领域就是图片,NLP 领域就是语料),把深度学习模型调整到了 90% 甚至更高程度的可用状态,预训练好的模型zui后通过任务相关的少量训练数据,就能微调至完全胜任各种特定任务,这真是一个很美妙的事情。

那么,ELMO 出现后, 自然语言处理领域的「预训练」有可能赶上图像领域了吗?

遗憾的是,还差一口气。

因为技术原因,ELMO 模型在抽取文字特征方面还比较弱,这是一个技术上的*,意味着这个模型就无法很好完成 NLP 的「预训练」梦想:特征都抽取不好,怎么让网络里每一层具体表达不同逻辑层级的特征呢...而从技术细节上对比,也会发现 ELMO 这种「预训练」方法和图像领域的预训练方法,两者在模式上还有很大差异。

自然语 AI 研究人员还需要继续找到一个方法,希望这个方法能很好的提取出文字的特征,就类似图像处理领域的神经网络模型,能很好的提取图像不同逻辑层面的特征。

恰就在时间刚好的 2017 年底,Google 研究人员发表了一篇里程碑式的*,这一篇*提出的「自我注意力」机制让自然语言处理揭开了崭新的篇章。


07

注意力机制和 Transformer

2017 年 12 月,Google 在*机器学习会议 NIPS 上发表了*《Attention is all you need》,提出在机器翻译上大量使用自注意力(Self Attention)机制来学习文本表示,并把这种机制模型起了个霸气的名字:Transformer。

这篇*一经出世就横扫了整个自然语言处理学术界,Transformer 迅速的取代了深度学习里传统的循环神经网络(RNN)成为了之后的大语言模型的标准配置。

Transformer 是目前 NLP 领域里zui强的特征提取器,本质上 Transformer 是一个叠加的'「自注意力机制」构成的深度网络。

包括我们现在所知道的 OpenAI GPT 系列模型,以及 Google BERT 系列模型,都受到了这篇文章的启发采用了部分 Transformer 的架构,从而取得了突破性的效果。

先说个题外话,笔者感慨,*是否*,一看题目就知道,这篇*连题目都如此特别和霸气。

话说回来,什么是注意力机制?深度学习里的注意力机制其实是一种思想,参考借鉴了人类的注意力思维方式。

视觉注意力机制是人类视觉所特有的大脑信号处理机制,我们的眼睛会快速扫描全局图像,得到需要重点关注的区域,就是所谓的注意力焦点后,再进一步对相关区域投入更多的关注。这是人类在长期进化中获得的一种生存机制,极大提高了人类信息处理的效率和准确性。

深度学习的注意力机制在概念上参照了人类的视觉注意力机制,核心目标就是从众多信息里选择出对当前任务更重要和关键的信息。

具体到 NLP 自然语言处理领域里,在之前,注意力机制一般是指输出句子里某个词和输入句子每个词之间的相似度。这也很好理解,就是去寻求问题(输入)和答案(输出)之间的关系么。

但 Google 这篇的特别之处,是明确指出了,我们其实不需要先考虑输入和输出的关系啊,为什么不参考人类理解语言的方式,首先「学习」一句话内部单词之间的关系呢?这就是所谓的「Self Attention 自注意力机制」:指的是输入元素之间,或者输出元素之间的内在联系机制。


如上图所示,Self Attention 自注意力机制寻找到了一个句子里单词之间的语义特征, 「it」指代的是「the animal」。

稍微想一下,Self Attention 自注意力机制在逻辑意义上非常清晰,它让机器去理解人类语言每句话里单词之间的语义关系。

除了逻辑上看起来更有道理,Self Attention 自注意力机制还附带了一个很大的好处:因为网络层面抛弃了传统的 RNN(循环神经网络)模型,彻底规避了 RNN 不能很好并行计算的困扰,极大提高了模型并行训练计算的效率。更不用说,Self Attention 自注意力机制只关注部分信息,参数较少,容易训练。

有趣的是,谷歌研究人员在这篇重要*里差点使用了「注意力网络」这样的命名,只是他们觉得这个名字听起来实在不够响亮,后来团队里一位工程师给起了个名字 Transformer,这看起来就高大上很多了:)

基于自我注意力机制的 Transformer 模型的出现是*性的,zuizui重要的一点,它能实现自我监督学习。所谓自我监督,就是不需要标注的样本,使用标准的语料或者图像,模型就能学习了。

在 Tranformer 出现之前,我们要训练一个深度学习模型,必须使用大规模的标记好的数据*来训练神经网络。对数据进行标注只能人工进行,金钱和时间成本都相当高。

读者如果还有印象,在笔者上一篇关于 AI 绘画的文章里有讲到,对于 AI 绘画至关重要的跨模态模型 CLIP 之所以成功,是因为它使用了互联网已经带文字标记的图片作为训练数据,巧妙规避了超大规模数据标记的难题。

而回过头来,Transformer 的核心是在数学上计算输入元素之间的关联(Attention),通过这种模式,Tranformer 成功的消除了训练数据集的标注需求。

这简直是感天动地,我们可以想象一下,从今以后,互联网上或者企业数据库里海量的文本数据都能直接成为大模型的训练数据源了。

NVIDIA创始人兼CEO黄仁勋在2022NVIDIAGTC大会上说,Transformer 使自我监督学习成为可能,并无需人类标记数据,AI 领域出现了「惊人的进展」。

因此,Transformer 正在越来越多的领域中发挥作用。比如用于语言理解的 Google BERT,用于药物发现的 NVIDIA Mega Mol BART 以及 Deep Mind 的 Alpha Fold 2 都要追溯到 Transformer 的突破。

上面又提到了 Google BERT 语言模型。这里要插一句,Google 引以为傲的语言大模型 BERT 的架构和 OpenAI GPT 其实非常像,但有一个简单而本质的区别,在训练阶段,Google BERT 输入上文和下文来训练,OpenAI GPT 系列一直坚持只输入上文训练,而结果就是,Google BERT 在体现 AI 分析能力的各种阅读理解等问题上,都表现上佳;而 OpenAI GPT 术业有专攻,在生成式 AI(比如回答各种问题、创造各种文字内容)一骑绝尘。

不夸张的说,Transformer 是迄今为止发明的zui强大的模型之一。斯坦福研究人员在 2021 年 8 月的一篇*把 tranformer 称之为「基础模型」(Foundation model),认为它推动了 AI 整个范式的转变。



08

GPT3,神功初成

受 Google *启发,基于 Transformer 模式的 GPT 系列模型作为 OpenAI 的当红炸子鸡,风头当下无两。

GPT 全称是「Generative Pre-Training」,直译过来就是「生成式的预训练」,有意思吧。

如前文所说,OpenAI 对 GPT 的生成式 AI 有坚定的信念,因此在训练模型的时候,只选用「上文」来训练模型,也就是说,GPT 本质上是一个极致的概率模型,它根据上文提示,来猜测下一个单词应该是什么。

这个坚持虽然在一开始 GPT1 和 GPT2 时代让其输出效果稍逊于同期 Google 的语言大模型 BERT,但到了 GPT3 时期,在超级规模网络参数的加持下,GPT 这个 100% 纯粹的生成式 AI 终于迸发出耀眼的光芒,模型输出效果甚至大幅超越了研究人员的预期。

尽管没有实证,但笔者很倾向认为 GPT3 的极大成功和 OpenAI 坚定不移的只用上文来训练模型有着某种必然的关系,人的语言沟通也从来都是按顺序表达的,没有谁先把一句话的zui后一个词说完才回头考虑上一个词。从这点来看,GPT 系列模型顺应了人类思考的逻辑,zui终由量变推动了质变。

终于,借助了 Transformer,GPT 这样的超大规模语言模型(GPT-3 有 1750 亿个参数)在不需要标记数据的情况下,可以借助现成的海量标准数据以及超级算力,得到通用的「预训练」版本模型。

可能有读者会继续问,有了预训练好的模型版本后,GPT 怎么能以适应各种各样的特定任务(或者专业一点,「下游任务」)呢?GPT *里给出了简单的改造施工图,附在这里读者们有点直观感*知即可。总之通过简单的改造*作,GPT 就能很好适应不同的任务。只需要在输入部分调整一下就可以了,非常方便。


补充一句,或许正是因为改造特别方便,OpenAI 的研究人员才能在 GPT3.5 版之上改造出一个问答专用的 ChatGPT。虽然还不是基于大杀器 GPT4.0,但 ChatGPT 所展现出的超强内容生成能力,在这几天已经在大众用户群体里刮起了超级旋风。

09

从 GPT3 到 ChatGPT,进化继续

在历史长河里走了过来,终于回到了本文开头的主角 ChatGPT。

如果读者已经理解了前面关于深度学习神经网络的变迁和发展之路,再来看 ChatGPT的技术升级,就是特别简单的事情了。

ChatGPT 是基于 GPT-3.5 模型的魔改。GPT-3.5和3.0的区别,首先是和微软合作,在微软的 Az*eAI 云服务器上完成了训练;另一个重要的区别是其训练数据集里除了文字,还加入了代码,因此 ChatGPT 现在已经可以写程序,甚至给现成的代码找 bug 了。

为什么试用过 ChatGPT 的同学都感觉提升很明显?一个重要的原因是 ChatGPT 引入了一个新的训练方法 RLH(*《Training language models to follow instructions with human feedback》,发表于22年3月),简单的说,就是用人类反馈的方式加强训练。

看这个简单的描述显然不能感受到技术的提升,不过我们只需要理解,这其实就是在 GPT3 的大数据预训练之下,再次加强了人类的反馈。

有趣的是,前面基于 Transformer 的通用大数据无监督训练模式把自然语言的自动学习做到了某种极致,而这个 RLHF 又重新捡起了「手动档」人类反馈机制,貌似有一点返璞归真的感觉。仿佛是武功高手练至化境之后,又重新拿起了zui早的野球拳,一招使出了无与伦比的超越功力:)

ChatGPT 还有一个很重要的特点,就是针对输出有效性上做了非常好的调整。使用过 ChatGPT 的同学一定能感觉到,ChatGPT 并非每一个问题都能回答详尽,但它绝对没有*,ChatGPT 的回答和真实世界的情况是相当一致的。做到这点很不容易,也是 ChatGPT 和之前容易乱说一气的问答 AI 模型前辈zui大的不同。

另一个和确保回答有效性同样值得关注的改进是,ChatGPT 在道德约束上做得很出色。如果我们去询问一些逾越了道德边界的问题,或者一些特别敏感的问题,ChatGPT 基本都能察觉和回避。

这让我们想起了 AI 绘画大模型zui让人诟病的地方,那就是通过 AI 生成 18+ 图片,尽管这不是一个技术问题,但对于一个智能内容生成平台,我们显然要有方法管理好内容的质量,以及内容的道德边界。在这一点上,ChatGPT 带了一个好头。

ChatGPT 的试用版在 OpenAI 的 RLHF *发出半年之后刚刚推出,根据 OpenAI 研究人员自己的说法,内部经过了大量调优,而且即使当下,ChatGPT 还是有很多需要改进的地方。

但无论如何,ChatGPT 已经展示给我们所有人,自然语言生成式 AI 所能达到的全新高度。

笔者特别憧憬 GPT4.0 的 ChatGPT 改版.如果如传说那般,GPT4.0 已然突破了图灵测试,笔者对基于 4.0 版本的 ChatGPT 抱有无限的期待。说不定,上一篇文章里预言的,AI 大模型来写长篇玄幻小说的时代,马上就要来临了。

10

后记

如果能耐着性子读到这里,读者应该自然语言的生成式 AI 的前世今生有了一点概念。

回过头来再问一次,对于「预训练」这个深度模型里的重要概念。读者有没有想过,预训练到底是什么?

对,具体而言,预训练就是在几千亿参数的支持下,类似 GPT 这样的超级模型灌入了难以计量的文本训练数据(说不定已经把全世界可以搜刮到的文本都拿来用了)来训练得到了一个通用大语言模型。

不过,在更高的一个角度去畅想,当我们把全世界的文字信息直接灌进拥有数千亿参数的 AI 模型里,模型在网络的各个层级上抽取和记忆这些文字里的特征信息。

那么,GPT 这样的超级模型实际上就在通过所谓预训练方式,学习到了人类所有文字信息的全部特征,直接把人类的语言智慧记在了自己几千亿量级的神经网络大脑里。

做到了这种程度,真的就像是我们用人类的全部知识体系来培养出了一个超级强大的机器大脑,这个大脑通过它超大规模的人工神经网络规模接纳学习了人类创造的所有内容。

进而,针对人类的任意问,AI 可以做出连图灵测试都无法区分的真正智能回答。

人类已经马上无法分辨,在小黑屋后面,那究竟是一个人还是一个 AI 了。

这一天来得比想象更快。

一个能容纳和理解人类全部文字知识,并做出真正智能回答的 AI,我们是不是可以简单认为:今天,真正的机器智能,已然诞生。


游戏葡萄招聘内容编辑,

点击「阅读原文」可了解详情



米哈游人设 | 看懂拳头 | 心动这一年

2022求职难 | 专访战争2061 | AI作画

绝区零 | 燕云十六声 | 原神3.0


   “神农氏”夫妇*、邓哲:一场跨越半个世纪的陪伴

我们总是会对家庭产生深深的眷恋,似乎一个人不论飞得多高多远,在生命即将走到尽头的时候,我们wei一的归宿就是自己的家庭。被称为当代神农的*和其妻子,就用自己对另一半浓浓的爱,打造出了一个温馨的家庭。

前卫的爱恋

*与妻子邓哲的感情,即便放到现代社会都显得有些前卫。他们两个人有着师生这一层特殊的关系,还在当时那个思想相对守旧的年代选择闪婚。无论是哪一条,听起来都让人有些难以接受。

不过在遇到正确的人时,任何外在因素都显得不再重要。当年*是第1代大学生,大学毕业后的他被分配到湖南做老师。因为平时并不太注重自己的外在形象,年轻女*多对*没有好感。

再加上那时*有过一段失败的恋情,他也一直对恋爱这件事情不感兴趣。直到30多岁的时候,邓哲成为了*的学生。邓哲一直非常敬佩*,认为*是一个人品优秀,知识储备丰富的人。

*也非常看好这个秀气文静的女学生,两个人就这样渐渐走到了一起。热心同事看*已经34岁了,就在一边起哄,让他们两个人赶紧把婚事办了。两个人听后拿出50元钱买了些喜糖,就这样举行了一场简朴的婚礼。

陪伴的价值

结婚后的两个人经常在工作上互相搭档,有了邓哲的帮助,*的水稻研究进行得更加顺利。可惜在*刚刚有成果的时候,一场历史变故突然出现。*只得告诉妻子,如果自己很有可能要被批斗了,让妻子做好思想准备。

邓哲听后却毫不在意的说,“大不了咱们一起当农民,这样你还能继续研究杂交水稻。”幸好领导注意到了*在水稻方面的研究成果,将他和他的家人保护了起来,这才让他免去了进牛棚生活的灾祸。

当时社会上还存在许多对*不满的人,他们经常**辛苦培育出来的水稻样本。好在邓哲是一个坚韧的女人,遇到危难后她并没有选择退缩,而是坚定地拉着丈夫一起想办法,一次又一次重头开始。

60年代末期,*因为研究工作被调到了其他地方,从那之后的20多年时光中,邓哲便一个人承担起了照顾两个家庭的责任。一九八二年时*已经在南方进行育种工作10多年了,那年是他第1次回家过春节。

才回家两天,他的妻子就患上了*性脑炎,他的母亲和岳母也生了大病。那段时间,*白天要照顾两位年迈的老人,晚上还要照顾妻子的生活。这段经历让*深刻意识到,自己在外工作的这段时间里,妻子的生活有多么辛苦。

好在上天并没有为难他们,经过半个月的修养,邓哲顺利苏醒,没过多久就彻底恢复了。从那以后,*一直想办法弥补妻子,在外出差的时候会主动为妻子买礼物,还会写信和妻子交流感情。

在条件允许的情况下,每次出国工作*都会带上妻子,两个人就当是一起外出旅游。二零零零年隆平高科上市,*一下子成为了身家过亿的富翁。他仍然保持着自己之前的生活习惯,每天穿着几十元的衣服,吃着zui简单的粗茶淡饭。

邓哲不仅不在乎丈夫的财产,还开玩笑地吐槽说用*的名字一点也不好,总是今天涨明天跌的。邓哲总是能够看到与大众心中形象不一样的*。她认为丈夫是一个有趣的人,不仅心思浪漫,还十分多才多艺。

*不仅会唱歌打球,还能流利的使用英语和俄语。和邓哲在一起的时候,*也会展现出自己温柔的一面,为邓哲写一份情诗。尽管邓哲没有*那么出名,他们夫妻两人对这个家庭的重要性却是不相上下的。

邓哲是一个合格的贤内助,她用自己的青春陪*走过了大半生,和他一同经历了人生中的许多挫折与苦难。在*研究受阻的时候,她主动站出来陪*一起攻克难关。*外出工作的时候,她又甘愿退居二线,照顾好家中的老人和孩子。

哪怕丈夫将自己的大部分时间都献给了水稻研究工作,邓哲也从不会吃醋伤心。她一直尽心尽力的支持*工作,成为了*人生中不可分割的重要部分。在邓哲身上,我们能够看到爱情zui真实的样子。

爱就是希望一个人能够变得更好,用自己的方式为对方提供帮助,看着他一点点走向成功。晚年的*仍然有许多理想和目标,邓哲的心愿却只有一个,那就是永远陪伴在*身边。