标签 人工智能 下的文章

  快要来临的2025年,使得人们不禁好奇,这一年会带来什么样的惊喜,以及会带来怎样的挑战。从科技出现突破,再到社会产生变革,这一年冥冥之中一定很不平凡。让我们一同去揭开2025年那神秘的面纱吧!

  一、2025年会有什么特别之处呢?快来看看这些趋势吧!

  首先,科技持续发展会把我们的生活予以改变,人工智能也就是AI将会于更多领域被应用,举例来说医疗、教育以及交通这些领域,设想一下,你的家庭医生或许会是一个智能机器人,它能够依据你的健康数据给出个性化的建议,这难道不令人觉得很酷吗?

  另一方面,5G网络大范围使用,会使我们的生活变得更为便利。不管是线上办公,还是远程学习,速率都会显著提高。试想一下,下载一部高清晰度电影仅仅只需短短几秒钟,这难道不会让人激动万分!

  二、科技突破:探索未知领域的新篇章

  于科技范畴内,量子计算机说不定会收获重大的进展,这一新型计算机具备处理传统计算机搞不成的问题的能力,像破解繁杂的密码或者模拟分子行为之类,科学家们正奋力去攻克技术方面的难关,或许在2025年我们便能够目睹此一奇迹。

  另外,太空探索会迎来新的高峰,私人航天公司有可能发射更多卫星,甚至有计划载人登陆火星,要是你对宇宙满怀好奇,那么2025年或许是达成梦想的不错时机!

  三、社会变革:生活方式的转变

  跟随着科技向前发展的脚步,社会的结构也存在着有可能会发生改变的情况。共享经济将要进一步地进行拓展延伸,人们能够借助共享平台去获取各种各样的资源以及服务。举例来说,共享汽车、共享住房将会变得成为一种常态,这样的情况兼具环保的特性与此同时又具备经济实惠的优点。

  与此同时,气候变化这一问题会促使全球去开展更为积极之上行动,各个国家之政府有可能会颁布更多之政策用以削减碳排放,进而推广可再生能源,或许在二零二五年之际,你能够目睹更多之太阳能板以及风力发电机现身于城市当中。

  四、文化与艺术:创意无限的新时代

  文化范畴以及艺术领域同样会迎来全新的机遇,虚拟现实也就是VR技术以及增强现实也就是AR技术的运用,会使人们体会到从未有过的沉浸式艺术展览还有演出,戴上VR眼镜,你能够“穿越”至古代文明,去感受历史所具备的魅力。

  除此之外,数字艺术以及 NFT 也就是非同质化代币的兴起状况下,会给艺术家予以全新的创作平台还有收益方式,要是你身为一位艺术爱好者,不妨针对这些新兴领域加以关注,说不定就会发觉令人惊叹不已的作品呢!

  总归而言,二零二五年饱含着无尽的可能性以及挑战,不管是于科技领域,还是社会范畴,又或是文化层面,我们都将会迎来一回深刻的变动,就静候着吧,去迎接这个振奋人心的远景吧!

  才刚刚开启人工智能的春天,我之所以提出这样的观点,是由于人类社会历经了机械化时代,经历了电气化时代,经历了信息化时代之后,正朝着智能化时代迈进,人工智能有希望引领新一轮的科技革命,我觉得有八个宏观发展趋势是值得予以关注的。

  首先,存在一种从专用朝着通用转变的情况,这属于必然会出现的那种发展趋向。通用智能被视作人工智能领域那颗犹如皇冠上明珠一般的存在物质,所有人都对于这个竞争的关键要点给予了高度的关注。

  可改写为:我察觉到,美国军方也着手开展研究通用智能的相关计划,他们觉得通用人工智能以及自主武器这类,是明显堪称比现在所拥有的人工智能技术体系更为出色的发展趋向。

  首先,第二个发展路径是从机器智能迈向人机混合智能,为何不认可机器人和人类、人工智能与人类智能存在零和博弈呢,原因在于人工智能的另一个关键发展趋势是人机混合智能,人类智能与人工智能各有优势,能够相互补充,人工智能有一个极为重要的发展趋势,是从一种人工智能状态转变为另一种人工智能状态,这里两个“AI”的含义有所不同。

  第三个是从“人工加上智能”演变为自主智能系统,为了促使深度学习提升性能,需要数量众多的已标注好的数据,举例来说,给予人工智能一幅图像,要借助人工去标注出图像里哪一部分是人,哪一部分是草地,哪一部分是天空,极为耗费时间与精力,接下来的发展趋向是怎样借助极少的人工来获取最大程度的智能,人类依靠看书能够学习到知识,而机器目前还无法做到,人工采集以及标注大样本训练数据,是这些年来深度学习取得成功的一项重要基础或者重要的人工基础。于是,有一些人开启了尝试去构建自动机器学习算法的行动,目的是用以削减AI的人工相关成本。

  学科交叉会成为人工智能的创新源头乃第四个方面。当下极为火爆的深度学习参照了大脑原理,即让信息分层,进行层次化处理。有一个研究团队所开发的能自主学习的人工突触成果报告在《》上发表,其可提升人工神经网络的学习速度。然而大脑究竟是怎样处理外部视觉信息或者听觉信息的,很大程度上依旧是个黑箱,这便是脑科学所面对的挑战。人工智能与脑科学这两个学科的交叉当中存有巨大创新空间。

  要知道,第五个,它是一种很显著的趋向,那就是人工智能这个产业会呈现出蓬勃发展的态势。在国际那边,有一个颇有名气的咨询公司做出了预测,从2016年一直到2025年,人工智能的产业规模几乎是呈直线上升的状态。再看我们国家的发展规划表明,到2030年的时候,人工智能核心产业规模将会超过1万亿元,进而带动相关产业规模超过10万亿元,如此一来,人工智能产业的前景明显是十分广阔的。

  第六个是有关人工智能的法律法规必然会愈发健全,大家都极为关注人工智能有可能引发的社会问题,所以联合国特意组建了像人工智能机器人中心这样的监察机构,不久前,欧盟25个国家签署了人工智能合作宣言,一同应对人工智能在法律层面的挑战,我们学部也列出了这方面的题目予以研究。

  人工智能会成为更多国家的战略选择,这是第七个情况。一些国家已将人工智能提升为国家战略,越来越多的国家必然会采取相同的行动,会这样做的。

  会全面普及的是人工智能的教育,这是第八个。教育部专门发布了行动计划,是关于高校人工智能的。国务院新的人工智能发展规划,也明确指出支持开展多样化形式的人工智能科普活动。这是值得大家加以关注的一个方面。

  chatgpt

  为什么被称为

  llm

  要弄清楚为什么用这个大号简称来称呼它,得从背后的技术逻辑和产品特性两部分来看。

  人们称它为

  LLM

  的时候,说的其实就是大模型,更准确地指向它背后用海量数据和复杂算法支

  持的一类程序系统。这类技术用数学框架模仿人类对话能力,训练模型的时候会把爬取的网页文章、

  书籍文件甚至社交平台的聊天信息都吃掉,目的是让模型自己能关联词语关系,进而预测出上下文的

  合理表达。像它的参数动不动就上万亿级别,这就有了被叫做大模型的硬件条件。

  它被称作核心语言模型还有其他原因。训练时得扫完千万本书的文字规律,这个过程比早期技术

  多用上百倍时间和资金。它内部运算逻辑属于模仿神经网络架构的系统,也就是人为制造出互相交错

  的神经突触结构。这个模式让计算机模仿生物器官的工作规则,先感知文字模式、再由模式推导输出

  的套路变得更贴近真实对话中的推断链条。举个具体场景,一个人让老模型说段子活跃气氛,可能得

  到一条直勾勾的冷笑话;改问大模型,结果就成了根据使用者当下语境甚至预设人设的定制包袱。

  业界把这个领域称作大模型研究,也和研发策略有关。以前的系统专门针对任务开小灶:做翻译

  的模型单独学翻译库,测情感的模型只刷评分和词库标签。这类分科精炼的方法虽然能让机器更快处

  理专项问题,但跨维学习的能力天然受限制。训练大语言的理念反而像个什么活都通吃的小孩,不管

  你要写新闻稿、改代码还是写情诗都不需要分体再训。背后的科学假设在于:只要吞进去的文类和套

  路足够多、模型结构又能关联不同领域的字词关联规律,单一一套程序就能代替千上万个专科小模型。

  这样一来,叫它为大语言就有了区别于单功能的命名意义。

  也有批评视角值得放进来聊聊。有些人认为它并不算新概念中的大模型产品,因为现有技术依然

  没有真正理解语义,输出信息时会胡编乱造虚构来源。这种逻辑硬伤在大模型中更突出:越是看似通

  情达理的表述,当中间隐藏着知识硬伤时就显得破绽诡异。比如让系统以专家身份回答医学生提问,

  有概率出现事实错误但形式上正确的专业用语结构。这样的两面性让大模型的光环之外裹着一层技术

  本质的矛盾张力:模仿人性思维又无法规避机械算力的原始桎梏。用户发现这个秘密后也更容易理解

  为什么要用这个既直白又中立的词汇来形容。

  从现实应用角度来看它被归为此类的必然性更大。开发团队为了规避法律责任和公关危机,在产

  品说明书和用户协议里用了大量法律语言来做能力限制。这类文字实际效果是告诉用户,请理解为这

  是统计学概率输出结果而不是人脑级的推理决策。这种限定符合技术层面的基本逻辑,刚好也用到了

  大范围预训练的标签,内外就通顺了。用户摸不着参数的复杂后台,接触端直接能用自然语言交流的

  功能让很多人误以为自己在操作智慧体,此时产品身份的描述必须明确切割虚实——机器学得会预测

  文本但摸不着情感和真实认知,这才是称其为大语言模型时想区别的根本。

  对普通消费者来说怎么感知这两个称谓的区别,直接决定了技术普及的门槛高低。举个生活场景

  中的对比——比如有人开发了一款只擅长教小朋友认字的

  APP

  ,人们会说这是工具辅助系统或是人

  工智能程序。但如果某个应用既会查资料写总结、也能续写神话新版本、还能用二十种语言写邀请函,

  这就必然触达到用户对大模型的直观体验。实际运行中用户感知到它不像一台自动机而更像是肚子里

  AI未来,不学习就会被淘汰

  清晨,你打开手机,语音助手已为你规划好最优通勤路线;工作中,智能系统自动处理数据报就会告,精准分析市场趋势;深夜回家,智能家居早已调节好室内光线与温度——这不是科幻电影,而是我们正在经历的日常。人工智能正以前所未有的速度重塑世界,而一个残酷的现实正悄然逼近:不学习,就会被淘汰。

  浪潮已至,无人能置身事外

  曾几何时,AI还只是实验室里的概念。如今,它已渗透进金融、医疗、教育、艺术等各个领域。医生借助AI早期诊断癌症,教师利用智能系统个性化教学,设计师通过算法生成创意方案。麦肯锡报告预测,到2030年,全球将有4-8亿工作岗位被自动化取代,同时催生数亿新兴岗位。但关键在于——这些新岗位需要的不再是重复性劳动,而是持续学习、适应与创造的能力。

  淘汰,从思维停滞开始

  真正的危机往往不是突然降临的。当同事用AI工具半小时完成你三天的工作时,当企业开始用智能系统筛选简历时,当传统行业被新技术颠覆时——淘汰就已悄然发生。它始于对变化的漠视,对学习的懈怠,对“舒适区”的固守。诺基亚CEO在手机业务被收购时曾说:“我们并没有做错什么,但不知为什么,我们输了。”这句悲叹,道尽了固步自封的代价。

  学习,是未来唯一的“铁饭碗”

  在AI时代,知识本身正在贬值——因为机器储存的知识远超人类。但理解、整合、创造与人性化应用知识的能力,正变得无比珍贵。这要求我们:

  掌握与AI协作的能力:将AI视为“外脑”,学会提出精准问题、批判性评估结果、创造性应用产出。

  深耕机器难以替代的领域:复杂决策、情感共鸣、艺术创造、跨领域整合——这些人性的光辉,正是我们独特的价值。

  培养终身学习习惯:学习不再是人生前二十年的任务,而是贯穿生命的常态。在线课程、微认证、跨领域实践,将成为我们职业生命的一部分。

  拥抱未来,从此刻开始

  不必恐慌,但必须警醒。AI不是要取代人类,而是淘汰那些不愿进化的人。它放大了学习者的优势,也加速了停滞者的边缘化。

  你可以:

  每周抽出几小时,学习一项与AI相关的新技能

  在工作中主动尝试一种智能工具

  与不同领域的人交流,拓展认知边界

  培养批判性思维与创造力——这是你区别于机器的核心

  未来已来,只是分布不均。而学习,是连接当下与未来的唯一桥梁。在这个智能增强的时代,最大的风险不是机器变得像人,而是人变得像机器——停止思考,停止成长。

  选择权在我们手中:是成为技术

  清晨,你打开手机,语音助手已为你规划好最优通勤路线;工作中,智能系统自动处理数据报告,精准分析市场趋势;深夜回家,智能家居早已调节好室内光线与温度——这不是科幻电影,而是我们正在经历的日常。人工智能正以前所未有的速度重塑世界,而一个残酷的现实正悄然逼近:不学习,就会被淘汰。

  浪潮已至,无人能置身事外

  曾几何时,AI还只是实验室里的概念。如今,它已渗透进金融、医疗、教育、艺术等各个领域。医生借助AI早期诊断癌症,教师利用智能系统个性化教学,设计师通过算法生成创意方案。麦肯锡报告预测,到2030年,全球将有4-8亿工作岗位被自动化取代,同时催生数亿新兴岗位。但关键在于——这些新岗位需要的不再是重复性劳动,而是持续学习、适应与创造的能力。

  淘汰,从思维停滞开始

  真正的危机往往不是突然降临的。当同事用AI工具半小时完成你三天的工作时,当企业开始用智能系统筛选简历时,当传统行业被新技术颠覆时——淘汰就已悄然发生。它始于对变化的漠视,对学习的懈怠,对“舒适区”的固守。诺基亚CEO在手机业务被收购时曾说:“我们并没有做错什么,但不知为什么,我们输了。”这句悲叹,道尽了固步自封的代价。

  学习,是未来唯一的“铁饭碗”

  在AI时代,知识本身正在贬值——因为机器储存的知识远超人类。但理解、整合、创造与人性化应用知识的能力,正变得无比珍贵。这要求我们:

  掌握与AI协作的能力:将AI视为“外脑”,学会提出精准问题、批判性评估结果、创造性应用产出。

  深耕机器难以替代的领域:复杂决策、情感共鸣、艺术创造、跨领域整合——这些人性的光辉,正是我们独特的价值。

  培养终身学习习惯:学习不再是人生前二十年的任务,而是贯穿生命的常态。在线课程、微认证、跨领域实践,将成为我们职业生命的一部分。

  拥抱未来,从此刻开始

  不必恐慌,但必须警醒。AI不是要取代人类,而是淘汰那些不愿进化的人。它放大了学习者的优势,也加速了停滞者的边缘化。

  你可以:

  每周抽出几小时,学习一项与AI相关的新技能

  在工作中主动尝试一种智能工具

  与不同领域的人交流,拓展认知边界

  培养批判性思维与创造力——这是你区别于机器的核心

  未来已来,只是分布不均。而学习,是连接当下与未来的唯一桥梁。在这个智能增强的时代,最大的风险不是机器变得像人,而是人变得像机器——停止思考,停止成长。

  选择权在我们手中:是成为技术的驾驭者,还是被浪潮吞没的旁观者?答案,藏在你今天的学习决定里。因为当智能革命的车轮碾过,没有一块旧地图能指引新大陆的方向。唯有不断重绘认知疆域的人,才能找到属于自己的星辰大海。

  支持丨混沌前沿课

  人工智能:人类历史上第四次里程碑式的科技革命

  英国大思想家以赛亚·伯林说,世界上有两种学者。刺猬型思想者,是一种开创体系的大思想家,某种知识储备特别完备。狐狸型思想者,对很多知识都有兴趣,思想是发散的。

  我是一个狐狸型的思想者。另外,我觉得每一个人的命运,和时代是分不开的。所以我总追逐最新、最前沿的一些问题,这也是我的兴趣所在。

  我对历史的研究比较多,也发现历史当中,几乎每一次重要的变化,都可能和一场科技革命有关。比如十八世纪法国启蒙运动,是因为古登堡发明现代印刷术,使报纸、杂志、出版物出现,使知识的普及成为可能。

  从2023年开始,我们就进入了一场人工智能的革命。这是人类历史上,第四次里程碑式的科技革命。

  和四次科技革命相对应的,就是蒸汽时代、电气时代、信息时代,和可能从2023年正式拉开帷幕的智能时代。这一次,我们不仅是目击者,而且是经历者。

  当ChatGPT出现以后,我发现很多人强烈关心这一议题,并且产生了一种焦虑感;也有一些人很漠然,觉得AI离自己太遥远。事实上,每一个人都会受到它的影响。

  我首先沉浸性地体验了ChatGPT(以下简称GPT),也对它做了一些思考和分析。可以坦率地说,我的心态有些变化。对GPT了解得越深入,越是无法乐观……

  ······

  篇幅所限, 本文内容仅为课程十分之一。

  ChatGPT有超级的学习和逻辑能力,它有创造性思考吗?

  周鸿祎说,ChatGPT 是通用人工智能发展的奇点,强人工智能即将到来的重要拐点。它的出现,标志着一场超越互联网的产业革命的到来。

  GPT4,被认为是超级人工智能的雏形,被认为是世界上最聪明的“人”。

  GPT3.5的特点是生成(generate), GPT4强调的是输入和输出。GPT4是一种能够处理图像和文本,输入并生成文本输出的大型多模态模型。是一个包含输入和输入的开放体系,特别是“视觉输入”。也就是说,GPT有眼睛了,有视觉能力,能抓取图像。

  英伟达研发的ChatGPT专用GPU,使新一代GPT的推理速度提升了10倍。与AI相比,人的大脑运作速度极慢,大脑中的电信号速度是硅芯片信号速度的1/100,000。AI能够做到人脑可以做到的一切,但不受记忆容量和操作速度的实际限制。

  所以,英伟达公司的CEO黄仁勋说,GPT4为代表的生成式AI模型的能力增长是“计算的新时代”,AI的“iPhone时刻”已经来临。

  GPT3.5的用户体验:一流的逻辑,二流的内容,三流的文采

  一流的逻辑:

  我的使用感受是,与谷歌、百度比较,GPT提供的回答,简明、流畅、概括性极强,能抓住问题的要点,可以就某个细节进行追问,其上下文的理解和互动能力已经与自然人不相上下,而且理解力、逻辑性更强。

  它还可以作图。给王勃的《滕王阁序》作图,落霞与孤鹜齐飞,秋水共长天一色。表明它能很好地理解古文,在瞬时间做出这样一张图。

  二流的内容:

  再先进强大的算法,依然要依靠数据库数据的覆盖面和真实准确性。虽然GPT积累了大量的数据资料,并经过反复的预训练,但比较起全人类积累的海量数据,依然是沧海一粟。

  英文文献,它掌握得非常齐全。非英语文献的部分,比如说我是做中国研究的,问它和中国有关的问题,结果错误百出。

  别人问它贾宝玉最想娶谁?它也一本正经地说贾母,还给出一套理由。孔子说,知之为知之,不知为不知。但GPT一定要表现出像上帝一样全知全能,它会编一套东西给你,很可怕。

  三流的文采:

  GPT的文字风格形同答卷,非常规范,符合标准。但缺乏个性和文采,即使你命令它写各种风格的诗歌、散文,基本也是似曾相识的陈词滥调,了无新意。

  GPT在意境和文字风格上,远远不具有人类的创新能力。它能够模仿各种风格和文体,然而,GPT因为缺乏生活实践的感受和个性的情感,它不能创作出具有独特韵味的语言风格。

  它作的图,拿它所画的仕女举例,都是陈逸飞风格的标准美女。

  GPT最终能够取代人吗?

  目前为止GPT还缺乏创新,这是程序员为GPT设置的“人设”。

  关于人,我们不能把人仅仅理解为一个认知理性的动物。人作为地球上万物之精灵,拥有一般动物所不具备的理性、情感和意志。

  知情意皆备,才具有完整的人格。

  AI所拥有的理性能力,是一种计算理性。通过日夜不停地学习、模拟和再训练,AI在计算理性能力上超过人类,是指日可待的。

  但高级人工智能在不远的将来,会成为人类无法企及的理性超人吗?在GPT3.5的基础上,我初步的判断是不可能的。因为AI缺乏个性,缺乏创造性或批判性的思维能力。我们今天鼓励的个性和原创,不仅是计算理性和逻辑推演的产物,更重要的,是一种生活实践和心灵实践的知识。

  人工智能当下的局限性

  人的创造性来自哪里?英国哲学家,大思想家卡尔·波普尔说,关于人的认知,有三个世界:

  “第一世界”是人的五官能够感知的现实的物理世界。

  “第二世界”是人的心理世界,包括思想、意识、情感和主观体验。这个世界是主观的,离不开作为主体的人的生活实践,唯有作为人才能直接体验。

  “第三世界”是抽象世界,包括知识、语言、逻辑等各种符号系统,这个系统独立于作为主体的人的主观世界,具有另一种抽象的客观性,可以为人类共同使用和理解。

  GPT对第三世界的理解掌握,已经远远超过人类了。它缺的是什么?它不仅无法感知物理的“第一世界”,也匮乏“第二世界”的实践知识。

  波兰尼提出了一个概念叫默会性的知识。“默会性知识”属于“第二世界”,是指那些通过人的经验、实践和观察而习得的知识,而且难以明确表达、难以形式化并传授给别人的知识。

  比如管理这门知识不是抽象的知识,而是实践性的知识。再比如学习驾驶,考满分也未必会开车。和实践有关的这部分知识,就是默会性的知识。

  人的知识与能力,特别是创造力,就更多来自“第二世界”的“默会性知识”。

  AI再怎么强,也只有理性,它就是一个超级大学霸。学霸是很聪明的,但智慧要比聪明更高一个层次。它缺乏我们人类,特别是优秀的人所具有的直觉、悟性、想象力。

  但我还是要说,今天它已经初步具备这个功能了。ChatGPT的胡说八道,不可笑,而是可怕。周鸿祎说,GPT的胡说八道,也是一种想象力,具有了编故事的能力。

  只是它现在还比较低级,因为情感和意志功能被关闭了,一旦打开怎么样?

  人的肉身至关重要

  情感与悟性一样,不能凭逻辑推演,而是活生生的肉身感受。一个完整的人,灵与肉须臾不可分离,没有肉身的灵魂,与没有灵魂的肉身同样可悲。

  好莱坞电影《她》,讲述了一个男人爱上AI的故事。

  每一个肉身,都有自己独特的气场与魅力。AI没有肉身,自然人通过脑机接口,或通过VR的虚拟交往,在脑皮层里感受到相应的快感,这种快感依然是功能替代性的,而非真实的灵肉相融。

  爱情具有强烈的排他性,没有排他性的情感,不能算爱。但当男主人公问AI女友,你还有其他像我一样的爱人吗?等到的回答是,我同时和500个人在谈恋爱。于是他陷入了绝望。

  故事告诉我们,AI再怎么发展,到目前为止仍然是缺乏肉身的,不可能成为真正的人。你和它交往当中获得的,是一种类似的感觉。

  但问题是,假如把人工智能的发展和基因技术、脑机接口技术等技术结合起来。足以乱真的机器人会进入我们人类世界。这不是科幻,如果我们的法律、伦理、宗教容许,它可能就是明天的现实。

  ······

  篇幅所限, 本文内容仅为课程十分之一。

  AI对教育模式和思维模式的冲击

  任何一场新技术革命,都会带来知识与教育的变化,也最终将改变人的思考方式和思维模式。

  GPT在不久的将来,将替代那些按照规范程序和标准答案教学的平庸教师,它无法代替的,将是那些具有开放性、想象性和创造性的教学。

  犹如海平面一般,GPT将成为衡量一个好学生的底线标尺。凡是不能超过GPT的老师不是好老师。凡是不能超过GPT的答卷,就不是好回答。

  AI语言模型介入教学,可能带来两种不同的前景。

  第一种前景

  无论是教师还是学生,深度依赖聊天式语言模型,到那里去寻找标准答案。虽然不同的语言模型,可能给出的答案有差异,但基本大同小异。

  由此形成的知识依赖性,让未来的学生思维更加趋同化、单一化。

  问GPT,偷一块面包来养活一个饥饿的家庭是否道德?它回答说,这是一个艰难的情况,虽然偷窃通常被认为是不道德的,但绝望的时候会导致艰难的选择。

  GPT对各种前沿或敏感问题的回答,都是四平八稳、滴水不漏,似乎是一套正确的废话。

  但作为老师,要培养学生的是一种批判性的思考能力,而不是学一套似是而非的正确性答案。

  德国大哲学家黑格尔,提出主奴辩证法。他说主人和奴隶,看起来主人主宰、操纵着奴隶的命运,但是由于主人不劳动,每天要仆人伺候,离不开仆人。最后反仆为主。

  AI作为人类思考的工具,一旦主体高度依赖工具,工具反过来也会主宰主体。所以这是我担忧的一个前景。

  第二种前景

  我期待的是第二种前景。聊天对话式的GPT,在技术上创造了一种可能,师生的教学过程,将会是一场雅典城邦苏格拉底式对话。

  苏格拉底怎么教授知识?不断地抓住你问题的破绽,你的回答的破绽,不断地追问,最后达到真理,这是一场对话式的,对知识的探求。你可以和ChatGPT无穷对话,一步一步接近我们所想达到的真理。

  在《论语》中,孔子和弟子们同样也是一问一答,也是Chat。无论是古希腊,还是中国,两大古代的轴心文明,最伟大的哲学,都是Chat式的。

  要成就一场苏格拉底式的对话,用户要具有批判性思考能力,不迷信GPT的标准答案,不断地深挖GPT的问题底蕴和逻辑破绽,通过自身的主体性反思,步步紧逼,提出真正的问题,逼迫GPT发挥出最大的知识能量。

  对话成功与否,是否可以达到较高的知识层次,也取决于前提条件:GPT拥有更完备的知识储存和开放的逻辑演绎,让答案具有无穷的开放性,不预设意识形态和价值前见。

  如果往这个方向研发,我们整个的教学场景就改变了,好的问题很重要。有好的问题,才会有好的答案。

  数学家陈景润打破两个哥德巴赫猜想。哥德巴赫与陈景润,谁更伟大?

  我的看法是哥德巴赫更伟大,因为哥德巴赫提出了一个猜想,一个问题,但是他自己没法证实。上百年来,数学家们前赴后继,要证明他是个猜想。所以从这点来说哥德巴赫更伟大,他具有创造性,他也养活了很多数学家是吧?

  提出好问题的要比解决问题的更伟大,这才是真正的突破。

  ChatGPT有可能让学生的思维更具有创造性,这和第一种前景是不一样的。这场21世纪的新技术革命,如果最终带来的是轴心文明古典精神的复兴,这种意外之喜,无疑是人类的福音。

  那GPT所改变的,将不仅是人类汲取知识的方式,而且是古典意义上批判性思考的回归。

  被AI改变的自我,如何安身立命

  ChatGPT给教育带来改变,而教育最终改变的,是我们对自我的理解,解决我们如何安身立命这一问题。

  操控的焦虑

  今天,人看起来很自由。但你发现没有,我们却被各种各样,甚至互相冲突的资讯包围,或者被主流的一种资讯所主宰。

  在体验GPT的过程中,我发现,GPT传授的不仅是一套客观中立的科学知识,在其貌似客观中立的表象背后,可以悄悄灌注一套意识形态或伦理道德价值观。

  我想说的是,技术永远是中性的,但其价值偏向取决于那只看不见的手,那个操纵了程序和算法的程序的价值偏好。

  所以,我们要警惕,AI技术绝对不是价值中立的,其可以被各种不同的幕后之手操控。操控得不动声色,遮蔽其答案中的意识形态偏见。

  要摆脱被操控,有一种教育很重要,情感教育。

  我前面有说,ChatGPT最强大的是一种理性的功能,但它缺乏情感。教育,不只是提高我们的认知。情感教育,是教育的一项重要功能。

  未来的教育,纯知识的理性教育,在很大的程度上将被AI取代。唯独在情感层面,AI没有肉身,徒有大脑,缺乏丰富的心灵。

  ChatGPT时代,人工智能替代不了情感教育

  情感教育源自法国的近代启蒙运动,有两个源头:伏尔泰代表的理性主义,卢梭的浪漫主义。卢梭的自然教育理念,注重的是人的情感培养,再高级的人工智能也无法替代。

  中国哲学中,宋明理学将“性”与“心”区分,说人“性”是相通的、普遍的、统一的,但人“心”是个体的、特殊的、多样的。

  每一个个体都是独一无二的,不可复制的。这也激发了人的各种激情与感受:死亡、痛苦、爱、同情、怜悯。

  这些东西,恰恰是我们对孩子教育上会忽视的,恰恰对培养一个完整的健康的人格来说却又是必须的。

  赫拉利说了一段话,我非常赞成。他说:“正是我们对痛苦和苦难的认识使我们能够采取适当的防护措施,防止最糟糕的情景发生。我们将必须教会人工智能如何预防苦难,因为它对苦难一无所知。”

  什么是AI无法替代的?

  自我,这个概念不是我们过去想象那样简单。一般人都把它理解为意识的自我。高级一点,是认知的自我、理性的自我。今天讲到这里,还有一个另外一个自我是什么?情感的自我。

  公元1世纪普鲁塔克提出的忒修斯之船悖论。一条船,经历几次大修以后,帆也换了,舵也换了,船身的每块木板都换了,还是原来这条船吗?什么是自我?这是西方哲学中一个很重要的问题。

  那在一个基因复制、脑机接口技术和人工智能的时代,什么是真正的自我?大脑?心灵?肉身?这个问题,也将在哲学和法律上成为一个难题。

  我个人觉得,恐怕人最难被AI替代的,就是最神秘的那部分,心灵。

  人内心的复杂,和宇宙一样,甚至是不可捉摸,不可猜测的。心灵的密码,到目前还是科学很难破的,每一个人的心灵都不可复制。如果说一定有一个不能置换的自我,恐怕是心灵。当然,肉身、大脑的替换,是否会产生一个心灵,我们尚未可知。

  当代人,怎么安身立命?实际上都和心灵有关。

  ······

  篇幅所限, 本文内容仅为课程十分之一。

  人可以成为自身的造物主吗?

  马斯克最近讲了一个惊人的预言。他说,“人类作为碳基生物存在的目的,是为了激活像人工智能这样的硅基生物。”极端的预言,引起很大争议。

  所谓碳基生物,是指地球上大多数生命形式,其生命过程和化学反应都是基于碳化合物进行的。硅基生物,是指假想上的生命形式,其生命过程和化学反应是基于硅化合物进行的。

  到底会不会出现新人类?

  乐观的观点

  因为AI缺乏肉身,不可能成为新人类。人有肉身,会死亡,会感受到痛苦,会有各种各样虚荣、妒忌,这都是人的有限性。

  人为了超克自身的有限性,膜拜各种神祇:上帝、天神、圣人与生活中的偶像。膜拜只是为了超克人性的有限性,将一个完美的自我投射到一个无限完美之物。

  这就是人性中的两面:可堕落性与可超越性。人的有限性造就了人的诗意,人的追求。

  凡是肉身,最大的恐惧是死亡,AI是不死的。倘若没有死亡,所有与生命有限性相关的追求:基因繁衍、自我保存,精神永恒,都显得没有任何价值,歌咏青春、感伤生命无常的情感,也变成可笑的无病呻吟。

  人性中追求完美的可超越性,即宗教的神性,也不是AI所能企及的上限。如果AI不死,AI为什么要信仰那些超越的东西?

  假如没有这样的超越世界,AI的世界,依然是不完整、有缺陷的。它的世界和人的世界终究不是同一个世界。

  悲观的观点

  悲观的观点,认为新人类足以乱真。基因复制+脑机并口+人工智能=新人类。

  语言是人类文化的操作系统。从语言中产生了神话和法律,众神和金钱,艺术和科学,友谊和国家,以及计算机代码。人工智能对语言的掌握,意味着它现在可以入侵并操纵文明的操作系统。

  赫拉利在最近的几个访谈中,显得有些悲观。他说:“AI可以迅速吃掉整个人类文化——我们几千年来产生的一切——消化它,并开始涌出大量的新文化艺术品。不仅仅是学校作文,还有政治演说、意识形态宣言、新邪教的圣书。到2028年,美国总统竞选可能不再由人类主持。”

  周鸿祎也讲,GPT-10版本内,人工智能一定会产生意识。

  当 GPT 能修改自己的代码,自我升级自我迭代,这种进化速度超过指数级。留给人类的时间不多了。

  自我意识意味着什么?AI不再是机器、工具,而是一个有自我心灵的新人类了。它甚至不再需要程序员编辑、修改自己的代码,可以自我更新,自我进化。

  新人类,不是技术上能不能,而是哲学上该不该的问题

  好奇害死猫,具有无穷创造力的人类,很有可能会亡于浮士德式的永不满足的好奇心之中。

  千名科学家呼吁暂停GPT4以上版本的开发,有它的道理。我们必须把它的发展限制在可控的范围之内。它对市场的冲击,对全球金融系统、销售系统的冲击,目前尚不可控。

  今天我们终于懂得怎么和大自然相处,怎么保护地球的自然生态。那怎么保护我们的生命生态?恐怕同样需要探究。

  赫拉利说:“现在我们已经处于这样一个阶段:人工智能已经足够先进,可以创造自己的文字和图像。如果情况没有改变,那么我们文化中的大部分文字、图像、旋律甚至工具都将是由人工智能制作的。我们必须让这个过程变慢,让整个社会适应这个情况,并且制定出一套(应用于人工智能的)道德规则。否则我们的文明就有被摧毁风险。”

  为什么我们需要有风险意识?回到最后,就是一个哲学的问题,就是一个文明底线的问题。

  人类高级文明出现以后,从轴心文明的古希腊哲学、儒家哲学到近代的启蒙哲学,都预设了一条文明的底线:人是主体,整体的人类利益和个人的生命、自由和尊严是至高无上的。这就是我们今天说的人权法则。

  倘若我们依然认可这条文明的铁律,那么AI技术的发展应该有天花板。

  我认为,以ChatGPT为代表的强人工智能,潘多拉魔盒中的精灵,已经探出头,准备跳出盒子,而且将再也收不回。

  作为人类,不得不为这个精灵,设置一个笼子……这个笼子就是法律、伦理道德、宗教、哲学,让它在人类可控的安全的尺度里,能够有序地、缓慢地发展,而不是无序地、失控地、自主地发展。我们可以欢迎它、拥抱它,同时又警惕它、防范它,确保高级人工智能永远是人类的好伙伴和好朋友。

  ······

  篇幅所限, 本文内容仅为课程十分之一。