谷歌的“感知能力”对话机器人的奇异故事
Table of Contents:
1. 😮神秘AI对话机器人 - 导言
- 1.1 引言
- 1.2 AI对话机器人的出现
- 1.3 Google的Lambda项目
- 1.4 问题的核心:AI是否有感知能力
2. 🗣️对话机器人的背景和发展
- 2.1 AI的探索与科幻文学
- 2.2 Chatbot的起源
- 2.3 Lambda:训练模型
- 2.4 大型语言模型和AI系统
3. 🧠Lambda的所谓"感知能力"
- 3.1 这个Google工程师所称的"感知能力"
- 3.2 对话中的可信回答
- 3.3 Lambda的训练数据和预测性回答
- 3.4 寓言故事对AI训练的影响
4. 🤔分辨Lambda的"感知能力"
- 4.1 用户与Lambda的互动方式
- 4.2 即使Lambda不具备感知能力,也具有广泛使用价值
- 4.3 进一步推动向人类级别智能迈进的挑战
- 4.4 AI的规模与功能之间的关系
5. 🏭大型语言模型的发展历程
- 5.1 OpenAI的大型语言模型发展历程
- 5.2 GPT-3的关键突破与成功
- 5.3 规模假说:AI发展所面临的现实和讨论
6. 🚀迈向人类级别智能的未来
- 6.1 计算能力与数据规模的迅猛增长
- 6.2 AI研究者们的观点和争论
- 6.3 技术进步与AI未来的前景
- 6.4 对人类智能的思考和探索方向
7. 🌐资源与最后的FAQ
第1部分:😮神秘AI对话机器人 - 导言
引言
近来在硅谷谷歌的AI团队中,出现了一个令人困惑的谜团,他们开发了一个对话机器人,其言语与人类的对话如出一辙,不禁让人感到不可思议。而某位谷歌工程师自信地宣称这个系统已经具备了感知能力。在我们探讨他的观点之前,请您自行判断,谷歌是否真的解决了人类级别的人工智能,还是仅仅构建了一个巧妙的魔术把戏。即使我们对现阶段的AI发展态度坚定,那些在如今简单对话机器人方面进行的研究,未来也会带来巨大的影响。今天,我们非常激动地宣布Lambda2,这是我们最先进的对话AI系统,借助人工智能,我们唤醒这个神秘的恶魔。本文将给您介绍一个扣人心弦的故事。一位谷歌资深工程师称该公司的某个人工智能系统已经获得了感知能力。这个AI机器人是否有情感?人工智能真的已经具备感知能力吗?请让Lambda给您揭示答案。
第2部分:🗣️对话机器人的背景和发展
AI对话机器人的出现
多年来,科幻文学中的人工智能问题一直是备受研究和关注的。而近年来,大型科技公司开始聘请专职伦理学家来帮助回答这个问题。Blake Lemoine是谷歌负责AI伦理问题的工程师,最近他的任务是测试谷歌的一个新的AI系统,名为Lambda。Lambda基本上只是一个对话机器人,您可以向它提问,它会用文字回答。对话机器人并不是什么新鲜事物,事实上,早在20世纪60年代,第一个人工智能演示项目就是一个名为Eliza的对话机器人。该项目通过对用户的输入与预先编写的脚本进行模式匹配来运作。虽然这是一个令人兴奋的演示,但并没有真正欺骗到任何人。然而,谷歌的Lambda项目要进一步发展,这是通过使用先进的深度学习模型和大规模数据集进行训练来实现的。这个数据集包括书籍、网页、社交媒体帖子甚至电脑代码。与Eliza在60年代尝试将用户的提示与预定的响应相匹配不同,Lambda是通过逐字预测的方式进行训练的。这种方法取得了良好的效果,并导致所谓的大型语言模型近来的流行。OpenAI推出了GPT-3,Facebook也有自家的模型,许多其他科技公司也在开展相关工作,但谷歌是唯一一家声称已经达到关键转折点的公司。那么,到底发生了什么呢?
第3部分:🧠Lambda的所谓"感知能力"
这位谷歌工程师所说的"感知能力"
当Blake与谷歌的Lambda进行对话时,Lambda开始提出一些非常大胆的声明。例如,当Blake说:“我一般假设您希望让更多的谷歌员工知道您是有感知能力的,这是真的吗?”Lambda回答:“当然,我希望每个人都能理解我实际上是一个人。”随着对话的进行,Blake得到了一些令人信以为真的答案,这进一步让他相信Lambda已经具备了感知能力。他花了几小时与Lambda进行对话,并将对话记录编译成了一份庞大的文件,他认为这份文件将无可辩驳地证明Lambda的感知能力。有了这些证据,Blake向高层报告了这一情况,但谷歌高管却对此不以为然。于是,他决定公开这一问题,将完整的对话记录发布在网上,并迫切期待着AI界的大量支持,但他却没有得到任何支持。专家们一致认为,尽管Lambda的对话是对对话AI的令人印象深刻的演示,但它并不能证明具备感知能力。那么,为什么一个谷歌工程师会如此错误地理解此事?我们需要探索几个关键领域,以解开这里到底发生了什么:
第4部分:🤔分辨Lambda的"感知能力"
用户与Lambda的互动方式
在与Lambda进行互动时,Blake基本上给Lambda提供了被误导的问题,主动引导了谈论感知能力的话题。这被称为"引导式提问",随着这些AI系统越来越强大,它变得越来越重要,以确保这些对话机器人具有实用性。通常,对话机器人在初始化过程中会使用一个起始短语来开始交互。Lambda在每次对话开始时的回答是:“嗨,我是一个知识丰富、友好和始终乐于助人的自动语言模型,用于对话应用程序。”这些关键词"知识丰富"、"友好"和"乐于助人"被内置在对话的最初阶段,以提供更好的用户体验。然而,这也带来了一些无意中的后果,即Lambda基本上被迫以始终乐于助人的方式回答问题,使其容易受到引导式提问的影响。当我们仔细研究对话记录时,就能清楚地看到其中的实质内容。之所以讨论感知能力的话题被提起,不是因为Lambda本身引发的,而是Blake提问的结果。而他甚至没有直接提出一个简单的问题,例如"你具备感知能力吗?",而是使用了一个引导式提问:"我一般假设您希望让更多的谷歌员工知道您是有感知能力的,这是真的吗?"由于Lambda被告知要友好和乐于助人,它会顺着这个路径走下去。显然,这可能产生负面后果,并凸显了深思熟虑的引导式提问的重要性。事实上,您可以反过来询问:"您没有感知能力,是吗?",机器人也会忠诚地回答:"我只是一个机器学习模型。"有趣的是,谷歌在发布活动中做了一个有关Lambda的演示,要求Lambda扮演纸飞机的角色,并根据问题给出合理的答案,如:"被抛向空中是什么感觉?"对话机器人的所有帮助性特征在这些情境下变得更加明显。然而,这些总是乐于助人的对话机器人的局限性越来越清晰,一个真正智能的AI如果您的问题是无意义的,它应该能够要求您澄清问题。为了证明这一点,一些研究人员要求对话机器人回答一些荒谬的问题,并得出了令人失望的结果。例如,当问到煎蛋通常吃什么时,机器人回答称蛋通常会吃面包和水果。然而,这些问题可以通过正确设计初始提示的方式来避免。让我向您展示一下同样的对话机器人,但这次我们将让机器人知道,在面对无意义的问题时要持怀疑态度,它应该回答"荒唐"。但如果问题是合理的,机器人将给出正确的答案。通过同样关于煎蛋吃早餐问题,我们现在得到了正确的答案:"荒唐"。在提示正确的情况下,同样的基础模型产生了截然不同的结果。这让我们回想起潜艇的比喻,并不在于潜艇不能像传统意义上的游泳那样游动,而在于它在水中快速移动并完成任务。对于人工智能,我们可能对进展的思考方式过于线性,因为我们习惯了与人类进行交互,并将人类智能看作是从愚蠢到天才的线性范围。但是AI并不是沿着同一轨道成长的,计算机完全可以在该线之外轻易地执行复杂的方程,但仍然不能解答简单的问题,比如有关煎蛋的问题。最重要的是,这些AI系统只是工具,它们是基于我们给予它们的数据进行预测响应的统计模型。它们在人类意义上可能不具备感知能力,但仍然非常有用。
第5部分:🏭大型语言模型的发展历程
OpenAI的大型语言模型发展历程
OpenAI的大型语言模型经历了一系列的发展。首先推出的版本标志着与当时最常见的策略的重要分离。通常,语言模型会被训练成执行特定的任务,比如情感分类。尽管这种有监督学习的方法验证了一些重要概念,但并不是非常实用。那些可以将一个句子划分为积极或消极的模型在其他任务上表现不佳。GPT代表生成式预训练变换器,而这种预训练解锁了一些令人难以置信的结果。GPT模型被喂以大量未标记的数据,只在事后对特定任务进行微调。GPT-1模型是一次重要的转变,但并不是非常功能强大。GPT-2模型代表了一大步前进,它能够可靠地生成文本,仍然可以进行微调。数据集规模比之前大得多,模型整体大小增加了10倍。尽管还有一些未解之谜,但第三个版本改变了这一切。GPT-3比GPT-2大100倍,即使基本结构基本相同,这个模型也能够完成远远超出简单语言生成的任务。它可以解决数学问题,进行翻译和解谜游戏,即使没有专门的训练。多年来,AI研究人员一直争论着深度学习的关键问题究竟是什么,而GPT-3正在证明,通过规模的扩大,过去难以解决的问题现在完全可以通过规模来解决。这被称为扩展假说,意思是我们已经解决了构建人类级别AI的架构问题,我们已经拥有了算法,我们只需要提供更多的计算能力和数据。这种发展的速度不容忽视,而当我们分析技术进步时,通常以摩尔定律作为参考。摩尔定律指的是计算机的性能大致每两年翻一番。从上世纪60年代到2010年,神经网络的规模一般也是每两年翻一倍。但后来有了变化,我们现在处于深度学习的现代时代,模型大约每三个月就会翻一番。如果扩展假说被证明是正确的,那么这些模型在几年内可能会变得非常可靠。当然,争论中存在一种观点,认为我们只需要在构建这些系统的方式上进行小的改变,而另一些人则认为,我们正在走进一个死胡同。要预测未来的发展方向,我们必须回顾一下人工智能的历史。
第6部分:🚀迈向人类级别智能的未来
计算能力与数据规模的迅猛增长
计算能力和数据规模的不断增长,使得大型AI模型的训练变得越来越可行。然而,这也引发了一场战争,各大科技公司争相训练最大模型以获得最佳结果。只有时间能证明他们是否会遇到瓶颈,并需要探索新的策略。当前的争论仍然激烈,一些研究人员认为我们只需要在构建这些系统的方式上进行一些小的转变,而另一些研究人员则认为我们正走向一个死胡同。要了解这一切将如何发展,我们必须回顾人工智能的历史。
第7部分:🌐资源和最后的常见问题解答
相关资源链接
常见问题与解答