A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

什么是人工智能?

虽然过去几十年中出现了人工智能 (AI) 的许多定义,但 John McCarthy 在 2004 年的这篇论文中提供了以下定义:“它是制造智能机器的科学和工程,特别是智能计算机程序。它与使用计算机理解人类智能的类似任务有关,但人工智能不必局限于生物学上能观察到的方法。”

然而,在这个定义出现之前的几十年,艾伦·图灵 (Alan Turing) 于 1950 年出版的开创性著作《计算机器与智能》(Computing Machinery and Intelligence)标志着人工智能对话的诞生。在这篇论文中,通常被称为“计算机科学之父”的图灵提出了以下问题:“机器能思考吗?”。为了回答这个问题,他提供了一个测试,这就是著名的“图灵测试”,在此测试中,人类询问者将尝试区分哪些文本响应是计算机做出的,哪些是人类做出的。虽然这项测试自发布以来经过了大量审查,但它仍然是人工智能 (AI) 历史的重要组成部分,也是哲学中一个不断发展的概念,因为它利用了有关语言学的想法。

Stuart Russell 和 Peter Norvig 随后出版了《人工智能:一种现代方法》,成为人工智能 (AI) 研究领域的领先教科书之一。在这本书中,他们深入研究了人工智能的四个潜在目标或定义,这些目标或定义根据理性和思考与行动来区分计算机系统:

人类的方法:

  • 像人类一样思考的系统
  • 像人类一样行动的系统

理想的方法:

  • 理性思考的系统
  • 理性行动的系统

艾伦·图灵的定义属于“像人类一样行事的系统”范畴。

从最简单的形式来看,人工智能是一个结合计算机科学和强大数据集来解决问题的领域。它还包含机器学习和深度学习的子领域,这些领域经常与人工智能一起提及。这些学科由人工智能算法组成,旨在创建专家系统,根据输入数据进行预测或分类。

多年来,人工智能经历了多次炒作周期,但即使是怀疑论者,也会认为,OpenAI 的 ChatGPT 的发布似乎标志着一个转折点。上一次生成式人工智能让人如此忧心忡忡的时候,还是因为在计算机视觉方面取得突破,但现在的飞跃则是在自然语言处理方面。而且,不仅仅是语言:生成模型还可以学习软件代码、分子、自然图像和各种其他数据类型的语法。

深度学习与机器学习的对比

由于深度学习和机器学习往往可以互换使用,因此,两者之间的细微差别值得注意。如上所述,深度学习和机器学习都是人工智能的子领域,深度学习实际上是机器学习的子领域。

深度学习实际上由神经网络组成。深度学习中的“深度”是指由三层以上组成的神经网络(包含输入和输出)可以被视为深度学习算法。这通常使用下图表示。

深度学习和机器学习的不同之处在于每种算法的学习方式。深度学习将过程中的大部分特征提取部分自动化,消除了一些以前必需的人为干预,并允许使用更大的数据集。可以将深度学习视为“可扩展的机器学习”,正如 Lex Fridman 在上述的麻省理工学院讲座中指出的那样。经典的或“非深度”的机器学习更依赖于人为干预来学习。由人类专家确定特征的层次结构以了解数据输入之间的差异,通常需要结构化更强的数据来学习。

“深度”机器学习可以利用标记数据集(也称为监督学习)来通知其算法,但它不一定需要标记数据集。它可以采叙述原始形式的非结构化数据(例如,文本、图像),并且可以自动确定区分不同类别数据的特征层次结构。与机器学习不同,它不需要人为干预来处理数据,这要,我们就能够以更有趣的方式扩展机器学习。

生成模型的兴起

生成式人工智能是指深度学习模型,它可以获取原始数据(例如,所有维基百科或伦勃朗的作品集),并在出现提示时“学习”生成统计上可能的输出。在较高的层次上,生成模型对所用的训练数据的简化表示进行编码,并从中提取内容来创建类似的新作品,但与原始数据不同。

多年来,统计学中一直使用生成模型来分析数值数据。然而,随着深度学习的兴起,现在可将它们扩展到图像、语音和其他复杂数据类型。实现这一跨界壮举的一流模型是 2013 年推出的变分自动编码器 (VAE)。VAE 是第一个广泛用于生成逼真图像和语音的深度学习模型。

“使用 VAE,更容易扩展模型,从而打开了深度生成建模的闸门”MIT-IBM Watson AI 实验室的生成式人工智能专家Akash Srivastava 说道。
“我们今天所认为的生成式人工智能大部分都是从这里开始的。”

人工智能的历史:关键年份和人物

“会思考的机器”的概念可以追溯到古希腊。但是,自从电子计算出现(并与本文讨论的一些主题相关)以来,人工智能发展中的重要事件和里程碑包括:

  • 1950 年:艾伦·图灵 (Alan Turing) 出版《计算机器与智能》(Computing Machinery and Intelligence)。在这篇论文中,因在二战期间破解纳粹 ENIGMA 密码而闻名的图灵试图回答“机器能思考吗?”的问题,并引入了图灵测试,以确定计算机能否表现出与人类相同的智能(或相同智能的结果)。从那时起,图灵测试的价值就一直存在争议。
  • 1956 年:约翰·麦卡锡 (John McCarthy) 在达特茅斯学院举行的第一届人工智能会议上首创“人工智能”一词。(麦卡锡后来发明了 Lisp 语言。)同年晚些时候,Allen Newell、JC Shaw 和 Herbert Simon 推出了 Logic Theorist,这是第一个运行的人工智能软件程序。
  • 1967 年:Frank Rosenblatt 构建了 Mark 1 感知机,这是第一台基于神经网络的计算机,可以通过反复试验来“学习”。仅仅一年后,Marvin Minsky 和 Seymour Papert 就出版了一本名为 《感知器》 (Perceptrons) 的书,该书成为神经网络的里程碑式著作,至少在一段时间内成为反对未来神经网络研究项目的论据。
  • 20 世纪 80 年代:使用反向传播算法进行自身训练的神经网络在人工智能应用中得到广泛应用。
  • 2015 年:百度的 Minwa 超级计算机使用一种称为卷积神经网络的特殊深度神经网络来识别和分类图像,准确率超越普通人。
  • 2016 年:DeepMind 的 AlphaGo 程序由深度神经网络驱动,在五场比赛中击败了围棋世界冠军 Lee Sodol。由于棋局中可能出现大量棋步(四手之后就有超过 14.5 万亿个可能棋步!),因此,这场胜利意义重大。后来,据报道,谷歌以 4 亿美元的价格收购了 DeepMind。
  • 2023 年:大型语言模型或 LLM(例如 ChatGPT)的兴起,为人工智能的性能和发掘企业价值的潜力带来了巨大变化。通过这些新的生成式人工智能实践,可以使用大量原始、未标记的数据对深度学习模型进行预训练。

参考资料

什么是人工智能 (AI)?