人工智能的类脑方法——为开发者解释
这是一种 AI 训练技术,在这种技术中,AI 系统被教导在没有明确标记的情况下理解原始的、非结构化的数据(没有人会在下雨时告诉你正在下雨,是吗?然后它向必要的效应器发送信号,例如你的腿,然后大脑向你的腿发送信号以逃离迎面而来的汽车。如果它很近,你就没事,否则你会试图衡量雨的强度。受大脑中突触的启发,他决定既然人脑可以通过突触(神经元之间的交流)处理和分类信息,那么数字计算机也许可以通过神经网络来做
“我们的智慧使我们成为人类,而人工智能是这种品质的延伸。” ——闫乐存
自神经网络(也称为人工神经网络)问世以来,人工智能行业取得了空前的成功。神经网络是现代人工智能系统背后的驱动力,它们以人脑为模型。
现代人工智能研究涉及创建和实施旨在模仿人脑神经过程的算法。他们的目标是创建以类似于人类的方式学习和行动的系统。
在本文中,我们将尝试了解以大脑为灵感的方法来构建 AI 系统。
以下是我们将介绍的内容:
1.我们将如何处理这个
2.受大脑启发的 AI 方法的历史
3.人脑如何工作以及它与人工智能系统的关系
4.类脑人工智能方法背后的核心原则
5.构建类脑人工智能系统的挑战
6.概括
我们将如何处理这个问题
本文将首先提供研究人员如何开始模拟 AI 以模仿人脑的背景历史,最后讨论研究人员目前在试图模仿人脑时所面临的挑战。以下是对每个部分的预期内容的深入描述。
值得注意的是,虽然这个话题本质上是一个广泛的话题,但我会尽量简洁明了,以保持这一话题的吸引力。我计划将具有更复杂子分支的子主题视为独立文章。我还将在文章末尾留下参考资料。
以下是我们将要介绍的内容的简要概述:
受大脑启发的 AI 方法的历史:
在这里,我们将讨论科学家 Norman Weiner 和 Warren McCulloch 如何实现神经科学和计算机科学的融合。我们还将讨论 Frank Rosenblatt 的感知器是如何第一次真正尝试模仿人类智能的。我们将了解它的失败如何带来开创性的工作,这些工作将作为神经网络的平台。
人脑如何工作及其与 AI 系统的关系:在本节中,我们将深入探讨以脑为灵感的 AI 方法的生物学基础。我们将讨论人脑的基本结构和功能,了解其核心组成部分神经元,以及它们如何协同工作以处理信息和实现复杂动作。
类脑人工智能方法背后的核心原则:在这里,我们将讨论类脑人工智能方法背后的基本概念。我们将解释神经网络、分层处理和可塑性工作等概念。我们还将了解并行处理、分布式表示和循环反馈技术如何帮助 AI 模仿大脑的功能。
构建以人脑为模型的人工智能系统的挑战:在这里,我们将讨论尝试构建模仿人脑的系统所固有的挑战和局限性。大脑的复杂性以及缺乏统一的认知理论等挑战,我们将探索解决这些挑战和局限性的方式。
让我们开始!
类脑人工智能方法的历史
建造具有智能行为能力的机器的动力很大程度上来自麻省理工学院教授Norbert Weiner。诺伯特·韦纳 (Norbert Weiner) 是一位神童,三岁时就能阅读。他在数学、神经生理学、医学和物理学等各个领域都有广泛的知识。
Norbert Weiner 认为,科学的主要机遇在于探索他所谓的边界区域。这些研究领域并不明确属于某个学科,而是学科的混合体,例如医学和工程学的研究共同创建了医学工程领域。他被引述说:
“如果一个生理问题的难度在本质上是数学问题,那么十个不懂数学的生理学家所达到的程度将恰好等于一个不懂数学的生理学家。”
1934 年,韦纳和其他几位学者每月聚会一次,讨论涉及边界区域科学的论文。
诺曼韦纳
他将其描述为“对不成熟的想法、不充分的自我批评、夸大的自信和浮夸的完美宣泄”。
从这些会议和他自己的个人研究中,Weiner 了解了生物神经系统的新研究以及电子计算机的开创性工作。
他的自然倾向是融合这两个领域,因此形成了神经科学和计算机科学之间的关系。正如我们所知,这种关系成为创造人工智能的基石。
二战后,维纳开始形成关于人类和机器智能的理论,这个新领域被命名为控制论。维纳对控制论的尝试成功地让科学家们开始讨论生物学与工程学融合的可能性。
其中一位科学家是名叫沃伦麦卡洛克的神经生理学家。他从哈弗福德大学退学,前往耶鲁大学学习哲学和心理学。在纽约参加一个科学会议时,他发现了同事们写的关于生物反馈机制的论文。
次年,麦卡洛克与他 18 岁才华横溢的门生沃尔特·皮茨 (Walter Pitts) 合作,提出了大脑工作原理的理论。这一理论将有助于培养一种普遍的看法,即计算机和大脑的功能本质上是相同的。
他们的结论基于 McCulloch 对神经元处理二进制数(计算机通过二进制数进行通信)的可能性的研究。该理论成为第一个人工神经网络模型的基础,该模型被命名为 McCulloch-Pitts 神经元 (MCP)。
MCP 是创建第一个神经网络(称为感知器)的基础。感知器是由心理学家弗兰克罗森布拉特创建的。受大脑中突触的启发,他决定既然人脑可以通过突触(神经元之间的交流)处理和分类信息,那么数字计算机也许可以通过神经网络来做同样的事情。
感知器本质上是将 MCP 神经元从一个人工神经元缩放为神经元网络。但不幸的是,感知器存在一些技术挑战,限制了它的实际应用。这些限制中最值得注意的是它无法执行复杂的操作(比如在多个项目之间进行分类——例如,感知器无法在猫、狗和鸟之间进行分类)。
1969 年, Marvin Minsky和Seymour Papert出版了一本名为《感知器》的书,详细阐述了感知器的缺陷。正因为如此,人工神经网络的研究一直停滞不前,直到Paul Werbos提出反向传播。
反向传播希望解决当时阻碍神经网络工业应用的复杂数据分类问题。它的灵感来自突触可塑性——大脑改变神经元之间连接强度的方式,从而提高性能。
反向传播旨在模仿大脑中通过称为权重调整的过程加强神经元之间联系的过程。
尽管 Paul Werbos 很早就提出了反向传播的概念,但直到David Rumelheart、Geoffrey Hinton和Ronald Williams等研究人员发表论文证明其对训练神经网络的有效性时,反向传播的概念才得到广泛采用。
反向传播的实施导致了深度学习的产生,它为世界上大多数可用的人工智能系统提供动力。
“人们比今天的计算机更聪明,因为大脑采用了一种基本的计算架构,更适合处理人们非常擅长的自然信息处理任务的核心方面。” – 并行分布式处理
人脑如何工作以及它与 AI 系统的关系
我们已经讨论了研究人员如何开始对 AI 进行建模以模仿人脑。现在让我们看看大脑是如何工作的,并定义大脑和人工智能系统之间的关系。
大脑是如何工作的——一个简单的描述
人脑基本上通过使用神经元来处理思想。一个神经元由 3 个核心部分组成:树突、轴突和胞体。
树突负责接收来自其他神经元的信号。体细胞处理从树突接收到的信息,而轴突负责将处理过的信息传输到序列中的下一个树突。
要了解大脑如何处理思想,请想象您看到一辆汽车朝您驶来。您的眼睛会立即通过视神经向您的大脑发送电信号。然后大脑形成一个神经元链来理解传入的信号。
因此,链中的第一个神经元通过其树突收集信号并将其发送到体细胞以处理信号。体细胞完成其任务后,它将信号发送到轴突,然后轴突将其发送到链中下一个神经元的树突。
传递信息时轴突和树突之间的连接称为突触。因此,整个过程一直持续到大脑找到智颞突触输入(这是大脑继续处理的科学术语,直到它找到对发送给它的信号的最佳响应)。然后它向必要的效应器发送信号,例如你的腿,然后大脑向你的腿发送信号以逃离迎面而来的汽车。
大脑与人工智能系统之间的关系
大脑和人工智能之间的关系在很大程度上是互惠互利的。大脑是 AI 系统设计和 AI 进步背后的主要灵感来源,有助于更好地了解大脑及其工作原理。
当涉及到大脑和 AI 时,存在知识和思想的相互交流。有几个例子证明了这种关系的积极共生性质:
神经网络:可以说,人脑对人工智能领域产生的最重大影响是神经网络的创建。本质上,神经网络是模拟生物神经元功能和结构的计算模型。神经网络的架构及其学习算法在很大程度上受到大脑神经元相互作用和适应方式的启发。
大脑模拟:人工智能系统已被用于模拟人脑并研究其与物理世界的相互作用。例如,研究人员拥有机器学习技术来模拟参与视觉处理的生物神经元的活动。结果提供了对大脑如何处理视觉信息的深入了解。
洞察大脑:研究人员已经开始使用机器学习算法来分析大脑数据和 fMRI 扫描并从中获得洞察力。这些见解有助于识别原本隐藏的模式和关系。这些见解可以帮助我们了解内部认知功能、记忆和决策。它们还有助于治疗阿尔茨海默氏症等脑部疾病。
类脑人工智能方法背后的核心原则
在这里,我们将讨论几个有助于 AI 模仿人脑运作方式的概念。这些概念帮助 AI 研究人员创建了能够执行复杂任务的更强大、更智能的系统。
神经网络
如前所述,神经网络可以说是从人脑中获得了最重要的灵感,并对人工智能领域产生了最大的影响。
本质上,神经网络是模拟生物神经元功能和结构的计算模型。这些网络由多层相互连接的节点组成,这些节点称为人工神经元,有助于信息的处理和传输。这类似于生物神经网络中树突、胞体和轴突所做的事情。
神经网络旨在像大脑一样从过去的经验中学习。
分布式表示
分布式表示只是一种将神经网络中的概念或想法编码为网络中多个节点的模式以形成模式的一种方式。
例如,可以使用神经网络中的一组特定节点来表示(编码)吸烟的概念。因此,如果网络遇到一个人吸烟的图像,它就会使用这些选定的节点来理解图像(它比这复杂得多,但为了简单起见,我们将把它留在那儿)。
这种技术可以帮助人工智能系统记住复杂的概念或概念之间的关系,就像大脑识别和记住复杂刺激一样。
经常性反馈
这是一种用于训练 AI 模型的技术,其中神经网络的输出作为输入返回,以允许网络将其输出集成为训练中的额外数据输入。这类似于大脑如何利用反馈回路来根据以前的经验调整其模型。
并行处理
并行处理涉及将复杂的计算任务分解成更小的位,以便在另一个处理器上处理更小的位,从而提高速度。这种方法使 AI 系统能够更快地处理更多输入数据,类似于大脑能够同时执行不同任务(多任务处理)的方式。
注意力机制
这是一种使 AI 模型能够专注于输入数据的特定部分的技术。它通常用于自然语言处理等包含复杂繁琐数据的领域。
它的灵感来自于大脑只关注一个主要分散注意力的环境中特定部分的能力——比如你从嘈杂的谈话中调谐到一个谈话中并与之互动的能力。
强化学习
强化学习是一种用于训练人工智能系统的技术。它的灵感来自于人类如何通过反复试验来学习技能。它涉及 AI 代理根据其行为接收奖励或惩罚。这使代理能够从错误中吸取教训,并在未来的行动中更有效率(这种技术通常用于创建游戏)。
无监督学习
大脑不断以声音、视觉内容、皮肤的感官感受等形式接收新的数据流。它必须弄清楚这一切,并尝试对所有这些看似不同的事件如何影响其物理状态形成连贯和合乎逻辑的理解。
打个比方:你感觉到水滴落在你的皮肤上,你听到水滴快速滴落在屋顶上的声音,你感觉到你的衣服越来越重,那一瞬间,你知道要下雨了。
然后你搜索你的记忆库以确定你是否带了雨伞。如果你这样做了,那很好,否则你检查一下从你当前位置到你家的距离。如果它很近,你就没事,否则你会试图衡量雨的强度。如果是小雨,您可以尝试继续回家的旅程,但如果雨变得更大,那么您就必须寻找避难所。
理解看似不同的数据点(水、声音、感觉、距离)的能力在人工智能中以一种称为无监督学习的技术的形式实现。这是一种 AI 训练技术,在这种技术中,AI 系统被教导在没有明确标记的情况下理解原始的、非结构化的数据(没有人会在下雨时告诉你正在下雨,是吗?)。
构建类脑人工智能系统的挑战
到目前为止,您已经了解了研究人员如何将大脑用作 AI 系统的灵感来源。我们还讨论了大脑与 AI 的关系以及类脑 AI 背后的核心原则。
在本节中,我们将讨论构建以人脑为模型的人工智能系统所固有的一些技术和概念挑战。
复杂
这是一个相当艰巨的挑战。受大脑启发的 AI 方法基于对大脑进行建模并根据该模型构建 AI 系统。但人脑是一个天生复杂的系统,拥有 1000 亿个神经元和大约 600 万亿个突触连接(每个神经元与其他神经元平均有 10,000 个突触连接)。这些突触不断以动态和不可预测的方式相互作用。
构建旨在模仿甚至超越这种复杂性的人工智能系统本身就是一个挑战,需要同样复杂的统计模型。
训练大型模型的数据要求
Open AI 的 GPT 4,目前是基于文本的 AI 模型的最前沿,需要 47 GB 的数据。相比之下,其前身 GPT3 在 17 GB 的数据上进行了训练,大约低了 3 个数量级。想象一下 GPT 5 将接受多少训练。
为了获得可接受的结果,受大脑启发的人工智能系统需要大量数据来完成任务,尤其是听觉和视觉任务。这非常强调数据收集管道的创建。例如,特斯拉拥有 7.8 亿英里的驾驶数据,其数据收集管道每 10 小时增加一百万英里。
能源效率
构建模拟大脑能量效率的类脑人工智能系统是一项巨大的挑战。人脑消耗大约 20 瓦的功率。相比之下,特斯拉的 Autopilot 采用专用芯片,每秒消耗约 2,500 瓦,训练 ChatGPT 大小的 AI 模型大约需要7.5 兆瓦时 (MWh)。
可解释性问题
开发受用户信任的受大脑启发的人工智能系统对于人工智能的发展和采用至关重要——但问题也出在这里。
人工智能系统的模型大脑本质上是一个黑匣子。大脑的内部运作并不容易理解,部分原因是缺乏关于大脑如何处理思想的信息。
不乏对人脑生物结构的研究,但一定程度上缺乏关于大脑功能品质的实证信息——即思想是如何形成的,似曾相识是如何发生的,等等。这导致在构建类脑人工智能系统时出现问题。
跨学科要求
构建受大脑启发的人工智能系统需要不同领域专家的知识,如神经科学、计算机科学、工程学、哲学和心理学。
但这带来了后勤和基础方面的挑战:从不同领域聘请专家在经济上是昂贵的。此外,还有知识冲突的问题——让工程师关心他们正在建造的东西的心理影响真的很难,更不用说自我冲突的问题了。
概括
虽然以大脑为灵感的方法似乎是构建人工智能系统的明显途径,但它也有其挑战。但我们可以展望未来,希望正在努力解决这些问题。
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)