我的编程空间,编程开发者的网络收藏夹
学习永远不晚
位置:首页-资讯-运维

人工智能神经网络之父Hinton再审视34年前的奠基性成果

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

人工智能神经网络之父Hinton再审视34年前的奠基性成果

神经网络之父Hinton再审视34年前的奠基性成果,欲在大脑中搜寻AI方法的“存在”。人工智能的定义可以分为两部分,即“ 人工”和“ 智能”。“人工”比较好理解,争议性也不大。有时我们会要考虑什么是人力所能及制造的,或者人自身的智能程度有没有高到可以创造人工智能的地步,等等。但总的来说,“人工系统”就是通常意义下的人工系统。

直到现在,几乎你听说过的每一个关于人工智能的进步,仍基于 30 年前的一篇阐述多层神经网络训练方法的论文演变而来。那就是 Geoffrey Hinton 在 1986 年写下的《Learning representations by back-propagation errors》。

直到现在,几乎你听说过的每一个关于人工智能的进步,仍基于 30 年前的一篇阐述多层神经网络训练方法的论文演变而来。

那就是 Geoffrey Hinton 在 1986 年写下的《Learning representations by back-propagation errors》。

这篇论文具有重要的意义,可以说是代表着反向传播算法(Backpropagation algorithm)首次被引入到多层神经网络训练,为后来该算法的推广埋下伏笔,尤其是为人工智能在最近 10 年的发展奠定了基础,但要保持这种进步,还得清醒地面对人工智能的局限性。

人工智能神经网络之父Hinton再审视34年前的奠基性成果_人工智能_系统架构_计算机_编程学习网

而作为反向传播的提出者,现已 72 岁的 Geoffrey Hinton ,仍然站在反思(甚至质疑)反向传播的第一线。在 2017 年时,他还曾明确表示,“我们需要放弃掉反向传播算法,重新开辟一条新的路径。”

从 Hinton 本人的实践看来,解谜人的大脑将被包含在这种路径之中,近年来,这位 “人工神经网络之父” 频频表现出了其对脑科学研究的浓厚兴趣,并发表了一定数量的有关脑神经科学的论文。

最近,Geoffrey Hinton 撰写了一篇名为 Backpropagation and the brain 的文章,论文发表在 Nature Reviews Neuroscience,陈述了他对于反向传播的最新思考。从研究思路来看, 他希望探讨人脑中存在反向传播机制的可能,而这一方向曾在神经科学领域广受质疑。

反向传播支配下的人工神经网络

反向传播在 AI 领域的地位是主导性的,尤其是它在人工神经网络(Neural Networks,NNs)中发挥的作用。

要理解这一概念,你可以首先把人工神经网络想象成一块有很多层的三明治。每层都有人工神经元,也就是微小的计算单元。这些神经元在兴奋时会把信号传递给相连的另一个神经元(和真正的神经元传导兴奋的方式一样)。每个神经元的兴奋程度用一个数字代表,例如 0.13 或 32.39。两个神经元的连接处也有一个重要的数字,代表多少兴奋从一个神经元传导至另一个神经元。这个数字是用来模拟人脑神经元之间的连接强度。数值越大,连接越强,从一个神经元传导至另一个神经元的兴奋度就越高。

以深度神经网络最成功的应用图像识别为例,正如 HBO 的电视剧《硅谷》中就有这样一个场景:创业团队开发了一款程序,能够辨认图片中有没有热狗。

要让它们发挥作用,首先需要一张图片。举一个简单的例子,让神经网络读取一张宽 100 像素、高 100 像素的黑白照片,输入层每一个模拟神经元的兴奋值就是每一个像素的明亮度。那么,在这块三明治的底层,一万个神经元(100x100)代表图片中每个像素的明亮度。

然后,将这一层神经元与另一层神经元相连,假如一层上有几千个神经元,它们与另一层上的几千个神经元相连,然后一层一层以此类推。最后,这块三明治的最顶层,即输出层,只有两个神经元,一个代表“热狗”,另一个代表“不是热狗”。这个过程是为了训练神经网络在图片中有热狗时将兴奋仅传导至第一个神经元,而在图片中没有热狗时将兴奋仅传导至第二个神经元。这种训练方法就是 Hinton 开发的反向传播技术。

当你刚刚创建一个神经网络时,神经元之间连接的强度是随机的。换句话说,每个连接传导的兴奋值也是随机的,就像人脑中的突触还没有完全成形。

反向传播发挥的作用就是通过改变数值,在输入不变的情况下提高输出的敏感度(类似于通过负反馈校准),从而让神经网络实现特定的目标。它是实现人工神经网络中非常重要的技术,作为训练神经网络的基本算法之一,它让神经网络变得更加“智能”。

现在来看,反向传播的原理其实并不复杂,但它需要大量的数据才能达到最佳效果。这也是为什么这项技术于 30 年前提出,但直至近年来数据作为最基本 “粮食” 到位之后,才在现实生活中产生巨大价值。

问题在于,反向传播是 Hinton 作为计算机科学家设想出来的一种工程方法,它让机器更加智能,但这种机制真实存在于人的大脑中吗?如果要让机器朝着仿生人脑的路径实现更高层次的类人的智能,这个问题或将难以回避,也正是 Hinton 最新论文讨论的核心。

最新论文:反向传播在人脑中存在的“蛛丝马迹”

人工神经网络中,反向传播试图通过使用对突触权值的微小改变来减少误差。

在这篇最新研究中,Hinton 团队认为,尽管大脑可能不存在完全依照反向传播的概念运作,但是反向传播为理解大脑皮层如何学习提供了新的线索。

已知的是,人脑通过调整神经元之间的突触连接来进行学习,不过由于皮层中的突触被嵌入到多层网络中,这使得很难确定单个突触修饰对系统行为的影响。

虽然反馈连接在大脑皮层中无处不在,但很难看到它们如何传递严格的反向传播算法所需的错误信号。在这里,我们在过去和最近的发展基础上,论证了反馈连接可能会诱导神经活动,而这些神经活动的差异可以用来局部近似这些信号,从而驱动大脑中的深度网络的有效学习。

最近的工作表明,与灵长目动物视觉皮层腹侧流中表征的其他模型相比,反向传播训练模型与所观察到的神经反应匹配程度更高,而且未使用反向传播训练的模型(如使用 Gabor filter 的生物启发模型,或使用非反向传播优化的网络)的性能不如使用反向传播进行优化的网络。

因此团队认为,反向传播对比之下体现的实用性和效率,至少暗示了大脑存在利用误差驱动的反馈进行学习,而这正是反向传播的核心思想。

Hinton 团队将这种基于活动状态误差驱动突触变化的学习机制称为 NGRAD(neural gradient representation by activity differences)。

“反向传播这一概念的引入在神经科学领域引起了轰动,它可能成为深入了解大脑皮层学习的一个开端。但反向传播与大脑皮层的相关性很快遭到质疑——部分原因是它在人工系统中未能产生优秀的表现,且具有明显的生物学不可靠性。随着更强大的计算能力、更大的数据集和一些技术改进的出现,反向传播现在可以训练多层神经网络来与人类的能力竞争。NGRAD 以一种与我们认为的生物回路运作方式一致的方式解决了反向传播的重大不可靠性”,文中写道。

团队也指出,局限性在于,虽然越来越多证据表明使用反向传播训练的多层网络有助解释神经数据,但关于如何在皮层中实现类反向传播的学习仍有很多疑问,例如在反向传播中,传递的误差信号不影响前向传播产生的神经元的活动状态,但是在大脑皮层,这些连接会对前馈传播产生的神经活动产生影响,大脑皮层的反馈连接不仅可以调节、激活还可以驱动活动,这比反向传播要复杂得多。

仍有疑问:AI 与大脑会越走越远,还是越走越近?

针对这篇探讨大脑中是否存在反向传播机制的研究,北京大学信息科学技术学院教授、北京智源人工智能研究院院长黄铁军教授解读道:“我在 GATIC 2017 就曾提出一个观点,即人脑的神经网络结构是进化大数据训练的结果。大脑的结构是亿万年‘优胜劣汰’的进化过程造就的,我认为,这个过程很可能存在广义的反向传播机制。

“这就像深度学习中,反向传播把一个无结构的多层人工神经网络训练成为一个具有特定结构的专用网络,大脑进化也是把不断增生的没有特定结构的皮层,逐渐训练成分工明确、结构基本确定的神经网络。后天学习只是微调,而不能改变大脑的基本结构。

“我认为,反向传播如果发挥作用的话,也主要是在大脑先天结构的形成过程中,而不是在后天学习过程中。包括这篇文章在内,许多学者正在从个体大脑的后天学习中寻找反向传播机制,但这可能没有瞄准方向”,他说。

他以视觉系统为例解释道:“人类视觉系统的神经网络结构在出生时是基本确定的,例如初级视皮层 V1 到 V4 的分区和区间连接关系都是确定的,婴儿期接受真实的视觉刺激,进行突触修改,V1 以及大部分视觉皮层的突触就此固定下来,形成我们的视觉功能,注意,婴儿期只是突触修改,并没有改变 V1 到 V4 的这种基本结构,相比之下,深度学习的起点并不是这样一个先天形成的有基本结构的神经系统,只是一个多层的神经网络,可以被训练成视觉网络,也可以被训练成语言网络,因此,深度学习的训练过程,实际上是在重复大脑亿万年进化要完成的结构生成任务”。

黄铁军认为,从自然环境对人脑的 “训练” 来看,反向传播是可能的训练手段。

“亿万年生物进化过程的大数据就是地球环境,训练机制也丰富多样,反向传播可能是其中之一。深度学习算力再强,大数据再大,也都难以望其项背。“因此,我们说,模仿生物大脑已经训练好的神经网络结构,而不是从零开始寻找结构,才是实现更强智能的更快捷的道路”,他说。

当然,这些诸多可能性仍待计算机科学家、神经科学家们共同推动探索。

需要指出,尽管深度学习这一概念在诞生初期仍有神经科学的影子,但近年随着深度学习本身的快速发展,它也愈发自成一派,几乎与神经科学无关联:研究深度学习的专家们专注于提升算法,而神经科学家们探讨的问题也基本上和人工深度神经网络无关。

如 Hinton 团队这样,采用深度学习中发展出的思想来研究大脑并非主流,却是希望在神经科学与现有的人工智能(尤其以深度学习技术为代表)建立更多连接。

正如 Hinton 团队在文章结尾所言:“30 年前人们认为神经科学可能没什么可学的,因为从生物学角度看反向传播算法有些方面是不现实的。随着梯度学习算法在深度神经网络表现出强大的学习能力,我们开始思考大脑的高效学习非常有可能近似计算梯度”。

AI 算法与人类大脑会越走越远,还是越走越近?相信未来还会有更多人加入到探寻该问题答案的队伍中。

关于什么是“智能”,就问题多多了。这涉及到其它诸如 意识(CONSCIOUSNESS)、 自我(SELF)、 思维(MIND)(包括无意识的思维(UNCONSCIOUS_MIND))等等问题。

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

人工智能神经网络之父Hinton再审视34年前的奠基性成果

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

人工智能神经网络之父Hinton再审视34年前的奠基性成果

编程学习网:直到现在,几乎你听说过的每一个关于人工智能的进步,仍基于 30 年前的一篇阐述多层神经网络训练方法的论文演变而来。那就是 Geoffrey Hinton 在 1986 年写下的《Learning representations by back-propagation errors》。
人工智能神经网络之父Hinton再审视34年前的奠基性成果

编程热搜

  • 人工智能你要知道的那些事
    编程学习网:早在1g时代我们只能接打电话。2g时代可以打电话发短信,玩早期的qq,但网络十分不稳定。3g时代带给我们很大的改变就是宽带上网,视频通话,看视频,听歌玩游戏。那时的人们认为4g无用,认为不会有什么改变,但当4g出来时我们才发现这是一次质的飞跃。
    人工智能你要知道的那些事
  • 人工智能无人机管制到底有多难?
    编程学习网:近日,一段“重庆网红列车遭无人机撞击逼停”的视频,在网络热传。
    人工智能无人机管制到底有多难?
  • 人工智能与人类
    欢迎各位阅读本篇,人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。本篇文章讲述了人工智能与人类,编程学习网教育平台提醒各位:本篇文章纯干货~因此大家一定要认真阅读本篇文章哦!
    人工智能与人类
  • 两小时 Elasticsearch 性能优化,直接把慢查询干团灭了……
    公共集群的机器负载分布不均衡的问题,业务的查询和流量不可控等各种各样的问题,要节省机器资源就一定会面对这种各种各样的问题,除非土豪式做法,每个业务都拥有自己的机器资源,这里面有很多很多颇具技术挑战的事情。
    两小时 Elasticsearch 性能优化,直接把慢查询干团灭了……
  • 关于OpenStack的架构详细讲解
    欢迎各位阅读本篇文章,OpenStack是一个开源的云计算管理平台项目,由几个主要的组件组合起来完成具体工作。本篇文章讲述了关于OpenStack的架构详细讲解,编程学习网教育平台提醒各位:本篇文章纯干货~因此大家一定要认真阅读本篇文章哦!
    关于OpenStack的架构详细讲解
  • AI &神经网络
    欢迎各位阅读本篇,本篇文章讲述了AI &神经网络,人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。神经网络内容丰富,反映了当前国内外该领域的最新研究成果和动向,编程学习网教育平台提醒各位:本篇文章纯干货~因此大家一定要认真阅读本篇文章哦!
    AI &神经网络
  • 人工智能对于网络安全的优缺点
    编程学习网:如今,产生的数据比以往任何时候都要多。由于数据分析工具的发展,各行各业的组织都更加重视大数据的收集和存储。
    人工智能对于网络安全的优缺点
  • Bash 初学者系列 7:bash 中的条件语句(if else)
    今天我们介绍一下如何在 bash 中使用条件语句。
    Bash 初学者系列 7:bash 中的条件语句(if else)
  • 人工智能机器学习的重要趋势是什么?
    编程学习网:在竞争日益激烈的技术市场中,从高科技初创公司到全球跨国公司都将人工智能视为关键竞争优势。但是,人工智能行业发展如此之快,以至于很难跟踪最新的研究突破和成就,甚至很难应用科学成果来实现业务成果。
    人工智能机器学习的重要趋势是什么?
  • 人工智能为什么会觉得Matplotlib用起来困难?
    编程学习网:Matplotlib是一个流行的Python库,可以很容易地用于创建数据可视化。
    人工智能为什么会觉得Matplotlib用起来困难?

目录