pdf

neural-networks-and-deep-learning-zh

  • 1星
  • 日期: 2018-11-07
  • 大小: 6.53MB
  • 所需积分:1分
  • 下载次数:146
  • favicon收藏
  • rep举报
  • 分享
  • free评论
标签: 电子

最早发现的基本粒子。带负电,电量为1.602189×10-19库仑,是电量的最小单元。质量为9.10953×10-28克。 常用符号e表示。1897年由英国物理学家约瑟夫·约翰·汤姆生在研究阴极射线时发现。一切原子都由一个带正电的原子核和围绕它运动的若干电子组成。

neural-networks-and-deep-learning-zh

文档内容节选

null 目錄 1 Introduction 2 第一章 使用神经网络识别手写数字 3 第二章 反向传播算法如何工作的 4 第三章 改进神经网络的学习方式 5 第五章 深度神经网络为何很难训练 6 第六章 深度学习 null null 神经网络与深度学习 神经网络和深度学习是一本免费的在线书本书会教会你: 神经网络,一种美妙的受生物学启发的编程范式,可以让计算机从观测数据中进行学习 深度学习,一个强有力的用于神经网络学习的众多技术的集合 神经网络和深度学习目前给出了在图像识别语音识别和自然语言处理领域中很多问题的最 好解决方案本书将会教你在神经网络和深度学习背后的众多核心概念 想了解本书选择的观点的更多细节,请看这里或者直接跳到第一章 开始你们的旅程 译者的话: 本书是 Michael Nielsen 的 Neural Networks and Deep Learning 的中译本目前已经完成第 二章第五章和第六章的内容后续会进行剩下章节的翻译如果想要合作翻译,提供意见 或者建议,给出翻译的笔误,都可以直接通过 xhzhunjugmailcom 联系到我 null null......

null 目錄 1. Introduction 2. 第一章 使用神经网络识别手写数字 3. 第二章 反向传播算法如何工作的? 4. 第三章 改进神经网络的学习方式 5. 第五章 深度神经网络为何很难训练 6. 第六章 深度学习 null null 神经网络与深度学习 神经网络和深度学习是一本免费的在线书。本书会教会你: 神经网络,一种美妙的受生物学启发的编程范式,可以让计算机从观测数据中进行学习 深度学习,一个强有力的用于神经网络学习的众多技术的集合 神经网络和深度学习目前给出了在图像识别、语音识别和自然语言处理领域中很多问题的最 好解决方案。本书将会教你在神经网络和深度学习背后的众多核心概念。 想了解本书选择的观点的更多细节,请看这里。或者直接跳到第一章 开始你们的旅程。 译者的话: 本书是 Michael Nielsen 的 Neural Networks and Deep Learning 的中译本。目前已经完成第 二章、第五章和第六章的内容。后续会进行剩下章节的翻译。如果想要合作翻译,提供意见 或者建议,给出翻译的笔误,都可以直接通过 xhzhu.nju@gmail.com 联系到我。 null null First Chapter GitBook allows you to organize your book into chapters, each chapter is stored in a separate file like this one. null null 在上一章,我们看到了神经网络如何使用梯度下降算法来学习他们自身的权重和偏差。但 是,这里还留下了一个问题:我们并没有讨论如何计算代价函数的梯度。这是很大的缺失! 在本章,我们会解释计算这些梯度的快速算法,也就是反向传播。 反向传播算法最初在 1970 年代被发现,但是这个算法的重要性直到 David Rumelhart、Geoffrey Hinton 和 Ronald Williams 的 1986年的论文 中才被真正认可。这篇论 文描述了对一些神经网络反向传播要比传统的方法更快,这使得使用神经网络来解决之前无 法完成的问题变得可行。现在,反向传播算法已经是神经网络学习的重要组成部分了。 本章在全书的范围内要比其他章节包含更多的数学内容。如果你不是对数学特别感兴趣,那 么可以跳过本章,将反向传播当成一个黑盒,忽略其中的细节。那么为何要研究这些细节 呢? 答案当然是理解。反向传播的核心是对代价函数 算表示。该表示告诉我们在权重和偏差发生改变时,代价函数变化的快慢。尽管表达式会有 点复杂,不过里面也包含一种美感,就是每个元素其实是拥有一种自然的直觉上的解释。所 以反向传播不仅仅是一种学习的快速算法。实际上它还告诉我们一些细节的关于权重和偏差 的改变影响整个网络行为方面的洞察。因此,这也是学习反向传播细节的重要价值所在。 (或者 )的偏导数 关于 的计 如上面所说,如果你想要粗览本章,或者直接跳到下一章,都是可以的。剩下的内容即使你 是把反向传播看做黑盒也是可以掌握的。当然,后面章节中也会有部分内容涉及本章的结 论,所以会常常给出本章的参考。不过对这些知识点,就算你对推导的细节不太清楚你还是 应该要理解主要的结论的。 热身:神经网络中使用矩阵快速计算输出的观 点 在讨论反向传播前,我们先熟悉一下基于矩阵的算法来计算网络的输出。事实上,我们在上 一章的最后已经能够看到这个算法了,但是我在那里很快地略过了,所以现在让我们仔细讨 论一下。特别地,这样能够用相似的场景帮助我们熟悉在反向传播中使用的矩阵表示。 我们首先给出网络中权重的清晰定义。我们使用 个神经元到 个神经元的链接上的权重。例如,下图给出了第二隐藏层的第四个神经元到第 表示从 层的 层的 三隐藏层的第二个神经元的链接上的权重: null
更多简介内容

推荐帖子

评论

登录/注册

意见反馈

求资源

回顶部

datasheet推荐 换一换

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版 版权声明

北京市海淀区知春路23号集成电路设计园量子银座1305 电话:(010)82350740 邮编:100191

电子工程世界版权所有 京ICP证060456号 京ICP备10001474号 电信业务审批[2006]字第258号函 京公海网安备110108001534 Copyright © 2005-2020 EEWORLD.com.cn, Inc. All rights reserved
$(function(){ var appid = $(".select li a").data("channel"); $(".select li a").click(function(){ var appid = $(this).data("channel"); $('.select dt').html($(this).html()); $('#channel').val(appid); }) })