深度学习基础介绍-机器学习

课程导师

胡明星 胡明星
十余年Web开发经验,主导会员营销、财务管理、游戏管理等三十余个大中型Web项目的设计与研发,项目体验人数超过千万。
00:00:00
Play
Next
00:00 / 00:00
40%
  • 2x
  • 1.5x
  • 1.25x
  • 1x
1x
14.神经网络算法应用上
离线学习

下载APP离线观看

技能补充更多
  • Javascript初步
    Javascript初步

    Javascript是web前端开发常用技术之一,也是web前端开发必学技术之一,本章麦子学院原创JavaScript视频教程,将围绕其相关基础知识和实际应用全面讲解,让你轻松掌握并精通JavaScript的使用。

  • Photoshop切片
    Photoshop切片

    Photoshop切片是web前端开发常用技术之一,本章将由麦子学院资深web前端工程师为你讲解ps切片的基本操作、技巧及要点,让你快速入门Photoshop切片。

  • Python语言编程基础
    Python语言编程基础

    Python是一种面向对象、解释型计算机程序设计语言,语法简洁而清晰,具有丰富和强大的类库。本章Python编程基础的视频教程,为现目前国内最全面的Python视频教程之一,由麦子学院资深Python工程师录制,主要围绕Python编程实战方方面面展开。

  • Javascript初步
    Javascript初步

    javascript是一种动态类型、弱类型、基于原型的语言,广泛应用于客户端,而在Python中,JavaScript是 web前端开发不可或缺的一个技术,本章主要是麦子学院资深web前端开发工程师通过系统讲解js的语法、对象、函数、变量及其的使用等等,让零基础学员迅速入门。

  • 最新问答
  • WIKI资料
  • 课件下载
只看我参与的
  • 6149888 9天前

    这段代码其实是有问题的,只要神经网络多于2层,就会出现权重初始化重复的情况,在这里没出问题是因为后面的例子都是2层神经网格。另一个问题就是Bias,这段代码中默认为1,并且不更新,在复杂的分类问题中存在设计缺陷。看了很久才看明白,特别注明让后面的同学不至于疑惑。

    提问于 28:04
  • hutaoran 1个月前

    为什么没有第六阶段的第一节课

    提问于 00:11

    13240807667 1个月前

    请问你收到答复没(我同问阿)

  • fengxhao 2个月前

    还有个问题,就是在输出层的delta的值应该是error*self.activation_deriv(z[l]),z[l]是最后一层的输入的值,没有经过激活函数的值,而不是a[l]吧,这是最后一层的值,对于logistic delta=error*a[l]*(1-a[l])吧??请教

    提问于 38:11

    软件开发 回复 fengxhao 2个月前

    你好同学,如果专业老师不能及时回复。欢迎你去问答区域和其他同学互动交流,或者是参加试学体验约老师1V1服务。

  • fengxhao 2个月前

    老师,你的weights,random值时你的for循环第二个weights.append,应该放在外面吧,不需要每次都random倒数第二层和输出层的weights吧,应该你是三层,所以没问题,如果四层就会出问题吧?coding比较烂,希望老师指教,

    提问于 26:58

    软件开发 回复 fengxhao 2个月前

    你好同学,如果专业老师不能及时回复。欢迎你去问答区域和其他同学互动交流,或者是参加试学体验约老师1V1服务。

  • wgx7054 2个月前

    是不是14节,神经网络算法应用上 之前漏了一节课?

    提问于 00:35

    收起↑

    wgx7054 回复 wgx7054 2个月前

    sorry,找到了

    胡明星 回复 wgx7054 2个月前

    好的。

    上海+沈佳巍 回复 wgx7054 1个月前

    tanx求导不是1+tanx*tanx嘛,14这个视频好像说错了

  • 18826103730 3个月前

    老师好!在给weights赋初始值时,前半部分(layers[i - 1] + 1, layers[i] + 1),数组的大小为什么要加一呢?而后半部分(layers[i] + 1, layers[i + 1])又不是都加一呢?

    提问于 27:39

    收起↑

    胡明星 回复 18826103730 3个月前

    你好,请看一下这篇算法讲解http://www.cnblogs.com/wentingtu/archive/2012/06/05/2536425.html,希望对你有所帮助。

    18826103730 回复 胡明星 3个月前

    谢谢老师!

    1012928556 回复 胡明星 17天前

    老师好!前半部分(layers[i - 1] + 1, layers[i] + 1)这里是不是出错了?这里计算的是前一层(n个节点)以及当前层 (m个节点)之间的权重,那么,全连接的话,最后得到的weights的大小应该是 (n+1)*m才对吧? 而代码上的却是(layers[i - 1] + 1, layers[i] + 1)(即: (n+1)*(m+1))?这个是不是错了?求解答。

加载更多↓
  • 深度学习基础介绍 课件

    深度学习基础介绍 课件

© 2012-2016 www.maiziedu.com

蜀ICP备13014270号-4 Version 5.0.0 release20160127

一名课程顾问想与您沟通

免费电话咨询