学界吴恩达课程刷后感附课程视频字幕全套作业
作者简介: @文雨之 本科东北大学自动化专业,然后直接攻博读的是系统工程专业。目前在东北大学系统工程专业读博士,在流程工业综合自动化国家重点实验室做流程工业里边调度问题和运行优化问题。博士刚开始主要接触了很多Numerical optimization, Convex optimization,Nonlinear programming的知识,用来解决实际工业过程中的优化问题。随着近几年来,人工智能机器学习火了起来,逐渐研究的重心也从数学优化转到机器学习相关领域了,但是我一直还是认为优化是自己的老本行,也一直从优化的角度去看待机器学习的问题去尝试做一些新的思考。
欢迎原链接转发,转载请前往 @留德华叫兽 的主页获取信息,盗版必究。
敬请关注和扩散本专栏及同名公众号,会邀请 全球知名学者 陆续发布运筹学、人工智能中优化理论等相关干货、 知乎Live 及行业动态:
0 前言
小编亲自刷了Deep Learning Specialization课程中的前三门课,并顺利拿下证书,在这里晒一下证书的同时也想把自己关于该课程的刷后感分享给大家,文末还准备上了全套的Deep Learning Specialization课程的资料,包括课程的视频,课程视频配备了中英文字幕,课程PPT,课程的作业(部分答案)。
下图是第一门课的证书,可以看到证书的左下角有Andrew Ng的签名(貌似用49刀买了Andrew Ng的签名一样)。
1 Deep Learning Specialization课程简介
2017年八月初,吴恩达(Andrew Ng)在coursera上推出了Deep Learning Specialization的系列专项课程,该系列课程一共有5门课程构成:
Neural Networks and Deep Learning
主要内容:
- 从逻辑回归出发(逻辑回归实际上可以视为没有隐含层的神经网络,为下一节引出神经网络做了铺垫),期间插入了对Python编程的介绍(用Numpy进行向量化矩阵化的运算,jupyter note的使用)
- 实现一个浅层的神经网络的训练(单隐含层的神经网络,激活函数的选择,前向传播与误差反向传播算法,权值的初始化)
- 实现深层神经网络的训练(多隐含层的神经网络,超参数和参数)
Improving Deep Neural Networks
主要内容:
- 神经网络训练的一些技术(训练集测试集,偏差和方差,正则化,Dropout,归一化,梯度检查的方法)
- 神经网络训练的优化算法介绍(最小批梯度算法,指数平滑改进梯度算法,RMSprop, Adam, 学习率的选择)
- 超参数搜索方法,Batch Norm,多分类问题softmax函数,深度学习框架tensorflow
Structuring Machine Learning Projects
主要内容:
- 机器学习的一些实践经验和技巧(human-level performance,误差分析,训练集测试集分布不一样,迁移学习,多任务学习,端到端学习)
主要内容:
- CNN的基础内容(计算机视觉、图片边缘检测、卷积、池化等)
- AlexNet、LeNet、VGG、ResNet、Inception Network、1乘1卷积、迁移学习、数据扩充等
- 目标定位、目标检测、Bounding Box预测、交并比、非最大值抑制NMS、Anchor box、YOLO算法、候选区域region proposals等
- 人脸识别、one-shot学习、Siamese网络、Triplet损失、风格迁移、内容损失、风格损失、1D-3D卷积等
主要内容:
- RNN简介,不同类型的RNN、语言模型、新序列采样、RNN梯度消失、GRU、LSTM、双向RNN、深层RNNs等;
- 序列到序列模型、集束搜索(Beam search)、集束搜索误差分析、Bleu得分、注意力模型、注意力权重、语音识别、触发字检测等
2 小编的刷后感
- 关于课程的难度与目标人群
课程难度低,基本不需要具备什么数学知识就可以,主要在误差反向传播算法的时候需要用到复合函数求导的内容,另外就是批梯度算法的最终实现要依赖大量的线性代数运算,即向量和矩阵运算等等。相信一般的本科生入门完全是没有任何压力的。作为机器学习零基础的入门课程也是完全可以的。
课程的特点在于把神经网络彻底讲的很清楚了,从神经网络的Motivation到一些很小的细节都有包括,一些小的细节可能对于一些熟悉神经网络的同学来说也不一定都曾经全了解过,所以课程的入门门槛低并不意味着课程就很简单只适合新手去刷,老手一样也可以获益匪浅。
课程同时配合着穿插了一些Python编程的知识,有机的将理论和编程无缝对接。对于喜欢编程的同学无疑是一个非常好的实践场合。
- 关于课程作业
课程的作业设计也是非常用心的。首先作业的形式是分为两种,一种是选择题,单选和多项穿插,一般是10道选择题,正确率在80%或80%以上的才可以通过。不过好处是可以多次提交答案,所以答题也是一个自我检查的过程。我的基础还算好一些,多数课程的答题虽然很少有满分的,不过基本上一次就能通过。如果发现自己有哪些题目错了或者答题的时候感觉比较模糊的可以回顾一下前面的视频内容,题目的答案基本都在前面的视频里边讲过了,所以选择题的设计是比较简单侧重基本理论内容的复习和自查。
第二种是编程题,编程题采用的形式是Jupyter notebook的形式,一部分文字和公式的讲解,配合上一段代码,你需要做的是补充代码中一些关键步骤。相比完完全全让你从0开始编程的作业,Deep Learning Specialization 课程这种形式的作业设计也是“非常贴心”的。应该是考虑到了如果完全从0开始造轮子对于课程参与者来说难度太大,而且会耗费过多时间在作业上。这样做的好处是既让你参与了机器学习中造轮子的过程,又不至于耗费太多时间让你陷入过多细节中去以至于最终放弃。
以下是作业的截图
吴恩达也在课程中一直贯彻一个思想就是 在刚开始学习机器学习算法的时候最好是要自�
- 原文作者:知识铺
- 原文链接:https://index.zshipu.com/geek/post/%E4%BA%92%E8%81%94%E7%BD%91/%E5%AD%A6%E7%95%8C%E5%90%B4%E6%81%A9%E8%BE%BE%E8%AF%BE%E7%A8%8B%E5%88%B7%E5%90%8E%E6%84%9F%E9%99%84%E8%AF%BE%E7%A8%8B%E8%A7%86%E9%A2%91%E5%AD%97%E5%B9%95%E5%85%A8%E5%A5%97%E4%BD%9C%E4%B8%9A/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 免责声明:本页面内容均来源于站内编辑发布,部分信息来源互联网,并不意味着本站赞同其观点或者证实其内容的真实性,如涉及版权等问题,请立即联系客服进行更改或删除,保证您的合法权益。转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。也可以邮件至 sblig@126.com