Andrew Ng 机器学习笔记(第4周)

本文最后更新于:2022年6月3日 晚上

前言

这个系列的博客将作为我机器学习课程的笔记,部分用中文较难表述的词句我将使用英文原文。

第 4 周的课程标题是神经网络的表示,介绍了最基础的神经网络及其应用,本周的内容比较少,仅涉及到全连接层激活函数层

神经网络

引入神经网络的动机:当输入数据(这里仅考虑向量)的维度较大时,很难给出待定函数的表达式,因为表达式的最高次项的阶数难以确定。于是,研究者们考虑使用具有固定数量参数的神经网络,来学习目标函数。

神经网络的表示:\(g\)\(sigmoid\)函数,\(\Theta^{(i)}\)为第\(i\)层的参数矩阵,\(a^{(i)}\)为第\(i\)层的输入向量,则有:

\[ a^{(i+1)}=g\left(\Theta^{(i)}a^{(i)}\right) \]

在上式中,\(a_0^{(i)}\)(第\(i\)层输入向量的第\(1\)个分量)恒等于\(1\),故这里不需要再加上偏置向量。

神经网络的简单应用

本节第一部分展示了使用神经网络完成与门、或门、异或门的功能,网络非常简单,在此不再列出。

本节第二部分给出了使用神经网络解决多类分类问题的一个例子,粗略讲解了一个图像分类的神经网络。

相关链接

由于作者水平有限,所以文章中难免有少数不严谨之处,如有读者发现此类疏忽,恳请读者指出。另外,如果认为本文对您有帮助,欢迎请作者喝咖啡!Matrix53的微信赞赏码


Andrew Ng 机器学习笔记(第4周)
https://matrix53.github.io/2022/06/03/Andrew-Ng-机器学习笔记-第4周/
作者
Matrix53
发布于
2022年6月3日
许可协议