MNIST 数据集包含 70000 张手写数字的灰度图像,分为以下两部分: 其中,每个图像是 28×28 像素… Continue reading MNIST数据集和手写数字的模型训练
分类: 机器学习
在机器学习模型训练中Epoch的大概取值范围
这是之前相关的两篇: 在机器学习模型训练中,Epoch(可以翻译为:轮次、训练轮数、训练周期) 是指在训练过程… Continue reading 在机器学习模型训练中Epoch的大概取值范围
当损失函数长时间不再下降时自动停止训练的设置
在机器学习的训练过程中,除了通过多次测试获取经验来设置总的训练轮次,也可以使用额外的代码进行判断,当损失函数长… Continue reading 当损失函数长时间不再下降时自动停止训练的设置
由于内存限制导致数据无法一次性从文件加载到PyTorch 中的简单解决方法
如果训练的数据比较大,无法一次性加载,简单的解决方法是分批从文件中加载。为了演示方便,这里的 x_train,… Continue reading 由于内存限制导致数据无法一次性从文件加载到PyTorch 中的简单解决方法
PyTorch张量数组的合并
这是之前的一篇:PyTorch基础(Tensor数据类型)。 在机器学习中,可能会涉及到多个数据合并后再进行训… Continue reading PyTorch张量数组的合并
Kolmogorov-Arnold Networks的优势和局限性
《KAN: Kolmogorov-Arnold Networks》论文链接:https://arxiv.org… Continue reading Kolmogorov-Arnold Networks的优势和局限性
反向传播、自动微分、链式法则、梯度下降的关系
链式法则为计算复合函数的导数提供了理论基础,自动微分提供了高效计算导数的技术手段,反向传播利用了这两者来计算神… Continue reading 反向传播、自动微分、链式法则、梯度下降的关系
使用torchviz实现PyTorch计算图的可视化
本篇使用 torchviz 软件包实现 PyTorch 计算图的可视化,做个记录,但个人感觉可视化的作用不是很… Continue reading 使用torchviz实现PyTorch计算图的可视化
机器学习中动态图和静态图的区别
TensorFlow 的早期版本 TensorFlow 1.x 是静态图,在搭建完结构后,需要创建会话(Ses… Continue reading 机器学习中动态图和静态图的区别
最大池化和平均池化的区别
池化一般有最大池化和平均池化。池化通过丢弃信息来降低维度。从字面上就很容易理解: 相关博文:
一个完整的卷积神经网络(无训练)
这是之前的两篇: 这里给出一个完整的卷积神经网络,包含两个卷积层和两个全连接层。只是做了正向传播,并没有使用数… Continue reading 一个完整的卷积神经网络(无训练)
卷积和池化后的数据维度
这是之前的一篇:卷积和池化的作用以及代码实现。 在卷积和池化后,通常需要和全连接的神经网络进行连接,为了能够匹… Continue reading 卷积和池化后的数据维度
卷积和池化的作用以及代码实现
卷积(convolution)和池化(pooling)是卷积神经网络(convolutional neural… Continue reading 卷积和池化的作用以及代码实现
主成分分析PCA的原理以及降维实现
主成分分析(Principal Component Analysis, PCA)是一种常用的数据降维方法。主要… Continue reading 主成分分析PCA的原理以及降维实现
批量训练中迭代次数的计算
使用批量训练时,有四个概念: 迭代次数的计算公式如下(能整除的情况): 如果不能整除,在 PyTorch 中默… Continue reading 批量训练中迭代次数的计算
神经网络中常见的激活函数
激活函数在神经网络中扮演着至关重要的角色,它们用于引入非线性特性,使神经网络能够学习和适应更复杂的数据模式。本… Continue reading 神经网络中常见的激活函数
人工智能的大事件记录
这里记录人工智能的大事件,内容可能不完整,将不定期补充和更新: 其他参考资料: [1] 深度学习(Deep L… Continue reading 人工智能的大事件记录
神经网络的主要调参内容和顺序
这里列出我的神经网络主要调参内容和顺序,供参考: 调参的原则:
CPU、GPU和NPU的特点和区别
CPU 的设计初衷是串行,适合于处理各种复杂的逻辑关系。GPU 专注于大规模并行处理,适合同时处理大量简单的计… Continue reading CPU、GPU和NPU的特点和区别
常见的神经网络模型
本篇给出几个常见的神经网络模型和对应的一些重要论文,可能不定期补充更新。除了阅读早期论文,具体学习也可以阅读一… Continue reading 常见的神经网络模型
常见的梯度下降算法
反向传播是一个计算梯度的过程,它通过链式法则将损失函数关于网络参数的梯度从输出层向输入层传播。梯度下降则是一种… Continue reading 常见的梯度下降算法
PyTorch中常用的模块、类、方法以及神经网络例子
这是之前的两篇: PyTorch安装参考:https://pytorch.org/get-started/lo… Continue reading PyTorch中常用的模块、类、方法以及神经网络例子
PyTorch基础(Tensor数据类型)
PyTorch的官方API为 https://pytorch.org/docs/stable/torch.ht… Continue reading PyTorch基础(Tensor数据类型)
使用TensorFlow搭建一个最简单的神经网络
如果没有 TensorFlow 基础,可以先阅读这篇:TensorFlow基础。本篇使用的是 TensorFl… Continue reading 使用TensorFlow搭建一个最简单的神经网络
TensorFlow基础
目前个人推荐使用PyTorch,参考:PyTorch基础(Tensor数据类型)、PyTorch中常用的模块、… Continue reading TensorFlow基础