本篇使用 torchviz 软件包实现 PyTorch 计算图的可视化。 软件包安装(GitHub 网址为:h… Continue reading 使用torchviz实现PyTorch计算图的可视化
分类: 机器学习
一个完整的卷积神经网络(无训练)
这是之前的两篇: 这里给出一个完整的卷积神经网络,包含两个卷积层和两个全连接层。只是做了正向传播,并没有使用数… Continue reading 一个完整的卷积神经网络(无训练)
卷积和池化后的数据维度
这是之前的一篇:卷积和池化的作用以及代码实现。 在卷积和池化后,通常需要和全连接的神经网络进行连接,为了能够匹… Continue reading 卷积和池化后的数据维度
卷积和池化的作用以及代码实现
卷积(convolution)和池化(pooling)是卷积神经网络(convolutional neural… Continue reading 卷积和池化的作用以及代码实现
主成分分析PCA的原理以及降维实现
主成分分析(Principal Component Analysis, PCA)是一种常用的数据降维方法。主要… Continue reading 主成分分析PCA的原理以及降维实现
批量训练中迭代次数的计算
使用批量训练时,有四个概念: 迭代次数的计算公式如下(能整除的情况): 如果不能整除,在 PyTorch 中默… Continue reading 批量训练中迭代次数的计算
神经网络中常见的激活函数
激活函数在神经网络中扮演着至关重要的角色,它们用于引入非线性特性,使神经网络能够学习和适应更复杂的数据模式。本… Continue reading 神经网络中常见的激活函数
神经网络的主要调参内容和顺序
这里列出我的神经网络主要调参内容和顺序,仅供参考: 调参的原则:
CPU、GPU和NPU的特点和区别
CPU 的设计初衷是串行,适合于处理各种复杂的逻辑关系。GPU 专注于大规模并行处理,适合同时处理大量简单的计… Continue reading CPU、GPU和NPU的特点和区别
常见的梯度下降算法
反向传播是一个计算梯度的过程,它通过链式法则将损失函数关于网络参数的梯度从输出层向输入层传播。梯度下降则是一种… Continue reading 常见的梯度下降算法
PyTorch中常用的模块、类、方法以及神经网络例子
这是之前的两篇: PyTorch安装参考:https://pytorch.org/get-started/lo… Continue reading PyTorch中常用的模块、类、方法以及神经网络例子
PyTorch基础(Tensor数据类型)
PyTorch的官方API为 https://pytorch.org/docs/stable/torch.ht… Continue reading PyTorch基础(Tensor数据类型)