深度学习基础
文章平均质量分 84
深度学习使用称为神经网络的模型来建模和解决各种机器学习问题。神经网络是由许多称为神经元的单元组成的,这些神经元通过连接权重相互连接,并通过非线性的激活函数来处理输入数据。神经网络的层数越多,模型对数据的抽象表示能力就越强,因此被称为深度学习。
胡乱儿起个名
工作记录.......
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
转置卷积的实现过程
这里指的反卷积,也叫转置卷积,它并不是正向卷积的完全逆过程,反卷积是一种特殊的正向卷积,先按照一定的比例通过补0来扩大输入图像的尺寸,接着旋转卷积核,再进行正向卷积。输入特征图变换:对输入特征图进行变换,包括插值操作和填充操作。插值操作:当步长(stride)大于1时,需要在输入特征图的相邻值之间插入(stride-1)行和列0。这一步是为了在上采样过程中保持特征图的尺寸变化。填充操作:为了得到正确的输出尺寸,还需要在特征图的边缘进行填充。填充的像素数量与卷积核大小、步长和原始填充量有关。卷积运算。原创 2024-12-02 20:10:21 · 817 阅读 · 0 评论 -
最全卷积总结篇(分组、深度可分离、空洞、转置等)
分组卷积(Group Convolution)是一种卷积操作方式,它最早在AlexNet中引入,并在深度学习中被广泛使用,尤其是在高效模型设计(如MobileNet和ResNeXt)中。分组卷积通过将输入特征通道分为若干组,并在每组内单独进行卷积操作,可以减少计算复杂度和参数量,同时有效利用模型的结构特性。分组卷积的工作原理通道分组:输入特征图的通道图为C_in,输出特征图的通道数为C_out,将每组的C_in和C_out分为G组,每组的通道数为C_in/G和C_out/G。组内卷积。原创 2024-11-26 21:52:51 · 4051 阅读 · 0 评论 -
卷积神经网络的ceil_mode有什么用?
在 PyTorch 中,ceil_mode 参数用于控制最大池化操作中输出张量的形状计算方式。原创 2024-11-21 19:57:45 · 700 阅读 · 0 评论 -
卷积神经网络的padding是什么?如何计算?
当stride = 1,dilation=1,卷积公式的输出为H_out = H_in+2p-k+1,要保证H_out = H_in,所以2p = k-1,p = (k-1)/2。假设输入尺寸是 5×5,卷积核大小是 3×3,步幅为 1。我们希望卷积操作后的输出尺寸与输入相同。根据公式推导得,P = (S(H-1)-H+K)/2,当S=2,上述例子为,P = floor[(8-4+3)/2]=3。原创 2024-11-21 19:56:41 · 2096 阅读 · 0 评论 -
大模型参数量和占的显存怎么换算?
文章目录1B"的全称是"1 Billion",表示十亿;而"1M"的全称是"1 Million",表示一百万。B和G都是十亿(1000M或1024M)的意思,M是100万的意思。模型参数有xB就是说有x十亿个参数。显存有多少G/M是说有多少G/M个字节(byte),1个字节=8比特(bit)。1字节(Byte)通常由8个比特组成,FP32使用4字节(32位)表示一个浮点数,而FP16使用2字节(16位)表示一个浮点数1B模型参数对应多少G内存和参数的精度有关,如果是全精度训练(fp32),一原创 2024-07-24 16:14:10 · 9243 阅读 · 0 评论 -
常见激活函数总结
引入非线性:激活函数通过引入非线性将线性操作转化为非线性操作。线性变换的叠加只能得到一个线性变换,而非线性激活函数允许神经网络学习和表示更复杂的模式和特征。非线性激活函数的存在使得神经网络能够逼近任意复杂的函数。增加网络的表达能力:激活函数的非线性特性增加了神经网络的表达能力。它们允许网络学习非线性关系,从而能够处理更加复杂的数据和任务。激活函数的选择对于网络的性能和学习能力非常重要。实现特定的激活模式:不同的激活函数可以实现不同的激活模式。例如,ReLU。原创 2024-07-19 17:05:04 · 1116 阅读 · 0 评论 -
Batch Normalization和Layer Normalization和Group normalization
批量规范化和层规范化在神经网络中的每个批次或每个层上进行规范化,而GroupNorm将特征分成多个组,并在每个组内进行规范化。这种规范化技术使得每个组内的特征具有相同的均值和方差,从而减少了特征之间的相关性。通常,组的大小是一个超参数,可以手动设置或自动确定。相对于批量规范化,GroupNorm的一个优势是它对批次大小的依赖性较小。这使得GroupNorm在训练小批量样本或具有不同批次大小的情况下更加稳定。另外,GroupNorm还可以应用于一维、二维和三维的输入,适用于不同类型的神经网络架构。原创 2024-03-05 22:53:00 · 4365 阅读 · 0 评论 -
什么是上采样和下采样
在卷积神经网络(Convolutional Neural Network,CNN)中,下采样和上采样是指特征图的空间尺寸变化操作。原创 2024-02-27 23:08:01 · 10361 阅读 · 0 评论 -
CNN卷积神经网络详解
卷积神经网络(CNN)是一种深度学习模型,广泛应用于图像处理、语音识别、自然语言处理等领域。图像分类和识别:CNN在图像分类和识别方面的应用是最为广泛的。通过训练,CNN能够学习到从图像中提取特征的能力,从而实现对图像的分类和识别。例如,在人脸识别、物体检测、车牌识别等领域,CNN都取得了显著的效果。语音识别:CNN也可以应用于语音识别领域,通过对语音信号的卷积和池化处理,提取出语音的特征表示,从而实现对语音的分类和识别。原创 2024-02-04 03:20:30 · 3248 阅读 · 1 评论 -
机器学习笔记--机器学习基本概念(全面总结,通俗易懂)
什么是机器学习?本文主要介绍了机器学习中的常见概念,包括监督学习和无监督学习、半监督学习、弱监督学习、强化学习、欠拟合和过拟合、损失和优化的概念以及常用的激活函数等。原创 2024-01-22 19:13:26 · 8557 阅读 · 0 评论 -
机器学习笔记--监督学习和无监督学习全面总结(原理、示意图、代码)
本文为大家总结了监督学习和无监督学习中常用算法原理简单介绍,包括了代码的详细详解,是机器学习的入门学习,同时也是AI算法面试的重点问题。主要包括线性回归、逻辑回归、决策树、朴素贝叶斯、k近邻算法、SVM、PCA、K-Meams等。原创 2024-01-21 21:20:18 · 20732 阅读 · 5 评论
分享