YOLOv5改进系列(二) 本文(1.万字) | 解读各种激活函数 | 更换激活函数 | SiLU | ReLU | ELU | Hardswish | Mish | Softplus | 等 |

142 篇文章

已下架不支持订阅

本文详细解读了多种激活函数,包括ReLU、SiLU、Swish、Hardswish、Mish等,探讨了它们的优缺点及在神经网络中的应用,旨在帮助选择合适的激活函数以提升模型性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


点击进入专栏:
《人工智能专栏》 Python与Python | 机器学习 | 深度学习 | 目标检测 | YOLOv5及其改进 | YOLOv8及其改进 | 关键知识点 | 各种工具教程


代码函数调用关系图(全网最详尽-重要)

因文档特殊,不能在博客正确显示,请移步以下链接!

图解YOLOv5_v7.0代码结构与调用关系(点击进入可以放大缩小等操作)

预览:
在这里插入图片描述


文章目录

    • 一、激活函数的简介
      • 1.1 什么是激活函数?
      • 1.2 激活函数有什么用?
    • 二、一些常见的激活函数
      • 2.1 sigmoid函数
      • 2.2 tanh / 双曲正切激活函数
      • 2.3 ReLU激活函数
      • 2.4 SiLU
      • 2.5 swish激活函数
      • 2.6 hardswish激活函数
      • 2.7 Mish激活函数
      • 2.8 ELU激活函数
      • 2.9 AconC/MetaAconC激活函数
      • 2.10 Softplus激活函数
      • 2.11 Leaky ReLU、 PReLU
      • 2.12 代码复现
        • 复现一
        • 复现二
    • 三、更换激活函数的步骤
        • 第①步 打开activations.py文件,查看已有函数
        • 第②步 在common.py中更换激活函数
    • 四、如何选择合适的激活函数


一、激活函数的简介

1.1

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小酒馆燃着灯

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值