阅读记录

第592章 积极反馈的老师Relu函数[2/2页]

职场小聪明 翟晓鹰

设置 ×

  • 阅读主题
  • 字体大小A-默认A+
  • 字体颜色
能让神经网络计算得更快。
      2.
      解决梯度消失问题
      在深度神经网络中,传统的
      Sigmoid
      函数容易让梯度变得越来越小(导致网络学不会东西)。但
      ReLU
      由于保持正值不变(直接
      y=x),不会导致梯度消失,从而让神经网络可以学习更复杂的模式。
      3.
      让神经网络更容易训练深层结构
      ReLU
      是现代深度学习的核心激活函数,因为它让深度神经网络(DNN、CNN、Transformer
      等)可以稳定地训练数百层,甚至更深。
      ReLU
      的缺点:可能会忽略一些“负面信息”
      虽然
      ReLU
      能够高效处理正数输入,但它也有一个潜在的问题——如果输入是负数,它就会直接变成
      0,不再参与计算,这可能会导致一部分神经元“死亡”,无法再学习任何东西。这个现象被称为**“神经元死亡”问题**。
      解决方案:ReLU
      的改进版本
      科学家们为了让
      ReLU
      更强大,开发了一些变种,比如:
      Leaky
      ReLU(泄漏
      ReLU)
      ?
      让负数部分不过完全归零,而是保留一个很小的值,比如
      避免神经元完全失效。
      ?
      比喻:就像一个更有耐心的老师,虽然还是以鼓励为主,但偶尔也会给一点点负面反馈,让学生知道哪里可以改进。
      Parametric
      ReLU(PReLU)
      ?
      类似
      Leaky
      ReLU,但负值部分的系数可以由神经网络自己学习,而不是固定的
      ?
      比喻:就像一个能根据学生情况调整教学方式的老师,而不是用同一个方法对待所有人。
      ELU(指数线性单元)
      ?
      负值部分不会完全归零,而是平滑下降到一个小的负数,使得神经元仍然可以继续学习。
      ?
      比喻:就像一个更加温和的教练,不会完全忽略失败,而是会温和地引导改进。
      总结:ReLU
      是
      AI
      的“成长加速器”
      ReLU
      的本质
      ?
      它的作用就是让神经网络学习得更快、更稳定,只保留有用的信息,丢弃无用的负值。
      ?
      它让
      AI
      变得更高效,尤其适用于深度学习模型。
      ReLU
      的优缺点
      优点:计算快,能避免梯度消失,适合深度网络。
      缺点:可能会让部分神经元“死亡”,无法学习负值信息。
      改进
      ReLU
      的方法
      ?
      Leaky
      ReLU、PReLU、ELU
      等,让
      AI
      更聪明地处理负值信息,而不是一刀切归零。
      思考:你在现实生活中,见过哪些“ReLU
      式”的思维方式?
      比如:
      ?
      有些老师只表扬学生,从不批评,是否适合所有人?
      ?
      有些企业只关注正向增长数据,而忽略了潜在的问题,这样是否真的健康?
      AI
      的发展,就像人类思维的模拟,我们不仅需要“鼓励成长”(ReLU),有时也需要适当地“学习失败的教训”(Leaky
      ReLU)!

第592章 积极反馈的老师Relu函数[2/2页]