题解|实现ReLU激活函数
实现ReLU激活函数
https://www.nowcoder.com/practice/599c3a2e838a46d5a710a965bd792de0?tpId=377&tags=&title=&difficulty=0&judgeStatus=0&rp=0&sourceUrl=%2Fexam%2Foj
ReLU(Rectified Linear Unit)是一种常用的激活函数,其计算公式为:
其中,是输入。
该算法是深度学习中常用的激活函数之一。
标准代码如下
def relu(z: float) -> float:
return max(0, z)
