题号 | 题目 | 提交时间 | 状态 | 运行时间 | 占用内存 | 使用语言 | 题解 |
|---|
288105 |
SGDM(带动量的随机梯度下降)
|
2025-09-27
|
答案正确
| 312ms | 14832K | Python 3 | |
287482 |
Adam优化器
|
2025-09-27
|
答案正确
| 249ms | 14732K | Python 3 | |
287604 |
实现长短期记忆(LSTM)网络
|
2025-09-27
|
答案正确
| 170ms | 14924K | Python 3 | |
287614 |
实现一个简单的循环神经网络
|
2025-09-27
|
答案正确
| 174ms | 14784K | Python 3 | |
287620 |
实现自注意力机制
|
2025-09-27
|
答案正确
| 190ms | 14872K | Python 3 | |
287634 |
实现Adam优化算法
|
2025-09-27
|
答案正确
| 211ms | 14912K | Python 3 | |
287684 |
简单二维卷积
|
2025-09-27
|
答案正确
| 170ms | 14860K | Python 3 | |
287718 |
实现基本自动微分操作
|
2025-09-27
|
答案正确
| 23ms | 4788K | Python 3 | |
287720 |
具有反向传播的单神经元
|
2025-09-27
|
答案正确
| 169ms | 14856K | Python 3 | |
288096 |
生成式对抗网络(GAN)判别器
|
2025-09-27
|
答案正确
| 169ms | 14732K | Python 3 | |
287610 |
两个正态分布之间的KL散度
|
2025-09-27
|
答案正确
| 233ms | 14772K | Python 3 | |
287678 |
Leaky ReLU 激活函数
|
2025-09-27
|
答案正确
| 254ms | 14708K | Python 3 | |
287682 |
实现ReLU激活函数
|
2025-09-27
|
答案正确
| 23ms | 4668K | Python 3 | |
287690 |
Log Softmax函数的实现
|
2025-09-27
|
答案正确
| 186ms | 14920K | Python 3 | |
287722 |
单神经元
|
2025-09-27
|
答案正确
| 241ms | 22904K | Python 3 | |
287724 |
softmax激活函数实现
|
2025-09-27
|
答案正确
| 213ms | 23740K | Python 3 | |
287726 |
Sigmoid 激活函数实现
|
2025-09-27
|
答案正确
| 23ms | 4660K | Python 3 | |
287535 |
计算分类模型的性能指标
|
2025-09-27
|
答案正确
| 24ms | 4776K | Python 3 | |
287631 |
使用梯度下降实现Lasso回归
|
2025-09-26
|
答案正确
| 235ms | 14904K | Python 3 | |
287672 |
实现梯度下降
|
2025-09-26
|
答案正确
| 231ms | 14860K | Python 3 |
创作者周榜
更多
关注他的用户也关注了: