题号 | 题目 | 提交时间 | 状态 | 运行时间 | 占用内存 | 使用语言 | 题解 |
|---|
287614 |
实现一个简单的循环神经网络
|
2026-04-24
|
答案正确
| 174ms | 14732K | Python 3 | |
287620 |
实现自注意力机制
|
2026-04-24
|
答案正确
| 184ms | 14968K | Python 3 | |
287634 |
实现Adam优化算法
|
2026-04-21
|
答案正确
| 172ms | 14772K | Python 3 | |
287684 |
简单二维卷积
|
2026-04-21
|
答案正确
| 495ms | 35920K | Python 3 | |
287718 |
实现基本自动微分操作
|
2026-04-20
|
答案正确
| 174ms | 14888K | Python 3 | |
287720 |
具有反向传播的单神经元
|
2026-04-20
|
答案正确
| 171ms | 14788K | Python 3 | |
288097 |
生成对抗网络(GAN)
|
2026-04-20
|
答案正确
| 230ms | 14768K | Python 3 | |
288096 |
生成式对抗网络(GAN)判别器
|
2026-04-20
|
答案正确
| 182ms | 14736K | Python 3 | |
288095 |
生成对抗网络(GAN)生成器
|
2026-04-20
|
答案正确
| 233ms | 14740K | Python 3 | |
287610 |
两个正态分布之间的KL散度
|
2026-04-20
|
答案正确
| 248ms | 14644K | Python 3 | |
287678 |
Leaky ReLU 激活函数
|
2026-04-20
|
答案正确
| 171ms | 14776K | Python 3 | |
287682 |
实现ReLU激活函数
|
2026-04-20
|
答案正确
| 185ms | 14640K | Python 3 | |
287690 |
Log Softmax函数的实现
|
2026-04-20
|
答案正确
| 176ms | 14772K | Python 3 | |
287690 |
Log Softmax函数的实现
|
2026-04-20
|
答案正确
| 175ms | 14868K | Python 3 | |
287724 |
softmax激活函数实现
|
2026-04-17
|
答案正确
| 186ms | 14740K | Python 3 | |
287726 |
Sigmoid 激活函数实现
|
2026-04-17
|
答案正确
| 303ms | 14648K | Python 3 | |
287730 |
决策树学习
|
2026-04-16
|
答案正确
| 170ms | 15028K | Python 3 | |
287730 |
决策树学习
|
2026-04-16
|
答案正确
| 227ms | 22804K | Python 3 | |
287631 |
使用梯度下降实现Lasso回归
|
2026-04-15
|
答案正确
| 211ms | 14804K | Python 3 | |
287631 |
使用梯度下降实现Lasso回归
|
2026-04-15
|
答案正确
| 210ms | 14740K | Python 3 |
创作者周榜
更多
关注他的用户也关注了: