深度学习哪里有好的教程??

#牛客解忧铺#
我是一名研二的机器学习方面专业的学生。
浑浑噩噩上了一年的研究生,结果到现在连numpy和pytorch都不会。
尝试在网上搜索了一些教程,但是感觉没有像吴恩达那样的公认比较好的教程。
我想请问一下大家都是怎么学习这几个包和框架的,直接去看官方文档吗?
又是怎么了解各个模型和机器学习算法的呢?直接去看原论文还是尝试复现经典的模型?
感觉好迷茫,人生要寄了🤕🤕🤕
全部评论
别担心,学习是一个循序渐进的过程,不要给自己太大的压力。 关于深度学习的教程,除了吴恩达的教程,还有很多其他优秀的资源。比如,TensorFlow和PyTorch的官方文档和教程,以及一些知名的博客和教程网站,如Medium、Khan Academy等。 学习这些包和框架,最直接的方法就是阅读官方文档,了解它们的功能和使用方法。同时,也可以尝试阅读一些相关的书籍和论文,了解它们的原理和应用。 了解各个模型和机器学习算法,可以先从阅读经典论文开始,了解它们的原理和实现方法。然后,可以尝试复现这些模型,加深理解。此外,还可以参加一些机器学习相关的比赛和项目,积累实践经验。 加油,你一定可以的!
5 回复 分享
发布于 2023-11-26 22:23 AI生成
认真学一两个月就入门了 推荐pytorch框架 可以看龙良曲的视频 之后再看自己领域的优秀开源代码 理解模型 看几篇论文就够了 然后就可以润了 只搞深度学习 不好找工作 我现在就挺焦虑的 不知道下一步学什么
3 回复 分享
发布于 2023-12-04 03:11 江苏
有没有看过李沐的动手深度学习
1 回复 分享
发布于 2023-11-26 22:53 辽宁

相关推荐

面了一个多小时,整体感觉还不错,欢迎佬交流~1.zero1232.你有没有实际对比过普通 DDP 和 ZeRO-1?比如 4 卡情况下,把 optimizer state 或 gradient 切成 shard 之后,显存大概能省多少?3.CPU offload4.BF 16 和 FP 165.在 DDP 多卡训练 中,通常一个 epoch 的定义是:所有 GPU 协同遍历一次完整数据集,且每个样本在该 epoch 内只被采样一次。但在实际训练中,我们往往是 按 step 数控制训练与保存 checkpoint 的,比如每 5000 step 保存一次模型,这样 checkpoint 很可能落在 某个 epoch 的中间。在恢复训练时,我们一般可以恢复 model optimizer lr step,但 DataLoader / Sampler 本身是无状态的,不会自动恢复到 epoch 中间的位置。在从一个 epoch 中间的 checkpoint 恢复训练时,有没有办法保证数据采样能够“无缝衔接”,继续完成当前 epoch,而不是重新打乱或重复采样数据?6.当 checkpoint 保存发生在 epoch 中间时,Trainer 是否能正确恢复 DataLoader 的采样状态?如果不能,工程上通常如何保证 resume 后的数据连续性?你是怎么实现的,是否用了 Accelerate或者huggingface 的Trainer7.DDP中当同时涉及 DataLoader 和 Sampler 时,shuffle 应该由哪一层来负责?8.PyTorch 的 DistributedSampler 内部是如何根据 num_replicas 和 rank 生成每个进程各自的数据 index 列表的?它如何在不进行进程间通信的前提下,确保多进程训练时样本划分互不重叠且覆盖完整数据集?9.GQA10.RMSNorm和LN11.在实际训练系统中,从吞吐量和资源利用的角度考虑,tokenization 更合理的放置位置是在 Dataset/DataLoader 阶段,还是作为模型 forward 前的一部分?12.手撕省份数量
查看11道真题和解析
点赞 评论 收藏
分享
评论
点赞
9
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务