设为“星标”,第一时间知晓最新干货~
4 块 RTX 2080Ti 创始版 GPU 的装法:虽然看起来乱作一团,但用了两年没出问题。 还有电源问题,RTX 3090 是一个 3 插槽 GPU,因此在采用英伟达默认风扇设计的情况下,你不能在 4x 的主板上使用它。这是合情合理的,因为它的标准功率是 350W,散热压力也更大。RTX 3080 的 320W TDP 压力只是稍稍小一点,想要冷却 4 块 RTX 3080 也将非常困难。 在 4x RTX 3090 的情况下,你很难为 4x 350W = 1400W 的系统找到很好的供电方式。1600W 的电源或许可以,但最好选择超过 1700W 的 PSU——毕竟黄仁勋在发布中希望你给单卡的 RTX 3080 装上 700W 的电源。然而目前市面上并没有超过 1600W 的台式电脑电源,你得考虑服务器或者矿机 PSU 了。 GPU 深度学习性能排行 下图展示了当前热门的 Nvidia 显卡在深度学习方面的性能表现(以 RTX 2080 Ti 为对比基准)。从图中可以看出,A100(40GB)在深度学习方面表现最为强劲,是 RTX 2080 Ti 两倍还多;新出的 RTX 3090(24GB)排第二,是 RTX 2080 Ti 的 1.5 倍左右。但比较良心的是,RTX 3090 的价格只涨了 15%。
图 3:以 RTX 3080 为基准(设为 1),各种 GPU 的每一美元性能排行(1-2 个 GPU)。
图 5:以 RTX 3080 为基准(设为 1),各种 GPU 的每一美元性能排行(8 个 GPU)。 GPU 购买建议 这里首先强调一点:无论你选哪款 GPU,首先要确保它的内存能满足你的需求。为此,你要问自己几个问题:
-
我要拿 GPU 做什么拿来参加 Kaggle 比赛、学深度学习、做 CV/NLP 研究还是玩小项目/p>
为了实现我的目标,我需要多少内存/p>
-
使用上述成本 / 性能图表来找出最适合你的、满足内存标准的 GPU;
-
我选的这款 GPU 有什么额外要求吗如,如果我要买 RTX 3090,我能顺利地把它装进我的计算机里吗的电源瓦数够吗热问题能解决吗/p>
-
博士生个人台式机:
-
博士生 slurm GPU 集群:>35%;
-
企业级 slurm 研究集群:>60%。
-
现在最好的 GPU:RTX 3080 和 RTX 3090。
-
对于个人来说,这些 GPU 不要买:任何 Tesla 卡、任何 Quadro 卡、任何「创始版」GPU,还有包括 Titan RTX 的所有型 泰坦。
-
性价比高,但比较贵的:RTX 3080。
-
性价比高,且较便宜的:RTX 3070 和 RTX 2060 Super。
-
还想再便宜点荐度依次递减:RTX 2070 ($400)、RTX 2060 ($300)、GTX 1070 ($220)、GTX 1070 Ti ($230)、GTX 1650 Super ($190) 和 GTX 980 Ti (6GB $150)。
-
什么也别说了,我没有钱:请使用各家云服务的免费额度,直到你买得起 GPU。
-
我要搞 Kaggle:RTX 3070。
-
我是普通 NLP 研究者:如果不研究机器翻译、语言模型、预训练等,一块 RTX 3080 应该就够了。
-
我要入门深度学习,不开玩笑:你可以从购买一块 RTX 3070 开始,如果半年之后仍然热情不减,你可以把 RTX 3070 出售,购买四块 RTX 3080。再远的未来,随着你选择路线不同,需求也会出现变化。
-
我想试试深度学习:RTX 2060 Super 非常出色,但你可能需要为它更换电源。如果你的主板有 PCIe×16 卡槽,电源有 300W,一块 GTX 1050Ti 是最适合的。
-
我们组要搭建一百块 GPU 的集群:66% 的八块 RTX 3080 并联和 33% 的八块 RTX 3090 并联是最好选择,但如果 RTX 3090 的冷却真的有问题,你可能需要买 RTX 3080 或 Tesla A100 作为代替。
-
128 块以上的 GPU 集群:在这个规模上,8 块成组的 Tesla A100 效率更高。如果超过 512 块 GPU,你应该使用 DGX A100 SuperPOD 系统。
推荐阅读
相关资源:基于WinCC组态软件的加热炉炉温优化与仿真研究_winCC实现加热炉…
声明:本站部分文章及图片源自用户投稿,如本站任何资料有侵权请您尽早请联系jinwei@zod.com.cn进行处理,非常感谢!