» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


 27 12
发新话题
打印

amd有类似dlss的技术么?

引用:
原帖由 waller 于 2020-4-3 21:35 发表
posted by wap, platform: Android
nv的tpu是很难技术么?貌似现在研究tpu的公司不少,为啥amd不在架构中加入呢?按你的说法amd实际是用gpu在干tpu的事儿?
没错,AMD就是这么干的,TPU这个方案不难,AMD也能做到,之所以没做我猜测根本原因是性价比差,因为在技术方面现在的AMD是没法和NV比的,就算同样采用TPU方案,最后也无法在效果上和NV比肩,结果就是你用了同样的成本做出来的东西和竞争对手比完全没有竞争力,那怎么办,不如退一步,我用一个成本是你50%的方案去实现你70%的效果,你的东西好你卖的贵,那我的东西差一些我就便宜点卖,不差钱的找你,图便宜的找我,错位竞争,CPU市场其实一直也是这么玩的,只不过现在有点要翻身的意思了。


TOP

posted by wap, platform: Android
引用:
原帖由 @waller  于 2020-4-3 21:35 发表
nv的tpu是很难的技术么?貌似现在研究tpu的公司不少,为啥amd不在架构中加入呢?按你的说法amd实际是用gpu在干tpu的事儿?那不是效率会低很多而成本高很多?

本帖最后由 waller 于 202043 21:39 通过手机版编辑
因为AMD看了dlss1.0的表现,觉得游戏中用不到智能学习,而且显卡集成张量核的成本不低的,你可以看下1660ti和2060的面积对比。
AMD现在已经把学习卡和游戏卡市场都分开了,游戏是rdna,深度学习是vega,因为vega在这方面比rdna强,另一方面也预示着rdna的显卡包括主机,在深度学习方面可能会遇到困难



TOP

昨天看一篇文章说Google已经在用AI设计TPU训练AI设计TPU训练AI了


TOP

引用:
原帖由 waller 于 2020-4-3 21:21 发表
posted by wap, platform: Android
换言之,dml就算能接近dlss,也只有xsx能用,ps5只能用amd自己搞的,应该是这么理解的吧?
其实吧,DirectML和DLSS的关系,就和C++和C++语言写出来的程序的关系是差不多的。DirectML只是一种底层框架,帮你封装了一些更底层的东西从而让应用开发者减少点开发量。对于DLSS,就算没有DirectML,用CUDA、OpenCL或者Vulkan、OpenGL里的compute shader也是能写的。
那么对于DLSS关键的是什么?是其算法。DirectML并没有提供DLSS所涉及到的算法,仅仅提供了一个可以让用户实现算法的平台,以及和DirectX之间非常便捷高效的interop。

所以,对于PS5来说,大法要自己搞一个DLSS是完全没有问题的,AMD搞一个自己的DLSS系统也是没问题的,只要有算法。

TOP

posted by wap, platform: Android
引用:
原帖由 @coolwind  于 2020-4-3 21:47 发表
没错,AMD就是这么干的,TPU这个方案不难,AMD也能做到,之所以没做我猜测根本原因是性价比差,因为在技术方面现在的AMD是没法和NV比的,就算同样采用TPU方案,最后也无法在效果上和NV比肩,结果就是你用了同样的成本做出来的东西和竞争对手比完全没有竞争力,那怎么办,不如退一步,我用一个成本是你50%的方案去实现你70%的效果,你的东西好你卖的贵,那我的东西差一些我就便宜点卖,不差钱的找你,图便宜的找我,错位竞争,CPU市场其实一直也是这么玩的,只不过现在有点要翻身的意思了。
问题是用gpu干tpu的事不可能成本更低啊?就像用cpu干gpu的事一样,通用处理器是不可能和专用处理器比效率的。gpu和tpu比起来显然更加“通用”,我看网上数据tpu是gpu能效比的60倍?

TOP

引用:
原帖由 waller 于 2020-4-3 21:59 发表
posted by wap, platform: Android
问题是用gpu干tpu的事不可能成本更低啊?就像用cpu干gpu的事一样,通用处理器是不可能和专用处理器比效率的。gpu和tpu比起来显然更加“通用”,我看网上数据tpu是gpu能效比的60倍? ...
这方面我不是专家,就不瞎猜了,但AMD不会傻到放着便宜好用的技术不要,自己搞个成本更高的方案,这么做一定有他的理由,而且在芯片面积和成本上应该是有优势的,这个最终会在次世代游戏主机和AMD的零售显卡上有所体现,等下半年就全清楚了,我能说的就是DX12U已经把最新的GPU技术都囊括了,AN两家的新品都会支持全部特性,只是实现方式和效果上有所区别。

TOP

posted by wap, platform: Android
引用:
原帖由 @coolwind  于 2020-4-3 22:04 发表
这方面我不是专家,就不瞎猜了,但AMD不会傻到放着便宜好用的技术不要,自己搞个成本更高的方案,这么做一定有他的理由,而且在芯片面积和成本上应该是有优势的,这个最终会在次世代游戏主机和AMD的零售显卡上有所体现,等下半年就全清楚了,我能说的就是DX12U已经把最新的GPU技术都囊括了,AN两家的新品都会支持全部特性,只是实现方式和效果上有所区别。
希望amd的rdna2能给点力,不然这12t真的要被3060加界王拳就直接干翻了。

TOP

引用:
原帖由 waller 于 2020-4-3 21:59 发表
posted by wap, platform: Android
问题是用gpu干tpu的事不可能成本更低啊?就像用cpu干gpu的事一样,通用处理器是不可能和专用处理器比效率的。gpu和tpu比起来显然更加“通用”,我看网上数据tpu是gpu能效比的60倍? ...
光栅化和光线追踪,在填充每个像素时所需要的计算量有非常大的区别,光栅化的计算量要远小于光追。因此,在使用光栅化时,DLSS所能达到的加速实际上并没有太多。而为此牺牲更多的die size和功耗是不划算的。
并且AMD之前也没搞过DL算法在graphic pipeline中的运用,所以也没这个意识。老实讲,在RTX发布的时候,往这游戏卡里加tensor core这种行为我一直觉得很诡异,游戏里会用神经网络的游戏屈指可数。直到DLSS出来时才知道原因。

TOP

posted by wap, platform: Android
引用:
原帖由 @mjnaur  于 2020-4-3 22:13 发表
光栅化和光线追踪,在填充每个像素时所需要的计算量有非常大的区别,光栅化的计算量要远小于光追。因此,在使用光栅化时,DLSS所能达到的加速实际上并没有太多。而为此牺牲更多的die size和功耗是不划算的。
并且AMD之前也没搞过DL算法在graphic pipeline中的运用,所以也没这个意识。老实讲,在RTX发布的时候,往这游戏卡里加tensor core这种行为我一直觉得很诡异,游戏里会用神经网络的游戏屈指可数。直到DLSS出来时才知道原因。
所以,不用对rdna2的光追和类dlss界王拳有太多期待,我可以这么理解吧?

TOP

posted by wap, platform: Samsung
看来老黄这次rtx口碑虽然不好,但实际产品还是很有前瞻性的?

TOP

posted by wap, platform: Android
引用:
原帖由 waller 于 2020-4-3 22:24 发表
posted by wap, platform: Android
所以,不用对rdna2的光追和类dlss界王拳有太多期待,我可以这么理解吧?
不知道,没参与rdna2的bring up,所以还没空仔细看过有什么新玩意儿...我只是解释下为什么navi10没有。

本帖最后由 mjnaur 于 2020-4-4 05:31 通过手机版编辑

TOP

引用:
原帖由 Lucifer6E 于 2020-4-3 21:54 发表
昨天看一篇文章说Google已经在用AI设计TPU训练AI设计TPU训练AI了
不是,老哥你说的昨天确定不是四月一号?

TOP

 27 12
发新话题
     
官方公众号及微博