禁止访问
查看详细资料
TOP
原帖由 @cuda 于 2016-11-8 00:44 发表 gp102/gp104阉掉了2x fp16换上了4x int8 用来跑机器学习 故意来这么一刀肯定是要等volta出来再坑一笔