» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

[专题讨论] 【视频】活用改造SS模拟器,彻底检证 SEGA SATURN 半透明机能!

引用:
原帖由 lemonninja 于 2015-3-19 00:54 发表


我感觉这个链接里的资料有误。i960和i860这两款都是超标量cpu,理论指标非常强大,当年ss之所以没有采用,我觉得应该主要原因是价格问题,sh2的性价比高。
连接里面说ss和model1比,model1的cpu速度慢,但是要 ...
Model1没有perspective correction和z-buffering,全特效有18万/秒多边形,也就比土星强点。


TOP

实际游戏中,PS有8-9万多边形/秒可用,SS有6万/秒(http://www.gamepilgrimage.com/SATPScompare.htm)。



TOP

引用:
原帖由 lemonninja 于 2015-3-23 23:59 发表


Model1有N块Fujitsu TGP MB86233浮点协处理器,每一块理论上都能有16MFLOPS的32bit单精度浮点运算,这可不是比SS强点,完全是法拉利和桑塔纳的差距。基本上估计model1的计算力能有早期model2的70%左右(早期的mo ...
LOL没有任何资料显示Model1有z-buffer,机能强大与没有z-buffer并不冲突,这个不能靠猜。


TOP

引用:
原帖由 lemonninja 于 2015-3-24 01:05 发表
过去那些电软的文章就能拿来消遣消遣好了,不必当真。那个时候没有互联网,加上国内获取信息的渠道有限,资料错误在所难免,而且再说那个时候电软的读者大多都不具备计算机的基本知识,看的也似懂非懂。

技术发展 ...
N64多边形输出能力不如PS。

TOP

引用:
原帖由 lemonninja 于 2015-3-24 23:12 发表


什么叫靠猜?所谓的z-buffer就是完全依靠性能来支撑的,换句话说只要有足够的性能就可以用z-buffer,机能强大与没有z-buffer并不冲突都是什么乱七八糟的。理论上像ss ps都可以用z-buffer,只不过帧率要掉到个位数 ...
哎呦,高论呐,原来z-buffer是这么来的,你都说这话了我就不贴z-buffer的计算公式和使用条件了,“理论上”你很强大。

TOP

引用:
原帖由 lemonninja 于 2015-3-24 23:14 发表


开什么玩笑。至少2.5倍~3倍的多边形性能。
这个是理论值,N64有个非常可笑的的4K容量贴图限制,实际游戏中根本用不到大量多边形。

TOP

引用:
原帖由 lemonninja 于 2015-3-25 22:00 发表


那要怎么来?你告诉我80年代的3D硬件是如何做z-buffer的?
80年代的Z-buffering和100年以后的Z-buffering不会有区别:http://en.wikipedia.org/wiki/Z-buffering

凡是硬件支持上链接中算法(所谓硬件支持就是针对这种算法特殊设计的处理器)、才能叫支持Z-buffering,没有的话就算软件做到了也不能叫Z-buffering。

[ 本帖最后由 KainX 于 2015-3-26 14:14 编辑 ]

TOP

引用:
原帖由 lemonninja 于 2015-3-25 22:10 发表


我想你说的应该是N64那个4K纹理cache吧,这个不光是n64有,就连现代的GPU也都有,比如最新的GTX980总共也就是1M的纹理cache,那么难不成GTX980只能存放1M的纹理不成?还不如voodoo1??再说这个又和多边形的输出 ...
4K纹理的结果就是N64的机能被填充率限制,进而限制了几何机能(多边形)。http://en.wikipedia.org/wiki/Nin ... ing_characteristics

我简单说下上链接重点:
“N64在实际游戏中的可用多边形大概有10万,后期有个别游戏(World Driver Championship, Turok 2: Seeds of Evil, or Indiana Jones and the Infernal Machine)超出了这个平均值,在这些游戏中经常有超过一般PS游戏中的实际多边形数量的情况。”
由此可以推出大多数PS游戏的多边形使用超过10万,我之前的链接中讲PS游戏一般有8到9万多边形是96年游戏开发人员的说明,也说明中后期PS游戏的多边形使用超过这个量了。

TOP

引用:
原帖由 lemonninja 于 2015-3-27 00:33 发表


“硬件支持“和”软件支持”并没有那么泾渭分明,所谓硬件方法就是用一块或者一群处理器来把相关的任务单独分离出来而已,也就是分担运算,后来又有了单独针对某一算法而优化的专用芯片。早期的3D显卡的硬件都是 ...
现今世界对Z-buffering的官方定义写在那里,你可以有不同理解,但别把话说得好像自己才是对的。

[ 本帖最后由 KainX 于 2015-3-27 16:03 编辑 ]

TOP

引用:
原帖由 lemonninja 于 2015-3-27 00:37 发表


我理解你的意思,但是直接造成n64瓶颈的并不是这区区4k的cache,而是捉襟见肘的内存带宽以及较高的内存延迟,所以才会变成大大依赖这个cache的作用。现代GPU也仅仅只有1M左右的纹理cache,这个cache相比PS SS来说 ...
N64没有什么低精度模式,把所有特效都去掉它也只有4K贴图;也没有任何N64游戏用了50万多边形,还是那句话——别靠猜。

不要总拿什么“同一个标准下”当挡箭牌,有一个标准高于一切,叫做现实——实际游戏中的多边形使用量就是最终解释。

[ 本帖最后由 KainX 于 2015-3-27 16:01 编辑 ]

TOP

引用:
原帖由 lemonninja 于 2015-3-27 20:15 发表


就你自己贴的链接里都有
SGI's default microcode for Nintendo 64 is called "Fast3D", which some developers noted was poorly profiled for use in games. Although it allows more than 100,000 high accu ...
LOL后面那句你怎么不贴出来呢:due to the graphical degradation, Nintendo officially discouraged its use.

那些开发者还真就死死守着10万多边形不放,N64到最后也没有几个游戏超过10万——这就是现实中N64的机能。

TOP

引用:
原帖由 lemonninja 于 2015-3-28 15:25 发表


看看第一张PS的游戏画面相信你应该会理解点什么是低精度,以及为什么N64不用。

...
又猜,居然还看PS画面猜N64画面,YY不存在的东西有意思吗。

TOP

发新话题
     
官方公众号及微博