不少游戏初期公布的实机技术demo与最终成品有明显画质落差,为什么?
本文将借由说明在初期技术展示与最终成品阶段的技术差别,来回答这个问题
顺便介绍一些The Last of Us Remastered (PS4)压榨硬件资源的技术
简而言之:游戏最终成品,通常所需运算资源种类与量,会比初期技术展示多
一个AAA游戏成品在实机执行的时候,运算资源大致分配给以下几项作业
1. 游戏机制(CPU)
2. AI(CPU)
3. 物理(CPU and/or GPU)
4. 动画(CPU)
5. 粒子(CPU and/or GPU)
6. 绘图逻辑(CPU)
7. 绘图执行(GPU)
初期实机技术demo,通常不会有多少1/2,可能会有3
4不会像最终成品消耗CPU与内存
所以大部分的运算资源都可以用在5/6/7
不要小看1/2/3消耗的资源量
这几项在最终成品的资源消耗可以占到CPU的50%以上
所以4/5/6/7能够使用的硬件资源(粗估)只剩下初期技术demo的50%
如果在制作初期实机技术demo的时候
把100%硬件资源拿来展现4/5/6/7
那么后来新加入1/2/3的资源消耗,势必会产生"视觉上缩水"的情况
为了初期吸引观众目光,这几乎是必然的结果
这样是否表示AAA游戏开发者不诚实? 见仁见智
不管是初期技术展示还是游戏成品,硬件资源一定是几乎被榨光的
制作初期demo的时候是否可以估计到之后会额外用到的资源? 非常难
不管是哪家工作室,应该都不想只用50%以下的硬件资源做技术展示demo吧
我个人是有了以上的认知之后
看到初期技术demo与最终成品的画质落差
虽然会失望,但觉得比较可以接受这个事实了
接下来介绍TLOUR的一些压榨硬件资源的技术
之前有提到,Naughty Dog为了从PS3跨到PS4
重新设计了一个平行运算的系统
负责人Christian Gyrling于今年GDC有个专题讲座
强烈推荐给有兴趣的资工领域朋友
影片连结 http://bit.ly/1eX5mb1
投影片连结 http://bit.ly/1HgtGQ9
TLOUR的硬件资源配置,可分为以下三种
1. 游戏逻辑(CPU) 包含:游戏机制、AI、物理、动画、粒子
2. 绘图逻辑(CPU) 生成绘图指令,丢给GPU执行
3. 绘图执行(GPU) 执行2生成的绘图指令
一个单执行序的游戏
1/2/3是串在一起,在同一个frame内线性依序执行的
如果要达到60fps,那1/2/3总共的运算时间就不可以超过16ms
<A方案>
CPU 游戏逻辑 -> 绘图逻辑
GPU -> 绘图执行
|