CSDN博客

img wljcr

DirectX 优化声音特性

发表于2001/6/13 9:51:00  818人阅读

分类: Dephi

内容摘要
    微软所提供开发工具包括一系列专为游戏和交互DircetX
DirectSound 以及 Direct3Dsound音频媒体的程序设计人员开发的
强有力的工具。DirectX充分利用了声音加速硬件以尽可能的提高其
运行速度,减少CPU的占用时间。但是,音频信号仍然对整个系统的
运行产生着重大影响。本文所描述的技术将帮助用户使用
DirectSound 以及Direct3DSound以减少音频重放对系统运行的影
响。
前 言
    微软所提供的开发工具中DirectX 波形声音重放设备是为支持
在Windows 95 和Windows NT 中开发游戏和交互媒体应用程序而设
计的。 DirectSound 和 Direct3DSound允许你在同一个三维空间中
同时运行多个声音文件和移动声音源。只要有可能DirectX ,将充
分利用声音加速设备来改善运行状况和减少CPU的使用。但这并不是
说你可在三维程序空间运行、编译充斥着大量声音代码的程序,并
且随心所欲地将其移来移去。如果你并没有注意如何使用计算机的
声音资源你将很快发现,你的计算机的CPU周期绝大部分被你自己添
加的一个户外历险游戏的44.1khz,16位立体声的优美声音所占去。
技巧 和 技术
    首先,我们来谈谈一些有关的定义。你所熟悉的DirectSound包
括以下一些术语:
从缓冲区:
    是指用来执行波形数据的应用程序缓冲区。每个执行的波形文
件都有一个从缓冲区,每个这样的缓冲区都有自己特定的格式。
主缓冲区:
    是DirectSound的输出缓冲区。一般说来,应用程序并非将波形
数据直接写入主缓冲区。相反,DirectSound首先在从缓冲区中将波
形数据加以合成,然后输入主缓冲区中。注意:仅有一个主缓冲
区,并且其格式决定了其输出格式。
静态缓冲区:
    包含了内存中的一个完整的声音。因为,通过一次简单操作,
你能在缓冲区中写入一个完整的声音。所以,他们对于用户十分方
便。静态缓冲区通过声卡的合成加速执行。
流缓冲区:
    仅仅为声音的一部分,利用它,我们并不需要大量的内存就能
运行较长的声音文件。在利用流缓冲区时,用户必须周期性的在声
音缓冲区中写入数据。但是,流缓冲区不能在硬件中进行声音合
成。
    我们将再次提到 DirectSound 合成器。这种 DirectSound 元
件负责从缓冲区中将声音中按位隔行合成。然后执行诸如:音量大
小、均衡调节(左右声道平衡)、频率转换,以及三维操纵等操
作。当合成器不能识别你通过API存放的组件时(不同于上面所述的
任一控制操作),这正是 DirectSound 的 CPU 核心所要做的。一
些运行问题将在“ DirectSound 合成器发生了什么情况”的项目中
加以讨论。下面的关于合成器和主、从缓冲区之间关系的示意图,
将使读者清楚地了解他们之间的关系。
    图通过一个简单的示意图阐明缓冲区和 DirectSound 合成器之
间的关系
    如果 DirectSound 开发小组成员见到上面的示意图,他们将对
此不屑一顾。因为,合成器远比上图所展示的优秀。上图中,我并
没有任何与合成器相关的三维组件,以及其他类型的进程。
    既然,我们获得的背景知识远比上面所述的多,我们将进一步
接触其他一系列对我们有用的东西。以下是帮助你最大限度的使用
DirectSound功能的一个技术列表。
1. 巧妙使用声音的技巧;
2. 在主缓冲区中使用相同的格式;
3. 将主缓冲区设置为最低存储速率的格式;
4. 在短促频繁的无声时间间隔内连续地使用主缓冲区;
5. 尽可能地使用硬件进行声音合成;
6. 最大限度的保证控制变换;
7. 使用延时的三维进程命令;

下面我们将对上面所述的各项技术作详细的说明。
一.巧妙使用声音的技巧
    DirectSound的最为优秀的特征之一就是独立演奏、控制多声道
音频信号的能力。一旦声音的设计者真正地掌握了它们,那么,真
可以称得上是一本万利。唯一的花费只是CPU指令周期。每个你所使
用的从缓冲区都将消耗CPU指令周期。每一次诸如频率量化等的进程
操作都将带来CPU指令周期的额外消耗。三维声音将比常规声音消耗
更多的CPU指令周期。这些读者能够想象得到吗?
    你应该同你的声音设计者坐下来一起探讨一下全方位地利用声
音演奏带来的强烈震撼(如果你自己本身就是程序员及声音设计
者,那么你就自己一个人静下心来仔细领略一下),思考一下究竟
是哪种声音在将你的渴望以久的经历传递给用户的过程中起着最为
重要的作用。当可能减少从缓冲区的使用时,请采用声音预混技
术。例如:如果你正在一个声道中模仿蟋蟀的低吟,而在另一个声
道中记录了田蛙的欢唱以烘托出夏夜的氛围时,请将它们合成到一
个声道中。
    如果在你的脑海中有应用程序的初步方案,并且在以后将对其
进行折衷处理的时候,你应该对该进程进行相当程度的简化。但要
记住,想要设计出相当精练的实用声音程序,你需要长时间地字斟
句酌。Beatles的Sgt.Pepper's LonelyHearts Club Band 就是一个
有创意的伟大杰作。它被记录在一盘四声道盒式录音带中。与此形
成对照,现代的音频记录设备提供了至少四十八个声道,并能提供
真正的可用来进行实用合成的无限多声道的盒式录音带以及可利用
的MIDI序列发生器。
二.在主缓冲区中使用相同的数据格式
    DirectSound合成器将每个从缓冲区中的数据转换为主缓冲区的
数据格式,这种数据的转换是在数据进入主缓冲区的合成过程中实
现的,它也将占用CPU周期。你可以在保证从缓冲区(例如波形文
件)和主缓冲区具有相同的数据格式的前提下消除这笔开销。事实
上,正是由于DirecSound的这种格式转换方式,你所要做的仅仅是
对比样例速率和声道数,即使样例速率(8位或16位)存在一些
差别也没有关系,因为它唯一的后果只是降低主缓冲区的数据存取
速率。
    到目前为止,大多数声卡都是ISA总线卡, 它通过DMA方式将声
音数据从系统内存移动到当地缓冲区中,处理器在进行内存读写之
前将被迫等待DMA的数据传输结束,这势必会影响到CPU的运行速
度。对于ISA总线声卡,上述的数据传送方式无疑将对系统的运行产
生不可回避的影响,但并不会对新型的32位PCI卡产生任何影响。
    对于DirectSound,DMA数据传输的影响直接关系到数据的输出
速率以及主缓冲区的访问速率。我曾听说过这样的趣事:在一台主
频为90Mhz的奔腾机上运行基本格式为44.1Khz,16位的立体声音乐
程序,DMA将占用多达30%的CPU指令周期!DMA数据传输正是影响
DirectSound运行的最大因素。值得庆幸的是,上述问题在你无法顺
利执行时非常容易处理。实验表明,减少数据存取速率的最好办法
是改变主缓冲区中的数据格式。这里的转换十分明显,运行改变了
声音的品质,要改变主缓冲区中的数据格式,只需调用方法
IDirectSoundBuffer::Setformat,但不要忘记:你的协作层设置成
DSSCL.PRIORITY或DSSCL_EXCLUSIVE,以避免主缓冲区的耗费。
三.在无声时间间隔中连续使用主缓冲区
    DMA同时从另一个方面影响着系统的运行。当没有声音播放时,
DirectSound停止了合成器的工作和DMA的活动。如果你的程序中存
在着短促频繁的无声时间间隔,在每次声音播放时使合成随声音播
放时的间断而起起停停,将比你让合成器一直处于连续的工作状态
的情况更糟。在这种情况下,你可以在主缓冲区中强制性的调用方
法PLAY使合成器处于激活状态。这样,即使在没有声音播放时,合
成器也将连续工作。此时,为了恢复停止合成器的缺省方式,我们
可以在主缓冲区中调用方法STOP。
四.使用硬件进行声音合成
     如果系统中装配了支持声卡的DirectSound驱动器,大多数声
卡都支持一定水平的硬件合成。下面的一段小窍门将允许你尽量使
用硬件合成。
    在你进行硬件声音合成时使用静态缓冲区。DirectSound将试图
在静态缓冲中 进行声音合成。
    为你用得最多的声音文件建立声音缓冲区(可用来进行声音硬
件合成的合成器是有一定的限度的。
    在声音文件运行时,使用方法IDirectSound::GetCaps决定声音
加速硬件支持何种格式,并尽可能的采用这些格式(一些声卡只能
合成特定格式的声音文件。例如:SoundBlaster AWE32声卡只能合
成单16位格式的声音文件)。
    当你调用CreatSoundBuffer建立从缓冲区时,你得建立静态缓
冲区,在结构DSBUFFERDESC的dwPlag区域设定DSBCAPS_LOCHARDWARE
标志。你也可以通过设定 DSBCAPS_LOCHARDWARE标志将缓冲区的数
据进行强制性的硬件合成。但是,硬件合成所要使用的资源不可用
时,CreatSoundBuffer就将出错。
     方法IDirectSound::GetCaps为我们提供了关于声音加速能力
的详尽描述,这对于我们进行存取操作有很大的邦助。我们在其工
作时间内可以调用GetCaps,调整音频系统以最佳方式使用硬件资
源。在 DirectX 文档中查看结构 DSAPS和标志DSCAPS.dwFlags可使
我们准确了解到一些系统的有用信息。
五.最低限度的进行声音控制变换
     在从合成器中改变均衡、音量或频率也将影响到应用程序的运
行。为了防止声音输出时的中断的产生,DirectSound合成器必须提
前20到100毫秒,甚至更多的时间进行声音合成。当你进行声音控制
变换时,合成器不得不刷新正在进行的声音合成的缓冲区的信息,
重新合成以适应适应的变化。比较好的方法是尽量减少送入系统的
控制改变次数。这在按流或群输入时显得尤为重要。同时,我们应
尽量减少日常的调用SetVolume、SetPn、SetFrequency的不连续操
作。例如:如果你进行帧同步的定期检测,需要将适应从左声道扬
声器移动到右声道扬声器时,你就应该每帧调用SetPan一次,而不
是每帧两次。
     注意: 三维控制变换 (方向、位置、速度、多普勒因子等
等) 也将引起DirectSound合成器在其先前进行合成的缓冲区中重
新合成。但是,你也可以将一系列三维控制变换集合在一组中,这
将只使DirectSound合成器只进行一次重新合成。请仔细阅读以下关
于延时控制变换详细说明的章节。
六.使用延时三维进程命令
     正如我在前面所说的那样,三维声音将比常规声音花费更多的
CPU指令周期。这是因为在每一个合成周期内,为计算出三维立体声
音效将占用更多的CPU指令周期。你应该尽可能地减少使用三维立体
声,最好不要使用那些并不对你真正有用的三维声音。这是通过实
践得出的在你运行程序时影响整个系统工作的另一因素。在设计你
的应用程序时,你应该尽早进行尝试,使其更加容易使声音具有或
没有三维效果。你也可以调用具有 DS3DMODE_DISABLE标志的方法
IDirectSound::SetMode,使得三维进程能够在三维缓冲区中运行。
     改变三维声音缓冲区以及听众进行的诸如对方位、速度、多普
勒因子的操作,都将引起DirectSound合成器重新合成先前合成缓冲
区中的信息,当然,这将浪费一定的CPU指令周期。为了使三维设置
的改变对系统运行的影响降低到最小程度,你就应该使用延时三维
进程命令。这是DirectSound三维声音组件所特有的特征为了使用三
维延时进程命令,请设定每个三维设置变换
(SetPosition,SetVelocity等等)中的方法IDirect3DListener或
Direct3DSoundBuffer的dwApply 参数的DS3DMODE_DISABLE 标志,
并且将所有的这些变化制成一帧,随后,再调用
IDirect3DListener::CommitDeferredSettings去执行所有的延时命
令,在先前的合成缓冲区中进行一次重新合成。

结 论
    我已经为读者罗列了一系列利用DirectX优化音频媒体的特殊工
具。我所能给予你的最好的建议是:设计你的支持运行、监视和音
量调节的音频子系统。毫无疑问,你必须保证你有充足的时间等待
你的程序的运行!如果你从一开始就将程序运行的协调性考虑进
去,这个任务将变得更加容易。
       
0 0

相关博文

我的热门文章

img
取 消
img