慧聪音响灯光网

软件工作室必然的下一代

完全的和硬件工作室音质一样的软件工作室,现在比以前要更为可行了。但是,如果你要全部软件化,要考虑哪些重要因素呢?


几年之前,很多音乐人(尤其是中国的音乐人)都发现在一台PC机上有可能运行一首歌曲所含的全部音频和MIDI音轨,以及效果器等等。毕竟现在我们看到了大量的最新软件合成器、采样器与插件效果器,很多都和硬件设备不相上下,甚至更好一些。今日今时,唯一制约这种趋势发展的就是CPU这个词了——试想一下,如果一个很好的混响插件耗费掉CPU50%的处理资源,你能好受吗?然而双核PC的到来使得处理能力会大幅度提高,因此现在是不是该把所有硬件都卖掉,完全运行软件工作站的时候呢?

音质方面的好处

最简单的可能音频信号路径,一对立体声线连接音频界面输出到有源监听上,但是需要在音频界面上调节模拟输出电平控制,来调节音箱音量。很早之前,大部分音乐人的音乐生涯是从几个乐器开始的,比如吉他和键盘。当他们想要录制一些音乐时,他们要买那些笨重的带有和放电影的拷贝盘子类似的磁带多轨录音机。如果要录两个以上三个以上的乐器时,又要买一个小型的调音台,或许再要加一到两支麦克风来录人声或其它原声乐器。调音台可以连接所有这些声源,使用调音台的均衡控制等调节音色,插上硬件效果器来增加混响、合唱等等效果,然后再把声音混合在一块,用上通道推子,来生成最终的立体声输出。

如果你的音频界面上没有提供模拟电平调节功能,那么就需要某种监听控制器。如今,许多音乐人的起步则恰恰相反,先要买一台PC机,然后再根据音乐制作的需要来购买产品。但是,可能调音台不一定是必须的了,很多人采用了更为简单的方式来达成目的,完全依赖于音频界面,这样音质可能会更好些。多年之前当我开始录制音乐时,很显然直接把键盘或硬件合成器的输出连接到扩声音箱上,要比中间再连接一个便宜的调音台音质要好,这是很显然的事情,而且更为方便。

即使你需要录多路的硬件合成器或者人声或者吉他等乐器,只要音频界面的输入足够,那就没必要再去买调音台。

每一个中间环节增加的设备都可能会影响的音质,即使均衡器的控制设置在中央位置或是旁通也是如此。有些很昂贵的设备则会增加一些人们想要的“假声”(或者说有特色的声音),但我们都希望回放能够尽可能的中立或透明,这样的好处时,歌曲混完后即使在其它设备上播放也是一样的结果。

而直接从音频界面输入,直接从音频界面输出到监听耳机或音箱的好处之一是:音频信号路径最简单,这也意味着最终的声音更为干净更透明。很多音乐人还发现,如果把大型调音台用多通道的音频界面替换掉的话,会去除掉令人厌烦的音箱到操作者之间的早期反射问题,这样还可以改进工作室的声学环境!以下是各种建议的最简单的音频信号路径配置推荐。

软件合成器:他们污蔑为穷亲戚?

如果还有空闲的输入与输出,有需要时可以连上外部的效果器,但注意它们受限于缓冲延迟哦。如果你考虑在PC机内创作音乐,你必须要考虑到与硬件合成器或效果器对应的软件合成器及插件效果器的重要性。当我提议软件工作室这个话题时,那时2000年,很多音乐人还不相信软件版本的产品能够和“真家伙”音质一样。不过,但是我的观点和当初一样:没有什么根本的能够限制软件合成器的理由,说软件合成器的音质不如硬件合成器,那是一种荒谬的说法,因为硬件合成器本身也带有DSP芯片。

我的现时唯一保留是,专门的DSP芯片开发者,他们会炫耀某些奢侈的插件的处理能力,而这些插件如果是本地(计算机)处理,会消耗一定资源,好象这样就能够避免他们被认为是“CPU杀手”,而是“CPU救星”,这种观点我有所保留,我认为他们的看法有些片面。2000年时我们会为750MHz的处理器而兴奋,现在我们都是双核版的计算机了,其中每核的时钟速度都较之前有了四倍的增加。这样计算就是8倍快,因此我认为在这种配置之下,那种说法当然就是片面的了。

还有一点没有吸引住人们。许多硬件合成器都带有效果器——在它们所有的预设音色中都加了效果处理,都经过润色及完善(有时为什么取消硬件合成器中的效果器,是因为在复杂的混音中所得到的结果有些过头),而软件合成器现在一般都没这个习惯,一般出来的声音就是“合成器”的音色,它的概念是和效果器分开的。因为设计者大部分都这么认为,用户还会再用插件效果器来进行处理不是吗。

象Arturia的MoogModularV那样好音质的软件合成器,硬件厂家担心“软件”替代“硬件”是自然不过了。对于一些初学者来说,认为部分软件合成器声音比硬件合成器声音“干”,没有某些商业音乐听起来那么“动态”那么“丰满”,那就不奇怪了。这并不是因为软件合成器的“干瘪”,而是因为软件合成器的音色也需要你根据不同音乐风格的制作需要来进行效果处理啊?尽量提供“干净”的声音,对你的创作不是更好吗!

软件工作室的好处

软件工作室的最大好处之一是,每首歌曲都和它所使用的音色以及效果器设置、混音设置等等保存在一块——换句话说,你可以完全调出,就好象很稀缺的某些带有自动马达推子的模拟调音台能记住推子位置那样,但是比这种情况还要强上十倍、百倍。你所用的音色库都在计算机内,因此鼠标点几下就可以试听不同的音色,而不是象硬件那样,还要载入采样或合成库。所有的软件音序器基本上都可以实时捕捉屏幕上的推子及其它控制对象的变化,以此调节音色或效果。这种自动变化处理远远超越了几年前的可能情况,很显然可以让音乐更有创造性。

还有一点需要记住的是,你绝对不用担心会地势歌曲的音轨——即使你离开了几个月,回来后一切设置与音色都还完整的保存下来。这不仅仅对家庭工作室的用户来说很重要,对于专业的乐队、制作人、以及录音工程师来说也是如此。市场是多变的,有时市场需要让你再度混音歌曲为不同版本,或者是适应不同地方的市场,或者是翻新卖老酒——而对于软件工作室来说,只需几秒钟的时间,就可以开始制作新版本了,只是换个不同的文件名称而已,同时又不会损失掉原版本的项目文件。

软件工作室的怀处:去一下二手设备买卖论坛就知道了,原来花1000美金买的硬件合成器,现在可能卖不到100美金,这就是软件工作室最大的缺点,让你心痛。

一体式作曲创作

许多PC音乐人都喜欢那种一站式的软件工作室程序,比如Propellerheads的Reason,Cakewalk的Project5,Arturia的Storm以及ImageLine的FLStudio,一般这些程序都含有虚拟版本的你在“真实”的电子音乐工作室中能够找到的一切对应,包括合成器、采样器、鼓机、效果器、音序器、音频混音器等等。不过对于更为开放的途径的来说,弹性的MIDI+音频音序器软件仍然是大头,Cubase与Sonar仍然是PC机上最流行的主程序。

有些PC音频程序,如GigaStudio和Audiomulch,则“喜欢”独立式运行,而不是嵌在音序器内,因此如果你想和MIDI/音频音序器一块使用这些程序的话,就要找到连接其输出的方式。传统的方式是指定最终的立体声输出到不同的音频界面的立体声输出上,然后再把它们插入到硬件调音台上(我曾经以这种方式用了好多年)。

不过,如果你没有调音台而又想让音频信号路径尽可能短的话,还有几种不同的选择。其中一个就是买一个具备多用户(Multi-client)驱动的音频界面,可以让不同程序分配到相同的立体声输出上。从文件上你不会知道这是可能的,但是我在这种界面上也是用了好多年。

还有其它的界面能够提供几个立体声回放通道,可分别分配到不同的程序上,而且这种界面还带DSP混音器的功能,可以让你把这些回放输出从单独的物理输出中混合。这些音频界面的型号有ESI、M-Audio、EMU、Edirol、Terratec等牌子。象Echo的Mia,还可以提供几个虚拟输出,你可以分配到不同的程序上,然后再混合,从单独的物理立体声输出出来。

如果你想同时运行好几个音乐软件程序,也有好几种方法来进行输出的连接。其中最为知名的就是ESIPro的DirectWIRE功能,可以把一个程序的输出直接扯到另外一个程序上,这样就可以互相录制了。这种方法的唯一缺点是,尽管你在音箱上听到了所有的程序声音混合,但是你还需要把这些录制下来。有些音频界面提供了非常有用的内部循环选项,最为知名的就是ESI产品的DirectWIRE工具功能了,可以让用户把MME、WDM、ASIO或GSIF驱动格式的输入与输出互相发送,这样在一个程序中就可以录制其它程序的输出,把它作为特别的音频轨录下来。

其它带有整合的“无延迟”DSP混音器的界面,可以让你重新录制其混音器的输出,这样就可以捕捉不同程序的软件回放通道以及从音频界面输入进来信号的任意组合,使其成为音序器软件的新“输入”。如果没有这个功能,那么你还可以循环接线音频界面的输出再到输入上,以此录制混合的信号,但是这样做的缺陷是,如果是模拟的输入/输出的话,你的信号还要再经历一遍数字/模拟与模拟/数字转换器,这样就加长了信号路径,因此也许会稍微影响音质。

如果你的音频界面没有上面所说的任何功能的话,或许还有其它的内部混合解决可能,那么这就需要感谢软件了。ReWire是由Propellerheads所推出的技术,现在支持很多音频程序,比如AbletonLive/AdobeAudition/AppleLogicPro/ArturiaStorm/CakewalkSonar以及Project5/DigidesignProTools6.1/MOTODigitalPerformer/Propellerheads自己的Reason/RMSTracktion/SonyAcid/SteinbergCubase及Nuendo/TascamGigastudio3软件。如果你的音频程序支持ReWire规格,那么就有可能一个扮演合成器发出声音的角色,另一个是“混音器”来接收输出信号流,同时将它们进行完美的同步锁定。

外部连接的可能

即使你想用软件程序制作大量的音色,但有时偶尔还会用到硬件。如果你本来就有一台硬件合成器,又不想痛苦地二手卖掉的话,就可以直接把硬件合成器的音色录到PC的音频界面上,作为一个音频轨。如果你有好几台这样的“垃圾”合成器,每一个就都需要一个单声或立体声的输入,也可以同时实时录音与试听,还可以加上插件效果器。

有时还有这种可能,就是用软件生成的声音,需要使用外部硬件效果器来润色一下——比如是以前的经典老式均衡器、压缩器或混响效果器等等(不过大部分中国的新锐音乐人没有这种拥有经典老设备的历史:-0),如果要连接外部的效果器,音频界面上还需要空闲的输入及输出,来扮演发送及返回通道操作的作用。

如果你喜欢软件工作室的主意,但是又想再解放一下计算机本身,或者是喜欢一些独特的效果器插件,那么还可以考虑一下专门的DSP卡,比如UniversalAudio的UAD1,TCPowercore,或者是最新出的LiquidMix及Duende,或者是Waves的APA等等,把它们插入到PC中或连接到PC上,提供“硬件品质”的效果器,和PC中的插件一样出现——实际上卖给你的就是插件,只不过是不在本地运行而已——也是防止盗版的一种方法。

如果你感觉一台计算机还有些吃力,那么就可以考虑配置计算机网络,这在以前的StudioCover文章中有所讲述。在这里简单介绍一下,比如使用FXTeleport(www.fx-max.com),这是依赖于LAN(本地网)的连接,来发送接收MIDI与音频信号到其它PC机上,但是所有的混音工作还是由主PC音序器程序完成的,因此模拟音频信号路径部分仍然保持着简单而优化的品质。

如果你还有预算,或者是还有多余的I/O,那么可以再加上调音台,但但大多数情况下是多余的了,当然,如果你要把调音台摆给部分不知详情的用户观赏,那也未必不可。

免责声明:凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

+ 更多企业访谈