株式会社スクウェア・エニックス
「ファイナルファンタジー」「ドラゴンクエスト」など、数々のゲームタイトルの企画、開発、制作及び販売を手がける株式会社スクウェア・エニックス。
日本人であれば誰しもが知るゲーム業界のリーディングカンパニーにて、RMEのオーディオインターフェイスが「標準機」として選ばれていると聞き、サウンド部の五十川氏、鈴木氏、木部氏のお三方に詳しいお話しを伺いました。通常なかなか聞くことができないゲームのサウンド制作に関するお話も満載のインタビュー記事、どうぞお楽しみください。
撮影◎八島 崇
人物写真について◎撮影用に一時マスクを外していただきましたが、取材中は常時マスクを着用していただきました
―まず最初に、皆さんがそれぞれどのようなお仕事をしているのか、自己紹介を兼ねてお聞かせ頂けますでしょうか?
五十川氏(以下、敬称略):僕は、近年は主にアーケードゲームのサウンドディレクター業務をしております。あと並行して弊社スタジオの管理や機材の管理をしています。
鈴木氏(以下、敬称略):僕は、ゲームに付随しているBGMを担当しています。音楽まわりを全て作っているんですけど、もちろんその作品曲だったりとか、あとレコーディングのディレクションだったり、その際のボーカリストやプレイヤーさん、エンジニアさん、スタジオ選定など楽曲が完成するまでの責任を担っています。サウンドトラックを作るまでの工程をすべてやるという感じです。
木部氏(以下、敬称略):僕は、主にダイアログと言ってゲーム上で鳴るボイスの作業をやっています。キャスティングであったり、録音のエンジニアであったり、演出やディレクションなども行います。録音したものの編集からゲーム上で鳴らすまでの実装という作業まで、ボイスに関する役者さんのブッキング以外の所を全部一通りやっています。
―みなさん普段はそれぞれどのようなワークフローで作品を作られているのでしょうか?
五十川:僕の担当タイトルの場合は、主に作曲以外を全部行っていて、制作協力頂いてる外注さんや他社さんと一緒にやることが多いです。SEを作る時は、自分で作ったり、忙しい時は社内のスタッフに手伝ってもらったりもするんですけど、主に、効果音ライブラリーとか、自分の持っているネタを使いますね。シンセサイザーをDAW上で鳴らしてSEを作ります。曲は大体、外スタジオで収録することが多いので、2チャンネルでレコーディングしてミックスしてもらったものを、その後に5.1chにアップミックスしてそれを実装するパターンが多いですね。
ボイスに関しても同じで、ディレクションは自分でやったりすることもありますが、外の方にお願いすることも多いです。僕は元々レコーディングエンジニアなので自分で録ることもありますが、繁忙時は木部にも手伝ってもらったりとかしています。
そして、それを最終的に、Wwiseというオーディオミドルウェアに乗っけていきます。イメージ的にはサンプラーですね。その際に、一番難しいのがバス(Bus)の管理です。DAW上でのバスと同じようなものを組むんですけど、例えば、セリフはセリフをパッキング、SEはSEだけでパッキングして、曲は曲でパッキングして、それをデータとして出して、プログラマーに流してもらうっていうことをします。
―なるほど。プログラマーというのは、そのゲームのビジュアル部分を作っている人達ですか?
五十川:ゲームのプログラマーですね。
―その方達は、やはりUnityとかUnreal Engine等を使っているのですか?
五十川:そうですね。
―五十川さんの役割としては、音源を作って、それをWwiseに繋ぎこんでいく所までということになるのでしょうか?
五十川:そうですね。Wwiseは、インポートする部分はサンプラーと同様の作業なのですが、バスを組むのが非常に複雑です。結局ゲームと連動しているので、X/Y軸でパラメーターをどうゲームと連動させるか、みたいなことができるんですよ。距離によって減衰値を減らしていったり、逆に対象が遠のくのであれば、リバーブのセンドを上げていったりとか、そういうことが全部できるので、何重にもバスを作るのがとても複雑で大変です。
―そうなんですね。
五十川:音楽のミックスとは全然別物のバスですね。バスに対してプログラミングで動かせるので。それで、それぞれによって動かし方が違うという感じです。
―木部さんはどんな形で作業されているんですか?
木部:そうですね、そのバスの設計…つまり、どのように鳴らすかという所はサウンドディレクターが設計するのですが、僕はそこからさらに下の行程で、サウンドディレクターが「こういうふうに鳴らしたい」というリクエスト対して、実際にデータを作るというのが主な仕事です。
また、僕自身も、サウンドディレクター業務を最近やるようになったんですけど、声優さんが喋ったボイスを自分で録音したり、録音してきてもらったものを編集して、オーディオミドルウェアに実装する作業も行います。オーディオミドルウェアは、Wwise以外に、株式会社CRI・ミドルウェアさんのADX2や、社内ですと「SEAD」(SQUARE ENIX Audio Driver)と呼ばれる内製ツールがあります。
― 鈴木さんは、他のお二人とは、少し違う感じなのでしょうか?
鈴木:そうですね。私の場合は、結構特化していまして、さっき木部から話があった通り、サウンドディレクターがいて、同様にミュージックディレクターもいるんですね。ミュージックディレクターから音楽に特化した細かな発注書がこちらに送られてきて、そこに、どういうふうに鳴らすのかとか、どういう曲を作って欲しいのかが細かく書いてあるので、それに基づいて、完全にBGMに特化して作っている感じですね。
例えば、1つの曲でも色々なバージョンがあったりします。カットシーン用だったり、タイトル用だったり、それに歌が乗る場合は全く違うものになったりとか。発注に合わせて、ひたすら作るという感じです。
― それは、1つの音楽的なフレーズというかアイデアがあったとして、それを色々なシーンに合わせて少しずつ変化させるとか、インタラクティブにユーザーの操作によって、曲もシーンと共に変わっていくことも考えながら作業を行う、ということになるのでしょうか?
鈴木:そうですね。ここ近年は、その辺を考えてアップするのもやっぱり普通になっちゃって、どこで何を抜いて、どこで曲を展開させて、っていう。純粋に楽曲を作るのとまたちょっと違う頭を使う感じですね。構成となる横軸と楽器音の縦軸の組み合わせでパターンや展開を作る感じで、1曲の中に複数曲入ってるようなイメージといえば分かりやすいかもです。
― なるほど。鈴木さんの場合も、曲を作る時に、五十川さんや木部さんと同じように、1曲の中でも素材としてデータを切り分けておいて、それをまたWwise等のミドルウェアに入れて…みたいなことをされるんですか?
鈴木:僕が作るのはファイルの部分だけなんですけど、それをミュージックディレクターに渡して、テンポと拍子、そしてどういうふうに鳴らすかっていう説明をして、実装してもらうという感じですね。だからBGMのパーツを大量に作るという感じですが、割と昔からループの組み合わせで曲を作るのは得意だったので、その感覚が役立っているかもしれません。
― それをミドルウェアに入れて、実際にゲームの映像と一緒に見て、自分のイメージ通りになっているのか後でチェックして、また修正して、みたいな作業になるんですか?
鈴木:はい、その繰り返しですね。
― なかなか大変そうですね。普通の楽曲制作でしたら、DAWの中で完成した曲をチェックできますが、ゲームのBGMの場合は、そんなに簡単に完成形をチェックできなかったりする…ということですね。
鈴木:そうですね。さらに、最近はインタラクティブの要素が多いため、タイミングが結構、命なんです。ここのこの展開の時から曲頭が鳴らないとダメっていう時に、ちゃんと切り替わらないと、やはり演出的に違和感を与えてしまいます。だから、そこの曲の変化というのはチェックがすごく細かいです。逆にカットシーンとかは、劇伴作家さんに近い感じで、ひたすら映像を見ながらタイミングを割り出して、割とそっちはテンポさえ決めちゃえばあとは楽なんですけど。インタラクティブな部分は、自然に鳴らす事が重要なので、ゲーム自体のテンポ感が損なわれないよう注意が必要だったりしますね。
― サラウンドでの音作りは結構デフォルトなのでしょうか?
五十川:タイトルによりますね。私の場合はアーケードゲームが多いので、最近は、筐体自体に5.1chのスピーカーをつけようという話が多いです。その場合、5.1chで作りますね。ただ、どちらかと言うと聴かせ方という意味では、RPGとかそういうモノの方が合うと思うので木部の方が今担当してるかなと。
木部:そうですね。多くのタイトルで、5.1chまたは7.1chで作っています。オブジェクトベースですと、今はミドルウェア、特に僕は内製のオーディオドライバーを使うことが多いです。ゲーム上の3D空間でオブジェクト座標を持って鳴らしている音が、そのゲームのオーディオドライバーで解釈されて、7.1chであったり5.1chであったりで出力されるという仕組みになっているので、オブジェクトベースではあるんですけど、基本は平面のサラウンドの方が多いです。そして、これを今後シーンベース(アンビソニックス)とか、高さ情報も含めたチャンネルベースというものに拡張していこうという動きには今なっているところです。
― 鈴木さんは作曲がメインだと思いますけれども、立体音響の楽曲を作ることもあるのでしょうか?
鈴木:具体的な発注とか開発については多分これからだと思うんですけど、そういう要望は今後やはり来るとは思います。
例えば、FPSゲームなど、音場にリアルさを求めるタイプと、あと弊社のゲームとかでよくあるファンタジー系のゲームで、誰も聴いたことのない音をどのようにデザインするかっていう部分の2つに分かれると思うんですね。もちろん、それらのミックスもあると思うんですけど、そういう時にBGM側をどのように使っていくかっていう話になるのだと思います。
木部からもあった通り、SEが上から鳴る、BGMが上から鳴るってことも全然ありだと思うんですね。特にファンタジー系の場合、頻繁に「魔法」というものがあるんですけど、そういう時にどういう音を上から降らすか、そういうアプローチとか…そういう可能性はこれからあるかもしれないですね。
五十川:ちなみに、このスタジオはDolby Atmosに対応しています。AVアンプも繋いでいて、PlayStaion®5をAVアンプに繋いで、そのデバッグを聴くこともできます。
― では次に制作環境について少しお話を聞かせてください。
五十川:弊社では、SEのスタッフが数十名程いまして、スタッフそれぞれがバラバラに機材を買ってしまうと環境がバラバラになってしまうので、十数年前くらいからメイン機材は統一をしています。
大きいタイトルだと効果音を複数名で作ったりするんですけど、サウンドディレクターが音をチェックする際、オーディオインターフェイスがバラバラだと、特に低音感とかが全くわからないという問題がありまして…。その時は、まだ、結構安価なオーディオインターフェイスとかを使っていて。結構あの当時のヘッドフォン出力ってひどかったんですよ。これではチェックにならないよねっていうのと、当時のヘッドフォン自体もそんなに低音が出てないから、なおさらわかんないよねってなって…。そのタイミングでオーディオインターフェイスを変えようということになりました。
その時に、希望としては5.1ch出力できるもの、モニターコントローラー機能があるもの、安定してるもの、且つ、音が良いものを探したわけです。そして最終的に、RMEを導入することになりました。大きさ的なものもあって、基本的に多くのスタッフは皆デスクで作業をするので、デスクに置くんだったらハーフラックサイズの方がいいということでFireface UCXを、逆にスタジオでは、1Uで出力の多い、Fireface UFXを採用しました。
実は、それ以前からRMEは結構昔から使ってたんです。当時、Fireface 800の評判がすごく良くて、それでマニュピレーターさん達がたくさん使ってて。たまたま余りの機材が1個出たので、僕がそれを譲り受けていざ使ってみたら、めちゃくちゃ安定してて、何これっていう感じで。 あの当時だとDAWソフトをバージョンアップする度にオーディオインターフェイスが認識しなくなくなったりとか、すごく多かったんですよ。それで結構アップデートするのが、すごくヒヤヒヤだったんですが、それがRMEに変えた途端に安定するようになって。DAWのアップデートをしても全然仕事に差し支えないよねっていうのがあって、その当時に「あぁもうこれやな」っていうのは感じてましたね。
― 鈴木さんも昔からのRMEユーザーだったとおもいますが?
鈴木:多分年月にしたら20年位だと思います。RMEが日本に入ってきた一番最初の、Multifaceとかから使ってたので。
その時は、僕はまだスクウェア・エニックス在籍じゃなかったんですけど、外で作曲家の仕事をしていて、その仕事仲間のエンジニアから、非常に安定したオーディオインターフェイスが出たから、これをちょっと使ってみよう、と言われて、それでしばらく使ってたんですね。割と高価なオーディオインターフェイスだったから最初躊躇したんですけど、買ってみたら凄く良くてそれからの付き合いですね。
当時はPowerBook G3を使ってたんですけど、それでカードバスに挿して使ったら恐ろしい位レイテンシーが低くて。あと五十川の言うとおり、その安定性、音質、すべてにおいてやっぱりもう頭3つくらい飛び抜けてたんですよね。で、もうそれからずっと使っていて、スクウェア・エニックスに入社してすぐFireface 800、次がFireface UCX、その後にFireface UFX…みたいな感じですね。そうこうしてるうちに五十川の方から機材をRMEで統一するっていう話があったので、もう何の違和感もなくこれは嬉しいなって。会社でもRMEだったし、家でもRMEを個人的に持っていて、だからどこに行っても同じ環境で聴けるというのはすごいメリットでした。
― 木部さんもRMEを使っていらっしゃるんですか?
木部:そうですね。僕が最初にRME製品に触れたのは専門学校時代で、2003年位なんです。その時は、その専門学校の方針として、これからの時代はもう作業環境はWindowsになるから、みたいなことで、WindowsマシーンにRMEのPCIオーディオカードがささっていました。そういう作業環境から始まったんですけど、そこからしばらく離れていて、スクウェア・エニックスに入社する前に勤めていた会社の時は、M-Audio製品をずっと使っていました。2016年にスクウェア・エニックスに入社してFirefaace UCXに出会って、RMEユーザー歴が再開したって感じです。
― では、スクウェア・エニックスの皆さんは基本全員、RMEでオーディオインターフェイスを統一している、ということなんですね。
木部:はい。基本全員RMEです。Fireface UCXを使っている人がほとんどで、BGMを制作しているスタッフや、マニュピレーターのスタッフは1Uのモデルを使っていたりとか、そういう感じになっています。
― RMEから新しくリリースされたFireface UCX IIはいかがでしたか?
五十川:いや、びっくりするぐらい音が良かったですね。スタジオにあったFireface UFXと、自席にあったFireface UCXを聴き比べたんですよ。Fireface UCX IIの方がかなり音が良くてびっくりしました。
弊社スタジオはDADのAX32をPro Toolsのインターフェイスとして使っているので、それとも聴き比べましたが、それぞれ方向性が違うんですけど、DAD AX32はどちらかと言うと音楽的で派手さがあって音が前にあって…という印象なのですが、RMEはめちゃくちゃ原音に忠実で、何か音が綺麗にピヤーっと、綺麗に出ている。なんというかピッカピカに磨いた鏡みたいな感じでした。めっちゃクリアに自分を映し出す…みたいな感じですね。ハイの方までスコーンと抜けているんですが、ちゃんと下も出てるし、かなりモニターには適してるんじゃないでしょうかね。
― その辺りは、お仕事で音楽を作られる方とか、音と真摯に向き合う方にとっては、やはりすごく重要なことなんでしょうか。
五十川:はい。ミックスとかはFireface UCX IIの方がしやすいんじゃないかなとは直感的に思いましたね。わかりやすいんですよ。さっき言ったように、鏡みたいに、本当にはっきり見えるので。
― ということは、今御社でFireface UCXを使っている人達も、順番にFireface UCX IIになっていくのでしょうか??(笑)
一同:そうですね(笑)。
木部:まぁ壊れない限りは、UCX使うかも、ですけどね。(笑)。
― それはそうですよね。RMEは古いモデルでもドライバーの開発が継続的に行われる珍しいブランドですので、かなり長寿命ですからね。10年とか、壊れない限りは全然問題なく使えてしまう…。
五十川:僕のFireface 800、いまだに現役ですからね。
鈴木:そこは、やっぱりすごいですよね、RMEって。サポートの部分もそうだし、メーカーによっては、何年かに1回すぐモデルチェンジをして、しばらくするとドライバーのサポートが終了するんですよ。そういうのはやっぱりお財布に優しくないじゃないですか。そういうことがRMEには一切ないというのはすごい感じますね。だから、長い目で見たら全然コスパがいいんですよね。
― 鈴木さんもFireface UCX IIは体験されましたか?
鈴木:はい。自宅環境でFireface UCXとUCX IIを並べて、作りかけの曲があったのでUCX IIに繋ぎ変えた時に、本当にびっくりしちゃって。
今この曲を作りかけの状態でUCX IIに変えちゃったら、UCXに戻れなくなっちゃうから、ちょっと待とうと思って。そこからはリスニングでしばらく使ってたんですけど、とにかく解像度が高いというか、五十川は鏡面のようなって言ってましたけど、明らかに、作ってる楽曲が良い意味で違う感じに聴こえちゃうんですね。それで、めちゃくちゃ嬉しくなっちゃって。仕事仲間とかに、そういう話をしたんですね。「今度のUCX IIやべーわ」って。
実は、ついこの間も、五十川と木部と3人で「正直どう思った?」みたいな話をしていたら、「あれはやばいっすね」という話になって。じゃあこの思いの丈をインタビューでぶつけようって話になったんですよ(笑)。
― 木部さんもUCX II、聴かれましたか?
木部:はい。スタジオで五十川と一緒に聴かせて頂きました。五十川が言ったような印象と同じで、すごく解像度が高くて。細かい音、今まで聴こえていなかったような所が、よりはっきり出るようになったなというのが非常に印象的でした。で、実際に、自宅環境に組み込んでみたんですね。自宅環境では、ずっと長いことヤマハのMSP5 STUDIOというアクティブスピーカーを使っていて、もうそろそろ新しいモノに変えようかなって思っていたんですけど、繋ぎ変えた瞬間にもう何か一皮むけたような、MSP5 STUDIOが蘇った感じがしました。
― ヘッドフォンの音質はいかがでしたでしょうか?
五十川:ヘッドフォンアウトの音も、UCXとUCX II、そして、初代のUFXという、3機種で聴き比べました。カラーリングというか全体の傾向は3機種とも一緒なんですけど、UCXはローエンドがそんなに出てなくて、UFXはローエンドが出ているという印象でいたんですが、UCX IIはローエンドまでしっかり聴こえてて、なおかつ解像度も上がっていますね。3機種のなかで一番いいですね、ヘッドフォンアウト。
― マイクプリはどうでしたでしょうか?
鈴木:いいですよね。すごく。
五十川:スタジオでも軽く録音をしてチェックしてたんですけど、3機種とも、傾向は全く一緒でしたね。ただ波形の出方が、若干細かかったのかな。目で見ると波形が、何かちょっとひげが敏感に動いてるみたいな…。聴いた感じは大体一緒なんですが、解像度が向上してるのかな、という感じでした。
― Fireface UCX IIは、最新のSteadyClock FS回路が搭載されているモデルなんですが、そのあたり、皆さん何か感じられた所とかありますか?
五十川:確かにスタジオでクロック変えた時に感じたものと同じ傾向はありましたね。今GPSタイプのクロックを使っているんですが、それに変えた時と似たような感じはありました。変えた瞬間に急に奥行きがパーンって、リバーブもスパーンって、急に深くなって、っていう。そんな感じがしましたね。
鈴木:実際に音を録った時に、UCXで録ったものと、UCX IIで録った音が、やっぱり違うんですよね。もちろん良い意味で。実際に今ある案件で、2機種の音を混在させて使っているんですけど、これは昔のUCX、ここからはUCX IIっていう形で作業しているんですけど、うまい具合に組み合わないんですよっていうぐらい、音が変わりますね。音声の録音だったんですけど、結構それがリアルにわかるんです。
木部:僕も自宅環境に組み込んでみて、実際にMA作業をやっていて、リバーブの見え方とか、定位感とか、より良くなったなって非常に感じてます。
― みなさま、今日はお忙しいところ、本当にありがとうございました!
五十川祐次氏|Yuji Isogawa
サウンドデザイナー、レコーディングエンジニア
スクウェア・エニックスのサウンドスタジオ管理をしながら、ゲーム音楽の録音からディレクション、MA作業まで幅広くこなし、これまでに、『ガンスリンガー ストラトス』『ファイナルファンタジーX/X-2 HD リマスター』『ロマンシング サガ』シリーズなど多くの作品に携わっている。
鈴木光人氏|Mitsuto Suzuki
スクウェア・エニックス所属の作曲家
『ファイナルファンタジーVII リメイク』、『ライトニング リターンズ ファイナルファンタジーXIII』、『メビウス ファイナルファンタジー』、『スクールガールストライカーズ』などを担当。
近年ではゲームのみならず、TVアニメ『スクールガールストライカーズ Animation Channel』の楽曲制作、音楽専門誌での機材レビュー執筆や舞台音楽の制作にも携わっており、多方面で才能を発揮している。
SQUARE ENIX MUSIC Official Blog「鈴木週報」
http://blog.jp.square-enix.com/music/cm_blog/suzuki/
木部寛之氏|Hiroyuki Kibe
レコーディングエンジニア、ダイアログエディター
「声」に関することならジャンルやプラットフォームを問わず携わり、都内ゲームメーカー兼録音スタジオの勤務を経て、2016年スクウェア・エニックス入社。
主な開発タイトルは『ファイナルファンタジーXV』『ファイナルファンタジーVII リメイク』『ドラゴンクエストXI 過ぎ去りし時を求めて S』等。
前職からの経験を活かし、社内スタジオの構築も手掛ける。