デジタル音声システムの同期の取り方と

デジタル機器将来への展望

 

JPPA オーディオ委員会 第3回オーディオスクール草稿

1998年3月26日

 

株式会社 スタジオ イクイプメント

       北 康雄

Phone 03-3795-3111 Fax 03-3795-3353

 

夢物語だったデジタルによる音声記録

 デジタル機器が出現してから早いものですでに20年以上の歳月が経過しています。1970年代の当初私はある放送機器輸入代理店の駆け出しのメンテナンスエンジニアだったのですが、ある放送局のエンジニアの方から「テープを使用したエコーシステムのメンテナンスが面倒なのでそれに代わるいいエコーマシンはないか?」と尋ねられたことがあります。音をテープに録音するからテープがよれて音飛びするのだからテープ以外の物に音を記録すればよいわけですが、テープのような長手方向に長い物やレコードのように円盤状の物に記録するとモーターを使用した機械系の機構が必要となってしまいます。音声信号をそのまま半導体に記録できればよいのですが、当時としてはそのようなアナログの記録素子は存在せず、記録するにはアナログ信号を0と1のデジタル信号に変換しそれをシフトレジスターの様な記録素子に送ってやり、遅れたデジタル信号をアナログに変換してやれば理論的には音声信号を機械的な機構を使わずに送らせたり、記憶させたりする事が出来ます。しかし当時としては記憶素子がキロビット単位の物しかなく、単純に計算すると数ミリセコンドのディレイを得るためには周波数特性が数百ヘルツとなり使い物にならない、もし無理やり作るとなるとラック数本になってしまう。音声をデジタル信号に置き換えて記録するなど全く夢物語だったわけです。

 

BBDによるアナログディレイマシン

 ところでアナログ信号をそのまま記録できる素子は当時なかったとお話ししましたが、少し後の70年代半ばごろになるとBBDと呼ばれるアナログのシフトレジスターが出現しました。この言葉を聴くと「懐かしい〜」と思われる方もいらっしゃると思いますがその方はかなりベテランの年配の方です。デジタルのサンプリングレートやクロック周波数の話につながるので脱線して話ししておきましょう。BBDはBucket Brigade Deviceの略だと記憶しているのですが古い話なのでBrigadeが正しいかよく分かりません、ただ日本語ではバケツリレー素子と呼ばれていました。
 さまざまな水量の入ったバケツをバケツリレーして行きます。デジタルのシフトレジスターは同じようなバケツリレーでもバケツは空のバケツか満タンのバケツしかないのですが、アナログのシフトレジスターであるBBDではいろんな水量をのバケツを運ぶことが出来ます。片手にバケツを持った人が記憶素子のフリップフロップ、水の入ったバケツがコンデンサーに、水がコンデンサーに充電された電圧に対応しています。なんの指揮もなく勝手にバケツリレーをするとバケツとバケツがぶつかって水がこぼれてしまいます。そこで太鼓の音に合わせてタイミングよくバケツリレーを繰り返せばスムースに仕事が運びます。この太鼓の音が1秒間に何回鳴るかがクロック周波数になるわけです。
 バケツリレーの人数つまりBBDの段数が多くなればなるほどディレイタイムは長くなります。ただし段数が多くなればなるほど水が漏れて電圧が下がりS/Nは悪くなります。クロック周波数が高くなるほど分解能が良くなるため、周波数特性は良くなりますが、音声信号はすぐ出口に出てしまうからディレイタイムは短くなります。このようにとディレイタイムとS/Nと周波数特性は相互に関連していて同じ費用の条件であればどれか一つの性能を上げると他の二つの性能は悪くなってしまいます。
 私は秋葉原信越無線(今の秋月)のキットを組んだ事があるのですが三つの特性の解決できない三角関係に大いに悩み、そして失望したものです。音が余りにも悪いのでF特を良くするためにクロック周波数を上げる、そうするとディレイタイムが短くなる、しょうがないから段数を増やす、そうすると今度はS/Nが悪くなる。「うーんデジタルだといくら段数を増やしてもS/Nは悪くならないだがアマチュアには手が出ない。ここはあきらめるしかない」と思ったものです。当時レキシコンからデルタT101というデジタルディレイが発売されていましたが300万円位していたと思います。デルタT101のデモンストレーションに立ち会ったことがあるのですが、消耗部品である回転機構を使わずに1秒近いディレイサウンドが音質良く得られるのに会場の参加者から感嘆の声が上がったのを覚えています。ところがそのわずか4〜5年の後にローランドからSDE1000デジタルディレイがなんとたった10万円を切る価格で登場します。それを皮切りにデジタル機器は日本のメーカのお家芸になります。このようにデジタル機器はメモリーや専門の音声処理チップが安価に供給されるととんでもない価格に急落することがあります。

 

オーディオブームとCDの出現

 1970年代の後半に日本でオーディオ製品が大ブームになり、多くの家電メーカーがオーディオ業界に参入します。そしてさまざまな回路や商品が開発されます。その中で一番の目玉商品がCDレコードです。最初のうちはなかなか普及しなかったのですがある時期を境に急激に普及します。そしてオーディオマニアからお年寄、子供から主婦に至るまで、CDのもつS/Nの良さF特の良さ、安価なプレヤーでも同じ価格のアナログプレヤーに比べると段違いの音の良さに目を見張ります。日本全国津々浦々に至るまで「デジタルは音が良い」という意識が国民の意識に刷り込まれてしまいます。それほどCDは技術的に大成功だったと言えましょう。当時ヘッドフォンやカセットテープに「デジタル対応」と印刷してあるのを見て、音が良いと思って買って行く人がけっこういたそうです。
 CDのサンプリング周波数は44.1KHzに選定されましたがこれはCD1枚に収録可能な時間を最も長い交響曲の収録が可能なことと、高音質の周波数特性の確保、それにPALNTSC双方に同期させやすくするため25と30の公倍数を考慮して決定されたものです。
 これを聴いて映像のプロフェッショナルである皆様は「NTSCの1秒間30フレームというのは白黒の場合の規格でカラーの場合は29.97フレーム/秒でなかったっけ?」と疑問に思われると思います。まさにそのとうりで30フレームはタイムコードを扱う場合や枚数を表現する場合、小数では表現できないので便宜上1秒間30枚としているだけなのです。規格を決定してから後ほどこの事実を知らされた日本側の技術者は驚きのため「震えが来た。」と言われています。長手方向に記録するデジタルテープレコーダーは補正することが出来るのですが、PCM−1630の様に回転ヘッドのビデオテープレコーダに記録するタイプのデジタルレコーダーはビデオの規格の中にデジタル音声信号をはめ込まなければならず、デジタルレコーダーにビデオ同期をかけるとサンプリングレートが44.1kHzかける29.97割る30の44.056kHzになってしまいます。このNTSCカラー信号による外部同期をかけると0.1%サンプリングレートが下がるかどうかはデジタルレコーダーによってまちまちです。
 ビデオ同期の周波数をチェックして勝手に補正する機器や、手動でビデオの同期周波数(フレームレート)を教えてやならやればならない機器などさまざまなタイプがあります。お使いになられる機器がどのタイプなのかを把握していないと知らない間に、44.056KHzのサンプリングレートで記録されてしまい、他の機器で再生したとき0.1パーセントキーが上がってしまったり、長い時間の録音の場合に時間が合わなくなったり、同期しなくなってデジタルコピーができなくなってしまう事があります。又その性質を逆に利用して0.1パーセントずれてしまって同期しないメディアを無理やり同期させる達人もいます。

デジタルマルチレコーダーの出現

 CDの大成功でアナログマルチレコーダーもデジタル化への動きが持ち上がり数社からデジタルマルチレコーダーが発売されました。デジタルマルチレコーダーはアナログマルチレコーダーに比較して、ばらつきのあるアナログテープに特性を合わせるための、毎回の面倒な調整がいらない、音の再現性が良くテープメディアやメンテナンスの状態にによって音質が左右されることがない、転写がない、S/Nがよい、故障が少ない、ワウフラッターや速度偏差がないと言った特徴で、プロの世界にドンドン普及して行きました。ところで「伸び縮みするテープや回転機構を使っていてどうしてワウフラッターや速度偏差がないと言い切れるのだ?」ということになりますがそれは以下の理由によるものです。
 

デジタルテープレコーダーにワウフラッターがないのは本当か?

 テープから再生されたデジタル信号はもちろんテープの伸び縮みから、時間軸方向に早くなったり遅くなったりしています。これをそのままアナログ信号に変換してしまうとアナログレコーダーと同じようにワウフラッターを発生させてしまいます。
 デジタルレコーダーではテープから再生した信号を一時的に蓄えて、その後一定の間隔で正確に組み立て直してアナログ信号に復調します。この組み立て作業は内部の水晶発振器の正確な周波数に従って行われます。一定のタイミングて正確に組み立てられるためワウやフラッターは発生しません。テープの再生速度が微妙に組み立て作業の速度ととずれると一時保管のデータが足らなくなったり、溜まり過ぎたりします。そのためテープ速度も水晶発振器からの正確な周波数で管理されています。これによって速度偏差も発生しません。音声データを一時保管しておくメモリーをバッファメモリーと呼びデジタル機器にはなくてはならない機能です。しかしこの部分でもディレイが発生するためデジタル機器について回るディレイタイム発生の一因にもなっています。

デジタルテープレコーダーの外部同期

 この水晶発信器からの同期信号でデジタルレコーダーを働かせることを内部同期と言います。この同期信号は内部の水晶発振子の信号以外に外部からの同期信号を利用することができます。外部同期の入力としてはビデオ同期信号、ワードシンク信号、デジタルレコーダーのロケーターに内蔵されているバリピッチコントローラーからのワードシンク信号、AES/EBU入力信号に含まれている同期信号を選択することができます。
 ところでデジタル録音した時のサンプリングレートと外部同期入力にに加えられた同期周波数とが異なっているとエラー表示が出て自動的に内部同期になります。録音したときのサンプリングレートがどうして判るかと言えばプリストライプする時に情報としてテープに記録されているからです。どの程度の誤差でエラーとするかはデジタルレコーダーの同期精度の設定をナローにするかワイドにするかで決まります。ソニーのPCM-3348を例に取るとナローは50PPM、ワイドにすると250PPMになります。50PPMは50/100万となりパーセントで言うと0.005パーセントになります。パナソニックSV-4100DATはナローワイドの切り替えがなく外部からワードシンクをかけて調べてみるとプラス0.6パーセント、マイナス1パーセント以内のワードシンクでないとロックしませんでした。
 なぜテープ上に記録してあるオリジナルのサンプリング周波数と外部同期周波数がわずかに違ってもわざと音を出さないようにしているかは、速度管理を厳密に行なうためです。音声をミュートする機能を外した場合、回路構成にもよりますが基本的なデジタルレコーダーであればかなりの幅の外部同期周波数にロックする事ができます。同期周波数が高い場合は速度が速く音のキーも高くなります。また同期周波数が低い場合は速度も遅くなり音のキーも低くなり、アナログテープレコーダーに近い感覚にはなります。これはクロック周波数が高くなるかと、デジタルからアナログに音を組み立てる速度が速くなるからです。
 ハードディスクレコーダーやDAWの中には外部同期周波数鵜を変えると内部の制御用CPUのクロックごとサンプリング周波数が変わり、ある程度以上無理に変化させるとシステムがハングアップしてしまうことがあります。このように外部同期をかけるということはそのデジタル機器のタイミングや速度管理をすべて支配する事となります。

 

デジタルテープレコーダーのシンクロナイザーによる外部同期

 アナログテープレコーダーの場合アナログテープレコーダーをスレーブロックさせるにはアナログテープレコーダーから送られてくるマスタータイムコードとスレーブ側のタイムコードが一致するように(エラーが0秒0フレーム数サブフレーム)になるようにスレーブ側テープレコーダーのキャプスタンサーボの外部同期周波数を変化させて追従させます。この場合、追従させている間はずっと外部同期周波数を変化させてつまり外部同期状態のまま追従します。マスタータイムコードがワウフラッターで変化するとスレーブ側のテープレコーダーもワウフラッターを発生させてマスターレコーダーに追従します。
 デジタルレコーダーの場合はタイムコードが一致するまでの過程はアナログレコーダーと同じですが一旦タイムコードが一致するとキャプスタンサーボの外部同期から外部ビデオ同期に切り替わります。そのためマスター側のタイムコードはビデオ同期信号(ハウスシンク)に同期していなければなりません。このような同期の方法は映像の世界ではビデオレコーダーの同期の方法として当たり前なのですが、録音業界では非常に理解しにくい事のようです。

 

入力端子に加えられたAES/EBU信号による外部同期

 デジタル信号のやり取りは長く連結した貨物列車に一定のタイミングで荷物を投げ込んでいるのによく似ています。貨物列車の速度と荷物を投げ込む速度が少しでも狂っていると初めの内は良いのですが時間が経つと荷物が貨車に命中せず貨車の外に落ちてしまいます。
 そうなるとノイズが出たり音声がミュートされたりするのです。同期のタイミング周波数をもらう方法として最も手っ取り早いのが投げ込む荷物のタイミング周波数を貨車に教えてやり、荷物が落ちてくるタイミングに会わせて貨車のスピードをコントロールすることです。つまり入力信号にあわせてデジタルテープレコーダーの同期をとってやることです。
この方法はデジタルコピーする場合は非常に安定して働きます。一対一のデジタルコピーには非常に便利な同期方法ですがシステムで考えると不便なことがあります。
 デジタルミキサーのように入力が2つ以上ある場合はどれか一つの入力信号に同期させると他の入力信号には同期しなくなります。またA/DコンバーターやCDプレヤーのようにAES/EBU信号から同期信号をもらおうとしてもデジタル入力端子がないデジタル機器もあります。

 

ビデオシンク信号による外部同期

 デジタル機器の外部同期信号としてブラックバーストなどのビデオ信号を利用することができます。MAスタジオのようにハウスシンクシステムがすでに導入されている場合は、追加して設置しやすいと思われます。しかしすでに述べたようにデジタル機器が25及び30フレーム/秒で当初考えられた経緯から29.97フレーム/秒のカラー信号をビデオ同期入力端子に加えたときそのデジタル機器が例えばサンプリング周波数48kHzで設定されていたとき実際に動作するのが自動補正されて48khzになるのか、0.1%プルダウンされて47.952kHzになってしまうにかは機器によってまちまちです。映像の同期と同じようにVDAを利用して分配する事は出来ますが、分配器の段数は1段程度に押さえすべてのデジタル機器に同じタイミングのビデオ同期信号が送られるようにしておく必要があります。

 

ワードシンク信号による外部同期

 ビデオ同期信号で同期する場合、各国のテレビ信号規格に従って複雑な補正係数で掛けたり割ったりする必要がありますが、サンプリング周波数に等しいワードシンク信号で同期をかける場合はその様な煩わしさから解放されます。ワードシンクのワードとは1サンプリング時のデジタル音声データの1行を表します。16ビットのデジタル音声データーの場合は0か1かのデーターが16個並んだデータの一まとまりの部分を言います。ワードシンク信号発生期をビデオ信号で同期しておけば、ワードシンクで同期させたすべてのデジタル機器にビデオ同期をかけることが出来ます。そうすれば個々の機器で0.1%プルアップするかしないかの判断に悩むことはなくなります。
 デジタルミキサーからAES/EBU信号をDAT等のデジタル機器へ信号を送り、そのリターン信号を再びデジタルミキサーで受けようとするとデジタルノイズが発生することがあります。これはデジタル信号がDATに送られる段階でディレイが掛かり、再びデジタルミキサーに戻ってくる段階でもう一度ディレイが掛かるのが原因しているのです。このような場合DATとデジタルミキサー双方にワードシンクを掛けておくとデジタル信号が戻ってくる場合のディレイタイムはAES/EBUの同期信号だけを使って送り返す場合のディレイタイムより短くすることが出来ます。AES/EBUデジタル信号で同期をかけてデジタル機器からデジタル機器へと多段にデジタル信号を送ってゆくと、信号にどんどんディレイが掛かってしまいます。この場合ワードシンクをそれぞれの機器へ送って同期をかけておくと、同じサンプリング周波数でしかも最小のディレイタイムで信号を伝送させることが出来ます。

 

ワードシンクの分配

 ワードシンクは44.1kHzや48kHzの単純な方形波なので映像帯域までの通過帯域幅を持ったPDAやVDAであれば分配することが出来ます。ただしVDAの中には出力が2Vピークツーピーク程度に押さえられてしまうタイプもあるので5Vピークツーピークの出力が取れるか確認しておく必要があると思います。各機器までの距離が短い場合や分配アンプが1段ですむような場合はPDA、VDAの利用でもOKですが各機器までの距離が長い場合や分配器の段数が複数段になる大規模システムの場合は分配アンプのディレイが問題になるのでワードシンク専用の分配器が必要となります。PDAやVDAは波形をそのままリニアに増幅して分配するのに対して、ワードシンク専用の分配器は出力段で再びON/OFFして波形を整形させます。波形を整形することによって多段に接続された波形のゆがみを少なくさせています。

 

リクロックの重要性

 AES/EBUデジタル信号を長距離電送したり多段に送ると高域減衰のためデジタル信号の波形がなまったり反射の影響を受けて不安定になりジッターを発生させることがあります。ジッターとは波形の時間軸方向の変動を言います。高周波信号は後で述べるようにインピーダンスの不整合部分で反射を発生します。反射波が進行波と干渉しあいジッターを発生させます。ジッターは伝送距離が長い場合、インピーダンスの不整合がある場合、出力側機器のPLL回路が不安定な場合、不安定なタイムコードにスレーブさせられたデジタル機器の出力などに見受けられます。ジッターを含んだAES/EBU信号からのクロック周波数で動作するさせる場合に比べ、ワードシンクでロックさせると安定した同期を得ることが出来ます。

 

デジタルレコーダーのタイムコードオンリースレーブ

 ハウスシンクの設備やワードシンク設備のないスタジオでデジタルレコーダーを他の機器のスレーブにして同期をとる場合があります。この場相注意しなければならないのはアナログレコーダーのスレーブ状態でのテープレコーダーはサンプリング周波数の揺れの問題でデジタルでの信号のやり取りは出来ない事です。テープ速度をタイムコードに合わせて同期をかけた場合、デジタル入力端子に加えられたデジタル信号やワードシンク信号にテープ速度を合わせることが出来ないのです。同期信号は一つしか選択できないのです。

 

デジタル信号は高周波である

 アナログオーディオ信号は低周波です。ではどのような信号を低周波と呼び、どのような信号を高周波と呼ぶのでしょうか?
 低周波信号はケーブルのどの部分も位相が同じである。例えばマイクに接続されたマイクコードのどの部分も位相は同じであります。ケーブルの入り口と出口で位相が異なるようであればマイクからの信号経路の長さをすべて同一にする必要があります。20kHzのオーディオ信号の波長はおよそ975mです。(光速30万km/秒 短縮率65%として計算) 100m以内の距離であれば全く同位相と考えることが出来ます。つまり一目で見渡せる距離のケーブルの位相が同相(同極性)であれば低周波と呼ぶことが出来ます。
 AES/EBUデジタルオーディオ信号の場合最大伝送速度はサンプリング周波数48kHzで3.072Mビット/秒となります。波長を計算すると62mとなります。なんとAES/EBUデジタルオーディオ信号は32mごとにケーブル上の電圧が反転しているのです。
日常の生活では電気の伝達する速度は瞬間的で、例えばトイレの電球のスイッチを入れた瞬間に電球は点灯します。超スローモションでこの状態を観察するとスイッチオンで電流を流し始めるとあたかも水道のホースの中を水が流れていくように電流もゆっくり流れて行きやっと電球に到達します。このように電流や電気信号にも伝達するスピードがあるのです。電気信号の伝達速度は、昔は光速だと考えられていましたが実測すると光速の50〜70%ぐらいの速度であることが判明しました。

 

高周波伝送の注意事項

オーディオ信号は現在ロー出しハイ受けマッチングが主流ですが、それは以下の理由からです。

1. 低周波の場合、波長は数キロメートルにも及び例えインピーダンスのミスマッチによる反射があっても、反射派は進行波に重なって悪影響が全くない。

2.ロー出しハイ受けであれば信号を複数の機器に同時に送ることが出来る。

3.ロー出しハイ受けであれば受けのインピーダンスが異なる機器に変更されてもレベルがあまり変わらない。

 

高周波伝送の場合は以下のことに注意しなければなりません。

1.出力インピーダンスと受けの(入力)インピーダンスを同じ値にして(等インピーダンス
マッチング)マッチングを計らなければならない。

2.ケーブルやコネクターは指定のインピーダンスのものを使用しなければならない。

3.通過帯域を把握しておいてケーブルによる減衰を考慮しておかなければならない。

 

高周波信号の反射について

 私は音響が専門だったのですが10数年前からMAスタジオのシステム工事を受注することが多くなりました。MAスタジオの工事を手がけてまもないころあるスタジオで我々が配線したモニター画面を見つめていたベテランのスタジオマンが「ちょっと画面がギラついてゴーストっぽいですね。モニターハイ受けになってません?」と言われたので調べてみるとなんと民生用のモニターTVの中には75Ω入力ではなくて10KΩのハイインピーダンス入力のものがあったのです。もちろん入力インピーダンスが75Ωになるように入力に抵抗を並列に接続すると反射が納まり、輝度も落ち着きました。このように入力部でインピーダンスがミスマッチしていると大部分の信号は入力部から機器へ入力されますが、一部の信号はその部分で反射して前段の出力部分へ戻って行きます、出力部分でさらに反射した信号が入力部分に戻ってきてその大部分が入力回路に入って行き、一部がもう一度反射します。
 このような現象を視覚的に説明するのに良いのが手品に使う長いバネです。階段をひとりでに降りて行くあのバネです。そのバネを長く伸ばしてから、一方の端を手にもってバネの方向にバネを縮める方向で動かします。すると縮んだ部分が進行して行きます。バネの端まで進行するとその部分で反射して戻ってきます。このような状態を全反射と呼びます。固さの異なるバネを連結して同じ実験を繰り返すと進行波は連結部分で一部は反射して戻ってきますが大部分は連結部から先へ進行して行きます。これはバネの機械インピーダンスが変化している部分で反射が発生していることを物語っています。電気信号の伝送もこの場合と同じで、インピーダンスの変化する部分を境にして反射が発生します。オーディオ信号でも反射はあるのですが、あったとしてもそれが問題にならないだけです。ただし反射が問題になる場合があります。海底ケーブルなどの長距離伝送の場合です。このような長い距離で反射が起きると長いディレイタイムの反射が帰ってきて非常に話しづらくなります。

 

高周波信号の並列接続について

 高周波伝送では信号の反射を防ぐため出力インピーダンスと入力インピーダンスは等しい値にしておく必要があります。しかし運用上同じ高周波信号を複数の機器に送りたいときがあります。もちろん分配アンプを利用するわけですが全部が全部分配アンプを利用できるとは限りません。分配アンプが足りない場合や、ない場合に有効なのがループスルーによる接続です。
 ビデオ信号の入力BNC端子の横にThrough Outと表示されたBNC端子が付属しているのを良くご覧になられると思います。これはビデオ信号の入力回路をハイインピーダンスで設計しておきその入力回路と入力のBNC端子との距離が短ければ反射があっても距離が短ければ反射派と進行派は一致するので反射の影響を受けません。Through Out端子に75Ωの映像機器の入力を接続しない場合は、システムがハイ受けになってしまうのでたーミネーションプラグを入れるか75ΩターミネーションスイッチをONにします。他の機器に同じ信号を送るにはターミネーションプラグを外すかスイッチをOFFにしてThrough Out端子から他の機器へ送ればよいわけです。

 

 

AES/EBUやワードシンク信号もループスルーテクニックが使える

 高周波であるAES/EBUやワードシンクにループスルーのテクニックが使えます。AES/EBU入力のバーグラフメーターなどの商品にループスルー端子をもうけている商品があります。
 ワードシンクは48KH.zや44.1KHzの単純な方形波なのに高周波とは不思議ですが、そうですワードシンク信号は実は低周波なのです。しかしどういうわけか75ΩのBNCコネクターが入出力端子に使用されていて高周波の顔をしています。デジタル音声信号ははっきりいって高周波信号です。ところが利便性を重んじすぎてAES/EBUの場合キャノンコネクターを使用してしまってインピーダンスの厳密な整合が取れない問題を抱えてしまっています。ワードシンクは周波数としては低いのですが将来のの拡張性を考えて同軸ケーブルや同軸コネクターを採用したのではないでしょうか? 本線のデジタル信号とワードシンク信号をを比較するとデジタル信号はワードシンクの64倍もの周波数となっています。そこでさらに同期精度を上げるため64倍のビットシンクや256倍の256シンクなどが考えられています。256シンクはすでにプロツールズで使用されています。256倍の12.288MHzになれば完璧な高周波です。

 

ワードシンクアウトには気をつけろ

 ワードシンクジェネレーターがない場合、DATやデジタルコンソールのワードシンクアウトの端子から正確なワードシンクが取れないかと考えてしまいます。しかし紛らわしいのですがワードシンクアウトと表示されていても出力されているAES/EBUデジタル信号に同期したワードシンク信号が出てくるのではなくて、インプットのループスルーが出力されているだけの機器があります。確かYAMAHAのO2Rがそうだったと思います。
 PanasonicのSV-4100のワードシンクアウトはデジタル出力に同期したワードシンクアウトを出力していました。TASCAMのDA-60はご丁寧に、スルーアウトの端子とは別にワードシンクアウトの端子があり、これもデジタル出力に同期したワードシンクアウトが取り出せます。デジタルレコーダーのワードシンクアウトのしようには注意が必要でプレイしてからサーボがロックするまでの間ワードシンクアウトからのシンク信号が不安定になる機器もあります。出来るならばマスターワードシンクジェネレーターからシンク信号をもらってスレーブにした方がよいでしょう。

 

マスターワードシンクジェネレーター

 ビデオシンクよりも精度の高いワードシンクを発生する機器です。内部の水晶発振子でも動作しますし、さまざまなテレビ放送の規格のビデオ同期にロックすることが出来ます。
 ビデオ同期をかける場合、ビデオ信号を解析して特定し、そのビデオ信号にあった補正係数を掛けて自動補正します。NビジョンのNV-5500、アードバーグ社のアードシンクとPrism Sound社のProbox12 が有名です。アードシンクは価格が安いのですが電源はACアダプター方式です、シンクボックス12は水晶発信子を恒温槽に入れて安定した周波数精度を得ています。「その機器の持つ内部のクリスタルより精度の高いワードシンクを掛けるとD/Aされた音が良くなる」と言ううわさがありますので実験してみてください。

 

ワードシンクなしにデジタルで伝送できるのは1対1のコピーだけ

 シンクの話をすればするほどデジタル伝送とは面倒と思われるでしょうが1対1のデジタルコピーであれば確実に手軽に行なうことが出来ます。DATやデジタルマルチ、ハードディスクレコーダー等一般的には入力のAES/EBU信号に同期して動作します。例えばDATからハードディスクレコーダーのAES/EBU入力端子に信号を入れると簡単にデジタルで取りこめます。これを繰り返して行けばハードディスクレコーダーの各トラックに素材を取り込んで行くことが出来ます。時間がもったいないので同時に2台のDATから取り込もうとするとAES/EBU信号だけではエラーとなります。ただし短時間の場合ではエラーにならずに信号が通過してしまうことがあります。しかし大丈夫だと思って油断していると途中で同期が外れてノイズが出たり、音がとぎれてしまうので注意が必要です。このような場合、ワードシンクを2台のDATとハードディスクレコーダーに掛ける必要があります。

 

どうしても同期が取れない場合はサンプリングレートコンバーターをはさむ

 複雑な作業をデジタル伝送を介して行なうと同期を取るのに時間がかかります。特にデジタル機器が内部のクリスタルに同期しているのか、ビデオに同期しているにかそれともワードシンクに同期しているのか、実際のFSは48か44.1か0.1%プルダウンされているかジャストかそれともプルアップしているか等、デジタル機器のメニューで見て行くのに時間がかかってイライラする場合があります。サンプリングレートコンバーターは安易ではありますが確実な解決方法です。

 

アナログ回線をフォーマット&サンプリングコンバーターとして使う

 デジタル機器が8ビット程度で処理されていた時代から「一旦デジタルに変換されてしまえばデジタル領域での劣化はない、従って出来るだけA/D、D/Aの回数は少なくしなければならない」と金科玉条のように教えられ続けてきました。 内部処理24ビット、 A/D,D/Aコンバーター20ビットの時代に本当にそうかなと思ってしまいます。デジタル伝送でひたすらコピーを繰り返していた友人が「アナログでコピーする方が自然な音がする、デジタルでコピーを繰り返すと耳障りな音になってしまう。」と言っていました。無理にデジタルで接続して余分な時間がかかるようでしたらアナログ接続で確実に働かすのが得策です。今まで時間をかけて説明してきたことはデジタル伝送で機器から機器へ信号を伝えるために知っておかなければならない知識でした。アナログ伝送ならなんの心配もなく確実に伝送することが出来ます。 アナログの良い部分を見直して上げれば良いと思います。デジタルを突き詰めて行くとアナログの良い部分が見えてきます。
 現在、コンピュータ技術の発展のおかげで実はアナログの半導体素子やアモルファスヘッドに見られるように磁気ヘッドにも新しい技術が現れてきています。それらの技術をアナログに転用すればかなりの高性能なアナログ機器が出現するのですが、残念ながら大メーカーはアナログ機器の新製品の開発に消極的です。
デジタル伝送でシステムを組んで行くと、アナログで信号をやり取りする場合に比べて気をつけなければいけないファクターが多く、あたかもアナログ伝送が、自動フォーマットコンバート機能、自動サンプリングレートコンバート機能、自動ディレイタイム補正機能、ヘッドルーム調整機能等を備えているように思えてきます。
 一方アナログ伝送の弱点としてはAES/EBU信号に書き込まれた曲名やアーチスト名などのデータが送れない。数キロメーターに及ぶ長距離伝送の場合、光伝送のデジタル伝送に比べて音質劣化が大きい、ノイズが乗る場合がある、等の欠点もあります。しかしノイズに関しては、ローインピーダンスのバランス回路で信号を送りさえすれば問題はありません。

 

デジタル機器 将来への展望

 デジタルは音の、記録、編集、加工に関してアナログよりはるかに便利です。記録や編集のためのデジタル機器は本当に便利なのですがデジタルで音を伝送するとアナログに比較して面倒くさくなります。音の仕事の場合はリアルタイムで処理しなければならない場合がほとんどです。 リアルタイム伝送だったら、ディレイや同期が問題になってしまいます。データの転送速度(現在48K FS で3.072メガビット/秒) やDSPの処理速度がもっと速くなってディレイタイムが短くなる必要があります。YamahaはIEE1394規格によるデジタルデータの転送を推薦し始めています。

 

ファイルによるデジタルサウンドデータの転送

 音声のデジタルデータの伝送が面倒なのはリアルタイムに送ろうとするからです。リアルタイムではなくて適当な時間かかってハードディスクからハードディスクへデーターをコピーする場合はなんの問題もありません。LAN、つまりローカルエリアネットワークのサーバーに音楽情報をプールしておきクライアントのコンピュータからファイル化された音楽情報を受け取るシステムはこれから発達すのではないかと思われます。
 10年ぐらい前まではハードディスクに記録された30分の音声データのバックアップを取るのに2倍程度の時間がかかるのが当たり前でした。ところが現在は3分の音楽をハードディスクからハードディスクにLAN経由でデーターを送るのは、MPEGレイヤー3などの圧縮ファイルを使うと3~4秒で送ってしまいます。これは大変便利で、音声データを実時間かかってテープ編集することから比べると比べ物にならないほどすピーディです。
「テープ倉庫から3月29日放送に使う番組のオープニングテーマを今すぐとってきてMA室のDAWにコピーしておいてくれる?」と頼まれてからコピーが完了してMA室に届けられるまで20分ぐらいは掛かってしまいます。これがLANシステムによる場合だと「サーバーに入っている3月29日放送分のオープニングテーマをMA室のDAWのハードディスクにコピーしといて。」と頼むわけです。そうするとマウスでファイル操作して20秒後にはDAWのハードディスクに入ってしまいます。エレベーターに乗ったり廊下を走ったりテープを探したりする必要が全くなくなります。おそらく頼まれた人から「相原さん 、こんなことは20秒もあれば出来るんですから、自分でやって下さいよ、まったくー」と言われてしまいます。又MA室で準備しているときにサーバーからDAWへ移せばよいのです。ただしDAWのファイルシステムがLANから読める共通のファイルシステムである必要があります。

スーパーデジオ(CS利用の100chラジオ局)
 すでにLANを利用したシステムが稼働し始めています。パーフェクTVで放送されている100Chラジオ放送曲がそうです。目黒にある第一興商のスタジオでは8部屋ある編集室でCDからMPEGレイヤー3のファイルに変換され編集室のハードディスクに一旦蓄えられます。定期的に編集室のハードディスクからサーバーにファイルが移動されます。それを青山にある第一興商の送出用のハードディスクへ定期的に移します。送出システムは送出プログラムにしたがって順次ファイルをデジタル音声データに変換して送信系統へリアルタイムで送ります。リアルタイムで通信する部分はCDを再生してM-PEG圧縮機へ送る部分と最終段で送信系統に送る部分だけです。だから同期も必要ありません。しかもCDプレヤーから編集機、編集機からMPE-G圧縮機まではアナログ配線です。
これは信頼性、音質それにトータルコストを総合的に判断した結果です。一点だけ心配したのは一旦アナログデータにするとデジタルデータの中に含まれている曲名情報やアーティスト情報は欠落してしまうことです。と言うのは100chラジオ放送では受信機に接続されたモニター画面で曲名情報が流される文字放送の予定があったからです。しかしかなりのCDに曲名情報が入ってないのと、放送でながされる文字数に厳しい制限があるためそのままのデータは使えないこと、管理用や著作権料精算のためのデータを打ち込むため常時5名ほどの人員でデータの打ち込み作業を行なうため、CDの曲名情報は使わなくて良いと言うより、使えないと言う事となりました。確かにこの放送局ではテープを持って廊下を歩く人は見かけません。ただし大量のCDを持って編集室に入って行く人をよく見ます。
 

さてさて将来は?

 最終的には音声も映像もコンピューターのファイルとして扱われるようになるでしょう。音声処理も映像処理もパソコンで処理が出来るようになる時代がきっときます。現在オーディオビデオプロダクションでは多人数で分業して作業を行なうため、パーソナルな作業の進め方では出来ません。しかし、仕事の形態が一人に任されるようになると、パーソナルな作業環境でパソコン1台を相手にあらゆる作業が行なえるようになってしまいます。同じクロックで動作しているコンピューター内部ですべての処理がなされるわけですから同期の問題からは解放されます。又ワイヤリングもなくなってスタジオ イクイプメントは倒産してしまいます。多人数で最後の仕上をする部分でのMAスタジオや映像編集スタジオは残りますが、中途半端なMAスタジオや編集スタジオは不要となってしまう可能性があります。機器コストはさらに低価格化してゆき、だれでも手に入れることが出来るようになるでしょう。
 ワープロが高価であったときは、ワープロのオペレーターという専門職があり、原稿を清書してくれるワープロ屋さんが職業的に存在していました。現在では全く見受けられなくなりました。ワープロが行きわたったからです。音響機器や映像機器がパソコンのI/Fカードになってしまい、だれでも表現手段として手軽に利用できるようになった場合、どのような社会やメディア産業の形態が考えられるでしょうか? おそらく作品の品質や芸術性を左右するファクターとして設備の締める割合が低くなり、人材の能力こそが本当に重要になるのではないでしょうか。みんなワープロを持ってはいますが、みんなが小説家や評論家になれるとは限らないように。

戻る

ホームページに戻る