ホームに戻る
 音プログラミングメモ

0、はじめに

音に関する基本的な概念についての覚え書き。
個人的な知識の書き込みなので、
思い込みによる間違いにはご注意ください。

1、音の概念

音は空気の振動です。
例えば金属の棒を叩くと「キーン」と高い音がでますが、
この音は空気を伝わり、空気の振動として人の耳に入り、耳の鼓膜を振動させます。
音が違うということは、空気の振動のしかたが違うということです。
この空気の振動を横を時間、縦を振れ幅としてグラフを描くと、
音のグラフを波形として目で見ることができます。

2、周波数とは

音の周波数は1秒間あたりの空気の振動回数をさします。
例えば何かを叩いてそれが空気を1000回振動させたとすると、
周波数が1000Hz(ヘルツ)の音を出したといえます。
周波数は小さいほど音が低く、大きいほど音が高いと人に認識されます。
人が聴くことが可能な周波数はだいたい20〜20000Hzとされています。
このとき、人は1000Hzなどの音は通常の音量で容易に聞き取ることができますが、
たとえば、20000Hzまで周波数を上げていくと、音量を上げないと聞き取れなくなってきます。
20000Hzを超えると、人の耳では聞き取れなくなってきます。
この現象は低すぎる周波数についても同じことが言えます。

3、電磁誘導とは

次の話をする前に電磁誘導の話をしておきます。
下図は鉄芯にコイルを巻き磁石をくっつけたもので、上部に鉄線が張ってあります。
(断面図なので手前から奥にのびる線が点に見えると思ってください。)
ここで鉄線を左右に振動させるとコイルを電流が正の方向と負の方向に交互に振動して流れます。
中学理科の内容なのでどこかで聞いた覚えがあるはずです。
フレミングの右手の法則といえば、どこかで聞いたことがあるのではないでしょうか。
ちなみに、図はエレキギターのピックアップ部そのものです。
弦を揺らすと電気が流れて音の信号を伝えることができるのです。

【図】

            ・ ←鉄線

          ・I・
          ・I・ ←コイルを巻いた鉄芯
          ・I・
          [磁石]

4、音を電気信号に置き換える仕組み

音を電気信号に変える装置の代表的なものにマイクがあります。
マイクに音を当てると内部の振動板が振動して電磁誘導で電流が発生します。
逆に、スピーカーは電気信号を音に変換する装置です。
マイクで発生させた電流の流れの振動をスピーカーに送ると、
電磁誘導でスピーカーのコーンが振動して音として表現されます。
これがマイクから音を入力して、電気ケーブルを通して、スピーカーから音を出力する原理です。
逆に、スピーカーに話しかけてみるとマイクから音が出ます。
不思議なことですが、原理から考えれば当然のことです。
スピーカーやマイクは分解するとコイルや磁石がでてきます、
捨てるものがあったらいちど分解してみると良いでしょう。

5、音を記録する仕組み(レコード編)

音の振動を電気信号に変え、その電気信号を読み取って振動するレバーを作ります。
レバーの先に刃をつけて振動させながら回転するレコード盤に傷をつけます。
再生はこの逆で、レコード盤の傷を針でなぞり振動を読みます。
読んだ振動を電流に変えてスピーカーに送ると音がでます。
レコードが主流の時代は演奏はカセットテープに録音されました。
カセットテープから上の方法で、マスターのレコードを作製しました。
大量生産するために製品のレコードは原盤の型を使ってプレスで複製されていました。

6、音を記録する仕組み(カセットテープ編)

酸化鉄は熱を加えて磁石を近づけると磁石になるという性質を持っています。
また、その状態で冷ますとその磁石の状態を維持することができます。
カセットテープは磁気のNとSの強弱を保持することで記録を行っています。
録音時には、電磁誘導で磁場を変化させながら、熱したテープを近づけて記録します。
再生時には磁気を読んで電流に変換して再生しています。
カセットテープが録音時に熱くなっていたという記憶はないでしょうか。
また、カセットテープに磁石を近づけて音が変になったことはないでしょうか?

7、総括:アナログ時代の音楽環境

バンドの演奏の録音はカセットテープで行われていました。
演奏の音を使って直接にレコードをカットするのは現実的ではありませんでした。
カセットテープには、同時に4本のテープを走らせて、
ギターやベース、ドラムの音を別々に録音するというような方法がありました。
まずは、カセットテープで録音してからレコードを作製します。
製品はカセットテープやレコードの状態で販売されました。
アナログ製品の問題点は情報の劣化がある点です。
カセットテープでいえば、磁気の減弱、テープ自体の劣化があります。
レコードでいえば変形しますし、埃や傷でノイズがのったりすることがあります。

8、アナログとデジタルの違い

デジタルなものとしてまずCDの説明をします。
CDは規格として16ビット、44100Hz、ステレオが定められています。
16ビットはひとつのデータが−32768から32767の数字を扱えることを意味し、
44100Hzは1秒間に44100個のデータを保持できることを意味します。
ひとつひとつのデータは率直に音の縦波の位置を表します。
実際にはこのデータを読み取って電圧を変化させ電流の信号に変えるわけです。
この方法のことを、デジタル−アナログ変換といいます。
例えばCDプレイヤーにはデジタル−アナログ変換する集積回路がのっています。
アナログな電気信号になるので最終的にはスピーカーで再生できます。

では、アナログとデジタルの違いは何でしょう。
たとえば、アナログは引き伸ばしても情報に隙間を作らないという特徴があります。
アナログなレコードとデジタルなCDで説明することにします。
例えばレコードの再生位置 0.00 秒から 0.01 秒までのデータを
再生位置 0.00 秒から 1.00 秒のデータに横に引きのばしたとします。
この場合にレコードならデータの傾斜はきれいな傾斜として保持されます。
ただし、CDの場合は 0.00 秒から 0.01 秒 までのデータ数は決まっています。
遠くからみると滑らかかもしれませんが、近づいて見ると階段状になっています。
この場合に再生位置 0.00 秒から 1.00 秒 に引き伸ばしてもデータ数は同じです。
よって、デジタルデータはさらに荒い階段状に劣化してしまいます。
これは縦の情報においても全く同じことが言えます。
アナログな情報は理想的には無限に引き伸ばしてもまったく階段状にはならないので、
音の記録方法としてはデジタルより優秀といえます。

では、デジタルの利点は何かというと、情報の狂いが生じにくいことです。
例えばアナログは 10027 というデータを 10027.3 と読み違う危険性があります。
デジタルでは 10027 と 10028 の間の数値は存在しないので読み違えはありません。
デジタルの場合はこういった読み違いが無いし、
もし読み違えても補正をかけるなどのデジタル処理を入れることもできます。
過去にレコードファンがレコードを入念に手入れして管理しており、
レコードの傷や汚れや熱によって変形することで劣化していたものが、
CDでは多少はぞんざいに扱っても正確な音で再生してくれるようになったのです。

CDプレイヤーのデータは階段状であるのですが、滑らかにする工夫があります。
アナログ回路で滑らかにしたり、デジタル処理で階段の間を予測して埋めたり、
デジタルなデータをよりきれいに再現する仕組みがあります。

9、音を記録する仕組み(CD編)

CDは渦巻き上にデータを保存しており、
ピットと呼ばれる穴があるか無いかでデータを区別しています。
CDは16ビットでデータを保存しており、
16ビットというのは1つのデータを記録する穴の数です。
例えば、ピットがあれば 1 無ければ 0 と表現するなら、
0 というデータは 0000000000000000 と表現されます。
これは全く穴が空いていない状態です。
1 というデータは 0000000000000001 であり、
2 というデータは 0000000000000010 となります。
このように穴が空いているか空いていないかを読み取ります。
-1 というデータがちょうど 111111111111111 であり、
これはすべてのピットが空いている状態となります。
CDはこのデータを1秒間に44100個持っており、
ステレオ再生であると情報は左右あるのでこの2倍です。
このデータをレーザーで読み取り電流の流れの振動に置き換えています。

10、データ形式としてのWAVE

WAVEデータはパソコンで扱う音データでもっとも直感的なものです。
パソコン上のファイルとしての音データは、
デジタルデータが並んでいるだけでは情報が足りないので、
ヘッダと呼ばれる、頭についた余分があります。
下はその1例で波形データ部分にデジタルデータがあることがわかればOKです。

4 byte "RIFF" の4文字   
4 byte これ以降のファイルサイズ (ファイルサイズ - 8)     
4 byte "WAVE" の4文字
4 byte "fmt " の4文字(スペース含む)
4 byte fmtのサイズ リニアPCM ならば 16(10 00 00 00) 
2 byte フォーマットの種類 リニアPCM ならば 1(01 00) 
2 byte ステレオ ならば 2(02 00) 
4 byte サンプリングレート 44.1kHz ならば 44100(44 AC 00 00) 
4 byte データ速度 44.1kHz 16bit ステレオ ならば 44100×2×2 = 176400(10 B1 02 00) 
2 byte ブロックサイズ 16bit ステレオ ならば 2×2 = 4(04 00) 
2 byte サンプルあたりのビット数 16bit ならば 16(10 00) 
4 byte "data" の4文字
4 byte データサイズ(n)
n byte 波形データ本体(ステレオの場合 LRLR・・・ で続く)

本当はもっと複雑なのですが、これだけでも再生可能です。
ちなみに、ヘッダ部はリトルエンディアンなのにデータはビッグエンディアンです。

11、総括:デジタル時代の音楽環境

デジタル時代では録音をパソコンなどで行うことが多くなりました。
WAVE形式で作成しCDで聴ける形式で保存します。
デジタルデータを扱うということは読み込んだ数字を見ながら波形を描き、
それを見ながら音を切ったり縮めたり伸ばしたりできるようになったわけです。
デジタル時代に突入しできることも大幅に増えたのです。
ただし、デジタルな情報は前述の通りアナログな情報量に負けます。
現在でもDATといったテープで録音されることもありますし、
デジタル録音もCDより高いビットやサンプルレートで作成されたりしています。
CD以降を考えるとこういった対策も必要かと思われます。

12、音色の概念

音色とは各楽器などで出る音の特徴のことです。
例えばピアノとギターは同じドの音を出しても違う音がします。
これはピアノとギターの音色が違うからです。
単純に楽器の形状や素材の違いよって生じます。
この違いを確かめるためにパソコンで音を録音して波形を見ます。
するとたいていは音を出してすぐは波形が乱れますが、
しばらくすると一定の波形が繰り返されます。
このときの波形はピアノとギターでは異なるはずです。
すなわちこれが音色の違いとなっています。
一般に尖った波形ほど鋭い音で、滑らかな波形ほど音が柔らかい。
最初に乱れる音はアタック音と言われ、
楽器の弦に指が当たったり、口で吹く場合では最初の息にあたり、
人の力が加わっている部分です。
アタック音を過ぎそれ以降に人が手を加えなければ、
その楽器にまかされた一定の音色が持続し、減衰します。

13、音階の概念

音階とはいわゆるド・レ・ミ・ファ・ソ・ラ・シのことです。
C・D・E・F・G・A・Bと表記することもあります。
一般的に音階は12段階に分かれます。
ピアノでいうとドからドまでの白盤と黒盤の数が12です。
まず定義として周波数 440Hz の音が「ラ」の音です。
これが倍になって 880Hz であると1オクターブ上の「ラ」となり、
さらに倍になって 1760Hz であるとさらに1オクターブ上の「ラ」となります。
では「ラ#」の周波数はというと「ラ」の周波数に2の12乗根をかけたものです。
「シ」の周波数は「ラ#」の周波数に2の12乗根をかけたものですね。
もちろん「ラ#」と「シ」の間という中間の概念もあります、
ギターのチョーキングなどで中間音は再現できます。
用語ではピッチベンドとか言われるものです。

14、倍音とは

楽器は演奏によって音階の周波数の音を発生させますが、
音階の周波数以外の周波数の音も同時に発生させています。
倍音とはその中の音階の周波数に対してその何倍かの周波数の音のことです。
たとえばラの周波数 440Hz に対して2倍音は 880Hz 3倍音は 1320 Hz です。
元の音に比べて倍音はしっかりと聞き取ることができませんが、
倍音や倍音以外の周波数の音が音階の周波数に混じりあうことで、
より自然な音に聞こえるようになります。
こういった音は量や時間に対する変化の仕方が楽器の音の特徴になります。
ちなみにデジタル生成した矩形波やノコギリ波は倍音を持ちますが、
デジタル生成した正弦波は倍音を持ちません。

15、音量

音量はアタック、ディケイ、サステイン、リリースという過程を経ます。
アタックは音が出てから最高の音量に達するまでの時間、
ディケイは最高に達した音が通常に戻るまでの時間、
サステインは最高の音量からみた音量が持続する音量、
リリースは音が終了し音が減衰し始めて消えるまでの時間。
表現を変えると、
音が鳴り始めてから最高音量に達するまでの時間をアタック、
最高音量からサステインの音量に達する時間をディケイ、
音が鳴り終わる予定の位置までサステインの音量は維持され、
音が鳴り終わる予定の位置から音が鳴り終わるまでをリリースと呼びます。

16、シンセサイザーについて

シンセサイザーとは、電子回路を使って電流の流れを制御します。
波形を作り出し、音階を制御し、音を加工して特長のある音を作り出します。
シンセサイザーには加算方式、減算方式、FM方式、サンプル方式などがあります。
加算方式は音階の音に倍音を足す方式です。
加算方式の楽器にオルガンがあります。
減算方式は倍音をたくさん含む音から倍音をカットします。
伝統的なシンセサイザーはだいたい減算方式です。
FM方式は正弦波に正弦波をかけ算する方式です。
掛け算でより複雑な波形を作ることができます。
サンプル方式は波形を録音して音階配分するやり方です。
サンプル音により音はリアルになりますが、自由度は減ります。

シンセサイザーはだいたいオシレーター、フィルター、エンベロープ、LFOで構成される。
オシレーターは波形発生機でありノコギリ波や矩形波を発生させる。
フィルターは倍音をローパスフィルターなどで倍音をカットする。
レゾナンスはフィルター部分でカット周波数の音を持ち上げる。
エンベロープはアタック、ディケイ、サステイン、リリースのこと。
LFOはローフリケンシーオシレーターと読み、低い周波数の発信機である。
LFOはオシレータよりも周波数の低い波形を利用する。
LFOの波形を利用して元波形に効果を与えるものである。
LFOの波形によって波形を縦に揺らすとトレモロ、横に揺らすとビブラートになる。
LFOを使ってフィルターのカット周波数を動かしたりなど、
LFOはシンセサイザーによって様々な用途に使われています。

その他に、ピッチ、PWM(デューティー比の変化)、リングモジュレーター、ユニゾン、
ポルタメント、アルペジオ、ミキサー、エフェクトなどを搭載したものがあります。
いろいろできればできるほどシンセサイザーとして優秀かもしれませんが、
機能を詰め込み過ぎるとダイヤルが多すぎて思ったことがすぐにできないことがあります。

17、エフェクトについて

エフェクトとは波形に効果的な変化を与えるものです。
必須なものは個人的にはイコライザ、コンプレッサー、リバーブくらいです。
アナログでは、すなわち電流の流れを扱う場合には、
エフェクトを電子回路によって表現することが可能です。
デジタルでは、いわゆる数字のデータを取り扱う場合には、
エフェクトを数式などにかけることで実現しています。

18、イコライザとは

自然の音は複数の周波数が混じっている場合がほとんどです。
例えば声においては、高音から低音までの複数の音が混じっており、
女性であれば高音に特徴があり、
男性であれば低音に特徴があるのが普通です。
イコライザは低音や高音を持ち上げたり引き下げます。
女性の高音を生かしたい時は高音を上げ、
男性の低音を殺したい時には低音を引き下げます。
その真ん中の中音を強調したり目立たなくしたりします。
何箇所かで周波数が固定のパラメトリックタイプや、
グラフのような見た目で操作できるグラフィックタイプがあります。

19、コンプレッサーとは

コンプレッサーは大きすぎる音量の場合のみ音量を抑えます。
言いかたを変えると、大きな音と小さな音の差が少なくなり、
ほぼ一定の音量をキープできる機能であるといえます。
ある一定の音量を超えないような設定のものをリミッターと呼びます。

20、リバーブとは

いちど出た音は壁などに当たって跳ね返ってきますが、
その残響をシュミレートをするのがリバーブです。
小さな部屋ではすぐに音が跳ね返るので残響は少ないですが、
コンサート会場など広くて音が跳ね返りやすい構造の場所では、
音がバランスよく跳ね返り空間を感じる音が聴こえます。
無数の跳ね返り音を混じり合わせて空間を表現します。
一定の間隔で繰り返し跳ね返るものをディレイと呼びます。
ディレイ時間を短めにしディレイ時間に変化を与えたものをコーラス。
ディレイ時間を短めにし音をフィードバックさせるものをフランジャーと呼びます。

21、ノイズについて

ノイズは異常な尖ったピークの波形であったり、
一定の周波数を持っていたりします。
この場合尖ったピークを検出し削除したり、
周波数を解析し消し去る処理をかけることが可能です。

21、録音

まず、入念な録音に必要な環境は、
密閉され外部からの音が進入しないこと、
機材が電波など外部からの妨害をうけないこと、
適度な広さで、適度に音が散らばること。
マイクはダイナミックマイクよりはコンデンサマイクを使うほうが良いでしょう。
ダイナミックマイクは電磁誘導を利用していますが、
コンデンサマイクは震動によりコンデンサの幅を動かして、
コンデンサの電気容量を変化させて電流を流します。
コンデンサマイクほどより小さな音を拾うので、
外部からの音に対する対策が必要になってきます。
エフェクトに関しては、
イコライザはできるだけ足りないところを上げておき、
十分なところは特に強調しないのがポイント。
各周波数でバランスよく整っているのが良い。
コンプレッサーは必ずかけること。
リバーブはかけないか、かけてもかけすぎないこと。
リバーブはあとから加えてかけることはできても、かけた後に元に戻すことはできません。

22、編集

編集は波形の切り貼りによるものが主流です。
ここではよくある編集方法の一例を示します。、
時間軸と横に流れる複数のラインがあり、ここに波形を貼り付けていく。
いくつかあるラインに波形を貼り付け、同時に再生することで音を混ぜて再生できる。
波形を左右にずらしたりコピーしたりして繰り返し同じ部分を再生できる。
音量やパンの経時的な変化を入れたり、エフェクトをかけることも可能です。
こういった一連の編集をミキシングと呼びます。
ミキシングに重要なのは音をモニターするスピーカー。
率直な音を各周波数でバランスよく聴き取れることが重要です。
通常のスピーカーおよびヘッドホンは最初から低音を持ち上げたり、
空間を広く感じさせるような設計が施されているものもあり、
モニターに使うのであればモニター用のものを購入するのが良い。

23、再生

曲単体であればミキシングを終了した時点で終了ですが、
CDにする時点で各曲の音量や空間などを整える必要があります。
こうしてCD1枚を作品とするための操作をマスタリングといいます。

24、MIDIについて

MIDIとはいわゆる波形としての音と全く異なります。
デジタル録音は音そのものをアナログで取り込みデジタルに変えていましたが、
MIDIでの録音は音そのものを取り込むということはしません。
ピアノならピアノの鍵盤を押したという行為そのものをデジタル情報で保存します。
例えば楽器が「ド」の音を3秒鳴らしたのであれば、この行為自体を記録できます。
パソコンに「ド」を3秒鳴らしたと記録します。
逆に、楽器にむけて記録したデータを転送して「ド」を3秒鳴らすこともできます。
パソコンから楽器に「ド」を3秒鳴らすデータを送るわけです。

すなわち、ピアノの名手がピアノを演奏しMIDIでデータを取れば、
どの瞬間にどの鍵盤を叩いたかが記録されるので、
ピアノの名手の死後も同じように、まさにそのピアノから同じ演奏が聴けるのです。
MIDIはピアノ以外の楽器でも対応していれば利用できます。
実際にMIDIギターやMIDIドラムなどが発売されています。

MIDIでは、MIDIデータを使って楽器の設定を変更したりすることもできます。
パソコン上でMIDIデータを編集することもできます。。
MIDIを取り扱う場合にはMIDI対応の楽器と、
MIDI楽器とパソコンを繋ぐインターフェイスが必要です。
各楽器でMIDIをどのように使うかは楽器によって異なるので、
各楽器のマニュアルを読む必要があると思われます。

25、シーケンサーについて

シーケンサーとはWAVEやMIDIの編集をするためのものであり、
時間軸に対して録音や再生を調整することができる。
内部でミキサーやエフェクト機能を備えているのが普通で、
前述のミキシングはシーケンサー内で行うことができる。

シーケンサーにとって一番の問題は録音、再生タイミングの調整である。
再生を意図する位置を指定してがそこから遅れて再生される、
再生に合わせて録音したが、録音が再生位置と一致しない、
MIDIとWAVEの再生がズレる、
などいろいろな遅れに関する対応がシーケンサー内で必要である。

タイミングの問題が解決できたのであれば、
あとはいかに編集をやりやすくできるかという方法が問われる。
仕様やインターフェイス面での性能が求められてくる。

26、サウンドカードについて

サウンドカードはPCに取り付ける部品であり、主な用途はアナログデジタル変換である。
性能はいかにノイズをのせずに、遅延せずに、きれいな音を出せるかがポイントとなる。
サウンドカードの制御は基本的にはOSがドライバを介して行う。
より高度なドライバインターフェイスとして、ASIOが開発されている。
特徴として多チャンネルの取り扱いや低遅延時間があげられる。
シーケンサーを使う場合はASIO対応のサウンドカードが良いと言われる。

27、プログラミングについて

プログラミングでWAVEやMIDIを取り扱う場合には、
OSが用意したAPIを使用することとなる。
APIを使用してプログラムを書くことでPCでの音の入出力が可能となる。
詳細はOSの提示する解説を参照することとなる。
再生録音の仕組みとして多いのはバッファにデータを書き込み再生し、
そのうちに別のバッファに書き込んで次の再生を待つ、ダブルバッファ方式である。
他に、WindowsではDirectSoundと呼ばれるゲーム用のライブラリがあり、
サウンドカード上での音のミックスなど高速な処理が可能である。
ASIOに関してもAPIは公開されており、
ASIO対応のサンドカードでのプログラミングも可能である。

28、ソフトウェアエフェクターの作り方

音を取り込んで出力する間で波形を変化させればエフェクターとして動作する。
WAVEとして取り込めば音が目で見てわかるので、
例えば0秒時点の音を1秒後に音量を小さくして加算すれば、
ディレイができるというのはなんとなくわかる。
ディレイやコーラス、リバーブ、ディストーション、リミッター、コンプレッサー、
トレモロ、ビブラート、オートパン、フェイザーなど、
データを移動させたり簡単な四則演算で実現可能なものは多い。
ただ周波数解析をするものに関しては複雑な数式を用いざるを得ない。
ソフトウェアエフェクターとして統一された規格として、
VSTプラグインというのがある。
VSTプラグインの仕組みに基づいてソフトウェアを作ると、
VSTに対応したソフトウェアでそのエフェクターが使用可能になる。

29、FIR、IIRについて

FIR、IIRはデジタルフィルタ用の数式です。
数式に当てはめることでローパスフィルタやハイパスフィルタが実現できます。
ソフトウェアのイコライザはこういった数式で作れるのではないでしょうか?
「FIR」、「IIR」で検索すると数式は出てくると思います。

30、FFTについて

日本語でFFTは高速フーリエ変換といいます。
音はその瞬間ではいくつかの周波数の正弦波が混ざりあったものであり、
FFTを用いることで音を各周波数の正弦波に分解することができます。
また、逆に分解したデータから逆に波形に戻すことも可能です。
窓関数やFFTの数式については長くなるのでここでは書きませんが、
波形解析においてFFTは欠かせない技術となっています。

31、ソフトウェアシンセサイザーの作り方

ソフトウェア内で波形を作成し、フィルター、エンベロープなどを
搭載し音を出力すればソフトウェアシンセサイザーが出来上がる。
VSTプラグインではVSTインストゥルメントとして、
VST対応のソフトウェアシンセサイザーを作ることも可能になっている。

32、圧縮形式について(MP3など)

圧縮とはデータのサイズの縮小を目的にした技術のことです。
圧縮には可逆圧縮と非可逆圧縮があります。
可逆圧縮は全く元の状態に戻すことができる圧縮方法。
利点は音質に全く欠損が無いこと。
欠点は圧縮率が低いこと、展開に時間がかかること。
非可逆圧縮は一部データをカットするので元に戻せない圧縮方法。
利点は圧縮率が高いこと。
欠点は音質が下がること、展開に時間がかかること。
可逆圧縮にはZIPやLZHなどがあるので、
ランレングスとか辞書法のアルゴリズムを参照いただきたい。

非可逆圧縮はたとえばMP3なら、
ある周波数の音量が非可聴ならカットする、
大きな音の後はしばらくは小さな音は聴こえないのでカットする、
などの原理を用いてデータを削減している。
スペクトル解析など用いるのでフーリエ変換など参照いただきたい。

データ形式には mp3、wma、aac などいろいろあると思いますが、
それぞれアルゴリズムが違うので圧縮率や音質が異なるというだけです。

ともあれデータサイズに余裕があれば圧縮する理由は皆無なので、
携帯端末などの仕方が無い状況以外には用いないで欲しい。

inserted by FC2 system