うーん、いろいろソースよんでいじり初めて気がついたこと。。。
この子ってばさ~、MDCT空間に変換してから圧縮処理をするのに、心理音響モデルからどの音をマスキングするかはFFTつかってるのね。。。なんでこんなに二度手間なんだ??MDCTでもFFTパワーに近い物はだせるよねぇ???
なぞなぞぷい。
おとなしく実空間に音声を展開してからそっから周波数空間にもういっかいもっていってフィルタかけてまた音声空間にもどして圧縮かけてってやるかなぁ。。。なんだか処理時間がもったいないなぁ。
ちなみにlogfftパワーをつかってるところをlogmdctパワーに書き換えても。。。ちとシャリシャリ間が増えたかもしれないかなぁ??やっぱわかんないや。って程度の違いしかでないなぁ。。。
音質より速度重視でmdctパワー一本に書き直すかなぁ・・・・
0 件のコメント:
コメントを投稿