2009年10月16日

ResamplerとSTRAIGHT

http://nwp8861.blog92.fc2.com/blog-entry-118.html

耳ロボP様がこちらの記事で触れていらっしゃいますが、
ResamplerやWavToolの処理をSTRAIGHTに投げられないかという話です。
結論としてはwavtoolとresamplerを分離しないなら可能です。つまり可能です。
ただ個人的にはやや実装するのは辛いかなと思っています。
実時間解析APIが使用可能になれば容易に実装できるようになるので、UTAUインターフェースに対応させるのならばそれを待つのが楽です。

STRAIGHTの合成を使用する際にネックになる部分が
・メモリ使用量が膨大
・解析に時間が非常にかかる
・合成に時間がかかる
の三点で、二点目がUTAUの動作を真似る際に厳しい点です。

 UTAUでは音程等を変えたWaveファイルを生成→クロスフェードで合成の順で、一度Waveファイルを生成する形になっています。これがSTRAIGHTを導入する際に非常にネックでして、Waveファイルを生成してしまうと再び解析するのにかなりの時間が必要になります。frqファイルを生成する手間と同じ以上の時間がSTRAIGHTの解析にもかかります。毎回それを行うことになるのでちょっと非現実的です。
 なので、wavtoolとresamplerの動作を肩代わりする場合どちらか片方だけ、ということは不可能に近いです。もちろん時間かけるのなら問題はないのですが、実際問題それでは作業にならないと思います。
 ということでもしSTRAIGHTを使ってUTAUインターフェースから合成可能な形を取るとするなら、あらかじめ音源セットに含まれるWaveファイルをSTRAIGHTで解析済みである、かつ、wavtoolとresamplerの動作を見た目だけ肩代わりして実際はその二つの機能は分割しない、ような形では実装可能かと思います。
 ただbatからの実行なのでオーバーラップにモーフィングを使用したいとなると、その部分のデータをキャッシュする必要があります。STRAIGHT音声データのビットレートは80Mbpsです、うわぁ。

 基本的には生成されたbatファイルが言うとおりにあーだこーだやればいいので出来なくはないと思うのですが、いかんせん僕自身がUTAUに慣れていないのでこればっかりは…やっぱり一時的にキャッシュにするのが一番辛いんじゃないかなぁ。読み込んで一気に合成する形がSTRAIGHTでは自然ですし。
 実のところv.Connectの開発を始めた時にUTAUコアの代わりとして実装するか少し悩みましたが、batファイル読んでもあんまりよく分からなかったのでVOCALOID的な動作になっています。僕自身がVOCALOIDユーザーなのが非常に大きいかも。
posted by HAL at 14:25| Comment(2) | 音声合成 | このブログの読者になる | 更新情報をチェックする

2009年10月11日

Liarレンカバー。



おればななPさんめちゃめちゃ仕事速いです><
というか、レンに似合いすぎてて、吹いたw
レン君はかっこいいんだけど可愛いんだよなぁ…
posted by HAL at 22:03| Comment(0) | 作曲 | このブログの読者になる | 更新情報をチェックする

2009年10月10日

【重音テト】Liar【オリジナル】


新曲アップしました。動画もよろしく〜。
posted by HAL at 03:25| Comment(0) | 作曲 | このブログの読者になる | 更新情報をチェックする

Liar

重音テトVer.

カラオケVer.

mp3はDLボタンかこちらから→■重音テトVer.■カラオケVer.

10月10日はテトの日(゚∀゚)!!
そんなわけで新参のおいらも頑張ったよ!
歌詞とか作った感想とか
posted by HAL at 03:11| Comment(0) | 完成した曲 | このブログの読者になる | 更新情報をチェックする

2009年10月08日

感情合成

STRAIGHTによる感情合成に適した音素片歌唱合成方法を考えてみてる。
最近移動中の時間がこればっかりというダメ具合、楽しいからいいか。

・基本的にSTRAIGHTの感情合成は複数音声のモーフィングであること。
・感情合成に重要なのは主に母音である『ように思える』こと。
・演劇等の滑舌練習に子音を省いた母音のみの練習法が有効であること。

この三点を考えると、

・指定されたNote情報から母音のSTRAIGHTmorphingを行う。
・子音は合成済み母音パラメタの子音位置に合成する。
・子音位置は該当Noteの直前とする。
・子音合成時には子音の前後で子音方向へ向かうモーフィングを行う。

とすれば既存のUTAUフォーマットの拡張で済む。
といかめしく書いたものの音素片合成の考えとしては非常にシンプル。

課題点は子音の切り張りをどう行えばよい結果がでるか。
つまるところ子音とは何かを考えなければいけない。
ただ、v.Connectが子音に特別な処理を行っていないことから、
手作業の切り出し作業を失敗しなければそこここの結果になりそう。

ちなみにこの方法による利点は以下。

・感情モーフィングの手法に適している。
・細かいリズムの際に生じる『綺麗すぎる』フォルマント変化の軽減。
・1セットの容量の削減にも貢献する。

試す価値がありそうなんですが、今一暇が足りないので誰か試しませんか?←


ちなみにv.Connect自体は既存資源の活用をメインに行くつもりです。
こっちの利点はUTAU資源との互換性と、VSQ編集技術との互換性だし。
BRIとCLEの実装もできそう。OPEは『ん』と合成すればいんじゃね?
ただたまにノイズ乗るのが…騒々しい音なら紛れるんだけど…

この手のツールは適度な自動化が必要だけどどこまでやるべきなんでしょうね。
posted by HAL at 12:19| Comment(0) | 音声合成 | このブログの読者になる | 更新情報をチェックする

2009年10月05日

STRAIGHT周りの論文を読んできた。

情報処理学会の音楽と音声の会誌で和歌山大の河原教授が書いた論文と、ここ2〜3年の音楽分野(ぼかりすとかのやつ)をざっくり斜め読みしてきた。既に書いていらっしゃる人もいるし、ぐぐれば出てくるんですが一応個人的なメモとして。
何で今まで読んでなかったのかといわれると、不勉強だから…
じゃなくてよもや自分でやるとは思わなかったからです。
テト声にたぶらかされました。

数時間もかけずに斜め読みしたのでかいつまんで面白そうなところを。
勘違いしてたらごめんなさい。

1.STRAIGHTの根幹について

 これは全く載っていない(あれ〜)。日本音響学会誌にある模様、もしくはIEEE EUROSPEECH'99に載っているみたいです。STRAIGHTについてはこちらでのんびりスペクトルとにらめっこすることになりました、あぅ。とりあえずそれは視覚化するとして、詳細な論文は近場の図書館で置いてあるのが東大だけらしいので、いざとなれば…外部者でも入れたっけ?
 とりあえずSTRAIGHTでもやっぱり低音は苦手みたいです。TANDEM-STRAIGHTと進化したバージョンではさほどでもないと書いてあったので、TANDEMも試してみようかと思います。

2.VOCALOIDの合成手法

 一時期話題になっていましたが、UTAUの先行発音がYAMAHAの特許に触れる?→大丈夫、な話のところで出てきた、母音より前に子音置いてパラメータがどうのこうのの部分の解説がYAMAHAの名義であった。
 どうも母音開始時点をリズムの頭にするだけでなく、子音部分からのピッチ変動等もパラメータで指定しているようです。C→V,V→Cの全ての音節を網羅し、それに対してピッチなどをパラメータで操作しているんだとか。子音等立ち上がりの部分の音程なんかも全てパラメータで保管しているらしい。
 基本的には網羅してしまえば問題無いだろう、的な書き方がされてた。

3.話し声→歌声変換ツール

 なんかそんな研究あったね、と言いつつこれが今一番欲しかった情報かもしれない。

 a.)歌声フォルマント
   4kHz周辺にオペラ歌手から発見された云々かんぬん。
   このあたりにF4があって、そこが話し声と比べて12dbほど強調
  されているのが歌声らしい。ポップスでもそうらしい。
   論文だとこの周辺のスペクトルを増幅して、いい感じの響きを
  得たとかなってた。式は覚えてないけど、複雑なものじゃない。

 b.)F0(音程)の動的変化
  i.)シュート
   アタック部分は目的の音程よりいったんちょっと上に飛び出る。
  ii.)ビブラート
   その後3〜4Hz(?)程度の揺れが乗る。
   ビブラートをする時にはフォルマントがつられて変化する。
   音量が同期して独特な揺れを持つ、が正解みたい。(10/07追記)
  iii.)微細振動
   声の揺れ。
  iv.)プリパレーション
   リリース部分は一度落ち込んでからポルタメントする。

  このあたりは確かに自動で生成した方が楽そうな気がする。
  僕より詳しい解説をvocasimの和泉様が書いていらっしゃるので割愛。
  http://akira-izumi.cocolog-nifty.com/patent/2008/07/vocasim004.html

  ちなみにF0のラインについては画像を用意しました。
  上がリンちゃん、下が友人にみなそこの冒頭を歌ってもらった波形を
  何かのフリーソフトで解析しました。vocasimシミュ挑戦の名残です。
  1239197925.jpg
 c.)母音等による発音の変化

  どのサンプルデータをとっても母音間の変化は100msくらいらしい。
  さらっと流されてたし、この数字をどうみるかだなぁ…

 d.)総括
  シュートは大事。シュートとビブラートを合わせたらいい感じ。
  歌声フォルマントでもっといい感じっていう論文だった。

4.その他雑感

 感情合成については論文があったのですが、結局、喜・怒・哀で歌ってもらったデータをパラメータで合成するらしい。レイヤー増やして合成したのもあるらしいけど、この方向だと辛いよねってことみたい。
 んじゃあ何が感情なんだってところはさぱーり分からないから、みんなでサンプル持ち寄って解析したいね、って論文があった気がします。
 とにもかくにも人がいないんだろうというのが何よりの感想。
 日本音響学会誌を読んでいないのですが、情報処理学会ではVOCALOID熱にあてられた若い研究者達がこぞって実験しているようなイメージ。このあいだMMDであったハープの演奏動画と同じように、ショパンの楽譜から手の動きを再現しようなんていうのもあった。
 正直な話お金にならないってところなのかな。河原教授のスキャットの生成の論文に、21世紀は豊かさを求めて夢のある研究を、的なことが書いてあったんですが、こういう方面は面白いと思うんだけどなぁ。
 とりあえず、やったもん勝ち、的な感じに見えた。みんな楽しそうすぐる。

 あ、後ミックスは残響音と直接音を一定の比率になるようにやっているっぽい、って論文があったのですが読み飛ばしちゃった。興味のある方はぜひ読んでみるといいかも。
 音声合成に限らず、結構面白いものも多いと思います。
posted by HAL at 21:43| Comment(2) | 音声合成 | このブログの読者になる | 更新情報をチェックする

2009年10月03日

STRAIGHT覚書

自分でプログラム組みたい人向け。
サンプルソース読めばモーフィングくらいは誰でも書けるので、
その他大したことの無い発見をつらつら、要するに検証した部分。


1.フォルマント変化

 straightSynthComputeでフォルマント変化率を指定できるが、それだと全体のフォルマントが変わってしまう。フレームごとにフォルマントの変化をさせたい時には、非周期性バッファとスペクトルバッファの長さを伸長させるとよい。


double dChangeRate;
long nSpLength,nApLength; //GetFrequencyLengthで得た値を格納
double *pSpBuffer=new double[nSpLength]; //SpectrumBuffer
double *pApBuffer=new double[nApLength];
.
.
double* pTempApBuffer=new double[nApLength];
double* pTempSpBuffer=new double[nSpLength];
memcpy(pTempApBuffer,pApBuffer,sizeof(double)*nApLength);
memcpy(pTempSpBuffer,pSpBuffer,sizeof(double)*nSpLength);

for(long n=0;n<nApLength;n++){
double dPos=(double)n*dChangeRate;
if(dPos<nApLength-1){
pApBuffer[n]=pTempApBuffer[(long)dPos]*((long)dPos+1.0-dPos)
+ pTempApBuffer[(long)dPos+1]*(dPos-(long)dPos);
}else if(dPos==nApLength-1){
pApBuffer[n]=pTempApBuffer[nApLength-1];
}else{
pApBuffer[n]=0.0;
}
}

for(long n=0;n<nSpLength;n++){
double dPos=(double)n*dChangeRate;
if(dPos<nSpLength-1){
pSpBuffer[n]=pow(pTempSpBuffer[(long)dPos],((long)dPos+1.0-dPos))
* pow(pTempSpBuffer[(long)dPos+1],(dPos-(long)dPos));
}else if(dPos==nSpLength-1){
pSpBuffer[n]=pTempSpBuffer[nSpLength-1];
}else{
pSpBuffer[n]=0.0;
}
}
delete[] pTempApBuffer;
delete[] pTempSpBuffer;


 配列位置の指定にdouble型使うなよ俺、ってちょっと思った。

2.ブレスノイズの増幅

 これは比較的簡単で、増幅したいフレームの非周期性指標をスペクトルに対して大きくしてやればいい。

3.ノーマライズ処理

 straightWriteSynthAudioFileでは単純に内部保持されているdouble型配列を16bit整数型の配列に直してWaveヘッダとかもろもろをつけているだけの模様。振幅の絶対値は1.0未満でなくてはならず、超えるとオーバーフローして負の最大値とかその近辺に行ってしまうため、激しいノイズが発生する。
 straightSynthGetOutputWave関数を使用して得られる配列を、配列の最大値で除算してしまってもちゃんとノーマライズされる。Waveヘッダとか書くの面倒ならこれでもいいみたい。

4.音定差による音量の変化

 STRAIGHT技術では、空気の運動エネルギーっぽい何かを使っている節がある。高い音はエネルギーが高く、低い音は低く、また大きな音は高く小さな音は低い。エネルギーを考えると、音程を低くすれば音量が大きくなり、逆もまたしかり。高音部で音の芯が抜けてしまうのは、元々のデータと同じエネルギーで高音域を出そうとしても、低い音程の低いエネルギーではしっかり響かない、なんてことがありそう。
 というわけでちょりっと調べたところ、周波数が4倍になると音量が約半分、周波数が1/4倍になると音量が約2倍になる。
 多分、上の仮説であってると思う。のでより低い音程を扱う時はクリップしないようにノーマライズするなり何らかの処理が必要です。
posted by HAL at 19:59| Comment(0) | 音声合成 | このブログの読者になる | 更新情報をチェックする
×

この広告は1年以上新しい記事の投稿がないブログに表示されております。