Pocket

もくじ

耳が肥えているからこそ、一周回って「人の声が良い」という感性が生まれやすい。

私は現在44歳です。立派なおばさんです。我々のような、生まれた時はまだ「レコード」や「CD」しかなかった世代の人が、20歳くらいになった時に「MP3」という物が出てきました。

それまでは、44KHZ 16BitというCDの音源規格に耳が馴染んでいました。今だと、もうMP3というのでもなく、AACやAIFFなるものもあり(私はあまりそのあたりが詳しく認識できていません・・・)

また、ハイレゾのような原音をかなり細かくデジタル化して、原音に近いものなど。。。。色々あります。

ナレーションの時には、基本的にWAVかMP3ですが、WAVの方が無難な場合が多いです。再生環境を選ばない16bitで44.1khz、さらにモノラルなどで、様子を見ることもあります。

話がそれてしまいましたが、最近声の事をよくわかっていない人が、イメージだけで「ナレーションはAIに全て変わる」と言い切っている人がいますが、そこに一喜一憂しないようにしましょう。

以前も書きましたが、「初音ミク」が何故流行ったかを考えれば、まず入口の理由は理解できるはずです。

初音ミクの最大の魅力は、「人間が肉声で持っていけない音域を歌えたから」に他なりません。

ナレーションを代わりに読むAIの役割は主に「コストカット」です。あとは、マーケティングとしての手法で、見た目の良い声優やナレーターをAIで作り、マーケティングとして2次元マーケティングを成功させる、だったり、人間じゃないので「スキャンダルが無くて安心だ」という理由もありますよね。では、AIが人と全く同じところに行きつけるか。考察してみます。

「初音ミク」さんは調教師という人たちが、「使いづらい不具合を人っぽく扱う事で成り立っていた」

勿論同じことがAIナレーションでも出来るかもしれませんが、ナレーション読み上げをAIで行う場合には2つの事を行わなければなりません。ただ、初音ミクさんとの違いは、「歌だったらこの位でもOK」という範囲が当然、喋りになれば厳しくなりますし、完璧でなくてはなりません。でも、既にそれらに対応できるレベルになって来てるとは思います。

1 調教と同じ理論ではありますが、発音、アクセント、日本語に難しい促音、撥音などの特徴をしっかり日本人らしく抑える事

2 1の事が出来たうえで、AI版ナレーションにも「個性を出していかなければならない」

この2つです。1はそう難しくないと思いますが、2は、「初音ミク」さんの様にキャラクターが確立して、さらに「この声が良い」というインパクトで人が聴いても「初音ミク」と一発でわかるような個性が打ち出せないと、差別化が出来ない。という事になります。

若い人だからこそ、色々な音を聴いている。

実は、今エンドクライエントさんのご担当の方や音声さんなど、ご担当の方がどんどん若い方になっています。常識的に考えると、「若い方の方が人工的なものに違和感がない」と思いがちですが、我々は逆だと思っています。若い方で、小さいころから色々なものを聞いているからこそ、「やっぱり肉声にかなうものはない」と思う事が増えてくる。という事です。

逆に我々ぐらいの人間の方が、「AIと人間の区別」がつかない、と言う人が多いように思います。

少なくとも、我々がボイトレを行う上で、「AIのナレーションに合わせられるように、AI向けの声に仕上げましょう」とはいきません。肉声でどんどん勝負できるようにしていこうと思っています。

 

 

応援お願いします

にほんブログ村 音楽ブログ 音楽教室・音楽学習へ
にほんブログ村
Pocket