Googleは米国時間3月27日、「Google Cloud Platform」(GCP)上で動作する、テキストの音声合成サービス「Cloud Text-to-Speech」について発表した。このサービスは、傘下のDeepMindが生の音声を分析するために開発したモデルを利用している。
これにより開発者らは、「Googleアシスタント」や「Google検索」「Googleマップ」といったサービスで使用されている、テキストを自然な発声で読み上げる技術にアクセスできるようになる。
GoogleによるとCloud Text-to-Speechは、コールセンターの音声応答システムで活用したり、IoT機器に話をさせたり、テキストベースのメディアを音声形式に変換するといった目的で利用できるという。
Cloud Text-to-Speechでは、12の言語にわたる32種類の音声が選択肢として用意されている。また、音声のピッチや発話速度、音量、オーディオフォーマットをカスタマイズすることもできる。
Cloud Text-to-Speechの主な競合は、47種類の音声が用意されている、Amazon Web Services(AWS)の「Amazon Polly」だろう。Pollyもコールセンターやアプリケーションといったユースケースで用いられている。
Cloud Text-to-Speechの提供により、GoogleがDeepMindのテクノロジをGCP上でどのように活用しようとしているのかも浮き彫りになっている。このサービスでは、DeepMindの「WaveNet」というテクノロジが使用されている。WaveNetは約1年前に、スピーチサンプルによって訓練したニューラルネットワークを用いることで、何もない状態から生の音声波形を作り上げた。
当時のWaveNetは正確性を追求するために、テキストが入力された際に、サンプルを1つずつ取り込み、何もない状態から音声波形を作り上げていた。
アップデートされたWaveNetでは、GoogleのCloud TPUインフラで稼働し、以前のモデルより1000倍高速に生の音声波形を生成できるようになった。
この記事は海外CBS Interactive発の記事を朝日インタラクティブが日本向けに編集したものです。