グーグルは4月18日、パブリッククラウド「Google Cloud Platform」(GCP)の東京リージョン(東京GCPリージョン)でデータウェアハウス(DWH)サービス「Google BigQuery」の提供を始めたと発表した。顧客情報や機密データが海外へ移動することを望まない企業でも、日本国内に閉じた形でサービスを利用可能となる。
BigQueryは、大規模なデータ分析に対応したクラウド型のDWH。ペタバイト級のデータを低コストで格納して処理できる点を特徴とする。また、データベース管理者などが必要ないフルマネージドサービスとなっているため、システムの構築や運用に掛かる作業を省くことができる。使った分だけ課金される従量制となっている。
Google Cloud カスタマーエンジニアの寳野雄太氏は記者会見で、「BigQueryは分析処理に特化したデータベースであり、構造化されたデータを格納するための“箱”である。インフラの設計や運用が不要なため、人的資源を分析作業に集中させることができる」と説明する。10億行のアクセスログを2~3秒で解析可能としている。
グーグルでは、多種多様な非構造化データを保管するオブジェクトストレージ「Google Cloud Storage(GCS)」、分析用に構造化/非構造化データをGUIで加工・準備するETLツール「Google Cloud Dataprep」、ビジネスインテリジェンス(BI)ツール「Google Data Studio」もクラウドサービスで提供する。GoogleスプレッドシートからBigQueryに対してSQL文を実行することもできる。
今回、BigQueryが東京GCPリージョンで利用可能になった。これによりユーザーは、GCPの国内拠点を指定して大規模データを処理できるようになる。同社が提供する専用線接続サービスと組み合わせることで、パブリックネットワークを介さずに、オンプレミス環境からクラウドとの連携や移行が可能となる。
「データを海外に持っていくことに抵抗があるという顧客の声や要望に応え、日本国内にしかデータを置けない企業にも活用してもらえるように、東京GCPリージョンでのBigQueryの提供を決断した」(寳野氏)

Google Cloud カスタマーエンジニア 寳野雄太氏