膨大な計算処理を可能にするGPU(Graphics Processing Unit)。これを使うことで実現するのが「ディープラーニング」だ。深層学習とも呼ばれ、コンピューターが「入力されたデータを自力で分析、処理」するというもの。今回は、「Google翻訳」などを例に、ディープラーニングについて解説する。このところ飛躍的に翻訳精度が向上しているこのサービス。しかも、スマートフォンなど手軽なデジタルデバイスでもサクサク動作する。この精度向上、満足度の高い使用感の裏側には、「GPUを搭載したサーバー」によるディープラーニングがあった。

 AI(人工知能)のリーディング企業の1つであるGoogleはさまざまなサービスを公開している。例えば「Google Photos」「Gmail」など、みなさんのスマートフォンの中にもGoogleのアプリケーションが1つはインストールされているのではないだろうか。今回はGoogleのサービスの中でも利用機会の多い「Google翻訳」を糸口として、ディープラーニングについて説明する。

 2016年11月、Google翻訳の翻訳精度が飛躍的に向上し、話題になった。以前は、例えば英日翻訳すると日本語として不自然な文章が出てきてしまうということがあったが、11月以降は、より自然で滑らかな日本語の翻訳結果を得られるようになった。翻訳アプリを頻繁に使う人にとって、インパクトのあるアップデートだ。

Google翻訳のエンジンは、2016年のアップデートにより、飛躍的に精度が向上した
[画像のクリックで拡大表示]

 実はGoogle翻訳では2016年11月以降「Neural Machine Translation(ニューラル機械翻訳)」という名前の新システムが導入されている。システム名に「ニューラル」とついている通り、この新システムではディープラーニングが使用されており、その翻訳精度は飛躍的に向上している。このシステムについてGoogleのAI研究の中心チームである「Google Brain」が発表した論文には、以下のような記述がある。

「英→仏」の翻訳モデルのトレーニングには画像処理に使うボード「NVIDIA Tesla K80」を96枚も用いて、6日間かかった。
(ソース:Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation

 Tesla K80は、ハイエンドモデルに位置するNVIDIA製GPUで、強力な計算性能を持っており、計算の高速化に使われている製品だ。新システムの「英→仏」翻訳モデルを作り上げるためには、そのようなパワフルな製品を96枚、6日間フル稼働させる必要があり、その計算量は膨大である事が分かる。現在、Google翻訳は100言語以上に対応しているため、それらすべての言語向けにモデルを作り上げるにはさらに数百倍の時間が必要になる。

 このようにGoogleが作成した高性能な翻訳システムをわれわれは、サーバーからスマートフォンにダウンロードして使っている。手のひらサイズのスマートフォンの中で一瞬のうちに翻訳する、軽快で高性能なシステムは、実は膨大な時間をかけた研究開発の成果であり、われわれはその恩恵でスマートな生活を送る事ができるのだ。

Google翻訳の新システムがスマートフォンで利用できる仕組み
[画像のクリックで拡大表示]

 Googleは、Google翻訳以外のサービスも、ディープラーニングを使ったものに置き換えている。GoogleのSenior FellowであるJeff Dean氏は、2017年1月にシリコンバレーで開催された AI Frontiers Conference で、Googleが2012年頃にはディープラーニング関連のプロジェクト数は100もなかったが、2015年には1200以上のプロジェクトで使っていたことを公開している。3年間で10倍以上のプロジェクトに導入したことになる。(AI Frontiers Conferenceのスライド資料

 新Google翻訳システムでは、「英→仏」翻訳システムだけで、GPUを用いて約1万5000時間のトレーニングを行っている。こういったプロジェクトが他に100以上あるのだから、そのシステム開発に必要な時間は膨大だ。それらのプロジェクトを円滑に回すために、どのくらいの規模の計算機環境が必要なのか想像がつくだろうか。Google社内の開発環境を読み解く鍵として、スーパーコンピューター(スパコン)とディープラーニングの関係について考えてみたい。