先の映像で、黒人男性がナビゲーションの操作の際に「drive.single.beast」と叫んでいたのがそれ。イギリスのベンチャー企業「WHAT3WORDS」が提供するサービスで、MBUXは自動車のナビゲーションシステムとして初めてこれを導入した。地球上のすべてのエリアを3×3メートルのブロックに区分し、ランダムな3つの単語の組み合わせを割り当てたものだ。住所がない、伝えにくい場所や、郵便番号や番地がわからなくてもその3つの単語を音声もしくはタッチパネルで入力すれば、目的地にたどりつける。例えば米国・ニューヨークの「自由の女神像」の中心付近は「engine.winks.smile」、東京渋谷の「ハチ公像」の付近は「rainbow.sharp.sleep」となっている(what3wordsのイメージはこの映像を参照)。

 なぜメルセデスはこのような音声入力に関する取り組みをはじめたのか? 開発リーダーに話を聞いてみた。

「自動車には特有の操作がたくさんある」

MBUX開発リーダー Dr.Thomas Eireiner(Dr.トーマス・アイライナー)さん
2002年入社。コミュニケーションエンジニアリング、インフォメーション・テクノロジーの博士課程をもつ。近年はスピーチグループという部署で、次世代のサーバーベースのボイスレコグニションの研究開発を行う。多くのサプライヤーとの協業も伴うこのプロジェクトにて開発リーダーを務める。

 なぜMBUXのような音声入力をやろうと思ったのですか?

アイライナー:スピーチレコグニション(音声認識)の技術は決して新しいものではありません。我々も90年代の末から実車に搭載してきた歴史があります。現在はスマートフォンにも応用されているように技術の進化、データの処理能力が飛躍的に向上して、これまで不可能だったことができるようになった。AIの活用によってタスクの解決や情報の取得などその可能性は無限大だし、子供の頃から自然に学んだ言語を使うことで運転の妨げになる動作を最小限におさえることができます。

 たしかに音声入力って最初は抵抗があったのですが、慣れると意外に便利だし楽しいものですね

アイライナー:いますごい勢いで我々の生活に浸透してきていて、米国の統計によれば、人口の3分の2の人たちが、1日に1度は何らかのかたちで音声入力を使っているというデータがあるほどです。自動車にモバイル機器が持つ性能を取り入れていくと考えたときに、見たり、触れたりすることと合わせて音声入力は必要不可欠になっていきます。

 ただ、すでに市場ではアップルもグーグルもアマゾンも、音声入力によるサービスを提供しています。なぜそれらと組まずにメルセデスが独自でやるのですか?

アイライナー:Siriやグーグルなどそうした第三者の技術も使えるようにサポートしていますし、お客さまがそれを使いたいのであればもちろん可能です。ただ、現状ではメルセデス・ベンツとしてあれをしたいこれをしたいといった細かなニーズと、既存のものではフィットしないと捉えています。例えばシートのマッサージ機能を動かしたいとか、あるコントロール機能を起動したいとか、クルマ特有の操作がたくさんあります。