Google I/O 2019が昨日行われ、予想されていた Google Pixel の新モデルやアシスタントのバージョンアップなど、多くの新サービス・商品が発表になりました。
今回は現地取材に行けなかったため、Googleによる基調講演動画の内容をもとに主要なものをまとめます。
Android、端末関係
Google Pixel 3a / Pixel 3a XL
まずはこれでしょう。Pixel 3の廉価版です。
そもそも、間違えてアメリカの家電量販店に並べられていたなどの事故もありましたが、ようやく正式発表になりました。
CPUをSnapdragon 845から670に落とし、ストレージを64GBにし、ワイヤレス充電機能を落とすことで、価格を下げました。
ただ、3.5mmヘッドフォンジャックは復活しました。
つまり、ミドルレンジスペックのPixel 3を出したということですね。
価格は、Pixel 3aが$399で、5.6インチディスプレイ、12.2MPカメラ、最新のAndroid P搭載です。ディスプレイが6.0インチのPixel 3a XLは$479です。
Googleストアでも予約販売開始されており、3aが48,600円、3a XLが60,000円となっております。ちょっと高くなってる…
Android ダークテーマ
MacOSに続き、次期Android Qでは、OSレベルでダークモードに対応します。
マニュアルで設定もできますし、バッテリーセーブモードでは自動でオンになります。
フォーカスモード
フォーカスモードにも対応します。
フォーカスモードがオンの時に非表示にするアプリを選択できるようになります。
仕事をしないといけないのについつい見てしまうアプリを見えないようにできます。
秋のAndroidアップデートから対応するようです。
折りたたみディスプレイ対応
これは前から言われていたことですが、正式にGalaxy Foldなどの折りたたみディスプレイにAndroidが対応します。
スマートディスプレイNest Hub / Nest Hub Max
日本では未発売だったスマートディスプレイの「Google Home Hub」が、「Nest Hub」と名称を変更し、日本を含む12カ国に拡大して販売開始します。
価格は$149から$129(約14,000円)に値下げしました。
また、こちらはアメリカ・イギリス・オーストラリアのみで、ディスプレイが大型化した「Nest Hub Max」を229ドル(約2万5000円)で今年夏に発売します。
ディスプレイは、それぞれ7インチと10インチです。
Nest Hub Maxは、ステレオスピーカーを搭載し、ホームカメラ「Nest Cam」を搭載します。
機能としては、Googleアシスタントで声を聞き分けてくれる「ボイスマッチ」の顔認識版である「Face Match」を搭載しており、あらかじめ登録したユーザーの顔を見分けることで、ユーザーによってスケジュールなどの情報を切り替えてくれます。
「Face Match」は、デバイスローカルで機械学習によって機能するとのことで、データが外に漏れる心配はないようです。
また、手のひらを向けることでミュートにするなど、ジェスチャーにも対応します。
背面のハードウェアスイッチで、カメラやマイクをオフにできるなど、プライバシーに配慮しています。
AR関係
GoogleマップのARモード
進行方向にカメラを向けて見ると、自分が目的地に正しく進んでいるかを教えてくれます。
これは結構面白くて、Googleマップがストリートビューのデータとカメラからの映像を比較して、それが正しい方向なのか、右方向なのか、などを教えてくれるという機能です。
今はベータモードですが、Pixelから対応するようです。
これがあれば、地図を読むのが苦手な人も、方向音痴な人も安心ですね。
Google検索のAR対応
特定の検索結果に連動して、サイトや画像だけでなく、ARによる検索結果を表示してくれるようです。
デモでは、白いサメを検索すると、実際に白い大きなサメが原寸大でカメラを通してARで見られるようになっていました。
検索結果が、実際の大きさで見られたりするのは、楽しいですね。
NASAなど様々な会社や団体が協力するようです。
アシスタント機能関係
オフラインでも使える高速Google アシスタント
アプリのサイズを半分にコンパクト化することで、サーバとのやりとり時間を削減し、ほぼリアルタイムの会話が可能なレベルになりました。
これにより、端末で完結するため、機内モードでも動作するようになります。
この新バージョンのGoogleアシスタントは、今年後半からPixelで利用可能になるようです。
Pixel、欲しくなってきた…
Googleアシスタントのドライビングモード
「Hey Google, let’s drive」(「OKグーグル、運転しよう」みたいな?)と言えば、ドライビングモードになります。
すると、経路情報や音楽のコントロールなど、運転中に必要な情報だけが表示されるようになります。
運転席のダッシュボードにつけておくイメージですね。
今や、タクシーでもGoogleマップのナビを使っていることも多いので、より使いやすくなりそうです。
Google Lensのアップグレード
Google Lensは、↓でまとめた通り、カメラで見ている映像から検索などができます。
今回、機械学習を使ったGoogle Lensのパワーアップも発表されました。
レストランのメニューをGoogle Lensで見ると、人気のメニューをハイライトしてくれたりするようです。
Duplex機能のウェブ対応
昨年のGoogle I/OでローンチされたDuplexがパワーアップします。
DuplexはAIによる自動通話機能で、AIがお店の予約電話などをかけてくれます。
不気味なほど自然に電話すると言うことで、以前の発表の時はざわつきました。
今回、これがウェブに拡大しました。
基調講演では、レンタカーのオンライン予約がデモされました。
「○×会社のレンタカーを予約して」と言うと、自動で○×会社のサイトに行って、レンタカーを予約してくれます。
カレンダーから旅行の日程を自動で取ってきて、クルマの好みは以前の予約内容をGmailから引っ張ってくるようです。
動画や音声、通話の自動字幕化
Androidで、Podcastを含む動画や音声から自動で字幕を作ってくれるようになります。
これは、Podcastにも対応するようです。
また「ライブリレー」という機能は、相手の通話の声をリアルタイムにテキストにしてくれて、こちらからもテキストで返せるようです。
通話ができない場面などで便利そうですね。
「ライブリレー」のデモは↓より
To help people make phone calls without having to speak or listen, Live Relay uses on-device speech recognition and text-to-speech conversion, allowing a phone to listen and speak on someone's behalf → https://t.co/6B0X1cF0JT #io19 pic.twitter.com/sqeEUzZY2E
— Google (@Google) May 7, 2019
Euphonia プロジェクト
GoogleはAIボイスアルゴリズムを、発話障害がある人のコミュニケーションの助けになるよう研究を続けています。
Partnering with nonprofits and volunteers, Project Euphonia is a @GoogleAI research effort to help people with speech impairments communicate faster and gain independence → https://t.co/JAzC1aMNZg #io19 pic.twitter.com/SBg4lru3RW
— Google (@Google) May 7, 2019
おわりに
いかがでしたか?
少し前、ビッグデータなどと言われてもてはやされていましたが、昨今いよいよGoogleがその成果を日常生活に本格導入してきています。
その流れをより強化するような、今回も技術のオンパレードでした。
Pixelは、その成果をいち早く体験できる端末として差別化するようですね。
いずれにせよ、楽しみな内容ばかりです。
おわり