Googleレンズってご存じでしょうか?
2017年5月に英語版がスタートした、GoogleによるAIを使った画像解析、画像内情報検索サービスです。
賢いAIがカメラで映し出される映像内の被写体を認識して、そこに書かれた文字や絵を認識し、検索などに繋げてくれます。
今月より、Google Pixelに続き、ついにソニーのXperiaやシャープのAQUOS、サムスンのGalaxyなど、主要なAndroid端末で利用可能になりました。
ものは試し!と、さっそく使ってみましょう。
まずはGoogleレンズを起動する
もしかしたら、一番の難関は起動かもしれません…分かっちゃえば簡単なんですが。
というのも、「Googleレンズ」というアプリがあるわけでは無いのです。組み込まれています。
まず、ホームボタンを長押しすると、びょんと画面全体に枠と下記のようなアシスタント領域が現れます。
この左下に、カメラのようなアイコンが見えると思います。
これがGoogle Lensです!
タップ!
すると、カメラが起動しますので、文字などが書かれた何かにカメラを向けましょう!
ワクワク
認識精度は結構なもの
たとえばちょうど一緒にいた人の煙草があったのでカメラを向けると、いきなり下記のように文字が選択されます。
そう、煙草のパッケージに書かれた警告文です。
それに対し、ダイレクトに「検索」「コピー」「翻訳」などができます。
「検索」はこの文章をそのままGoogle検索にかけるものです。上記画面で、文章の一部選択ももちろんできます。
「コピー」はこの文章をクリップボードにコピーできます。
「翻訳」は、Google翻訳をインストールすると出てくるのですが、この文章を色々な言語に翻訳してくれるんです。
「検索」「コピー」「翻訳」以外にも、上記にあるように
- 類似の商品を検索する
- 植物や動物を調べる
- 書籍やメディアを探す
- コードをスキャンする
と、まあ色々できます。
何かの商品が映っている場合は、それと似た商品を検索できるんです!
隣にあった「S&B 一味唐がらし」ですと、似たものを画像検索もできます。
さらに、S&Bの部分はロゴですが、きちんと文字として認識できて、「エスビー食品」の検索をリコメンドしてくれます。
(S&Bって、スパイス&ハーブだったんだ!)
「カメラの向こう側」を画面でいじる未来感
カメラを通してリアルタイムで出てくる画像の文字を画面上でタップしながら範囲選択している時などは、「ああ、未来きたなあ」と思いました。
これまでは、印刷物などに書かれた情報をスマホやPCで加工・編集・検索などしたい場合は、
- キーボードから打ち込む
- (書類なら)スキャンしてOCRを通す
といった「壁」がありました。
それがなくなり、カメラを通して直に3次元世界と2次元世界がつながったような、そんな驚きをGoogleレンズには感じました。
実際の利用シーン
たとえば画像認識&翻訳機能は、他アプリでも提供されていたりするので、海外旅行によく行かれる方などは、すでに使っているかもしれません。
特に英語以外は、キーボードで入力することもできなかったりしますので、かなり重宝します。
中国に行ったときなど、日本の漢字とあっちの漢字は、目で見たときに同じ漢字だろうと分かっても、日本の漢字でBaiduで検索しても出てきませんので苦労しました。
(「広東省」と「广东省」など)
また、文字でないものを「これは何だ?」と思って検索したいときも便利です。
「ほにゃららキャンペーン」というポスターが貼ってあったなら、スマホで「ほにゃららキャンペーン」とパパッと打ち込めばすぐに検索できますが、たとえば緑色でひょうたんみたいな形をしたポストらしきものが立っていたとして、それが何なのかを文字に変換して検索するのは難しいでしょう。有名なものであれば、「緑色 ひょうたん ポスト」などで出てくるかもしれませんが。
そんなとき、Googleレンズを向ければ、あっという間にその訳の分からない何かが何なのか、分かります。
つまり、外国語でも謎のオブジェでも目の前にいる犬の犬種でも、いずれにせよデジタルの文字情報に変換するのが難儀するような対象のことを知りたいときに、また印刷された長文をあっという間にテキストデータとして取り込みたい時などに、このサービスは役に立つと思います。
おわり