メインページに戻る
Japan Blog

検索

検索窓の枠を超えて:より直感的な検索の実現に向けて

さまざまな検索画面の画像。

20 年以上にわたって Google は「世界中の情報を整理し、誰もがアクセスでき、便利に利用できるようにすること」という使命に専念してきました。文字入力による検索から始まり、スマートフォンのカメラを使って目の前にあるものを調べたり、音声で気になることについて質問をしたりと、より直感的な情報の検索方法を生み出し続けてきました。

Google 検索では、AI の進化とともに、画像やテキスト、音声などを組み合わせることで、検索窓の枠を超えた、さらに自然で直感的な検索体験の実現を目指しています。また、Google マップでは、コンピュータビジョンと進化した予測モデルによって、地図のあり方を再考しました。これまでの 2 次元の地図から、現実世界にある多次元の情報へと進化することで、あたかもその場にいるかのような体験ができるようになるのです。本日は、「 Search On ‘22 」で発表した Google 検索と Google マップの最新の取り組みの中から、日本でも今後お使いいただけるようになる機能を中心にご紹介します。

マルチ検索

カメラや画像を使って見たものを検索できる Google レンズは、毎月 80 億回使われています。今回新しく紹介する マルチ検索は、Google レンズを使って、撮影した写真やスクリーンショットにさらにテキストを加えて検索できる機能です。今年の始めに米国でベータ版として導入し、今後数ヶ月で日本語を含む 70 以上の言語に対応する予定です。

Google レンズを使用したマルチ検索画面のGIF画像。

より自然な画像翻訳

毎月、世界中の人々が 100 以上の言語で、10 億回以上、Google を使い、カメラを外国語にかざして画像の中のテキストを翻訳しています。機械学習技術の大幅な進歩により、複雑な画像の中で、翻訳されたテキストをより自然な形で表示できるようになりました。例えば、外国語の雑誌にカメラを向けると、翻訳されたテキストが自然に背景に馴染んだ形で表示されます。機械学習モデルを最適化したことで、この複雑な処理を瞬きよりも短い 100ミリ秒でできます。これを実現している敵対的生成ネットワーク (GAN) という手法は、Google Pixel の消しゴムマジックにも使われているものです。進化した本機能は、年内に公開予定です。

より直感的なショッピング検索

スマートフォンの検索結果から洋服、靴、アクセサリーといったファッションアイテムをより簡単に探すことができるようになりました。例えば、「カーゴパンツ」と検索すると、さまざまな色やスタイルのパンツが、購入可能なサイトや店舗へのリンク、スタイルガイドなどの役立つ情報とともに、より多くの画像で表示されます。さらに、リアルタイムの検索トレンドを反映したフィルターを新たに導入しました。たとえば、「ジーンズ」と検索した時には、今人気の「ワイドレッグ」や「ブーツカット」といったフィルターが表示さます。

ショッピング検索で役立つ情報と画像を示すGIF画像。

Googleマップでエリアの雰囲気をチェック 

初めて訪れる場所で、そのエリアのイチオシのお店やレストランの雰囲気を事前に知ることは簡単ではありません。Google マップ の新機能では、調べたいエリアを選択すると、ユーザーが提供する写真や情報によって人気のあるスポットや見どころが地図上に表示されます。たとえば、パリを旅行する場合、その地域がおしゃれな雰囲気か、  地元の人気スポットがどこかなど、あらゆる情報を一目で簡単に得ることができます。 本機能は、AI とGoogle マップユーザーから提供された情報(毎日 2000 万件以上のクチコミ、写真、ビデオなどが投稿されています)を組み合わせており、今後 Android と iOS で展開する予定です。

Google マップで選ばれたエリアの人気スポットを表示する画面の画像。

世界中の 250 のランドマークの空中写真を公開

本日、東京タワーからアクロポリスまで、世界のランドマークを立体的に表現した 250 以上の空中写真を公開し、より臨場感のあるマップへの重要な一歩を踏み出しました。

さまざまなランドマークの空中写真を表示する画面のGIF画像。

さらなる臨場感のために

今年の I/O では、世界を探索するまったく新しい方法として、天候、交通、混雑状況などの重要な情報を重ねて、その地域を多次元なビューで見ることができる新機能を発表しました。そのアイディアを進めるものとして、今後、予測モデリングを用いて、その場所の過去の傾向を自動的に学習し、明日、来週、さらには来月、その地域がどのような状態になるかを予測できるようにする予定です。たとえば、サンフランシスコにあるオラクルパークに行きたいと思ったとき、その日の計画を立てるのに必要な情報(駐車場や入り口の場所、試合当日の天候が肌寒いかどうか、近くのレストランの場所と中の様子、さらに混雑具合の予測など)を確認できます。今後、まずは東京、ロサンゼルス、ロンドン、ニューヨーク、サンフランシスコで Android と iOS 向けに公開する予定です。

検索された地域を多次元なビューで示す画面のGIF画像。

ライブビューがさらに進化

3年前に発表したライブビューによって、歩きながらルートを確認する方法を一新しました。ライブビューとは、スマートフォンのカメラをかざして、今いる場所の上に矢印と方向を重ね合わせて表示し、道に迷うことがないようにするものです。そして今回、その技術を発展させ、より直感的に周囲のものを見つけられるようにしたのが、ライブビューで検索するという新機能です。例えば、野外マーケットで現金が必要になった時、ライブビューの検索機能を使って、スマートフォンを持ち上げて検索すると、そのエリアにある ATM を瞬時に確認することができます。コーヒーショップ、スーパーマーケット、乗り換え駅など、さまざまな場所を見つけることもできます。営業時間や混雑状況も表示され、その場所をタップすると、そのお店がどんなサービスを提供しているか、さらに詳しい情報を見ることもできます。ライブビューで検索できる機能は、東京、ロンドン、ロサンゼルス、ニューヨーク、サンフランシスコ、パリで、Android と iOS 向けに今後数ヵ月間にわたって展開する予定です。

ライブビューでの検索機能の画面のGIF画像。

本日発表した内容は、Google の目指す直感的な検索体験への第一歩です。今後も、必要な情報を一番自然で役に立つ形でお届けできるよう、技術や機能の開発を進めてまいります。