オンラインでの言語の壁を打ち破るために、Google の研究者たちは 2002 年に機械翻訳技術の開発を開始しました。その 4 年後、日本語と英語間のテキスト翻訳機能を備えた Google 翻訳をリリースしました。現在、Google 翻訳は 100 を超える言語をサポートしており、昨年には 24 の言語や方言を追加しました。
2006:Google トレンド
Google トレンドは、集計データを使用して検索のトレンドを理解するために開発されました。そして毎年年末に「Year in Search: 検索で振り返る 1 年」も発表しています。現在、Google トレンドは、無料で提供されている同種のデータセットとしては世界最大級であり、ジャーナリスト、研究者、学者、ブランドにとって、時間軸で検索の変化を知る方法として活用されています。
2007:ユニバーサル検索
有用な検索結果には、リンク、画像、動画、地元の検索結果など、関連する情報形式を問わずに含まれるべきです。そこで Google は、すべてのコンテンツ タイプをまとめて検索でき、それを明確で直感的な方法で表示できるようにシステムを再設計しました。その結果生まれたユニバーサル検索は、当時の Google 検索において最も根本的な変更でした。
2008:Google モバイル アプリ
Apple の App Store の登場を受けて、iPhone 向けに初の Google モバイル アプリをリリースしました。 オートコンプリートや「現在地」などの機能によって入力操作が少なくなり、検索がより簡単になりました。小さな画面では特に便利になりました。現在では、Google アプリ (Android, iOS ) が出来ることは多様になり、たとえば Google レンズを使って数学の解き方を学んだり、タップするだけで画像のテキスト翻訳にアクセスしたりできます。
2008:音声検索
2008 年に Google モバイル アプリに音声検索の機能を導入し、2011 年にはパソコン向けにも拡張しました。ユーザーはマイクのボタンをタップすることで音声による検索を開始できます。現在、音声による検索はインドで特に人気があり、毎日音声クエリを実行するインド人の割合は世界平均のほぼ 2 倍になります。
2009:緊急ホットライン
娘が危険と思われるものを飲み込んだときに中毒関連情報がなかなか見つからなかった、と言う母親からの投書を受けて、関連する検索結果ページの上部に毒物管理ホットラインを表示することにしました。 このリリース以降、自殺予防など、一刻を争う場合の緊急ホットラインを上部に表示するようにしています。
2011:画像で検索
場合によっては、探しているものを言葉で説明するのが難しい場合があります。そこで、「画像で検索」を開始しました。写真をアップロードしたり、画像の URL を入力したりすることで、Google 検索したり、他の画像を確認したりできるようになりました。このアップデートにより、後の Google レンズへの道が開かれました。
2012:ナレッジグラフ
ナレッジグラフは、世界中の人、場所、物事と、それらが互いにどう関連しているかについての事実を集めた巨大なバーチャル百科事典のようなものです。人々がすばやく答えを見つけることができるよう、Google はこの機能を導入しました。ナレッジグラフを利用した最初の機能であるナレッジパネルは、有名人、都市、スポーツチームなどに関する情報の概要を提供しています。
2015:混雑する時間帯
ユーザーがレストラン、店舗、美術館などの場所を検索する時に、1 日の中で最も混雑する時間帯を確認できるよう、Google 検索と Google マップに混雑する時間帯機能を追加しました。
2016:Discover
パーソナライズされたフィード ( 現在の Discover) の提供を開始してから、検索する以外にも Google アプリ内で自分の興味に合ったコンテンツを探索できるようにしました。
2017:Google レンズ
Google レンズは、写真の中の被写体を他の画像と比較し、元の画像との類似性や関連性に基づいて、比較対象の画像をランク付けすることで、目の前にあるものを検索クエリに変換しています。現在では、Google アプリ内に表示された画像も Google レンズで検索することができ、Google レンズを使った画像検索の数は、毎月 120 億件以上に達しています。
2018:洪水予測
迫りくる洪水に人々が適切に備えられるようにするため、Google は AI を活用して洪水発生の時期と場所をより正確に予想するモデルを作成しました。Google はこれらの取り組みをインドで開始し、現在では 80 か国に洪水警報の対象地域を拡大しています。( 日本未対応 )
2019:BERT
Google 検索が役立つには、言語を理解する能力が重要な要素です。2018 年、言語理解モデルをトレーニングするために、ニューラル ネットワーク ベースの手法である BERT (Bidirectional Encoder Representations from Transformers) を導入し、オープンソース化しました。BERT は言語をより深く理解することで、検索をより便利なものにします。つまり、単語の文脈を考慮します。厳格なテストの後、2019 年にGoogle は BERT を 70 を超える言語に適用しました。
2020:Shopping Graph
すべての小売店やブランドが Google ショッピング上で自社の製品を無料で表示できるようになり、オンライン ショッピングが非常に簡単かつ包括的になりました。また、製品のリアルタイム更新、販売者、ブランド、レビュー、在庫を AI を活用してデータセット化する Shopping Graph も導入しました。現在、Shopping Graph は約 350 億件の製品リストによって構成されています。
2020:鼻歌検索
Google アプリで鼻歌検索の機能を発表しました。これで、メロディーが頭から離れないのに、曲名が思い出せなくて、もどかしく感じることがなくなります。機械学習機能により、ハミングしたり、口笛を吹いたり、メロディーを歌ったりするだけで、該当する可能性のある曲が見つかるようになりました。さらに、その曲やアーティストについての情報を調べることができます。
2021年:この結果について
検索結果のどれが役立ちそうか、ユーザーがより多くの情報に基づいて判断できるよう、多くの結果の横に「 この結果について ( ベータ版 ) 」を追加しました。この機能は、情報リテラシーの専門家によるベストプラクティスに基づいて、その検索結果が表示された理由を説明し、情報源と内容に関するより詳細なコンテキストを提供するものです。現在、この結果については、検索が利用できるすべての言語で表示されます。
2022:マルチ検索
必要とするものを言い表すのが難しくても、求めている情報を見つけやすくするために、テキストと画像を同時に検索するまったく新しい検索方法、マルチ検索を開発しました。これにより、ダイニングテーブルの写真を撮り、「コーヒーテーブル」と文字情報を加えることで、同じデザインのコーヒーテーブルを探すこともできます。現在 Google レンズ が利用可能なすべての言語および国で、スマートフォンでお使いいただけます。

2023:Search Labs と生成 AI による検索体験 (SGE)
Google 検索では、毎年数十万回にも及ぶテストを行い、Google の利便性を高める方法を模索しています。Search Labs では、希望するユーザーのみなさんが初期段階の試験的な機能を試し、担当しているチームにフィードバックを直接伝えることができます。 その一つである生成 AI による検索体験 (SGE) では、生成 AI の機能を Google 検索に直接取り入れています。AI によって生成された概要、さらに調べるためのヒント、フォローアップを求める自然な方法によって、トピックの要点を知ることができます。米国でのリリース以来、日本やインドでも試験運用を開始し、今後も機能を加ていく予定です。
20 年以上にわたって検索エンジンの世界に関わってきた者として、Google がどこからスタートし、何を達成してきたかを振り返るのは、非常に感慨深いものでした。より詳しい情報は、 Google の歴史のサイトをご覧ください。