Google は、主要 AI 企業と協力し、人工知能の開発における責任ある実践に向けた共同の取り組みに参加します。これは、AI がすべての人々に確実に役立つようにするために、業界全体で行う大きな節目です。これらの取り組みは、AI の利点を最大化し、リスクを最小限に抑える G7、OECD、各国政府の取り組みを支えるものです。Google は、大胆にAI開発を進めることは、開発初期から責任を持って取り組むことだと長年信じています。下記に、私たちがどのように大胆かつ責任ある AI への取り組みを行っているかについて説明します。
AI を活用した社会の重要課題の解決
Google は数十年にわたり AI に取り組んでおり、2017 年には、「AI ファースト」を掲げ、さらに強化してきました。現在では、 Google 検索、翻訳、マップ、および日常的に使用されるその他のサービスで AI を活用しています。また、AI を社会問題の解決にも活用しています。これには、洪水予測、渋滞回避による二酸化炭素排出量の削減、臨床上の質問に 90% 以上の精度で回答することによる医療の改善、乳がんなどの病気の治療とスクリーニングの支援などが含まれます。
安心で安全な AI システムの推進
しかし、AI の役割はサービスを向上させるだけではありません。Google は、AI を利用してそれらのサービスを安全かつ強固にしたいと考えています。Google はデフォルトで安全にお使いいただけるよう製品を設計していますが、AI に対する Google のアプローチも例外ではありません。最近では、組織や団体が AI システムを保護できるようにセキュア AI フレームワーク(SAIF)を導入し、AI の安全性とセキュリティに関する研究を奨励するためにバグ ハンター プログラム(脆弱性報奨金プログラムを含む)を拡張しました。Google はリスクを軽減するためにモデルに敵対的テストを実施しており、Google DeepMind チームは、AI のより安全な通信の支援、高度なモデルの悪用の防止、より倫理的で公平なシステムの設計などのテーマで最先端の技術を進歩させています。
Google はこうした活動を継続し、来月の DefCon を含む追加のレッドチームにも参加しています。
AI システムにおける信頼の構築
Google は、新しい AI ツールによって、誤った情報や不当な偏見などの現在の社会的課題が増幅される可能性があることを認識しています。そのため、Google は 2018 年に業務の指針となる AI 原則を策定し、新しいシステムの倫理レビューの実施、偏見の回避、プライバシー、セキュリティ、安全性の組み込みによってそれらを実践するガバナンス チームを設立しました。また、Google の Responsible AI Toolkit は、開発者が責任を持って AI を追求するうえでも役立ちます。Google は、これらの進捗状況を定期的に共有するなど、AI システムに対する信頼を築くための活動に引き続き注力していきます。
コンテンツに関しては、信頼できる情報を広めるための措置を講じています。間もなく、透かし入れ(watermaking)、メタデータ、その他の革新的な技術を最新の生成モデルに統合し、画像がオンラインで最初に表示された場所に関するコンテキストを提供する「この画像について」を Google 検索に導入する予定です。AI によって生成されたコンテンツに対処するには、業界全体でのソリューションが必要です。この領域において、Google は Partnership for AI の合成メディア ワーキング グループを含む他の企業との協力を進めていきます。
責任ある AI を共に構築する
私たちは誰も、自分だけで AI を正しく理解することはできません。Google は、他の AI 企業と協力してこれらの取り組みを支援し、情報とベスト プラクティスを共有することを約束します。Partnership for AI や ML Commons などのグループは、すでに重要な取り組みを主導しています。今後も、新しいジェネレーティブ AI ツールの責任ある開発を促進するためのさらなる取り組みにご期待ください。
Posted by Kent Walker, President of Global Affairs, Google & Alphabet