最近のSearch Onイベントで、Googleは検索関連のイノベーションと、人工知能を活用して人々が周囲の世界を理解し、検索結果を改善するための方法を発表しました。ライブストリームイベントでは、「最も高度なAIを製品に取り入れ、世界の情報を整理し、普遍的にアクセス可能で役立つものにする」というミッションをさらに進める方法を共有しました。
一部の改善点は、検索、マップ、アシスタントなどの検索関連サービスにまもなく登場します。
イベントからの最大の発表はこちらです:
1. 新しいAI駆動ツール
Googleは、新しいスペルチェックツールがユーザーが最も誤ったスペルクエリを識別するのを支援すると述べています。GoogleのVPエンジニアリングであるCathy Edwardsによると、Googleの検索クエリの1つに10が誤って綴られているため、会社は適切なスペルの提案を行う「間違っていると言いました」機能を長い間使用してきました。10月の終わりまでに、この機能に新しいスペリングアルゴリズムを導入し、700億パラメーターを持つニューラルネットで駆動されます。
もう1つの新機能は、ウェブページから個々のパッセージをインデックスすることです。以前は、Googleはウェブページ全体をインデックス化していましたが、現在同社は個々のパッセージをインデックス化すると約束しています。Googleによれば、新しいアルゴリズムが来月導入されると、すべての言語のクエリの7%が改善されます。
さらに、Googleは、検索結果を改善するために、検索をサブトピックに分割するために人工知能を活用しています。ユーザーのクエリは、より正確な結果を提供するのに役立つBERT言語理解エンジンを使用して処理されます。
コンピュータービジョンと音声認識は、Googleがビデオを自動的にタグ付けし、パーツに分割するのに役立ちます。これは、GoogleがYouTubeでクリエイターに手動で提供しているものと同様です。
2. 新しい「ハム検索」機能
この機能は、頭の中に引っかかっている曲を取り除けない人にとっては救いの手です。このツールは、単にそのイヤーワームをハミング、口笛、または歌うことで曲を特定するのに役立ちます。機械学習の技術が曲を識別しようとします。
新しいツールはすでにiOSとAndroidの両方のGoogleアシスタントまたはGoogleアプリで利用可能です。使用するには、単にGoogleに「この曲は何?」と尋ねるか、「歌を検索」ボタンをタップして、迷惑な曲をハミングします。
Googleは、その機械学習モデルを「人間が歌ったり、口笛を吹いたり、ハミングしたりするもの、スタジオ録音を含むさまざまなソースでトレーニングしている」と述べています。
3. 学習とショッピング中の拡張現実(AR)の使用
Google Lensは現在、150億個のオブジェクトを認識できます。これは、昨年よりも140億個多いです。レンズは植物、動物、ランドマークなどを識別できます。
Google Lensは二次方程式を解いたり、外国語を学習したりするために使用できます。100以上の言語を翻訳でき、テキスト読み上げ機能があります。
Lensを使用すると、写真やスクリーンショットでキャプチャされた製品をインターネットで検索することもできます。GoogleアプリやAndroidのChromeアプリで画像をタップしてホールドすると、Lensが同じまたは似た要素を見つけます。
4. Googleマップの新しいライブ混雑状況更新
Googleマップは、スーパーマーケット、ビーチ、公園、薬局、ガソリンスタンド、ランドリーの混雑状況を判断する方法を学びます。このデータは、組織カードを開くことなく地図上に直接表示されます。会社によれば、これはパンデミック時に混雑した場所を避けるのに役立ちます。
また、拡張現実ライブビュー機能を使用して、近くの施設に関する情報を取得できます。これを行うには、建物のショートカットをクリックして、評価、営業時間、人気の時間帯、リアルタイムの混雑情報のデータを取得します。
5. Google Duplexがさらにスマートになります
2018年に導入された個人アシスタントのDuplexは、音声シンセサイザーと人工知能アルゴリズムを使用して施設に電話をかけ、席を予約します。
人々がオンラインでより正確な地元商店情報を見つけるのを支援するために、Duplex技術は現在、自動的に組織に電話をかけ、Google検索とGoogleマップの営業時間、テイクアウト、非接触支払いオプションに関する情報を更新します。