Googleの新しい検索AIモードは「完全な再創造」だとサンダー・ピチャイCEOが語る

Googleの新しい検索AIモードは「完全な再創造」だとサンダー・ピチャイCEOが語る
Google CEO サンダー・ピチャイ氏が、2025 年 5 月 20 日にカリフォルニア州マウンテンビューで開催された Google I/O で講演しました。
Google CEOのサンダー・ピチャイ氏は、2025年5月20日にカリフォルニア州マウンテンビューで開催されたGoogle I/Oで講演した。画像:Google

GoogleのCEO、サンダー・ピチャイ氏は、本日カリフォルニア州マウンテンビューで開催されたGoogle I/O基調講演で、GoogleのAI活用の大部分は検索におけるAIオーバービューによるものだと述べ、幅広い発表を行った。今年のI/Oプレゼンテーションでは、視界内の物体に関する質問に答えるARグラスから、検索エンジンと生成AIクエリの差を縮めるものまで、Googleが注目のAIアシスタント市場を席巻しようとしていることが示された。

Googleの最高峰のサービスは、決して安くはありません。Geminiのサブスクリプションプランは、今後ProプランとUltraプランに分割されます。19.99ドルのAI Proプランでは、一連の製品と無料版よりも高いレート制限が提供されます。高額な(249.99ドル)Ultraプランでは、最高のレート制限に加え、ディープラーニング機能を搭載した近日発売予定のGemini 2.5 Proなどの製品への早期アクセスに加え、ムービーメーカーFlowなどのAI製品スイートもご利用いただけます。

AIモード検索エクスペリエンスは検索エンジンと生成AIをさらに融合します

本日より、Google検索はAIモードタブを提供します。このタブはウェブ検索をGeminiにアウトソーシングし、ウェブ全体から情報を取得して複数の質問に答えます。I/Oプレゼンテーションで、ピチャイ氏はAIモードを「検索の完全な再創造」と表現しました。

AI概要の導入以来、Google検索でより長い質問をするユーザーが増えていると、彼は述べた。より長い質問への変化は、ユーザーがウェブとのインターフェースにおいて、キーワードではなく、生成型AIが最も適したクエリの種類を考えるという、徐々に文化的な変化が起きていることを意味しているのかもしれない。

AI モードは 5 月 20 日より米国で無料で利用可能となり、数週間以内に段階的に展開されます。

AI モードは Google 検索バーの横に表示されます。
AIモードはGoogle検索バーの横に表示される。画像:TechRepublicのスクリーンショット

「今後、AI モードの最先端の機能や性能の多くを、コアとなる検索エクスペリエンスに直接組み込んでいく予定です」と、Google I/O で Google 検索担当副社長のリズ・リード氏は述べた。

本質的に、Google は現在、かつて検索エンジンが行っていた Web 全体のインデックス作成を、AI だけが効果的に実行できると言っているのです。

AIモードは、ユーザーがGmailなどのアプリと連携することを選択した場合、検索を連携させ、パーソナライズされた提案を提供できます。Googleは、AIモードが地域サービス、レストランの予約、ショッピングなどをワンクリックで利用できる機能になる可能性があると提案しています。

Google検索は、マルチモーダルAIプロジェクトAstraにも連携します。AIモードまたはGoogleレンズでは、ユーザーはカメラを向けてAIに話しかけることで、検索から世界に関する回答を得ることができます。

ピチャイ氏によると、GoogleのAI製品は今年、毎月480兆トークンを処理した。これは昨年の50倍にあたる。700万人以上の開発者がGoogle AI StudioのGemini AIを利用しており、Vertex AIとGeminiアプリの月間アクティブユーザー数は4億人を超えているという。

一方、アンドリーセン・ホロウィッツによれば、ChatGPTの2015年1月の週当たりアクティブユーザー数は4億人で、そのうち1億7500万人がモバイルアプリを使用しているという。

ジェミニ2.5のアップデート版にはディープリーディング機能が搭載されている

Gemini 2.5 Proの推論モード「Deep Think」がまもなく登場します。競合他社の推論モデルと同様に、Deep Thinkはベースモデルと比較して、より深い答えを考えるためにより多くの時間を費やします。一般公開前に、一部のテスターのみGemini APIで利用可能になります(時期は未定です)。

「私たちは、より多くの最先端の安全性評価を実施し、セキュリティ専門家からの意見を得るために、追加の時間をかけます」と、Google DeepMindのCEOであるデミス・ハサビス氏は述べた。

参照:新たな調査によると、 生成 AI を理由に従業員を解雇したビジネス リーダーの 55% が、今ではその決定を後悔している。

AIモデルAlphaFold2で2024年のノーベル化学賞を受賞したばかりのハサビス氏は、Gemini 2.5 Flashと2.5 Proの両方のアップデート版を今夏にリリースすると発表しました。Googleによると、どちらもパフォーマンスと効率性が向上しています。さらに、Gemini Live APIは、オーディオビジュアル入力とネイティブオーディオ出力の対話をサポートし、I/Oで聞かれる不気味なささやき声など、言葉のニュアンスを捉えることができるようになります。さらに、両モデルともプロンプトインジェクション攻撃に対する強化が施されています。

ユーザーは、これまで 2.5 Flash でのみ利用可能だった思考予算を使用して 2.5 Pro をカスタマイズし、AI が使用できるトークンの数を制限できるようになります。

コーディングに関しては、AIアシスタント「Jules」がGoogle Labsから本日パブリックベータ版としてリリースされます。GitHubと連携した非同期コーディングエージェント「Jules」は、実際のコードベースで動作するため、AIが欠陥を生み出さない限り、開発者のプロジェクト全体を考慮に入れるのに最適です。

さらに、Googleはランダムノイズからデータを精製する「Gemini Diffusion」と呼ばれる最先端モデルを発表しました。動画や音声の生成で既に成功を収めている拡散モデルを、より効率的にテキストを生成するために活用することが目標です。理想的には、拡散モデルによって最終的にすべてのGeminiモデルのレイテンシが削減されるでしょう。ご興味のある方は、デモのウェイティングリストにご登録ください。

Gemini Live の改良、Imagen 4、Veo 3 などが Gemini アプリに登場

Googleは、生活のあらゆる側面にシームレスに統合できるSF版AIアシスタントの実現を依然として模索している。Google Labsのバイスプレジデント、ジョシュ・ウッドワード氏は、Geminiアプリをより「パーソナルで、プロアクティブで、パワフル」なものにすることを計画していると述べた。そのため、同社はGeminiアプリに様々な新機能を導入する予定で、これらの機能の一部はProject Marinerの旗印の下、Gemini Ultraサブスクリプションで利用可能となる。Googleは、例えば予約手続きなど、Geminiがウェブページと連携できるようにする予定だ。

Googleは、GeminiをGmailなどのアプリに接続するためのオプトイントグルを提供する予定です。これにより、アシスタントはユーザーの興味に合わせて応答をカスタマイズしたり、生成されたメールでユーザーの語彙を使用したりできるようになります。

I/O からの AI アシスタントに関するその他の発表は次のとおりです。

  • Gemini Live の画面共有は、Gemini アプリと iOS で無料になりました。
  • Deep Researchでは、ご自身のファイルをアップロードできます。まもなく、GoogleドライブとGmailから情報を取得できるようになります。
  • Canvas を使用すると、レポートを Web ページ、インフォグラフィック、クイズに変換できます。
  • Imagen 4 画像作成ツールは、テキスト生成機能が改善され、本日より Gemini アプリでご利用いただけます。
  • 最先端のビデオモデル「Veo 3」が本日リリースされました。ネイティブオーディオ生成、効果音、背景音、ダイアログ機能が搭載されています。
  • Gemini Live カメラと画面共有機能が本日 Android OS でリリースされました。

Google I/Oでは、チームはGoogle Meet上でライブ翻訳のデモンストレーションを行いました。AI音声は、元の言葉からわずかな遅延で、英語とスペイン語で翻訳者として話しました。AI翻訳は本日からGoogle Meetで英語とスペイン語に対応しており、ご登録のお客様にご利用いただけます。今後数週間でさらに多くの言語に対応し、年内にはEnterpriseアカウントにも提供される予定です。

Googleはまた、2Dの動画シーンを変換し、よりリアルな映像を実現する3D「ライトフィールド」ディスプレイをレンダリングするビデオモデル「Beam」も披露しました。Beam対応デバイスは、HPとの提携により今年後半に発売される予定です。

Gemini Code Assist は Gemini 2.5 のアップグレードの恩恵を受けています

コーディングの世界では、以前パブリックプレビューだったGemini Code Assist for Individualsが一般提供となり、Gemini 2.5にリンクされました。コードレビューエージェントのGemini Code Assist for GitHubも同様に一般提供に移行しました。無料版とサブスクリプション版の両方がGemini 2.5で動作します。

参照:Google は一部の従業員に対し、週 3 日オフィスに戻らなければ職を失う可能性があると通告した。 

Flowは、一貫性があり編集可能なシーンを含むAI生成ビデオを作成します。

Googleは、プロの映画制作者向けに複数の動画ツールを発表しました。クリエイター向けの新ツール「Flow」は、Veo、Imagen、Geminiの機能を統合しています。Promptsを使えば、サウンド付きのフルアニメーションシーンを作成できます。映画制作者は、シーンにアイテムやその他の要素を挿入したり、ショットの長さを調整したり、その他の編集作業をすべてPromptウィンドウから行うことができます。Google I/Oでのデモでは、巨大なニワトリが車を空へと運び、AI生成動画に見られるような夢のような雰囲気を演出していました。

Flow は、米国では Google AI Pro および Google AI Ultra プランでご利用いただけます。

GoogleがAndroid XRグラスとパートナーシップを発表

最後に、GoogleはAndroid XR搭載のグラスとヘッドセットでAIプロンプトのデモを行いました。デモでは、Geminiを搭載したスマートグラスが、コーヒーショップでの待ち合わせのスケジュール設定、道案内、壁に掛かっている絵に関する質問への回答、その日の早い時間に見た物の記憶などを行う様子が披露されました。3言語間の翻訳(両者が理解できる中間言語として英語を使用)のライブデモでは、1回の会話でわずかな遅延が発生しましたが、会話が進むにつれて途切れてしまいました。

Google の副社長兼 Android XR ゼネラルマネージャーである Shahram Izadi が、Google I/O で Project Moohan を紹介します。
Googleの副社長兼Android XR担当ゼネラルマネージャー、シャーラム・イザディ氏がGoogle I/OでProject Moohanを披露。画像:Google

Android XRシステムは、今年後半に発売予定のSamsungのProject Moohanにも採用される予定です。Moohanは、テレビとスマートフォンの機能を組み合わせた「無限スクリーン」を備えたVRヘッドセットです。

Tagged: