Google I/O 2024: Google 検索の AI 概要機能が今週一般公開

Google I/O 2024: Google 検索の AI 概要機能が今週一般公開

Googleは、カリフォルニア州マウンテンビューのショアライン・アンフィシアターで開催された開発者向けカンファレンス「Google I/O」において、検索生成エクスペリエンスの進化形であるAIオーバービュー機能を5月14日から米国で展開し、まもなく他の国でも展開すると発表した。Googleは、Google Cloud、Gemini、Workspaceなどに導入予定のその他の変更点も紹介した。その中には、複数のアプリで利用可能なAIアクションや要約機能などがあり、中小企業にとって魅力的な選択肢となるだろう。

Googleの検索にAI概要が含まれる

AIオーバービューは、GoogleのSearch Generative Experience(検索生成エクスペリエンス)の拡張版です。これは、Google検索の検索結果の上部にAIが生成した回答を表示する機能です。昨年10月から一部の米国ユーザーが試用を開始しているため、既にSGEの運用をご覧になった方もいらっしゃるかもしれません。SGEは画像やテキストも生成できます。AIオーバービューは、あらゆるGoogle検索エンジンの検索結果の上部にAIが生成した情報を追加します。

AIオーバービュー機能を使えば、「Googleがあなたに代わって作業してくれます。自分ですべての情報をまとめるのではなく、質問をすればすぐに答えが得られます」と、Google検索担当副社長のリズ・リード氏はI/Oで述べた。

リード氏によると、AIオーバービューは年末までに10億人以上の人々に利用可能になるという。Googleは「10個の質問を1つにまとめた」サービスを提供したいと考えている。タスクを連携させることで、AIが情報間の正確な関連性を判断できるようにするためだ。これは多段階の推論によって可能になる。例えば、地域で最も優れたヨガスタジオを尋ねるだけでなく、スタジオと自宅の距離や、スタジオの入会特典についても尋ねることができる。これらの情報はすべて、検索結果上部の便利な列に表示される。

まもなく、AI Overviews は提供されたビデオに関する質問にも答えられるようになる予定です。

AIの可用性の概要

AIオーバービューは5月14日より米国で展開され、1週間以内に全米で利用可能になる予定です。その他の国では近日中に利用可能になります。以前は、AIオーバービューはSearch Labsでのみ利用可能でした。

AI概要は役に立ちますか?

AIオーバービューは実際にGoogle検索の利便性を高めるのでしょうか?AIオーバービューは、AIの回答が不正確、無関係、または誤解を招く場合、検索の利便性を低下させる可能性があります。Googleは、どの画像がAIによって生成されたもので、どの画像がウェブから取得されたかを注意深く記録すると述べています。

Gemini 1.5 Proは、一部のユーザー向けに200万のコンテキストウィンドウを含むアップグレードを実施

Googleは、一部のGoogle Cloudのお客様を対象に、Gemini 1.5 Proのコンテキストウィンドウを200万に拡張します。より広いコンテキストウィンドウを利用するには、Google AI StudioまたはVertex AIのウェイティングリストにご登録ください。

Google Gemini のコンテキストウィンドウの拡張に取り組んでいるチームの最終目標は「無限のコンテキスト」だと Google CEO の Sundar Pichai 氏は語った。

Googleの大規模言語モデルGemini 1.5 Proは、APIの品質向上と新バージョンGemini 1.5 Flashをリリースします。Gemini APIの開発者向け新機能には、ビデオフレーム抽出、並列関数呼び出し、コンテキストキャッシュが含まれます。ネイティブビデオフレーム抽出と並列関数呼び出しは現在利用可能ですが、コンテキストキャッシュは6月に提供終了予定です。

本日より全世界で発売開始となるGemini 1.5 Flashは、応答速度に重点を置いた小型モデルです。Gemini 1.5 ProおよびGemini 1.5のユーザーは、100万コンテキストウィンドウでAIによる分析に必要な情報を入力できます。

Gemma 2は27Bのパラメータサイズで登場

Googleの小型言語モデル「Gemma」は、6月に大幅な改良が行われます。開発者からの要望に応えて、Gemma 2は27Bのパラメータを持つモデルとなり、コンパクトなプロジェクトにも収まるサイズでありながら、より大きなGemmaモデルを実現します。Googleによると、Gemma 2はVertex AIの単一のTPUホストで効率的に実行できます。

さらに、Googleは、画像キャプションの作成や画像に基づいた質問といったタスクのための言語・視覚モデルであるPaliGemmaをリリースしました。PaliGemmaは現在、Vertex AIで利用可能です。

Gemini の要約機能やその他の機能は Google Workspace に追加されます

Google Workspace では、Gemini 1.5 のロングコンテキストウィンドウとマルチモーダル機能によって実現される AI 機能が複数強化されます。例えば、ユーザーは Gemini に長いメールスレッドや Google Meet の通話内容を要約するよう依頼できます。

Gemini は来月、Gemini for Workspace アドオンおよび Google One AI プレミアムプランをご利用の企業および個人向けに、デスクトップ版 Workspace サイドパネルでご利用いただけるようになります。Gemini サイドパネルは現在、Workspace Labs および Gemini for Workspace アルファ版ユーザー向けにご利用いただけます。

Workspace および AI Advanced のお客様は、今後、いくつかの新しい Gemini 機能を使用できるようになります。今月から Labs ユーザー向けに開始され、7 月に一般公開されます。

  • 電子メールのスレッドを要約します。
  • 電子メールの受信トレイで Q&A を実行します。
  • スマート リプライの長い返信候補を使用して、電子メール スレッドからコンテキスト情報を抽出します。

Gemini 1.5は、Gmailやドキュメントなど、Workspace内のアプリ間の連携を可能にします。Googleの副社長兼Workspace担当ゼネラルマネージャーであるAparna Pappu氏は、中小企業のオーナーがGemini 1.5を使ってメールに基づいたスプレッドシートで出張費の領収書を整理・追跡する方法を実演しました。この機能「データQ&A」は、7月にLabsユーザーにリリースされる予定です。

次に、GoogleはWorkspaceにバーチャルチームメイトを追加します。バーチャルチームメイトは、アイデンティティ、Workspaceアカウント、そして目標(ただし有給休暇は不要)を持つAI同僚のように機能します。従業員はアシスタントに仕事に関する質問をすることができ、アシスタントは一緒に働くチームの「集合記憶」を保持します。

バーチャルチームメイトにはWorkspaceアカウントとプロフィールがあり、ユーザーはプロフィール内でAIに具体的な目標を設定できます。画像:Google

GoogleはVirtual Teammateのリリース日をまだ発表していません。同社は今後、サードパーティ製の機能を追加する予定です。これはあくまで推測ですが、CRMアプリケーションと連携できれば、Virtual Teammateは特にビジネスに役立つ可能性があります。

音声とビデオ機能がGeminiアプリに登場

今年後半には、Geminiアプリに音声通話機能とビデオ通話機能が追加されます。Geminiはカメラを通してあなたの様子を「見て」、リアルタイムで反応できるようになります。

ユーザーは「Gems」と呼ばれる、パーソナルライティングコーチのような役割を担うカスタマイズされたエージェントを作成できるようになります。これは、例えば旅行の計画までできる「真のアシスタント」をGeminiにすることを目指しています。Gemsは今夏、Gemini Advancedに導入される予定です。

Geminiへのマルチモーダル機能の追加は、今週初めに行われたChatGPTとGPT-4oのデモンストレーションと比べて、興味深いタイミングで行われました。GeminiとChatGPTはどちらも非常に自然な会話をしました。ChatGPTは中断には対応しましたが、状況によっては誤読や解釈ミスが見られました。

参照: OpenAI は、GPT-4 モデルの最新バージョンがライブ ビデオにどのように応答できるかを披露しました。  

Imagen 3はテキスト生成能力が向上しました

Googleは、画像生成AIの次なる進化形となるImagen 3を発表しました。Imagen 3は、これまでAI画像生成ツールの大きな弱点であったテキストレンダリングの精度向上を目指しています。一部のクリエイターは本日、Google LabsのImageFXでImagen 3を試すことができます。また、Vertex AIの開発者向けにもImagine 3がまもなくリリースされます。

GoogleとDeepMindが新たなクリエイティブAIツールを発表

Googleが発表したもう一つのクリエイティブAI製品は、DeepMindの次世代動画生成モデル「Veo」です。Veoは、トンネルを抜けて街路に飛び出す車の印象的な動画を作成しました。Veoは、labs.googleにある実験的なツール「VideoFX」で、5月14日より一部のクリエイター向けに提供されます。Googleは、YouTube Shortsなどの製品にもVeoを早期に追加する予定です。時期は未定です。

他のクリエイティブなタイプの人は、音楽制作のための生成AIツールセットであるMusic AI Sandboxを利用するのも良いかもしれません。Music AI Sandboxの公開リリース日も非公開リリース日も発表されていません。

第6世代Trillium GPUがGoogle Cloudデータセンターのパワーを強化

ピチャイ氏は、Googleの第6世代Google Cloud TPU「Trillium」を発表しました。Googleは、このTPUは前世代と比べて4.7倍のパフォーマンス向上を実現したと主張しています。Trillium TPUは、Google Cloudデータセンターのパフォーマンスを向上させ、NVIDIAのAIアクセラレータに対抗することを目指しています。

Trillium の時間は、2024 年後半に Google Cloud のお客様に提供される予定です。さらに、NVIDIA の Blackwell GPU は、2025 年から Google Cloud で利用できるようになります。

TechRepublic は Google I/O をリモートで取材しました。

Tagged: