
Googleは、8月29日にサンフランシスコで開催されたGoogle Cloud Next 2023カンファレンスで、AIを活用した新しい生成サービスの数々を発表しました。事前説明会では、Googleの新しいCloud TPU、NVIDIA H100 GPUを搭載したA4仮想マシンなどをいち早く見ることができました。
ジャンプ先:
- Vertex AI が容量を増強し、その他の改善も追加
- BigQuery と AlloyDB のアップグレードがプレビュー可能になりました
- AIトレーニング用NVIDIA製A3仮想マシンスーパーコンピューティングが発表
- Cloud TPU v5Eは生成AI推論に最適化されています
- Google Kubernetes Engine Enterprise エディションのご紹介
Vertex AI が容量を増強し、その他の改善も追加
Google Cloud のクラウド AI および業界ソリューション担当副社長のジューン・ヤン氏は、企業が独自の AI および機械学習モデルをトレーニングするのに役立つ同社の生成 AI プラットフォームである Vertex AI の改善を発表しました。
ヤン氏によると、顧客から、Vertex AI プラットフォームの基盤モデルである PaLM に、より大量のコンテンツを入力できる機能を求める声が上がっており、これを受けて Google は容量を 4,000 トークンから 32,000 トークンに増やしたという。
Vertex AIでサポートされる言語の拡大を求める声もお客様から寄せられています。Next '23カンファレンスにおいて、ヤンはVertex AIプラットフォーム内のPaLMが、アラビア語、中国語、日本語、ドイツ語、スペイン語などで利用可能になったことを発表しました。これにより、一般公開されている言語は合計38言語となり、さらに100言語がプライベートプレビューで利用可能になりました。
参照:Google は3 月にPaLM 大規模言語モデルをAPI で公開しました。(TechRepublic)
Vertex AI Searchは、ユーザーがAI搭載アプリ内に検索エンジンを作成できるサービスで、本日より提供開始されています。「ビジネスデータ用のGoogle検索のようなものだと考えてください」とヤン氏は述べています。
また、チャットボット構築ツールであるVertex AI Conversationも本日からご利用いただけます。検索とコンバージョンは、以前はGoogleのGenerative AI App Builderで異なる製品名で提供されていました。
Codey基盤モデルの改良
Vertex AIのテキストからコードを生成するモデル「Codey」がアップグレードされます。このアップグレードの詳細は不明ですが、ヤン氏は開発者がコード生成とコードチャットをより効率的に行えるようになると述べています。
「GitLabのようなパートナーは、当社のCodey基盤モデルを活用して、コード行の予測と補完、テストケースの生成、コードの説明、その他多くのユースケースを通じて、開発者がフローを維持できるよう支援しています」とヤン氏は指摘した。
テキストから画像へのAI変換でビジネスのアートスタイルを最適化
Vertexのテキストから画像への変換モデルは、スタイル調整、つまり企業のブランドやクリエイティブガイドラインへの適合を実行できるようになります。Vertexが社内スタイルに合わせて作業を開始するには、組織が参照画像を10枚提供するだけで済みます。
Vertex AIのモデルライブラリ、Model Gardenに新しく追加されたもの
Google Cloudは、MetaのLlama 2とAnthropicのClaude 2をVertex AIのモデルライブラリに追加しました。Llama 2とClaude 2をGoogle Cloud AI Model Gardenに追加するという決定は、「オープンなエコシステムを育成するという当社のコミットメントに沿ったものです」とヤン氏は述べています。
「これらの追加機能により、Google Cloud は他のハイパースケーラーと比較して、最も幅広いモデルの選択肢を提供しています。Google のファーストパーティモデル、パートナーのサードパーティモデル、そしてオープンソースモデルを単一のプラットフォームで提供しています」とヤン氏は述べています。「Vertex AI では 100 種類以上の厳選モデルにアクセスできるため、お客様はモダリティ、規模、パフォーマンス、レイテンシ、コストを考慮してモデルを選択できるようになりました。」
BigQuery と AlloyDB のアップグレードがプレビュー可能になりました
データと AI を扱うユーザー向けのワークベンチ プラットフォームである Google の BigQuery Studio と AlloyDB の両方で、現在プレビュー版のアップグレードが利用可能になっています。
BigQuery Studio がクラウド データ ウェアハウス プレビューに追加されました
BigQuery Studio は、今週、Google の BigQuery クラウド データ ウェアハウスにプレビュー版として展開されます。BigQuery Studio は、データの分析と探索を支援し、Vertex AI と統合します。BigQuery Studio は、データエンジニアリング、アナリティクス、予測分析を統合するように設計されており、データ分析担当者がツール間の切り替えに費やす時間を短縮します。
BigQuery のユーザーは、現在から Google の AI アシスタントである Duet AI を追加することもできます。
生成AIで強化されたAlloyDB
Googleのデータベース担当バイスプレジデント兼ゼネラルマネージャーであるアンディ・グッドマン氏は、プレブリーフィングにおいて、ハイエンドのエンタープライズワークロード向けPostgreSQL互換データベースであるAlloyDBに生成AI機能を追加することを発表しました。グッドマン氏によると、AlloyDBには、標準的なPostgreSQLよりも最大10倍高速なベクトル検索機能など、エンタープライズAIアプリケーションを構築する組織向けの機能が搭載されています。開発者はデータベース内にベクトル埋め込みを生成し、作業を効率化できます。AlloyDB AIは、Vertex AIやLangChainなどのオープンソースツールエコシステムと統合されています。
「データベースは、ジェネレーション AI イノベーションの中核を成しています。LLM とエンタープライズ ジェネレーション AI アプリ間のギャップを埋め、正確で最新のコンテキスト エクスペリエンスを提供するのに役立ちます」とグッドマン氏は述べています。
AlloyDB AI は現在、AlloyDB Omni を通じてプレビューとして利用できます。
AIトレーニング用NVIDIA製A3仮想マシンスーパーコンピューティングが発表
Google Cloud のコンピューティングおよび機械学習インフラストラクチャ担当副社長兼ゼネラルマネージャーであるマーク・ローメイヤー氏は事前説明会で、GPU スーパーコンピューターとして NVIDIA H100 GPU 上で実行される A3 仮想マシンの一般提供が来月から開始されると発表した。
A3スーパーコンピュータのカスタムメイドの200Gbps仮想マシンインフラストラクチャは、GPU間データ転送を備えており、CPUホストをバイパスできます。このGPU間データ転送により、前世代のA2と比較して最大10倍の帯域幅でAIのトレーニング、チューニング、スケーリングが可能になります。ローメイヤー氏によると、トレーニングは3倍高速化されます。
NVIDIA のおかげで、「あらゆるクラウドの中で最も包括的な AI インフラストラクチャ ポートフォリオを提供できるようになります」と Lohmeyer 氏は述べています。
Cloud TPU v5eは生成AI推論に最適化されています
Googleは、生成AI推論向けに最適化された第5世代のクラウドTPUであるCloud TPU v5eを発表しました。TPU(Tensor Processing Unit)は、Google Cloudでホストされる機械学習アクセラレータです。TPUは、人工知能システムの予測を支援する論理プロセスである推論に必要な膨大なデータを処理します。
Cloud TPU v5e は、前世代の TPU と比較して、トレーニングでは 1 ドル当たりのパフォーマンスが 2 倍、推論では 1 ドル当たりのパフォーマンスが 2.5 倍優れていると Lohmeyer 氏は述べた。
「ソフトウェアとハードウェアの魔法がマルチスライスなどの新しいソフトウェア技術と連携することで、お客様は単一のTPUポッドや単一のTPUクラスターの物理的境界を超えて、(生成)AIモデルを容易に拡張できるようになります」とローメイヤー氏は述べています。「言い換えれば、単一の大規模なAIワークロードが複数の物理TPUクラスターにまたがり、文字通り数万個のチップにまで拡張可能になり、非常にコスト効率の高い方法で実現できます。」
新しい TPU は、今週からプレビュー版として一般公開されます。
Google Kubernetes Engine Enterprise エディションのご紹介
多くの顧客がAIワークロードに利用しているGoogle Kubernetes Engineerが強化されます。GKE Enterpriseエディションには、マルチクラスタの水平スケーリング機能と、クラウドGPUとクラウドTPUの両方で実行されるGKEの既存サービスが含まれます。Googleによると、顧客からの初期報告では、生産性が最大45%向上し、ソフトウェアのデプロイ時間が70%以上短縮されたとのことです。
GKE Enterprise Edition は 9 月に利用可能になります。