
生成型AIは重要な局面を迎えています。MicrosoftのCopilotのような生成型AIチャットボットは比較的導入しやすくなりましたが、中には誤った「幻覚」を返したり、個人情報を漏洩したりするものもあります。組織のデータで安全にトレーニングされた、より専門性の高い会話型AIこそが、両者の長所を両立させる鍵となるかもしれません。Dellは、こうした膨大なデータを処理するために、NVIDIAと提携しました。H100 Tensor Core GPUとNVIDIA Networkingは、Dellの新しいProject Helixの基盤であり、組織による生成型AIの運用を支援する幅広いサービスです。
Dell Technologies World 2023が今週、ラスベガスでこのテーマを取り上げました。カンファレンス初日を通して、CEOのマイケル・デル氏をはじめとする幹部たちは、ChatGPTを超えてAIが企業にどのような可能性をもたらすかを深く掘り下げました。
「企業は特定の機密データを使って、はるかにシンプルなAIモデルを低コストかつ安全にトレーニングできるようになり、生産性と効率性に飛躍的な進歩をもたらすだろう」とマイケル・デル氏は述べた。
Project Helix は、2023 年 6 月に初めて一般公開製品として利用可能になります。
ジャンプ先:
- DellのHelix AIは、特定のユースケースに合わせたカスタム語彙を提供します。
- 企業固有のAIモデル作成における課題
- DevOps を変える — ボットごとに
- NVIDIAハードウェアの舞台裏
- あなたのビジネスは生成 AI を使用する必要がありますか?
DellのHelix AIは、特定のユースケースに合わせたカスタム語彙を提供します。
デル・テクノロジーズの製品マーケティング、インフラストラクチャ・ソリューション・グループ、テレコム担当シニアバイスプレジデントであるヴァルン・チャブラ氏は、「企業はドメイン固有のユースケース向けに生成型AIを導入しようと競い合っています」と述べています。デルのソリューションであるProject Helixは、企業が独自のAIをトレーニングし、制御できるフルスタックのオンプレミスソリューションです。
例えば、ある企業が自社ウェブサイト上のすべてのナレッジ記事を読み取り、それらの要約に基づいてユーザーの質問に答えるために、大規模な言語モデルを導入する可能性があると、フォレスターのアナリスト、ローワン・カラン氏は述べています。インターネット全体からデータを取得するのではなく、AIはナレッジ記事内の独自のコンテンツからデータを収集します。これにより、特定の企業とその顧客のニーズにより直接的に対応できるようになります。
「デルの戦略は、企業がより効果的にモデルを構築できるようにするハードウェア、ソフトウェア、そしてサービス戦略です」と、フォレスターのシニアアナリスト、ブレント・エリス氏は述べています。「モデルの作成とトレーニングのための合理化され検証済みのプラットフォームを提供することは、企業が解決すべき特定の問題に焦点を当てたAIモデルの構築を目指す中で、将来的に成長市場となるでしょう。」
企業固有のAIモデル作成における課題
しかし、企業が AI を自社の特定のニーズに合わせて移行しようとすると、いくつかの障害に遭遇します。
「当然のことながら、多くの具体的なニーズが浮上しています」とチャブラ氏はデルのカンファレンスで述べた。「成果などは信頼できるものでなければなりません。これは、誰でもアクセスできるような汎用モデルとは大きく異なります。ガードレールを設けるべき回答や、注意すべき疑問が多種多様に存在する可能性があります。」
幻覚や誤った主張はよくあることです。専有情報や匿名化された顧客行動に関わるユースケースでは、プライバシーとセキュリティが最優先事項となります。
NVIDIA の AI ソフトウェア製品管理担当副社長、カリ・アン・ブリスキ氏は、企業顧客はプライバシーとセキュリティ上の懸念から、カスタムのオンプレミス AI を選択する可能性もあると述べています。
さらに、クラウドではコンピューティング サイクルと推論のコストが高くなる傾向があります。
「トレーニング モデルを作成し、それを自社のブランド ボイスとデータに合わせてカスタマイズして調整したら、コンピューティング サイクルを節約するために最適化されていない推論を実行することは、多くの顧客が懸念するもう 1 つの領域です」とブリスキ氏は述べています。
企業によって生成AIに対するニーズは異なります。オープンソースモデルを使用している企業から、ゼロからモデルを構築できる企業、あるいは本番環境でモデルを実行する方法を検討している企業まで様々です。「学習用インフラと推論用インフラの適切な組み合わせはどのようなものでしょうか?また、それをどのように最適化するのでしょうか?本番環境ではどのように実行するのでしょうか?」とブリスキ氏は問いかけました。
Dell は、Project Helix を、潜在的顧客が質問にどのような答えを返すかに関係なく、安全でセキュリティが確保された、パーソナライズされた生成 AI を実現する手段であると位置づけています。
「この技術が進歩するにつれ、モデルを可能な限り小型かつ効率的にしつつ、より大きなモデルと同等のパフォーマンスを実現するための取り組みがますます増えています。これは、特定のタスクに向けた微調整と抽出によって実現されます」とカラン氏は述べた。
参照: Dell は今年、APEX ソフトウェア アズ ア サービス ファミリーを拡張しました。
DevOps を変える — ボットごとに
このようなオンプレミスAIは、運用のどこに位置づけられるのでしょうか?エリス氏は、コード生成からユニットテストまで、あらゆる場面で活用できると述べています。特に、特化したAIモデルはこの点に優れています。開発者の中には、TuringBotsのようなAIを使って、計画からコードの展開まであらゆる作業を行う人もいます。
NVIDIAでは、開発チームが機械学習オペレーションの代わりにLLMOpsという用語を採用している、とブリスキ氏は述べた。
「コーディングしているのではなく、人間的な質問をしているのです」と彼女は語った。
次に、専門家からの人間によるフィードバックを通じた強化学習により、AIはプロンプトに正しく応答しているかどうかを理解できるようになります。これは、NVIDIAが生成型AIの構築と展開のためのツールであるNeMoフレームワークを活用する方法の一部です。
「開発者がこのモデルに取り組む方法は、それを維持および更新する方法の点でまったく異なるものになるでしょう」とブリスキ氏は語った。
NVIDIAハードウェアの舞台裏
Project Helixのハードウェアには、H100 Tensor GPU、NVIDIAネットワーク、そしてDellサーバーが含まれています。ブリスキ氏は、形態は機能に従うと指摘しました。
「新しいハードウェアアーキテクチャの各世代において、ソフトウェアは初日から準備が整っていなければなりません」と彼女は述べた。「チップをテープアウトする前から、最も重要なワークロードについても検討しています。
「…例えばH100では、Transformerエンジンが採用されています。NVIDIA Transformerは私たちにとっても世界にとっても非常に重要なワークロードなので、H100にはTransformerエンジンを搭載しました。」
Varun 氏によると、Dell と NVIDIA は、特に複雑で新しい AI と高性能コンピューティングのワークロード向けに PowerEdgeXE9680 とその他の PowerEdge ファミリーのサーバーを共同で開発しており、大規模なパフォーマンスと高帯域幅の処理を確実に処理できるようにする必要があったという。
NVIDIAは2017年にVolta GPUでビジョンベースのAIをトレーニングして以来、大きな進歩を遂げてきたとブリスキ氏は指摘した。現在、NVIDIAは数百のノードと数千のGPUを使用してデータセンターのインフラシステムを運用している。
NVIDIA はハードウェア設計にも大規模言語モデル AI を採用しています。
「ディープラーニングが登場した6、7年前、NVIDIA CEOのジェンセン・フアンがNVIDIAに課した課題の一つは、すべてのチームがディープラーニングを導入しなければならないというものでした」とブリスキ氏は述べた。「彼は大規模言語モデルについても全く同じことを行っています。半導体チームは大規模言語モデルを使用しており、マーケティングチームも大規模言語モデルを使用しています。社内でアクセスするためのAPIも構築しています。」
これはセキュリティとプライバシーのガードレールの概念に繋がります。例えば、NVIDIAの従業員は人事AIに、子供の養子縁組を支援する人事福利厚生を受けられるかどうかを尋ねることができますが、他の従業員が子供を養子縁組したかどうかは尋ねられません。
あなたのビジネスではカスタム生成 AI を使用する必要がありますか?
企業が生成AIの活用を検討している場合、そのAIを大規模に変更または最適化する必要性とその能力があるかどうかを検討する必要があります。さらに、セキュリティニーズも考慮する必要があります。ブリスキ氏は、データの取得元がブラックボックス化されている公開LLMモデルの使用は避けるべきだと警告しています。
特に、その基礎モデルに使用されたデータセットが商業的に使用できるかどうかを証明できることが重要です。
エリス氏は、DellのProject Helixに加え、MicrosoftのCopilotプロジェクト、IBMのWatsonxツールは、専用AIモデルに関して利用可能な選択肢の広さを示していると述べた。HuggingFace、Google、Meta AI、DatabricksはオープンソースのLLMを提供しており、Amazon、Anthropic、Cohere、OpenAIはAIサービスを提供している。FacebookとOpenAIは、将来的に独自のオンプレミスオプションを提供する可能性が高い。他にも多くのベンダーが、この活気ある分野への参入を模索している。
「汎用モデルはより大規模なデータセットにアクセスでき、より限定的なデータセットを持つ専用モデルではアクセスできないような関連性を見出す能力を持っています」とエリス氏は述べた。「しかしながら、市場で見られるように、汎用モデルは誤った予測や『幻覚』を起こす可能性があります。」
「専用に構築されたモデルは、そうした幻覚を制限するのに役立ちますが、さらに重要なのは、モデルが作成された後に行われる調整です。」
全体的に、組織が AI モデルをどのような目的で使用したいかによって、汎用モデルを使用するか、独自にトレーニングするかが決まります。
免責事項: Dell は、5 月 22 日から 25 日までラスベガスで開催された Dell Technologies World イベントの航空運賃、宿泊費、および一部の食費を支払いました。