AIの処理において、NVIDIAのGPUは業界を席巻しています。OpenAIは人工汎用知能の競争において最も高度なAIモデルの一つを持っています。次のフェーズでは、OpenAIは情報をより速く処理し、毎秒より多くのデータを必要とするため、よりパワフルなGPUが必要です。NVIDIAとOpenAIは、数千ではなく数百万のGPUを組み合わせることに取り組んでいます。
報告によると、NVIDIAはOpenAIに2万以上のGPUを供給しました。例えば、NVIDIAとOpenAIはChatGPTで協力し、GPT-4モデルをリリースしました。OpenAIは数千のGPUを使用しています。両社は、既存のどのGPUよりも能力のあるAI GPUについて話し合っています。
NVIDIAとOpenAIの両社が市場を席巻しています。OpenAIは最近、Webやモバイル(iOSおよびAndroidデバイスを含む)へのアクセシビリティを拡大しました。同社は、より多くのGPUが必要であり、次のAIモデルを処理し、改善するために、さらなる機能を追加する必要があります。NVIDIAは、グラフィックスプロセッサに使用されるAI GPUの市場シェアが95%であると言われています。進む前に、これを考慮しましょう:Microsoftは、Bing AIを展開するために20,000の8-GPUサーバーが必要であり、そのインフラストラクチャには40億ドルかかります。
OpenAIは次のAIモデルに1000万のGPUを必要とします。
現在、AIモデルは人間よりも99%創造的です。ただし、GPUへの投資は費用がかかり、AI処理のために1000万のGPUを一緒に構築するためには重い負担が伴います。これは人工知能の大きな飛躍となります。次のモデルは、さまざまなアプリケーションやタスクを含む、より多くのことができるようになります。これらのために、彼らはクラウドプロバイダから購入またはアクセスを得る必要があります。
次の進化したAGIのフェーズでは、OpenAIはより強力なトレーニング技術を使用し、そのモデルは1000万以上のAI GPUを接続することができます。これが過剰なのか疑問に思うかもしれませんが、現在の業界を席巻しているため、次の言語モデルに必要なAI GPUの要件は、より高い能力と精度を持つようになります。そのためには、より多くのデータを処理する必要があり、それは数テラバイトに及びます。パターンの認識やテキストの生成、予測の作成、オブジェクトの識別が必要です。
ただし、NVIDIAは最大で100万のAI GPUを生産することができますが、数百万のGPUを納品するには10年かかると考えられています。業界の需要が高まったため、GPUの不足が見られます。NVIDIA自体もGPUの価格を引き上げています。NVIDIAはTSMCと協力して供給と生産を増やす取り組みを行っています。これらすべてを考慮すると、価格と電力が上昇し、そんな大規模なGPUを相互接続するというさまざまな課題も含まれることを述べる必要があります。
Google、Microsoft、Amazonなどの他の企業もAGIの開発に取り組んでおり、NVIDIAから数千のGPUを注文しています。需要の高まりにより、NVIDIAの株価は大幅に上昇し、NVIDIAはほぼ1兆ドルの企業となりました。昨年、NVIDIAは3,034万個以上のGPUを販売し、小売では約1,000万個のGPUを販売しました。OpenAIがこのような高額な費用を負担できるかどうかはまだ決まっていませんし、パンデミック期間と同様のGPU不足にはほとんど直面しないでしょう。
NVIDIAもOpenAIも、OpenAIが1,000万個のGPUを使用するというニュースを確認していません。一部の情報源によると、MicrosoftもAIの開発にGPUを使用しており、これによりコストを抑えることができます。現時点では、これらのアプリケーションのコストはNVIDIA 100チップで1万ドルであり、OpenAIのChatGPT、MicrosoftのBing AI、StabilityのStable Diffusionで使用されるAGIの中でも最も重要なツールの1つになっています。
Stability AIは、プロンプトや入力を使用した画像生成に5,400個のNvidia A100 GPUを使用しており、最近リリースされたStable Diffusionモデルは、8つのA100 GPUを使用して256個のA100 GPUでトレーニングされており、Stability AIは合計で20万時間の計算時間を持っています。アナリストや技術者は、OpenAIがGPT-3言語モデルに400万ドル以上を費やしたと推定しており、Meta AIは1.4T LLAMAモデルのトレーニングに2,048個のNvidia A100 GPUを使用しています。これらの特別に設計されたGPUは、複雑な計算を同時に処理することができ、ニューラルネットワークモデルのトレーニングと使用に適しています。
最初はGPUはグラフィックス処理にしか使用されませんでしたが、最初のAGIの波の後、NVIDIA A100は構成され、機械学習タスクに特化し、データセンターで使用されるようになりました。他の企業もAI-GPUハードウェアの研究開発に取り組んでおり、最も注目すべきOEMはAMDとIntelです。NVIDIA以外のGPUでもトレーニングすることが可能です。NVIDIAの進歩を見ると、同社はフレームワークとライブラリをさらに洗練させ、効率的に利益を生み出し、開発者に前払い価格を低く保つことができるでしょう。