JavaScriptが無効になっています。
このWebサイトの全ての機能を利用するためにはJavaScriptを有効にする必要があります。

Science Report
サイエンス リポート

デジタル社会を支えるデータセンター向けの新チップ、「DPU(Data Processing Unit)」

文/伊藤 元昭
2025.04.02
デジタル社会を支えるデータセンター向けの新チップ、「DPU(Data Processing Unit)」

データセンターに置くサーバーの頭脳として、プログラム次第でさまざまな演算を柔軟実行できるCPU(Central Processing Unit)が長年活用されてきた。これが近年、データセンターでの人工知能(AI)の学習処理や推論処理の需要が急増し、AI関連処理を効率的に実行できるGPU(Graphics Processing Unit)をサーバーに導入する例が急増した。特に演算負荷が大きい生成AI向けモデルの学習でGPUの需要増を見越した、最大手メーカーであるNVIDIA(アメリカ)が時価総額世界1位に躍り出て、株式市場の主役となるほどの注目を集めている。

データセンター向け半導体チップとして、GPUに続いて、これからの急成長が期待されている半導体チップがある。「DPU(Data Processing Unit)」と呼ばれる新しいタイプのプロセッサーである(図1)。

急成長が期待されるデータセンター向け半導体チップ「DPU」
[図1]急成長が期待されるデータセンター向け半導体チップ「DPU」
右の写真は、NVIDIAのDPU「Bluefield-3」
出典:NVIDIA、AdobeStock

急増するサーバー設置と増大する演算負荷

もはや生活に欠かせないサービスとなったSNSやネット通販、ネットバンキング、動画配信から、ビジネスや社会活動で利用するリモート会議やビジネスチャット、顧客情報や受発注を管理する基幹業務システムまで、私たちは日常的にクラウドサービスを活用している。そして、これらのクラウドサービスでの情報処理の実行を担っているのがデータセンターである。現代人の中には、気付かないまま、日々の時間のほとんどをデータセンターで作り出したデジタル仮想空間の中で過ごしているという人も多いのではないか。

規模の大小はまちまちではあるが、現在世界には、約1万1000カ所以上のデータセンターが存在するとされている。調査会社のIDCによる予測によると、全世界で生成されるデータ量は2025年には180ゼタバイト(ゼタは、ギガの1兆倍)であり、そのうちの多くがデータセンターで処理されている。さらに近年、人工知能(AI)を活用する応用分野の拡大とサービス利用者の急増によって、データセンターの計算負荷が急激に高まっている。加えて、世界中の工場の設備や交通・物流施設、産業プラントなどを対象にしてIoT(Internet of Things)の活用による管理の効率が進んでおり、データセンターで扱うデータ量は予想を上回るペースで増加する可能性も出てきた。

こうしたデータセンターでの演算需要の増大は、サーバー向け半導体チップの需要を強く押し上げる要因になる。現在の増加ペースが継続すると仮定してデータセンター向けサーバーの需要推移を推計すると、2030年代後半にはパソコンの、2040年代後半にはスマートフォンの年間出荷台数を超えるとみられる(図2)。しかも、データセンターに設置されるサーバーは、パソコンやスマートフォンとは比べものにならないほどの高い演算性能が要求される。その結果、サーバーに搭載される情報処理の頭脳となるCPUやメモリーなどの半導体チップの需要が爆発的に高まる時代が遠からずやってくることだろう。つまり、最先端半導体工場での生産能力を、データセンター向けチップを生産するために、これまで以上に多く用意する必要性が出てきている。

世界のデータセンター向けサーバー需要(1U換算)
[図2]世界のデータセンター向けサーバー需要(1U換算)
作成:伊藤元昭、写真はAdobeStock

ただし、現状の最先端半導体チップの生産状況を見てみると、供給が需要に応えられていない状況だ。例えば、2025年に市場投入される予定のNVIDIAの最新チップ「Blackwell」は、モジュール1基あたりの価格が1000万円にも達するのではないかと予想する声がある。これほど高価になるのは、製造コストが高いことが主因ではなく、需要に対する供給が圧倒的に足りないことが想定されるからだ。また、AMD(アメリカ)のCPUは機能・性能面では市場で高い評価を受けているにも関わらず、シェアを高めるのに苦慮している。その原因も、供給量が足りていないからだ。NVIDIAも、AMDも工場を持たないファブレス半導体メーカーであり、最先端チップの製造はTSMC(台湾)に委託している。TSMCの最先端製造ラインでは、多様な顧客企業のチップを混流生産している。同社の製造ラインには限りがあり、NVIDIAやAMDが獲得できる製造枠で供給量が決まる状況になっている。

近年、TSMCは新工場の建設計画を次々と発表して、生産能力の増強に努めている。その一方で、半導体メーカーや最終ユーザーであるクラウドサービスの事業者も、最先端ラインで製造する半導体チップの価格正常化と安定供給という観点から、製造するチップ品目の最適化を考える必要が出てきている。こうした状況を背景として登場するのが、新たな成長が期待されるDPUである。

データセンターでの演算需求の背景とDPUの誕生

冒頭で述べたように、かつてのデータセンターでは、施設内で処理すべき計算のすべてを、CPUで実行していた。データセンターで処理するタスクは多様だ。ネット通販のように1件1件の負荷は小さいが複雑な逐次処理や分岐処理が含まれる処理を大量実行するもの、AI関連処理のように膨大なデータを対象にして同じ演算を繰り返し実行するもの、証券取引のようにリアルタイム処理が求められるものなど、処理の内容自体が多様である。ただし、CPUはプログラム次第であらゆる処理をこなす万能性があるため、主にデータセンターの頭脳として利用されてきた。

ただし、それぞれの処理において、CPUが全てに最適だったわけではない。AI関連処理は、多用する積和演算などに向く演算器を大量に並列動作させることができるGPUの方が向いている。GPUならば、CPUでは到達不能な高性能を実現できる可能性もある。そこで、データセンターにGPUを導入し、CPUの負荷を軽減させて、処理の分担を最適化させた(図3)。

データセンターで進行している新チップ導入による負荷分散と最適化の流れ
[図3]データセンターで進行している新チップ導入による負荷分散と最適化の流れ
作成:伊藤元昭

同様に、CPUで実行していた処理のうち、本来CPUで処理しない方が好ましいタスクとして、データセンター全体のシステムの管理・制御が挙がる。具体的には、データセンター内で処理すべきデータを適材適所に振り分けるためのネットワーク処理や、蓄積している膨大なデータの読み出し/書き込みに付随するストレージ処理、セキュリティー関連の処理、近年、重要性を増している仮想化関連の処理などである。

これまで、簡単なネットワーク処理に関しては「NIC(Network Interface Card)」と呼ばれるデバイスが利用され、その機能進化版である「SmartNIC」も活用されていた。ところが、扱うデータ量がさらに増大したこと、それぞれの処理がより高度になったことから、便利屋であるCPUが機能増強分の処理を肩代わりしていた。処理量の増大や機能増強に柔軟に対応できたからである。しかし、CPUでなければ対応できないアプリケーションの処理が増大したこと、ユーザー向け処理と運営・管理者向け処理を明確に分離させる必要性が増したことから、SmartNICにCPUのような柔軟な情報処理機能を強化した新たなチップの導入が求められるようになった。こうした要求に応えるかたちで登場したのがDPUである。

DPUとは?新たなデータセンター向けプロセッサーの特徴・役割

DPUとは、データセンターの管理・制御に関わる情報処理に特化したプロセッサー。ネットワーク処理に特化したSmartNICの専用回路に、プログラム次第で高度で多様な処理を実行できる多数のCPUコアを組み合わせて構成されるチップで、それぞれのサーバーの中に搭載されて利用される。同様の機能を備えるチップを、「IPU(Infrastructure Processing Unit)」と呼び、開発・販売している半導体メーカーもある。また既に、CPUの負荷軽減を狙って、DPUを導入したサーバーを利用しているデータセンターも多い。DPUが備えている主要な機能は、以下のようなものだ(図4)。

DPUの主要機能
[図4]DPUの主要機能
作成:伊藤元昭

まず、ネットワーク処理の高速化。DPUには、高性能なネットワークインターフェースが搭載されており、パケットのルーティングや仮想ネットワーク機能を効率的に処理することが可能である。なかでも、物理的なネットワークリソースを仮想的に抽象化し、複数ネットワークを1つの物理ネットワーク上に構築する仮想ネットワーク機能は、データセンターを効率的、かつ安定的に柔軟運営するための重要機能となっている。DPUの導入によって、ネットワークのパフォーマンスが大幅に向上し、データセンター全体の効率が改善される。

次は、ストレージ関連処理の高速化と最適化。DPUを導入することで、ストレージへのデータ転送の効率的な管理が可能になる。これによって、データの移動が円滑になり、システム全体の性能向上が期待できる。ストレージの利用効率向上も可能だ。また、リモートストレージとしても利用可能になり、通信帯域が増加しても、サーバーのCPU負荷が増大しないようにして、リソースのムダを省きながら通信帯域の増加に対応する。さらに、データの暗号化や圧縮をハードウエアレベルで行うことができる。

そして、セキュリティ機能の強化。DPUでは、ネットワークパケットの暗号化や復号化を高速実行し、データの機密性を保護することができる。また、セキュリティポリシーの効率的適用や、次世代ファイアウォール機能、マイクロセグメンテーション機能、侵入検出/防止(IDS/IPS)機能、ファームウェアの不正な変更を防ぐ「セキュアブート」や「セキュアアップデート」などの機能の実行も可能である。近年、「ゼロトラスト」と呼ばれるあらゆるアクセスを信頼せず常に安全性を検証することを前提としたセキュリティ対策の実践が求められるようになった。DPUでは、ネットワークトラフィックの監視や暗号化をハードウェアで高速化することで、ゼロトラストセキュリティを強化する。

将来のDPU市場を巡って複数社が覇権争い、NVIDIAの戦略に注目

マーケティングリサーチ会社であるStratistics MRCによると、DPUの世界市場は2023年時点で7004億3000万ドルに達しており、年率26.9%成長して、2030年には3兆7119億ドルの巨大市場に成長すると予測している。そして、急成長を見込んで、アメリカのNVIDIAやAMD、Intel、Marvel Technologyといった大手半導体メーカーから、MangoBoost(アメリカ)などのスタートアップまで、複数の半導体メーカーが市場参入している。さらに、DPUはデータセンターの付加価値向上に直結する重要なチップになることから、アメリカのMicrosoftやAWSが独自開発して自社利用している。Google(アメリカ)も、Intelと共同開発している。

なかでも注目すべき動きをしているのがNVIDIAである。同社は、DPU向けの開発プラットフォームとしてDOCA(Datacenter-on-a-Chip Architecture)を提供。GPUと同様のベンダーロックインの状態を現出させる戦略を実践している。GPUの領域で飛ぶ鳥を落とす勢いのNVIDIAだが、その強みの背景には、GPUと、そこで動かすソフトウエアの開発プラットフォーム「CUDA(Compute Unified Device Architecture)」の両者を擦り合わせ開発して、両者の歩調を合わせながら進化させてきたことがある。パソコンにおけるIntelの役割とMicrosoftの役割を1社で兼ね備える戦略である。DPUにおいても、GPUと同等の強いビジネスを展開できるかに注目が集まっている。

Writer

伊藤 元昭(いとう もとあき)

株式会社エンライト 代表

富士通の技術者として3年間の半導体開発、日経マイクロデバイスや日経エレクトロニクス、日経BP半導体リサーチなどの記者・デスク・編集長として12年間のジャーナリスト活動、日経BP社と三菱商事の合弁シンクタンクであるテクノアソシエーツのコンサルタントとして6年間のメーカー事業支援活動、日経BP社 技術情報グループの広告部門の広告プロデューサとして4年間のマーケティング支援活動を経験。

2014年に独立して株式会社エンライトを設立した。同社では、技術の価値を、狙った相手に、的確に伝えるための方法を考え、実践する技術マーケティングに特化した支援サービスを、技術系企業を中心に提供している。

URL: http://www.enlight-inc.co.jp/

あわせて読みたい

Science Report

新着記事

よく読まれている記事

Loading...
Loading...