JavaScriptが無効になっています。
このWebサイトの全ての機能を利用するためにはJavaScriptを有効にする必要があります。

Science Report
サイエンス リポート

半導体の技術革新がAIを飛躍的に進化させる?

文/津田 建二
2024.01.22
半導体の技術革新がAIを飛躍的に進化させる?

2022年11月ごろから注目され始めたChatGPT(Generative Pretrained Transformer)。質問をテキストで打ち込むと答えを生み出してくれるだけではなく、新しいテキストや画像などを生成する、という全く新しいAI(人工知能)技術で、生成(Generative)AIと呼ばれている。ここに数千個以上も大量に使われている半導体チップがGPU(Graphic Processor Unit)と呼ばれるICだ。このGPUを開発してきたアメリカのNVIDIAが、2023年に世界一の半導体メーカーに飛躍すると予想されている。しかも、AI技術は生成AIだけではなく、パソコンやスマートフォン、あるいはIoTのようなエッジ端末にまで広がり始めている。ここでは、これから広がるAI技術を支える半導体技術を紹介しよう。

AIやITサービスの技術が発展するためには

AIやITサービスの中心となる技術は、ハードウエアとソフトウエアの両方が中核となっている。ハードウエアがなければソフトウエアは使えない。また、ソフトウエアがなければハードウエアはただの箱にすぎない。両者が共に発展して初めて進歩につながる。ただし、ここで示すハードウエアは、今や半導体チップそのものを指す言葉になっている。システムが半導体ICチップに載り、ICがSoC(System on Chip)と言われるようになってきたからだ。

生成AIが登場してきた背景も、実はハードとソフトの両者の進展が根底にある。生成AIは、どんな質問にも答えてくれ、しかも作曲や論文、小説、絵画なども生成してくれる。つまり、政治、経済、金融、文学、法学、音楽、絵画、物理学、化学、生物学、文化、風習、旅行、電子工学や半導体工学、機械工学など、さまざまな分野の知識が詰まっているのである。これらを全て学習させてあるから、そのためのソフトウエアは膨大になる。ChatGPTのGPT-3と呼ばれる技術は、大規模言語モデル(LLM)で構成され、学習させるのに数千個のGPUを使い300日かかったと言われている。

さらに膨大なテキストから、要求される答えを導くためにトランスフォーマと呼ばれる技術を使い、テキストの中から注目すべき言葉(アテンション)を認識し、言葉と言葉の関係性や文脈を理解して、次にくる言葉を推測するのだ。この技術によって、質問の答えを作り出す。

半導体メーカーの努力が生成AIを実現させた

これまで多くのソフトウエア技術者が生成AIに学習させる膨大な作業量に圧倒されて、とても実用的ではないと感じてあきらめてきた。そこで、半導体メーカーは、AIチップの性能を上げることに努力してきた。例えば学習に300日もかかる巨大なソフトウエアに対して、AIチップの性能を10倍に上げれば30日で済む。100倍に上げれば3日で済む。半導体設計者にとって極めて挑戦的だが、やりがいのあるテーマとなる。NVIDIAのモチベーションはここにある(図1)。

NVIDIAの開発した最新のAIチップ「Grace Hopper」
[図1] NVIDIAの開発した最新のAIチップ「Grace Hopper」
GPUとCPUの強みを合わせたAIチップで進化を続けている
出典:NVIDIA

逆にAI専用チップの性能が向上するにつれ、ソフトウエア技術者も生成AIに挑むようになった。ChatGPTを開発したのはOpenAI(アメリカ)だが、OpenAIに続けとばかりに、アメリカのAnthropicやInflection AI、カナダのCohereなどLLMを駆使した生成AIモデル開発のスタートアップが誕生し、AIチップを求めるようになった。もちろん、生成AIを提供するアメリカのクラウドサービス業者のAWS(Amazon Web Service)やGoogle Cloud、MicrosoftなどもAIチップを要求している。まるで生成AIに群がるような勢いである。

AIとは何か

改めてAIとは何か、について考えてみよう。

AIという言葉はいい加減に使われていた。昔は、簡単な制御回路や演算回路でも「人工知能」という言葉が家電製品などの宣伝に使われた。今でもAIとコンピュータとの違いが混同されているケースをよく見かける。このためIBM(アメリカ)は数年前まで機械学習技術を導入してもAIとは言わず、最初のAIコンピュータ「Watson」をコグニティブコンピュータと呼んでいた。

一般的には、機械学習やディープラーニングを行うコンピュータをAIと呼んでいる。一つの行動を行うために「学習」によって知識を蓄え、その知識データから、新たに提示された問題を「推論」して出力する。このため学習していないコンピュータ技術はAIとは呼ばない。この学習と推論をセットにした技術がAIである。

例えば画像認識でリンゴやトマト、ミカン、キュウリなどを判別できるようにするため、それぞれ数千枚、数万枚の画像データを入力し、それが何であるかを予め学習させておく。

学習させるために使われるモデルが、人間の脳の神経細胞(ニューロン)と、そのつながり、つまり神経構造を模したニューラルネットワークである。ニューロン1個のモデルとして、多入力1出力の演算器を用いる(図2)。そしてモデルを単純化するために、出力データを0(ゼロ)か1にしておく。多入力と言っても5~8個の信号が来る程度。また、入力データはそのまま使わずに、何らかの重みを入力データにかけて演算する。後述するように、この重みを変えることによって「学習」するのだ。多数の入力データを足し合わせた結果が0か1の出力となる。これを数式で表すと、A1×B1+A2×B2+・・・・・・・An×Bn、となる。これは、数学の級数展開の数値演算、あるいは行列演算に他ならない。

ニューラルネットワークの概念図
[図2] ニューラルネットワークの概念図
ニューラルネットワークの基本はニューロンのモデルパーセプトロンと呼ばれている
作成:津田建二

このニューラルネットワークモデルでは、ニューロンへの入力の重みを変えることが学習強度につながる。推論でも同様に、ニューラルネットワークからの出力を総合して学習データと比較し、例えばリンゴなのかトマトなのかを判断する。AIでの演算は、An×Bnの積の足し算だから、積和演算を呼ばれている。

実は、AIチップとして注目されているGPUには、小さな積和演算器が多数集積されている。これがニューラルネットワークの演算そのものである。ゲーム機用のGPUを開発してきたNVIDIAがAIでもGPUを使えたのはこのためだ。

生成AIでは、自然言語を理解できるようにするため、数兆にも及ぶ言葉を学習させている。ChatGPTで代表されるGPT-3では1750億パラメータという巨大なソフトウエアモデルの規模になっているし、OpenAIのGPT-4は1兆パラメータになると言われている。

ただし、業界全体が超大規模なLLMを開発しようとしているわけではない。例えばIBMはGPT-3よりも1桁小さな100~200億パラメータの生成AIモデルを開発している(図3)。

IBMのwatsonx.aiで利用できる生成AIの基盤モデルとその規模
[図3] IBMのwatsonx.aiで利用できる生成AIの基盤モデルとその規模
出典:IBM

生成AI向けのチップ開発が各社で加速

生成AI向けの半導体チップとしては、NVIDIAのGrace Hopper(図1)、メモリを大量に集積したH100、その前はA100などがある。AIチップを進化させ、さらなる性能向上を図り、学習時間の短縮に努めている

NVIDIAを追いかけるAMD(アメリカ)もH100に負けないようなチップAMD MI300Xを2023年6月のComputex Taipeiでサンプル出荷し、12月に発売した。これは、性能的にはNVIDIAの新製品H100と同等もしくは10〜20%性能を向上させた製品となっている。

これまで、300mmウェーハ規模のAIチップ「WSE-2」(図4)を設計してきたCerebras Systems(アメリカ)は、2023年11月にアラブ首長国連邦(UAE)の大手持ち株会社G42と共同で4Exa FLOPSのAIコンピュータを開発する。このAIチップは300mmウェーハから4角形の真ん中部分を切り取った形のウェーハスケールIC。2.6兆トランジスタを集積した。

300mmウェーハから切り出した1個だけの巨大なAIチップ(左)右下の小さなチップは一般に入手可能な最高性能のNVIDIAのA100チップ
[図4] 300mmウェーハから切り出した1個だけの巨大なAIチップ(左)右下の小さなチップは一般に入手可能な最高性能のNVIDIAのA100チップ
出典:Cerebras Systems

生成AIで業務効率化を行う時代に

生成AIは、一般企業の社員がより価値の高い活動に集中できるよう日常業務を自動化し、より創造的なコンテンツやコードの作成、コンテンツの要約や検索などの革新的な機能で社員をサポートできる、とIBMは考えている。同社は、目的や顧客企業に応じて最適な生成AIモデルを提案する。

NECもChatGPTよりもっと軽い生成AIの使い道を探しており、自動車事故に遭遇した際に、ドライブレコーダーに保存している映像から事故報告書を自動的に作成する、という応用を開発した参考資料1

生成AIの応用としてNVIDIAは、自社のチップ設計に生成AIを使っている参考資料2。この生成AIでは自社開発した大規模言語モデルを使い、チップ設計の一般的な問い合わせをしたり、バグのドキュメントをまとめたり、EDAツールのスクリプトを記述したりする。LSI設計の生産性を少しでも向上させることが目的だ。

PCやIoTなどエッジまですそ野が広がるAI活用

一方で、エッジAIを行う企業も増えている。エッジAIとは、クラウドを通さずに手元(エッジ)にあるデバイス(パソコンやスマホ)でAI(機械学習)処理を行う技術である。

AMDはパソコン用のモノリシックプロセッサSoCとして、AIエンジン搭載のAMD Ryzen Pro 7040シリーズを2023年9月に発表した。TSMCの4nmプロセスで製造されており、AI専用回路では推論に加え学習も可能だとしている。

2023年12月には、Intel(アメリカ)はパソコン向けプロセッサのCore Ultra(開発コード名Meteor Lake)を正式にリリースした。このチップはチップレットや3次元ICなど先端パッケージング技術で製作されており、特にAI専用処理回路を集積した。このチップには、従来サーバーやスパコンに使われていた2.5D/3D-ICやチップレットなど先端パッケージング技術が使われている。

モバイルデバイスにもAI機能を持ち込もうとしているのがQualcomm(アメリカ)だ。これによりAIをいつでもどこでも(ユビキタスに)使えるようになる。ただし、性能優先ではなく消費電力の少ないAIを目指すため、クラウドとモバイルのそれぞれの良い面を引き出すハイブリッド方式を使う。例えば高性能な用途が必要な生成AIはクラウドを利用し、追加学習程度の小さな用途は消費電力の少ないモバイルで行う。

スマホでAIをどのように使うのかだが、一例をGoogleが示している。撮影した画像を拡大しても、それ以上、鮮明な画像にならないが、Googleが最近発売したスマホ「Pixel 8」は、AIを使って画素補完し、それが可能になる。また、多数の人の顔を撮る場合に全員が笑顔の写真を撮ることは難しいが、AIが笑顔の写真を選び画像合成して全員が笑顔の写真を合成することができる。一瞬のうちに数枚の写真を撮るわけだが、どの顔が笑顔なのかを予め学習しているAIが判別する。

つまりAIはちょっとした場面に使われるようになってきたのである。大学の研究でもAIを使う例がよく登場する。例えば、ザラザラ感やさらさら感、濡れ感などの肌触りを数値で表現することを研究している香川大学の高尾英邦教授は、メーカーの異なるウェットティッシュ7種類の微妙な肌触りの違いを2種類のセンサーを開発して、AIで学習させたところ、全てあてることができたが、人間は判別できなかったという参考資料3

同様の例で、STMicroelectronics(スイス)は、自社のマイコンチップにAI専用回路を集積しており、AI機能を洗濯機に利用するというデモを示した。これは、作動させるモーターの回転数を洗濯物の重量に応じて最適な電流値を決めるもので、洗濯物の重量を推定するために機械学習を利用した。これにより洗濯機の消費電力を減らすことができる。

AIチップがもたらすこれからの未来

AIは、ある意味便利なツールである。IBMが考えているように、退屈な日常業務を生成AIにさせ、人間はもっと創造的な仕事に取り組むという使い方が理想的だ。ただし、AIはコンピュータマシンを学習させるわけだから、倫理に反することや、人類の敵となるようなことを学習させることは絶対に避けなければならない。

そこでIBMは、意図せずに反倫理的な事柄を学習させてしまうことも防ぐために、「watsonx.governance」と呼ぶツールキットを用意している。これは透明で責任あるAIを実現するためのツールであり、このツールに従ってAIのワークフローを作れば反倫理的なモデルを排除できる。

このような倫理観のあるAIワークフローを生み出せるようなツールを標準化するなり、JISのような工業製品の基準に当てはめるなどの公的な「目」がこれからのAI開発に必要になるだろう。

[ 参考資料 ]

1. 中西舞子、「NEC、探る軽い生成AIの活路 ドラレコ映像から自動で事故報告書」、日経ビジネス、(2023/12/27)
https://business.nikkei.com/atcl/gen/19/00112/122500181/?n_cid=nbpnb_mled_epu
2. Sally Ward-Foxton “Nvidia Trains LLM on Chip Design” EE Times (2023/10/30)
https://www.eetimes.com/nvidia-trains-llm-on-chip-design/
3. 津田建二、「手触り・肌触り感を再現できるマシンを香川大が開発、初期癌の発見やスキンケアに応用」、News & Chips、(2023/11/07)
https://blog.newsandchips.com/2023-11-07-09-58.html
Writer

津田 建二(つだ けんじ)

国際技術ジャーナリスト、技術アナリスト。

現在、英文・和文のフリー技術ジャーナリスト。

30数年間、半導体産業を取材してきた経験を生かし、ブログ(newsandchips.com)や分析記事で半導体産業にさまざまな提案をしている。セミコンポータル(www.semiconportal.com)編集長を務めながら、マイナビニュースの連載「カーエレクトロニクス」のコラムニストとしても活躍。

半導体デバイスの開発等に従事後、日経マグロウヒル社(現在日経BP社)にて「日経エレクトロニクス」の記者に。その後、「日経マイクロデバイス」、英文誌「Nikkei Electronics Asia」、「Electronic Business Japan」、「Design News Japan」、「Semiconductor International日本版」を相次いで創刊。2007年6月にフリーランスの国際技術ジャーナリストとして独立。著書に「メガトレンド 半導体2014-2025」(日経BP社刊)、「知らなきゃヤバイ! 半導体、この成長産業を手放すな」、「欧州ファブレス半導体産業の真実」(共に日刊工業新聞社刊)、「グリーン半導体技術の最新動向と新ビジネス2011」(インプレス刊)などがある。

URL: http://newsandchips.com/

あわせて読みたい

Science Report

新着記事

よく読まれている記事

Loading...
Loading...