真空管からトランジスタへ――「チップ以前」のコンピュータ
ハードウェアチップの歴史を語る前に、その前段階である真空管コンピュータの時代を押さえておく必要があります。1940年代、第二次世界大戦のさなかに登場した初期の電子計算機は、いずれも真空管という電子部品を何千本、何万本と組み合わせて作られていました。代表例として知られるENIACは約1万8000本もの真空管を使い、部屋を埋め尽くすほど巨大で、消費電力も莫大でした。熱で壊れやすく、故障が日常茶飯事という扱いにくい機械だったのです。
この状況を一変させたのが、1947年にベル研究所で発明されたトランジスタです。トランジスタは、電流のオン・オフを制御するという意味では真空管と同じ役割を果たしますが、サイズは格段に小さく、消費電力も少なく、耐久性も高いという夢のような部品でした。真空管がガラス製の球状部品だったのに対し、トランジスタは固体中で電子を制御する「固体素子」であり、この意味から半導体技術は「固体電子工学」とも呼ばれるようになりました。
トランジスタの登場により、コンピュータは少しずつ小型化・高信頼化していきます。しかし、初期のトランジスタコンピュータでも、基板の上に個々のトランジスタを一つひとつ配線していく必要がありました。トランジスタ、抵抗、コンデンサなどの部品を組み合わせる作業は膨大で、部品点数が増えるほど故障リスクも高まります。ここで生まれた課題感が、「複数の素子をひとまとめにしてしまえ」という発想につながり、後に「チップ」と呼ばれる世界へとつながっていきます。
集積回路とマイクロプロセッサの誕生――「一枚のチップ」にコンピュータを封じ込める
1960年代に入ると、トランジスタや受動素子を一枚のシリコン基板の上にまとめて作り込む「集積回路(IC)」が登場します。ジャック・キルビーやロバート・ノイスらの発明によって、バラバラの部品を配線する代わりに、シリコン上に微細なパターンを焼き付けて一体化するという発想が実用化されました。これにより、同じ機能をはるかに小さな面積で実現できるようになり、電子機器の小型化と信頼性向上が一気に進みます。
集積回路の進化を象徴する言葉が、インテルの共同創業者ゴードン・ムーアによる「ムーアの法則」です。これは「半導体チップに集積できるトランジスタの数は、おおよそ1年半から2年ごとに2倍になる」という経験則で、実際に数十年にわたり驚くほどよく当てはまりました。チップ上のトランジスタ数が増えれば、同じサイズでもより複雑な処理ができるようになり、コンピュータの性能は指数関数的に向上していきました。
この流れの中で画期的だったのが、1971年にインテルが発表した世界初の商用マイクロプロセッサ、Intel 4004です。それまでコンピュータの中で分かれていた演算装置や制御回路を、一枚のチップにまとめ上げたのがマイクロプロセッサでした。これにより、「一つのチップ=一つの計算機の頭脳」という構造が成立し、あらゆる機器にコンピュータ機能を組み込む「マイコン化」が急速に進んでいきます。
1970年代から80年代にかけては、8ビット、16ビット、32ビットとマイクロプロセッサの性能が次々と向上し、パーソナルコンピュータの時代が到来します。Intel 8086系やMotorola 68000系などのCPUは、PCやワークステーションだけでなく、ゲーム機や家電にも搭載され、コンピューティングの裾野を広げていきました。この時代のハードウェアチップの主役は、まさに汎用CPUだったと言えます。
同時に、メモリチップやストレージ向けチップも進化しました。DRAMやSRAMといったメモリは集積度を増し、ハードディスクの制御用ICも高度化していきます。コンピュータシステム全体を構成する多数のチップが、それぞれの役割を担いつつ、集積度と性能を上げていった時代でした。
PC、スマホ、AIの時代――多様化・専用化するチップの世界
1990年代以降、インターネットとPCが普及し、2000年代に入るとスマートフォンが登場すると、ハードウェアチップの進化は「速さ」だけでなく「用途の多様化」「省電力化」という方向にも広がっていきます。その象徴が「システム・オン・チップ(SoC)」と呼ばれる設計です。SoCは、CPU、GPU、メモリコントローラ、通信機能など、もともとは別々のチップだった機能を、一枚のシリコン上に統合したものです。スマートフォンの中には、このSoCが一つ入っているだけで、電話、インターネット、カメラ処理、動画再生といった膨大な機能をこなせるようになりました。
SoCの時代になると、チップ設計のプレーヤーも変化します。TSMCやサムスンのように製造に特化したファウンドリ企業と、AppleやQualcomm、NVIDIAのように設計に特化したファブレス企業が分業するビジネスモデルが主流になります。設計と製造を分けることで、最先端プロセスの開発コストを多くの顧客で分担しつつ、それぞれの企業が独自のアーキテクチャやソフトウェアとの連携で差別化を図るようになりました。
さらに近年では、グラフィックス処理用に生まれたGPUがAIの学習・推論に使われるようになり、ハードウェアチップの世界に新たな主役が登場します。GPUはもともと画像を描画するために多数の演算ユニットを並べたアーキテクチャを持っていましたが、その構造がニューラルネットワークの大量並列計算と非常に相性が良かったのです。その結果、NVIDIAのGPUはAI研究やデータセンターの基盤として不可欠な存在になりました。
GPUだけでなく、GoogleのTPUに代表されるようなAI専用アクセラレータも台頭しています。これらのチップは、特定の行列演算やAIワークロードに最適化された回路を持ち、汎用CPUやGPUよりも高い効率で処理を行うことを目指しています。同時に、エッジ側ではスマートフォンやIoT機器向けに、省電力なAI推論用NPU(Neural Processing Unit)が組み込まれるようになりました。これにより、クラウドに接続せずとも、端末単体で画像認識や音声認識ができるようになっています。
こうした高度化の裏側では、製造プロセスの微細化が限界に近づきつつあります。かつては90nm、65nm、45nmと順調に線幅が縮んでいきましたが、いまや3nmクラスまで到達し、原子レベルのばらつきや量子効果が無視できない領域に入っています。これに伴い、単純な微細化頼みではなく、チップレットという複数の小さなチップを組み合わせる技術や、3D積層による「立体的な」集積方法など、新しいアーキテクチャの模索が続いています。
チップの歴史は「抽象化」と「統合」の歴史
振り返ってみると、ハードウェアチップの歴史は、大きく二つの方向性で進んできたことが分かります。一つは、真空管からトランジスタ、集積回路、マイクロプロセッサへと続く「小型化・高速化」の流れです。もう一つは、CPU、GPU、NPU、各種アクセラレータ、SoCといった「用途に応じた専用化と統合」の流れです。前者が物理的な制約との戦いだとすれば、後者はどの処理をどのハードウェアに任せるかという「機能分担と抽象化」の戦いだったと言えるでしょう。
私たちは日常的に、スマホやPCの中で膨大な数のトランジスタが動いていることを意識することはほとんどありません。しかし、その見えないところでの技術革新が、インターネット、動画配信、SNS、そして生成AIのようなサービスを支えています。これからも量子コンピュータや光コンピューティング、さらなる3D集積など、新しいパラダイムが提案され続けるでしょう。そのどれもが、これまでのハードウェアチップの歴史の上に積み上がる次の一歩です。
ハードウェアチップの歴史を知ることは、単に過去の技術を振り返るだけではなく、これからどのような計算環境が現れ得るのかを考える手がかりにもなります。小さなシリコンのかけらに、人類の創意工夫と社会の変化が刻み込まれていることを、あらためて意識してみると面白いかもしれません。