昨晩、Apple が新型 iPad Pro と iPad Air を発表した。一部で予想されていた通り、M3 はスキップして M4 が搭載された。Air も M3 ではなく M2 が搭載された。これは Apple Silicon を製造する TSMC の動向をある程度追いかけてる人にとっては、とても合点がいく展開だったと思う。
Apple Silicon でも TSMC の N3B と呼ばれる 3nm 世代を使って製造されるのは iPhone 15 Pro に搭載される A17 Pro だけになるんじゃないかと考えていた。なぜなら TSMC N3B はたいへん歩留まりが悪い、つまり不良品率が高くて製造コストが高いと報じられていたからだ。それを改善した N3E もすでに動いていて、Apple 製品以外はこちらを使うことになるだろうとも報じられていた。
実際は Apple は A17 Pro のみならず、M3 も TSMC N3B で製造してきた。N3B は N3E より性能はいいと言われてたが、それにしても M3 世代も歩留まりの悪い N3B を使い続けるとは思わずちょっとびっくりしたものである。
そこに来て M4 の発表である。M3 世代で MacBook Air や Mac Studio や Mac Pro を作るつもりがなく、それは N3E でやるというならそりゃそうだよねという感がある。他社も使いたかろうに N3E を Apple にも優先的に割り当てた TSMC との蜜月っぷりもうかがえる*1。iPad Air が M3 でなく M2 なのも高コスト体質の TSMC N3B で作られた M3 は廉価版には採用しがたかったからだろう。
TSMC N3B と N3E の話は1年前のこの記事に詳しい。
ただこのN3Bもかなり難産なプロセスであった。具体的にはEUV露光だけで25回、しかもダブルパターニングが必要となっていた。トランジスタ層はともかく配線層でもダブルパターニングが必要なほど「攻めていた」らしい。ただこの結果歩留まりはなかなか上がらなかった。
その一方で、そのN3Bの性能向上版として位置づけられていたN3E(Enhancement)は途中で方針を変更。EUV露光も19回に削減され、しかもシングルパターニングでも行けることで、確実に生産できるように変更したプロセスである。
さらに上の記事でも引用されてる TSMC のロードマップを見てみよう。
これを見ると N3E を更に改善し性能向上を果たした N3P が今年製造開始されることがわかる。おそらくこれまでの関係から見るに、iPhone 16 Pro に採用されるのではないだろうか。その次の N3X は HPC 、いわゆるスパコン向けになるらしいので iPhone や Mac には使われないだろう。もしかしたら Mac Studio や Mac Pro に採用というのはあるかもしれないが。下にある N3AE や N3A は車載向けなのだそうだ。
また TSMC N3B で製造された A17 Pro は、これまでのように Pro のつかない次世代 iPhone に転用されたりはしないだろう。こちらも N3E を用いた Pro のつかない A17 Bionic とかそんな名前のものが採用されるのではなかろうか。いやともに N3P で製造されるのかもしれないが。
しかしこの M4 、M3 とそんなに中身変わんないんじゃん?という話も出てるようだ。
おそらくそのとおりだろうと思う。しかしこの流れには覚えがある。AMD の Ryzen 7000 番台から 8000 番台へのアップデートだ。Ryzen 7040 シリーズは Radeon 780M を搭載した APU で高いグラフィックス性能を発揮していた。その後継である 8040 シリーズもまったく同じ Radeon 780M が搭載されてるので「あんまり変わってないのでは?」といぶかしんでいた。
CPU、GPU、NPUなどが向上していることもあり、AI推論時の性能が強化。Ryzen 7040と比較してLlama 2で約1.4倍の性能を実現するほか、Core i9-13900Hと比較して、マルチスレッド(Cinebench R23)で最大1.1倍、各種ゲーム(F1 2022、Far Cry、League of Legendsなど)で最大1.8倍、コンテンツクリエーション(Blender、POVRay、Photoshopなど)で最大1.4倍の性能を発揮すると説明している。
ここで出てくる「AI推論」がおそらくキーポイントになるだろう。Apple M4 も同じようにAIの性能を強調する発表だった。
ちょうど少し前に Mac Studio が AI 開発に向いているという話が流れてきた。いまの大規模言語モデルと呼ばれるAIはサイズが大きければ大きいほど賢い傾向があり、それを動かすには大きなメモリが必要になる。nvidia などの GPU でそんなに大きな VRAM を搭載してるものを用意しようと思うと平然と500万円くらいしたりするので、100万円で買える Mac Studio はコスパがいいという話である。
Apple Silicon はいわゆる APU と呼ばれる、VRAM とメインメモリを共有する CPU である。もちろん速度は落ちるがそれでも広大なメインメモリが AI 推論に使えるのはとても有利だ。AMD の Ryzen 7040 および 8040 シリーズもそういう APU である。
Apple の研究開発の動向から言っても、今後は AI をローカルで動かすことがトレンドになっていくだろう。クラウドで動かすものよりは規模は小さくなり精度は下がるが、プライバシーも守れるしどれだけデータセンターを拡充しても世界中の需要を受け止めきれるわけではないからだ。
こうしたローカルLLMを動作させるために、NPU が強化された Ryzen 8040 シリーズや Apple M4 は存在しているのではなかろうか。ここがローカルLLMを動作させられる分水嶺になるかもしれない。
なんてことをもやもやと考えながら今回の Apple の発表会を見終えたのでした。
*1:追記: Apple introduces M4 chip に Built using second-generation 3-nanometer technology と記述されてるのでN3Eが使用されてると考えていいはずである。