半導体設計に使用するソフトを作っているCadence、SynopsysもAI機能が追加され始めてきたものの、
そもそもCPUのみを使う設計で作られてきたからか、あまりAIでインパクトがある結果は出てきていない。
Googleから強化学習でレイアウトをより敷き詰められるという論文は数年前に出たが、ニュースで一般層には話題になったが、
現状のAIはAttension機構に支えられており、Attentionで関係性がわかる入力データ構造にしなければならない。
例えば、ハードウェア記述言語HDLだと同時に処理されるので、1psごとのシミュレーション時間ごとに全部のHDLの論理がわからないと次のシミュレーション時間に移れないため、Attensionと相性が悪い。
if文による分岐が発生するので、そもそもGPUとも相性が悪いというのもある。
物理設計だと、タイミング検証、レイアウト最適化は、今でも数値最適化なのでAIが得意そうな感じがするが、
データ容量が数GB~何十GBもなるので、こちらもAttentionの入力に頼れない。
他にもアナログやIOやメモリなど色々進歩しないとA向けチップの処理向上しないわけだが、
NVIDIAにしてもBlackwellで発熱と電源問題が限界に近づいている。