在人工智慧訓練/推理方面,我試圖理解不同類型處理器之間的差異。
據我了解:大型人工智慧/神經網路系統基本上需要進行大量的矩陣乘法(乘法/累加)。
- 由於範諾依曼瓶頸(一次 1 個 ALU 存取記憶體),CPU 有一個巨大的缺點。
- GPU 透過在方程式中加入一堆額外的 CUDA/張量核心來部分解決這個問題,但范諾依曼瓶頸從根本上仍然存在
- Google 的 TPU 透過將 ALU 連接成矩陣來解決這個瓶頸。據我所知,所有其他 NPU 的功能都具有相同的邏輯。
我很清楚,由於處理器矩陣,TPU 如何在每個時脈週期實現更多操作。
- 現在,兩家新創公司:Mythic 和 Synthic 已將新的類比矩陣處理器推向市場,這些處理器應該更快/更有效率。
現在,我聽說類比系統可以更加節能,因為物理訊號本質上是無限精確的,但是這種效果不會被雜訊破壞嗎?難道它不僅僅對於高精度計算來說更有效嗎?
因此,我的問題是:類比矩陣處理器(例如 Mythic)如何改進經典 TPU?