Я пытаюсь разобраться в различиях между разными типами процессоров, когда речь идет об обучении/выводе ИИ.
Насколько я понимаю: для работы больших систем искусственного интеллекта/нейронных нейронных сетей по сути требуется ОГРОМНОЕ количество матричных умножений (умножений/накоплений).
- У ЦП есть огромный недостаток из-за узкого места Ван Неймана (одновременный доступ к памяти одного АЛУ).
- GPU частично решает эту проблему, добавляя в уравнение несколько дополнительных ядер CUDA/тензора, но узкое место Ван Неймана по-прежнему фундаментально присутствует.
- TPU от Google решает это узкое место, соединяя ALU в матрицу. Насколько я могу судить, все остальные NPU работают с этой же логикой.
Мне ясно, как TPU может достигать гораздо большего количества операций за такт благодаря матрице процессоров.
- Теперь два стартапа: Mythic и Synthic вывели на рынок новые аналоговые матричные процессоры, которые, как предполагается, будут еще быстрее/эффективнее.
Теперь я слышал, что аналоговые системы могут быть более энергоэффективными из-за того, что физические сигналы по своей сути бесконечно точны, но не будет ли этот эффект испорчен шумом? И не будет ли это только более эффективным для высокоточных вычислений?
Мой вопрос таков: как аналоговые матричные процессоры (например, Mythic) превосходят классические TPU?
решение1
Насколько я понимаю, эти процессоры будутпроцессоры martixочень хорошо применимы для таких операций, они реализуютАрхитектура процессора SIMD. Например, такие процессоры могут решать линейную систему из n уравнений с n неизвестными (имеющую сложность n**3) всего за n шагов.