Материнские платы серверов Память на ЦП

Материнские платы серверов Память на ЦП

Я заметил, что на новых материнских платах с двумя сокетами 1366 серверного типа есть два банка ОЗУ. Означает ли это, что если у меня установлено 72 ГБ ОЗУ, то Windows разрешит только 36 ГБ на процессор или один процессор будет иметь доступ ко всем 72 ГБ?

решение1

Плата с двумя сокетами будет сконфигурирована с двумя системами ЦП, которые включают слоты памяти, связанные с каждым сокетом. Если есть два банка памяти, каждый будет подключен к слоту ЦП. Банк памяти не будет напрямую доступен для другого слота.

Это означает, что материнская плата с емкостью 72 ГБ имеет емкость 36 ГБ на каждый СЛОТ ЦП.
Однако, если ваши DIMM установлены асимметрично, как вэта плата Intel,
я подозреваю, что у вас будет 24 ГБ на одном процессоре и 48 ГБ на другом... нужно это подтвердить.

Если вы имеете в виду Nehalem на основедоска 1366, вы получите установку из 3 слотов памяти на слот ЦП. Вы заполните 3xDDR3 DIMMs, чтобы получить память для каждого процессора.

Архитектура Nehalem обеспечивает лучший доступ к памяти из другого банка слотов, используяНеоднородная архитектура памяти (NUMA).

NUMA пытается решить эту проблему, предоставляя отдельную память для каждого процессора, избегая падения производительности, когда несколько процессоров пытаются обратиться к одной и той же памяти. Для проблем, связанных с распределенными данными (часто встречающихся для серверов и подобных приложений), NUMA может улучшить производительность по сравнению с одной общей памятью примерно в количестве процессоров (или отдельных банков памяти).

Конечно, не все данные в конечном итоге ограничиваются одной задачей, что означает, что более чем одному процессору могут потребоваться одни и те же данные. Для обработки таких случаев системы NUMA включают дополнительное оборудование или программное обеспечение для перемещения данных между банками. Эта операция приводит к замедлению процессоров, подключенных к этим банкам, поэтому общее увеличение скорости из-за NUMA будет сильно зависеть от точного характера задач, выполняемых в системе в любой момент времени.


Если вы не используете Nehalem NUMA, старая схема работает по-другому, быстрое различие наглядно показано на этом рисунке.Страница статьи ArsTechnicaПо сути, у вас наихудшее время доступа ко всему (многосокетный доступ к памяти с полной стоимостью многоканального доступа).

Метод NUMA обеспечивает лучшее время доступа к банкам. Конечный результат — лучшая пропускная способность памяти, особенно когда каждый слот процессора имеет свои данные, локализованные в своем банке.


Я пока не уверен во всех пунктах этого ответа и приглашаю другие мнения.

решение2

С логической точки зрения операционной системы, каждому ядру доступна вся оперативная память.

С точки зрения производительности, существуют различия в зависимости от расположения памяти и физической компоновки чипов. Доступ к памяти будет осуществляться через необходимые пути, что, вероятно, скажется на производительности, в зависимости от расположения.

Если рассматривать платы типа Nehalem, то пакеты из 3 слотов RAM (или кратные им) подключаются к отдельным чипам ЦП. Соединение Quickpath позволяет другим ЦП получать доступ к этой памяти.

Так что будут некоторые трюки numactl, чтобы получить оптимальную производительность. Например, общая память для некоторой задачи может находиться в одном месте памяти, где разные потоки имеют разные скорости доступа.

Количество слотов оперативной памяти здесь не имеет особого значения.

У Intel отличная документация, если хотите в ней разобраться, см.http://www.intel.com/technology/quickpath/index.htmи так далее

решение3

ДЛЯ окончательного ответа вам следует обратиться к документации материнской платы или к производителю, если документация не проясняет ситуацию. Знание того, как это работает для других материнских плат, не имеет никакой ценности.

решение4

Исходя из опыта работы с материнскими платами, которые мы получили от Supermicro, вы действительно видите только 36 ГБ из каждого слота. Конечно, это может варьироваться от платы к плате.

Связанный контент