Конфигурация диска на сервере Ubuntu для rook-ceph в кластере kubernetes

Конфигурация диска на сервере Ubuntu для rook-ceph в кластере kubernetes

Недавно я настроил свой кластер Kubernetes с тремя рабочими и одним главным узлом, в качестве сервиса хранения я использую rook-ceph. Как я знаю, для работы osd-pods требуется raw-диск.

В прошлый раз мне удалось создать их также в разделе диска (основном), который я обозначил как «физический том». OSD-pods были запущены. тогда. Проблема сейчас в том, что я не могу воссоздать это состояние снова.

Кто-нибудь знает, как настроить раздел диска (созданного с помощьюfdisk), так что он сам по себе распознается как сырой диск? Я использую Ubuntu 18.04.

Если проблема кроется в тегах изображений (для Ceph/ceph:14.XXX и rook/ceph 1.0.0), какие теги изображений мне следует использовать?

В последний раз, когда это сработало, я использовал файлы со страницы Rooks на GitHub:https://github.com/rook/rook/tree/master/cluster/examples/kubernetes/ceph

решение1

Я мог бы воссоздать его, и решение в том, что вам действительно нужно очистить диск. Для этого вы можете использоватьfdisk(удалить все разделы) и затем размонтировать все, что смонтировано на определенном диске. После этого удалить размонтированные каталоги из/etc/fstab. Тогда вы готовы идти!

Связанный контент