Извлечь уникальные поддомены из входного файла

Извлечь уникальные поддомены из входного файла

У меня есть файл .txt с 2 миллионами строк, содержащих URL-адреса одного домена, мне нужно извлечь только уникальные поддомены из этого списка... Проблема в том, что когда я использую команду ниже, вывод возвращает все уникальные URL-адреса, мне нужно извлечь только уникальные имена поддоменов, а не весь URL-адрес, без повторений. Есть какие-нибудь советы? Спасибо<3

cat all-urls.txt | grep domain.com.br | uniq -u

Мне нужно, чтобы вывод был таким:

https://sub1.domain.com
https://sub2.domain.com
https://sub3.domain.com
https://sub4.domain.com
https://sub5.domain.com
(...)

решение1

cut -d/ -f3 all-urls.txt | sort -u

и тогда у меня даже не было бесполезного использования cat.

Связанный контент