Kuberentes의 복제된 포드에서 비정상적인 성능이 나타남

Kuberentes의 복제된 포드에서 비정상적인 성능이 나타남

GKE에 Kubernetes를 배포했습니다. CPU 요청과 제한을 동일하게 ~700m로 설정했습니다. 단일 메시지 큐(RabbitMQ)를 사용하는 Pod의 성능을 관찰하면 메시지 간에 차이가 거의 없으며 각 Pod가 일관되게 다르게 작동하는 것을 확인할 수 있습니다.

그래프 1

그래프는 네트워크 지연을 제외하고 각 Pod에서 메시지를 처리하는 데 걸린 시간을 보여줍니다. 이는 포드 소비자가 메시지를 수신한 시점부터 메시지를 처리하는 데만 소요된 총 시간입니다.

충분한 컴퓨팅 리소스를 할당했는지 확인할 수 있습니다. 여전히 메시지를 처리하는 데 걸리는 시간에는 일관된 차이가 있습니다. Kubernetes에 대한 이러한 관찰의 이유는 무엇일까요? 감사합니다.

추신: 여기의 배포 쇼는 Python 코드를 실행합니다.

답변1

이는 GKE 클러스터에서 더 심층적인 조사가 필요한 것으로 보입니다. 키워보시길 추천드려요공개 이슈 추적기프로젝트 번호(숫자만)로 입력하세요. 대신 프로젝트 ID를 쓰지 마세요. 생성되면 문제에 대한 링크를 제공해 주세요.

관련 정보