Kuberentes の複製ポッドは逸脱したパフォーマンスを示す

Kuberentes の複製ポッドは逸脱したパフォーマンスを示す

GKE に Kubernetes をデプロイしています。CPU 要求と制限を同じ ~700m に設定しました。単一のメッセージ キュー (RabbitMQ) を消費するポッドのパフォーマンスを観察すると、メッセージ間の偏差がほとんどないことが確認できます。各ポッドのパフォーマンスは一貫して異なります。

グラフ1

グラフには、ネットワーク遅延を除いた各ポッドによるメッセージの処理に要した時間が表示されます。つまり、これはポッド コンシューマーがメッセージを受信した時点からメッセージを処理するのに要した合計時間です。

十分なコンピューティング リソースを割り当てたことを確認できます。それでも、メッセージの処理にかかる時間に一貫した違いが見られます。Kubernetes でこのような現象が発生する理由は何でしょうか。ありがとうございます。

PS: ここで示すデプロイメントでは、Python コードが実行されます。

答え1

これはGKEクラスタでより詳細な調査が必要なようです。公開問題トラッカープロジェクト番号(数字のみ)を入力してください。プロジェクト ID を記入しないでください。作成後、問題へのリンクをお知らせください。

関連情報