
我正在建立一個應用程式來讀取多個 IP 攝影機流 (rtsp) 並對其即時運行不同的機器學習演算法。對於每個攝影機串流,
- 我產生一個 ffmpeg 進程,它不斷地將 rtsp 流分解為幀並將它們儲存為圖像(JPEG)。流使用 H.264 編碼。我每秒拍攝 1 幀作為輸出。
- 與模型對應的訊息佇列被給予包含檔案位置的訊息。
- 模型不斷地取得文件並做出推論
我面臨的問題是 ffmpeg 解碼過程的 CPU 使用率。為了實現即時推理而不丟失任何幀,我必須為每 2 個相機流增加一個核心來增強伺服器。我缺少 ffmpeg 的任何優化嗎?
我使用的是 Intel Xeon Gold 處理器和 Ubuntu 18.04 作業系統