PyAudio によるオーディオストリームの区別

PyAudio によるオーディオストリームの区別

私は 2 つのプロジェクトをうまく連携させるのに苦労しており、そのうちの 1 つを適切に機能させるには変更が必要であると推測しています。

私は最新のBuster OSを搭載したPi3Bを使用しています。PiにはIQaudIO DAC+が接続されています。リンクUSB マイク。

円周率はヘアポート同期iOS デバイスから AirPlay 経由でオーディオを受信し、IQaudIO HAT 経由で出力します。しかも、優れた品質です!

付属のLEDが音楽に反応するように視覚化を追加したかったので、Piで動作する次のgitを見つけました。オーディオ反応LED

audio-reactive-led ソフトウェアは PyAudio を使用し、私の知る限り、デフォルトのオーディオ デバイスを操作します。

audio-reactive-led ソフトウェアを実行し、USB マイクを使用して周辺機器のオーディオを監視できるようにすると、完璧に動作します。

しかし、Shairport-sync がオーディオを出力しているときに視覚化を実行すると、オーディオ出力がドロップされます。以前は USB スピーカー/マイク サウンド カードを使用していましたが、スピーカーを IQaudIO HAT から USB スピーカーに交換すると、オーディオが再び再生されるようになりました (ただし、品質は低かったです)。

そこで質問なのですが、オーディオリアクティブ LED ソフトウェアの Python スクリプトを変更して、オーディオ出力を IQaudIO デバイスに残したまま、マイク入力のみを監視することは可能でしょうか。

注意: Shairport-sync 設定を変更したので、常に IQaudIO に出力されるようになりました (以前の設定である「デフォルト」ではなく)。

どうもありがとう

関連情報