
En Linux es fácil usar un dispositivo de captura de audio o video como entrada a FFmpeg:
ffmpeg -f oss -i /dev/dsp -f video4linux2 -i /dev/video0 out.flv
Hoy alguien en los foros de kirupa dijo que solía crear netstream de cámara web flash pero que ahora solo usa Linux. Eso sería genial, pero ¿cómo se hace? Quiero decir, ¿cómo lo harías en Linux para capturar simultáneamente desde una cámara web, ingresar a ffmpeg y enviar al reproductor? Si no utiliza un editor de cámara web SWF, ¿qué podría utilizar en su lugar?
En este momento tengo una captura de cámara web creada en flash cs6 que está funcionando, pero no puedo encontrar las instrucciones necesarias sobre cómo agregar un netstream en actionscript.