
В Linux можно легко использовать устройство захвата аудио или видео в качестве входных данных для FFmpeg:
ffmpeg -f oss -i /dev/dsp -f video4linux2 -i /dev/video0 out.flv
Сегодня кто-то на форумах kirupa сказал, что раньше они создавали flash webcam netstream, но теперь просто используют linux. Это было бы здорово, но как это сделать!? Я имею в виду, как бы вы сделали это в Linux, чтобы одновременно захватывать с веб-камеры, вводить в ffmpeg и выводить в плеер. Если не использовать swf webcam Publisher, что вы могли бы использовать вместо этого?
Сейчас у меня есть работающий захват с веб-камеры, созданный во Flash CS6, но я не могу найти необходимые инструкции по добавлению сетевого потока в ActionScript.