前の記事 では、USBカメラを使ってライブ配信をしてみたけど、今度はネットワークカメラを使ってライブ配信をやってみた。   CoTV の機能拡張にもなるしね。   安価なUSBカメラと違ってネットワークカメラはちょっと高め。定価が20万円ぐらい。   でもカメラ自体にサーバ機能があって、直接http経由でアクセスするだけで、ライブ配信を見れたり操作できたりするので、20万円でも安いと思う。   今回は複数のネットワークカメラの映像をリアルタイムエンコードして、次のことを試してみた。      ネットワークカメラ自体に接続制限(30人ぐらい)があるが、これを超えた人数のライブ配信を可能とする     複数のカメラの映像を1つの画面で並べて表示する     音声も取得、配信する    ネットワークカメラはPanasonic, Sony, Canonなどが出しているけど、外部からアクセスできるSDKを提供してくれているCanonのカメラを使うことにした。   ちなみに聞いた話だとカメラ性能はPanasonicの方がいいらしい。   使ったカメラは Canon VB0-C60 。マイクとスピーカーは内蔵されていない。   別製品の VK-16 とかカメラに付属しているVK-Liteを使うと複数のカメラを並べて表示ができる(もちろん音声も)。   さて、本題。   FFMpegのインストールは 前の記事 を参考に。   ライブ配信可能にするffserverはFFMpegのインストールと同時に使えるようになる。   ffserverの設定ファイルをソースからコピー   # cp /opt/software/ffmpeg-0.5/doc/ffserver.conf /etc/   設定ファイルを編集。設定の仕方は この辺 を参考に。    # vi /etc/ffserver.conf   feed1.ffmをfeedに指定して、複数のFormatを記述できるが、これはfeed1.ffmに出力されてきた動画を指定した分だけ同時にエンコードする。その分CPUパワーは必要。   BitRateなどはkbits/sなのでFFMpegの変換オプションより0が3つ少なくなるので注意。   設定後ffserverを起動。バックグラウンドで。   # ffserver &   http...