前の記事 では、USBカメラを使ってライブ配信をしてみたけど、今度はネットワークカメラを使ってライブ配信をやってみた。 CoTV の機能拡張にもなるしね。 安価なUSBカメラと違ってネットワークカメラはちょっと高め。定価が20万円ぐらい。 でもカメラ自体にサーバ機能があって、直接http経由でアクセスするだけで、ライブ配信を見れたり操作できたりするので、20万円でも安いと思う。 今回は複数のネットワークカメラの映像をリアルタイムエンコードして、次のことを試してみた。 ネットワークカメラ自体に接続制限(30人ぐらい)があるが、これを超えた人数のライブ配信を可能とする 複数のカメラの映像を1つの画面で並べて表示する 音声も取得、配信する ネットワークカメラはPanasonic, Sony, Canonなどが出しているけど、外部からアクセスできるSDKを提供してくれているCanonのカメラを使うことにした。 ちなみに聞いた話だとカメラ性能はPanasonicの方がいいらしい。 使ったカメラは Canon VB0-C60 。マイクとスピーカーは内蔵されていない。 別製品の VK-16 とかカメラに付属しているVK-Liteを使うと複数のカメラを並べて表示ができる(もちろん音声も)。 さて、本題。 FFMpegのインストールは 前の記事 を参考に。 ライブ配信可能にするffserverはFFMpegのインストールと同時に使えるようになる。 ffserverの設定ファイルをソースからコピー # cp /opt/software/ffmpeg-0.5/doc/ffserver.conf /etc/ 設定ファイルを編集。設定の仕方は この辺 を参考に。 # vi /etc/ffserver.conf feed1.ffmをfeedに指定して、複数のFormatを記述できるが、これはfeed1.ffmに出力されてきた動画を指定した分だけ同時にエンコードする。その分CPUパワーは必要。 BitRateなどはkbits/sなのでFFMpegの変換オプションより0が3つ少なくなるので注意。 設定後ffserverを起動。バックグラウンドで。 # ffserver & http