背景
使用opencv的读取一个usb摄像头时,从视频流中取出每一帧数据需要200ms。一般打开笔记本电脑自带的摄像头取出一帧数据需要20ms。经过分析,排除了分辨率和压缩格式的原因,因为另外一个同样压缩格式更高分辨率的相机同样只需要20ms。
分析opencv的源码,发现opencv默认使用的是FFmpeg的库,但opencv进行了封装,一些参数不能更改,具体的执行过程也不能看到。重新编译opnecv源码的方式太复杂,只能使用多媒体库进行视频的解码后传给opencv处理。
note:
一般商业用的摄像头,为了提高带宽利用率,在视频流传输是会使用压缩格式,比如MJPEG,H264等,在接收端进行解压后显示。而工业摄像头为了提高处理效率,一般会使用USB3.0,千兆网等通信方式传输原始像素格式,标准的RGB图片格式,接收端可以直接处理。
方法:
为了提高效率,使用FFmpeg库进行视频流的解码,转为AV_PIX_FMT_BGR24格式。
第一步:初始化
AVFormatContext *pFormatCtx;
int i, videoindex;
AVCodecContext *pCodecCtx;
AVCodec *pCodec;
av_register_all();
avformat_network_init();
avdevice_register_all();
show_dshow_device();
pFormatCtx = avformat_alloc_context();
//在windows平台下最好使用dshow方式
AVInputFormat *ifmt = av_find_input_format("dshow");
//Set own video device's name
//摄像头名称
if (avformat_open_input(&pFormatCtx, "video=HD USB Camera", ifmt, NULL) != 0)
{
printf("Couldn't open input stream.\n");
return -1;
}
第二步:有效性判断
if (avformat_find_stream_info(pFormatCtx, NULL)<0)
{
printf("Couldn't find stream information.\n");
return -1;
}
videoindex = -1;
for (i = 0; i<pFormatCtx->nb_streams; i++)
{
if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
{
videoindex = i;
}
}
if (videoindex == -1)
{
printf("Couldn't find a video stream.\n");
return -1;
}
pCodecCtx = pFormatCtx->streams[videoindex]->codec;
pCodec = avcodec_find_decoder(pCodecCtx->codec_id);
if (pCodec == NULL)
{
printf("Codec not found.\n");
return -1;
}
if (avcodec_open2(pCodecCtx, pCodec, NULL)<0)
{
printf("Could not open codec.\n");
return -1;
}
第三步:视频获取
AVFrame *pFrame;
pFrame = av_frame_alloc();
int ret, got_picture;
AVPacket *packet = (AVPacket *)av_malloc(sizeof(AVPacket));
fprintf(stderr, "w= %d h= %d\n", pCodecCtx->width, pCodecCtx->height);
thread_exit = 1;
while (thread_exit)
{
clock_t start = clock();
while (1)
{
if (av_read_frame(pFormatCtx, packet)<0)
thread_exit = 0;
if (packet->stream_index == videoindex)
break;
}
ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, packet);
Mat test;
if (got_picture) {
test = avframe_to_cvmat(pFrame);
cout << "转换完毕" << endl;
}
Mat testshow;
Size size(pCodecCtx->width / 2, pCodecCtx->height / 2);
resize(test, testshow, size);
namedWindow("PIC");
imshow("PIC", testshow);
waitKey(1);
clock_t end = clock();
double totaltime = (double)(end - start) / CLOCKS_PER_SEC;
cout << "\n此程序的运行时间为" << totaltime << "秒!" << endl;
}
第四步:反初始化
avcodec_close(pCodecCtx);
avformat_close_input(&pFormatCtx);
AVFrame转Mat函数
Mat avframe_to_cvmat(AVFrame *frame)
{
AVFrame dst;
cv::Mat m;
memset(&dst, 0, sizeof(dst));
int w = frame->width, h = frame->height;
m = cv::Mat(h, w, CV_8UC3);
dst.data[0] = (uint8_t *)m.data;
avpicture_fill((AVPicture *)&dst, dst.data[0], AV_PIX_FMT_BGR24, w, h);
struct SwsContext *convert_ctx = NULL;
//enum PixelFormat src_pixfmt = (enum PixelFormat)frame->format;
AVPixelFormat src_pixfmt = (AVPixelFormat)frame->format;
//enum PixelFormat dst_pixfmt = AV_PIX_FMT_BGR24;
AVPixelFormat dst_pixfmt = AV_PIX_FMT_BGR24;
convert_ctx = sws_getContext(w, h, src_pixfmt, w, h, dst_pixfmt,
SWS_FAST_BILINEAR, NULL, NULL, NULL);
sws_scale(convert_ctx, frame->data, frame->linesize, 0, h,
dst.data, dst.linesize);
sws_freeContext(convert_ctx);
return m;
}
显示directshow设备函数
void show_dshow_device() {
AVFormatContext *pFormatCtx = avformat_alloc_context();
AVDictionary* options = NULL;
av_dict_set(&options, "list_devices", "true", 0);
AVInputFormat *iformat = av_find_input_format("dshow");
printf("========Device Info=============\n");
avformat_open_input(&pFormatCtx, "video=dummy", iformat, &options);
printf("================================\n");
}
试验结果
通过这种方式,解码速度提高到30ms。
试验结果总结与思考
虽然解码速度提高了,但是还有一点延迟的小问题,猜测可能是程序从摄像头buffer读取图像速度跟不上相机在buffer中生成图像的速度,由于有些USB2.0摄像头无法调节帧率,容易想到的解决办法是每次读取2到3帧,然后只处理1帧。但这又引入一个新的问题,视频显示不流畅。最好的解决办法查询buffer图片数量的方式(不知道FFmpeg是否提供这种接口),比如当前查到有n帧,读取n次,取最后一次结果进行处理。