本文的示例将实现:读取安卓手机摄像头数据并使用H.264编码格式实时编码保存为flv文件。示例包含了

1、编译适用于安卓平台的ffmpeg库

2、在java中通过JNI使用ffmpeg

3、读取安卓摄像头数据并在后台线程中使用ffmpeg进行编码的基本流程

具有较强的综合性。

编译适用于安卓平台的ffmpeg库

平时我们编译ffmpeg类库都是在x86平台下,而安卓手机属于arm平台,所以要先通过交叉编译的方法在x86平台下编译出可以在arm平台下使用的ffmpeg类库。Google就为我们提供了一套可以再Linux下完成该任务的交叉编译工具链——NDK,下载时可以看到google同时提供了ndk的windows版和linux版,前者可以在windows下通过cygwin(可以理解为一个在windows下模拟linux的工具)使用。我这里使用的是Android-ndk-r10e,在cygwin下使用。ndk的下载安装基本是傻瓜式的,但要注意linux系统对x86和x64是分的很清楚的,不像windows那么随性,此外还需要提醒的是,在下载安装cygwin时,只需要选择binutils , gcc , gcc-mingw , gdb , make这几个组件。安装完成后,在cygwin安装目录下点击cygwin.bat打开命令窗口,输入make -version验证是否安装成功。

做好以上的准备工作之后就可以正式开始ffmpeg源码的编译了。

首先需要修改configure文件,确保类库版本号不会出现在.so后缀名的后面,否则安卓平台无法识别这样的类库

找到下面几句

1. SLIBNAME_WITH_MAJOR='$(SLIBNAME).$(LIBMAJOR)'    
2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'    
3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_VERSION)'    
4. SLIB_INSTALL_LINKS='$(SLIBNAME_WITH_MAJOR)$(SLIBNAME)'
1. SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'    
2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'    
3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'    
4. SLIB_INSTALL_LINKS='$(SLIBNAME)'


1. make clean    
2.     
3. export NDK=xxxx/android-ndk-r10e  
4. export PREBUILT=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt    
5. export PLATFORM=$NDK/platforms/android-8/arch-arm    
6. export PREFIX=../android_ffmpeglib  
7.    
8.   ./configure --target-os=linux --prefix=$PREFIX \    
9. --enable-cross-compile \    
10. --enable-runtime-cpudetect \    
11. --disable-asm \    
12. --arch=arm \    
13. --cc=$PREBUILT/windows/bin/arm-linux-androideabi-gcc \    
14. --cross-prefix=$PREBUILT/windows/bin/arm-linux-androideabi- \    
15. --disable-stripping \    
16. --nm=$PREBUILT/windows/bin/arm-linux-androideabi-nm \    
17. --sysroot=$PLATFORM \    
18. --enable-gpl --enable-shared --disable-static --enable-small \    
19. --disable-ffprobe --disable-ffplay --disable-ffmpeg --disable-ffserver --disable-debug \    
20. --extra-cflags="-fPIC -DANDROID -D__thumb__ -mthumb -Wfatal-errors -Wno-deprecated -mfloat-abi=softfp -marm -march=armv7-a"     
21.    
22. make    
23. make install

成功编译后,可以看到如下类库

android ffmpeg录像实现原理 ffmpeg在安卓中的使用_#include

在java中通过JNI使用ffmpeg

JNI即java本地接口,java native interface,它是一个协议, 该协议用来沟通Java代码和外部的本地C/C++代码, 通过该协议 Java代码可以调用外部的本地代码, 外部的C/C++ 代码可以调用Java代码。简单来说,就是将一个C语言的方法映射到Java的某个方法上; 

JNI中的一些概念 :
-- native : Java语言中修饰本地方法的修饰符, 被该修饰符修饰的方法没有方法体;
-- Native方法 : 在Java语言中被native关键字修饰的方法是Native方法;
-- JNI层 : Java声明Native方法的部分;
-- JNI函数 : JNIEnv提供的函数, 这些函数在jni.h中进行定义;
-- JNI方法 : Native方法对应的JNI层实现的 C/C++方法, 即在jni目录中实现的那些C语言代码;


1、创建常规Android项目

2、声明Native方法,形如public native String stringFromJNI();

3、创建c文件

在工程根目录下创建 jni 目录, 然后创建一个c语言源文件, 在文件中引入 include <jni.h>。c语言方法声明形如

1. jstring  
2. Java_com_example_hellojni_HelloJni_stringFromJNI( JNIEnv* env,  
3.                                                   jobject thiz )

jstring 是 Java语言中的String类型, 方法名格式为 : Java_完整包名类名_方法名();

-- JNIEnv参数 : 代表的是Java环境, 通过这个环境可以调用Java里面的方法;

-- jobject参数 : 调用C语言方法的对象, thiz对象表示当前的对象, 即调用JNI方法所在的类;

4、编写Android.mk文件

就好比常用的makefile,形如

1. LOCAL_PATH := $(call my-dir)  
2.   
3. include $(CLEAR_VARS)  
4.   
5. LOCAL_MODULE    := hello-jni  
6. LOCAL_SRC_FILES := hello-jni.c  
7.   
8. include $(BUILD_SHARED_LIBRARY)

-- LOCAL_PATH : 代表mk文件所在的目录;

-- include $(CLEAR_VARS) : 编译工具函数, 通过该函数可以进行一些初始化操作;

-- LOCAL_MODULE : 编译后的 .so 后缀文件叫什么名字;

-- LOCAL_SRC_FILES: 指定编译的源文件名称;

-- include $(BUILD_SHARED_LIBRARY) : 告诉编译器需要生成动态库;

5、NDK编译生成动态库

利用上面写好的.mk文件,进入 cygdrive 找到windows目录下对应的文件, 编译完成之后, 会自动生成so文件并放在libs目录下, 之后就可以在Java中调用C语言方法了;

6、java中加载动态库

在Java类中的静态代码块中使用System.LoadLibrary()方法加载编译好的 .so 动态库,形如

    1. static {  
    2. "hello-jni");  
    3.     }

    需要说明的是,调试JNI程序非常麻烦,无法进入c文件中进行单步调试,只能通过输出一些信息然后利用logcat进行调试,所以也可以先在vs里面把c文件的内容跑一遍简单验证一下。

    第一步:我们声明如下四个Native方法

      1. //JNI  
      2. //初始化,读取待编码数据的宽和高  
      3. public native int initial(int width,int height);  
      4. //读取yuv数据进行编码  
      5. public native int encode(byte[] yuvimage);  
      6. //清空缓存的帧  
      7. public native int flush();  
      8. //清理  
      9. public native int close();

      第二步:对应的c文件内容如下,基本就是一个将yuv数据编码为H.264的flv文件的流程,唯一需要注意的就是安卓摄像头拍摄数据的像素格式为NV21,需要转换为YUV420P才能进行编码

        1. /** 
        2.  * 基于FFmpeg安卓摄像头编码 
        3.  * FFmpeg Android Camera Encoder 
        4.  * 
        5.  * 张晖 Hui Zhang 
        6.  * zhanghuicuc@gmail.com 
        7.  * 中国传媒大学/数字电视技术 
        8.  * Communication University of China / Digital TV Technology 
        9.  * 
        10.  * 
        11.  */  
        12.   
        13. #include <stdio.h>  
        14. #include <time.h>   
        15.   
        16. #include "libavcodec/avcodec.h"  
        17. #include "libavformat/avformat.h"  
        18. #include "libswscale/swscale.h"  
        19. #include "libavutil/log.h"  
        20.   
        21. #ifdef ANDROID  
        22. #include <jni.h>  
        23. #include <android/log.h>  
        24. #define LOGE(format, ...)  __android_log_print(ANDROID_LOG_ERROR, "(>_<)", format, ##__VA_ARGS__)  
        25. #define LOGI(format, ...)  __android_log_print(ANDROID_LOG_INFO,  "(=_=)", format, ##__VA_ARGS__)  
        26. #else  
        27. #define LOGE(format, ...)  printf("(>_<) " format "\n", ##__VA_ARGS__)  
        28. #define LOGI(format, ...)  printf("(^_^) " format "\n", ##__VA_ARGS__)  
        29. #endif  
        30.   
        31. AVFormatContext *ofmt_ctx;  
        32. AVStream* video_st;  
        33. AVCodecContext* pCodecCtx;  
        34. AVCodec* pCodec;  
        35. AVPacket enc_pkt;  
        36. AVFrame *pFrameYUV;  
        37.   
        38. int framecnt = 0;  
        39. int yuv_width;  
        40. int yuv_height;  
        41. int y_length;  
        42. int uv_length;  
        43. int64_t start_time;  
        44.   
        45. //Output FFmpeg's av_log()  
        46. void custom_log(void *ptr, int level, const char* fmt, va_list vl){  
        47. FILE *fp=fopen("/storage/emulated/0/av_log.txt","a+");  
        48. if(fp){  
        49.         vfprintf(fp,fmt,vl);  
        50.         fflush(fp);  
        51.         fclose(fp);  
        52.     }  
        53. }  
        54.   
        55. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial  
        56.   (JNIEnv *env, jobject obj,jint width,jint height)  
        57. {  
        58. const char* out_path = "/sdcard/zhanghui/testffmpeg.flv";  
        59.     yuv_width=width;  
        60.     yuv_height=height;  
        61.     y_length=width*height;  
        62.     uv_length=width*height/4;  
        63.   
        64. //FFmpeg av_log() callback  
        65.     av_log_set_callback(custom_log);  
        66.   
        67.     av_register_all();  
        68.   
        69. //output initialize  
        70. "flv", out_path);  
        71. //output encoder initialize  
        72.     pCodec = avcodec_find_encoder(AV_CODEC_ID_H264);  
        73. if (!pCodec){  
        74. "Can not find encoder!\n");  
        75. return -1;  
        76.     }  
        77.     pCodecCtx = avcodec_alloc_context3(pCodec);  
        78.     pCodecCtx->pix_fmt = PIX_FMT_YUV420P;  
        79.     pCodecCtx->width = width;  
        80.     pCodecCtx->height = height;  
        81.     pCodecCtx->time_base.num = 1;  
        82.     pCodecCtx->time_base.den = 30;  
        83.     pCodecCtx->bit_rate = 800000;  
        84.     pCodecCtx->gop_size = 300;  
        85. /* Some formats want stream headers to be separate. */  
        86. if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)  
        87.         pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;  
        88.   
        89. //H264 codec param  
        90. //pCodecCtx->me_range = 16;  
        91. //pCodecCtx->max_qdiff = 4;  
        92. //pCodecCtx->qcompress = 0.6;  
        93.     pCodecCtx->qmin = 10;  
        94.     pCodecCtx->qmax = 51;  
        95. //Optional Param  
        96.     pCodecCtx->max_b_frames = 3;  
        97. // Set H264 preset and tune  
        98.     AVDictionary *param = 0;  
        99. "preset", "ultrafast", 0);  
        100. "tune", "zerolatency", 0);  
        101.   
        102. if (avcodec_open2(pCodecCtx, pCodec, ¶m) < 0){  
        103. "Failed to open encoder!\n");  
        104. return -1;  
        105.     }  
        106.   
        107. //Add a new stream to output,should be called by the user before avformat_write_header() for muxing  
        108.     video_st = avformat_new_stream(ofmt_ctx, pCodec);  
        109. if (video_st == NULL){  
        110. return -1;  
        111.     }  
        112.     video_st->time_base.num = 1;  
        113.     video_st->time_base.den = 30;  
        114.     video_st->codec = pCodecCtx;  
        115.   
        116. //Open output URL,set before avformat_write_header() for muxing  
        117. if (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0){  
        118. "Failed to open output file!\n");  
        119. return -1;  
        120.     }  
        121.   
        122. //Write File Header  
        123.     avformat_write_header(ofmt_ctx, NULL);  
        124.   
        125.     start_time = av_gettime();  
        126. return 0;  
        127. }  
        128.   
        129.   
        130. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode  
        131.   (JNIEnv *env, jobject obj, jbyteArray yuv)  
        132. {  
        133. int ret;  
        134. int enc_got_frame=0;  
        135. int i=0;  
        136.   
        137.     pFrameYUV = avcodec_alloc_frame();  
        138.     uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));  
        139.     avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);  
        140.   
        141. //安卓摄像头数据为NV21格式,此处将其转换为YUV420P格式  
        142.     jbyte* in= (jbyte*)(*env)->GetByteArrayElements(env,yuv,0);  
        143.     memcpy(pFrameYUV->data[0],in,y_length);  
        144. for(i=0;i<uv_length;i++)  
        145.     {  
        146.         *(pFrameYUV->data[2]+i)=*(in+y_length+i*2);  
        147.         *(pFrameYUV->data[1]+i)=*(in+y_length+i*2+1);  
        148.     }  
        149.   
        150.     pFrameYUV->format = AV_PIX_FMT_YUV420P;  
        151.     pFrameYUV->width = yuv_width;  
        152.     pFrameYUV->height = yuv_height;  
        153.   
        154.     enc_pkt.data = NULL;  
        155.     enc_pkt.size = 0;  
        156.     av_init_packet(&enc_pkt);  
        157.     ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame);  
        158.     av_frame_free(&pFrameYUV);  
        159.   
        160. if (enc_got_frame == 1){  
        161. "Succeed to encode frame: %5d\tsize:%5d\n", framecnt, enc_pkt.size);  
        162.         framecnt++;  
        163.         enc_pkt.stream_index = video_st->index;  
        164.   
        165. //Write PTS  
        166. //{ 1, 1000 };  
        167. //{ 50, 2 };  
        168.         AVRational time_base_q = { 1, AV_TIME_BASE };  
        169. //Duration between 2 frames (us)  
        170. double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //内部时间戳  
        171. //Parameters  
        172. //enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));  
        173.         enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);  
        174.         enc_pkt.dts = enc_pkt.pts;  
        175. //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));  
        176.         enc_pkt.pos = -1;  
        177.   
        178. //Delay  
        179.         int64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q);  
        180.         int64_t now_time = av_gettime() - start_time;  
        181. if (pts_time > now_time)  
        182.             av_usleep(pts_time - now_time);  
        183.   
        184.         ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);  
        185.         av_free_packet(&enc_pkt);  
        186.     }  
        187.   
        188. return 0;  
        189. }  
        190.   
        191. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush  
        192.   (JNIEnv *env, jobject obj)  
        193. {  
        194. int ret;  
        195. int got_frame;  
        196.     AVPacket enc_pkt;  
        197. if (!(ofmt_ctx->streams[0]->codec->codec->capabilities &  
        198.         CODEC_CAP_DELAY))  
        199. return 0;  
        200. while (1) {  
        201.         enc_pkt.data = NULL;  
        202.         enc_pkt.size = 0;  
        203.         av_init_packet(&enc_pkt);  
        204.         ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt,  
        205.             NULL, &got_frame);  
        206. if (ret < 0)  
        207. break;  
        208. if (!got_frame){  
        209.             ret = 0;  
        210. break;  
        211.         }  
        212. "Flush Encoder: Succeed to encode 1 frame!\tsize:%5d\n", enc_pkt.size);  
        213.   
        214. //Write PTS  
        215. //{ 1, 1000 };  
        216.         AVRational r_framerate1 = { 60, 2 };  
        217.         AVRational time_base_q = { 1, AV_TIME_BASE };  
        218. //Duration between 2 frames (us)  
        219. double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1));  //内部时间戳  
        220. //Parameters  
        221.         enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);  
        222.         enc_pkt.dts = enc_pkt.pts;  
        223.         enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base);  
        224.   
        225. //转换PTS/DTS(Convert PTS/DTS)  
        226.         enc_pkt.pos = -1;  
        227.         framecnt++;  
        228.         ofmt_ctx->duration = enc_pkt.duration * framecnt;  
        229.   
        230. /* mux encoded frame */  
        231.         ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);  
        232. if (ret < 0)  
        233. break;  
        234.     }  
        235. //Write file trailer  
        236.         av_write_trailer(ofmt_ctx);  
        237. return 0;  
        238. }  
        239.   
        240. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close  
        241.   (JNIEnv *env, jobject obj)  
        242. {  
        243. if (video_st)  
        244.         avcodec_close(video_st->codec);  
        245.     avio_close(ofmt_ctx->pb);  
        246.     avformat_free_context(ofmt_ctx);  
        247. return 0;  
        248. }

          1. LOCAL_PATH := $(call my-dir)  
          2.   
          3. # FFmpeg library  
          4. include $(CLEAR_VARS)  
          5. LOCAL_MODULE := avcodec  
          6. LOCAL_SRC_FILES := libavcodec-56.so  
          7. include $(PREBUILT_SHARED_LIBRARY)  
          8.   
          9. include $(CLEAR_VARS)  
          10. LOCAL_MODULE := avdevice  
          11. LOCAL_SRC_FILES := libavdevice-56.so  
          12. include $(PREBUILT_SHARED_LIBRARY)  
          13.   
          14. include $(CLEAR_VARS)  
          15. LOCAL_MODULE := avfilter  
          16. LOCAL_SRC_FILES := libavfilter-5.so  
          17. include $(PREBUILT_SHARED_LIBRARY)  
          18.   
          19. include $(CLEAR_VARS)  
          20. LOCAL_MODULE := avformat  
          21. LOCAL_SRC_FILES := libavformat-56.so  
          22. include $(PREBUILT_SHARED_LIBRARY)  
          23.   
          24. include $(CLEAR_VARS)  
          25. LOCAL_MODULE := avutil  
          26. LOCAL_SRC_FILES := libavutil-54.so  
          27. include $(PREBUILT_SHARED_LIBRARY)  
          28.   
          29. include $(CLEAR_VARS)  
          30. LOCAL_MODULE := postproc  
          31. LOCAL_SRC_FILES := libpostproc-53.so  
          32. include $(PREBUILT_SHARED_LIBRARY)  
          33.   
          34. include $(CLEAR_VARS)  
          35. LOCAL_MODULE := swresample  
          36. LOCAL_SRC_FILES := libswresample-1.so  
          37. include $(PREBUILT_SHARED_LIBRARY)  
          38.   
          39. include $(CLEAR_VARS)  
          40. LOCAL_MODULE := swscale  
          41. LOCAL_SRC_FILES := libswscale-3.so  
          42. include $(PREBUILT_SHARED_LIBRARY)  
          43.   
          44. # Program  
          45. include $(CLEAR_VARS)  
          46. LOCAL_MODULE := encode  
          47. LOCAL_SRC_FILES :=encode.c  
          48. LOCAL_C_INCLUDES += $(LOCAL_PATH)/include  
          49. LOCAL_LDLIBS := -llog -lz  
          50. LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale  
          51. include $(BUILD_SHARED_LIBRARY)

          第四步:使用cygwin切换到当前项目的jni目录下,输入ndk-build进行编译即可,如下

          android ffmpeg录像实现原理 ffmpeg在安卓中的使用_Java_02

          此时就可以在当前项目的libs目录下看到ffmpeg所有的类库以及我们自己的类库,我这里是libencode.so,如下

          android ffmpeg录像实现原理 ffmpeg在安卓中的使用_android_03


          第五步:在java中加载动态库

            1. static{  
            2. "avutil-54");  
            3. "swresample-1");  
            4. "avcodec-56");  
            5. "avformat-56");  
            6. "swscale-3");  
            7. "postproc-53");  
            8. "avfilter-5");  
            9. "avdevice-56");  
            10. "encode");  
            11.     }

            至此,就可以在java中调用我们声明的四个方法了。


            java部分获取摄像头数据并编码的流程

            简单来说,就是利用Camera的PreviewCallback获得摄像头数据,在通过AsyncTask开启后台线程将摄像头数据进行编码。这里为了避免编码过程占用过多的硬件资源,将编码视频宽和高设置为了640和480,。

            这里有两个坑,一是onPreviewFrame方法的arg0参数就是YUV数据了,不要再转换为YuvImage对象了,否则会在头部加上一些多余的信息,导致编码错误,二是用于清空缓存帧的flush方法不能在oncreate主线程中调用,否则会导致程序闪退,目前还不清楚原因,所以这里连同close()方法一起放到了onPause方法中进行调用,在安卓开发方面我还是新手,希望有了解这个问题怎么解决的朋友多多指教。

              1. package com.zhanghui.test;  
              2.   
              3.   
              4. import java.io.IOException;  
              5. import android.annotation.TargetApi;  
              6. import android.app.Activity;  
              7. import android.content.pm.PackageManager;  
              8. import android.hardware.Camera;  
              9. import android.os.AsyncTask;  
              10. import android.os.Build;  
              11. import android.os.Bundle;  
              12. import android.util.Log;  
              13. import android.view.Menu;  
              14. import android.view.MenuItem;  
              15. import android.view.SurfaceHolder;  
              16. import android.view.SurfaceView;  
              17. import android.view.View;  
              18. import android.widget.Button;  
              19. import android.widget.Toast;  
              20.   
              21. @SuppressWarnings("deprecation")  
              22. public class MainActivity extends Activity {  
              23. private static final String TAG= "MainActivity";  
              24. private Button mTakeButton;  
              25. private Camera mCamera;  
              26. private SurfaceView mSurfaceView;  
              27. private SurfaceHolder mSurfaceHolder;  
              28. private boolean isRecording = false;  
              29.       
              30. private class StreamTask extends AsyncTask<Void, Void, Void>{  
              31.           
              32. private byte[] mData;  
              33.   
              34. //构造函数  
              35. byte[] data){  
              36. this.mData = data;  
              37.         }  
              38.           
              39. @Override  
              40. protected Void doInBackground(Void... params) {     
              41. // TODO Auto-generated method stub  
              42. if(mData!=null){  
              43. "fps: " + mCamera.getParameters().getPreviewFrameRate());           
              44.             encode(mData);  
              45.             }  
              46.               
              47. return null;  
              48.         }          
              49.     }     
              50. private StreamTask mStreamTask;  
              51.       
              52. @Override  
              53. protected void onCreate(Bundle savedInstanceState) {   
              54. super.onCreate(savedInstanceState);  
              55.         setContentView(R.layout.activity_main);  
              56.           
              57. final Camera.PreviewCallback mPreviewCallbacx=new Camera.PreviewCallback() {  
              58. @Override  
              59. public void onPreviewFrame(byte[] arg0, Camera arg1) {  
              60. // TODO Auto-generated method stub  
              61. if(null != mStreamTask){  
              62. switch(mStreamTask.getStatus()){  
              63. case RUNNING:  
              64. return;  
              65. case PENDING:                                      
              66. false);                        
              67. break;                        
              68.                         }  
              69.                     }  
              70. new StreamTask(arg0);  
              71. null);  
              72.             }  
              73.         };  
              74.   
              75.           
              76.         mTakeButton=(Button)findViewById(R.id.take_button);  
              77.           
              78. this.getPackageManager();  
              79. boolean hasCamera=pm.hasSystemFeature(PackageManager.FEATURE_CAMERA) ||  
              80.                 pm.hasSystemFeature(PackageManager.FEATURE_CAMERA_FRONT) ||  
              81.                 Build.VERSION.SDK_INT<Build.VERSION_CODES.GINGERBREAD;  
              82. if(!hasCamera)  
              83. false);  
              84.           
              85. new View.OnClickListener() {   
              86. @Override  
              87. public void onClick(View arg0) {  
              88. // TODO Auto-generated method stub  
              89. if(mCamera!=null)  
              90.                 {  
              91. if (isRecording) {                        
              92. "Start");                     
              93. null);      
              94. this, "encode done", Toast.LENGTH_SHORT).show();                                                                     
              95. false;                 
              96. else {    
              97. "Stop");  
              98.                         initial(mCamera.getParameters().getPreviewSize().width,mCamera.getParameters().getPreviewSize().height);  
              99.                         mCamera.setPreviewCallback(mPreviewCallbacx);  
              100. true;    
              101.                     }   
              102.                 }  
              103.             }  
              104.         });  
              105.             
              106.          
              107.         mSurfaceView=(SurfaceView)findViewById(R.id.surfaceView1);  
              108.         SurfaceHolder holder=mSurfaceView.getHolder();  
              109.         holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);  
              110.           
              111. new SurfaceHolder.Callback() {  
              112.               
              113. @Override  
              114. public void surfaceDestroyed(SurfaceHolder arg0) {  
              115. // TODO Auto-generated method stub  
              116. if(mCamera!=null)  
              117.                 {  
              118.                     mCamera.stopPreview();  
              119. null;    
              120. null;     
              121.                 }  
              122.             }  
              123.               
              124. @Override  
              125. public void surfaceCreated(SurfaceHolder arg0) {  
              126. // TODO Auto-generated method stub  
              127. try{  
              128. if(mCamera!=null){  
              129.                         mCamera.setPreviewDisplay(arg0);  
              130.                         mSurfaceHolder=arg0;  
              131.                     }  
              132. catch(IOException exception){  
              133. "Error setting up preview display", exception);  
              134.                 }  
              135.             }  
              136.               
              137. @Override  
              138. public void surfaceChanged(SurfaceHolder arg0, int arg1, int arg2, int arg3) {  
              139. // TODO Auto-generated method stub  
              140. if(mCamera==null) return;  
              141.                 Camera.Parameters parameters=mCamera.getParameters();             
              142. 640,480);  
              143. 640,480);  
              144.                 mCamera.setParameters(parameters);  
              145. try{  
              146.                     mCamera.startPreview();  
              147.                     mSurfaceHolder=arg0;  
              148. catch(Exception e){  
              149. "could not start preview", e);  
              150.                     mCamera.release();  
              151. null;  
              152.                 }  
              153.             }  
              154.         });  
              155.           
              156.     }  
              157.       
              158. @TargetApi(9)  
              159. @Override  
              160. protected void onResume(){  
              161. super.onResume();  
              162. if(Build.VERSION.SDK_INT>=Build.VERSION_CODES.GINGERBREAD){  
              163. 0);  
              164. else  
              165.         {  
              166.             mCamera=Camera.open();  
              167.         }  
              168.     }  
              169.       
              170. @Override  
              171. protected void onPause(){  
              172. super.onPause();  
              173.         flush();  
              174.         close();  
              175. if(mCamera!=null){  
              176.             mCamera.release();  
              177. null;  
              178.         }  
              179.     }  
              180.       
              181.   
              182. @Override  
              183. public boolean onCreateOptionsMenu(Menu menu) {  
              184. // Inflate the menu; this adds items to the action bar if it is present.  
              185.         getMenuInflater().inflate(R.menu.main, menu);  
              186. return true;  
              187.     }  
              188.   
              189. @Override  
              190. public boolean onOptionsItemSelected(MenuItem item) {  
              191. // Handle action bar item clicks here. The action bar will  
              192. // automatically handle clicks on the Home/Up button, so long  
              193. // as you specify a parent activity in AndroidManifest.xml.  
              194. int id = item.getItemId();  
              195. if (id == R.id.action_settings) {  
              196. return true;  
              197.         }  
              198. return super.onOptionsItemSelected(item);  
              199.     }  
              200.       
              201. //JNI  
              202. public native int initial(int width,int height);  
              203. public native int encode(byte[] yuvimage);  
              204. public native int flush();  
              205. public native int close();  
              206.       
              207.       
              208. static{  
              209. "avutil-54");  
              210. "swresample-1");  
              211. "avcodec-56");  
              212. "avformat-56");  
              213. "swscale-3");  
              214. "postproc-53");  
              215. "avfilter-5");  
              216. "avdevice-56");  
              217. "encode");  
              218.     }  
              219. }

              至此,就完成了全部功能的开发,程序截图如下