本文的示例将实现:读取安卓手机摄像头数据并使用H.264编码格式实时编码保存为flv文件。示例包含了
1、编译适用于安卓平台的ffmpeg库
2、在java中通过JNI使用ffmpeg
3、读取安卓摄像头数据并在后台线程中使用ffmpeg进行编码的基本流程
具有较强的综合性。
编译适用于安卓平台的ffmpeg库
平时我们编译ffmpeg类库都是在x86平台下,而安卓手机属于arm平台,所以要先通过交叉编译的方法在x86平台下编译出可以在arm平台下使用的ffmpeg类库。Google就为我们提供了一套可以再Linux下完成该任务的交叉编译工具链——NDK,下载时可以看到google同时提供了ndk的windows版和linux版,前者可以在windows下通过cygwin(可以理解为一个在windows下模拟linux的工具)使用。我这里使用的是Android-ndk-r10e,在cygwin下使用。ndk的下载安装基本是傻瓜式的,但要注意linux系统对x86和x64是分的很清楚的,不像windows那么随性,此外还需要提醒的是,在下载安装cygwin时,只需要选择binutils , gcc , gcc-mingw , gdb , make这几个组件。安装完成后,在cygwin安装目录下点击cygwin.bat打开命令窗口,输入make -version验证是否安装成功。
做好以上的准备工作之后就可以正式开始ffmpeg源码的编译了。
首先需要修改configure文件,确保类库版本号不会出现在.so后缀名的后面,否则安卓平台无法识别这样的类库
找到下面几句
1. SLIBNAME_WITH_MAJOR='$(SLIBNAME).$(LIBMAJOR)'
2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'
3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_VERSION)'
4. SLIB_INSTALL_LINKS='$(SLIBNAME_WITH_MAJOR)$(SLIBNAME)'
1. SLIBNAME_WITH_MAJOR='$(SLIBPREF)$(FULLNAME)-$(LIBMAJOR)$(SLIBSUF)'
2. LIB_INSTALL_EXTRA_CMD='$$(RANLIB)"$(LIBDIR)/$(LIBNAME)"'
3. SLIB_INSTALL_NAME='$(SLIBNAME_WITH_MAJOR)'
4. SLIB_INSTALL_LINKS='$(SLIBNAME)'
1. make clean
2.
3. export NDK=xxxx/android-ndk-r10e
4. export PREBUILT=$NDK/toolchains/arm-linux-androideabi-4.8/prebuilt
5. export PLATFORM=$NDK/platforms/android-8/arch-arm
6. export PREFIX=../android_ffmpeglib
7.
8. ./configure --target-os=linux --prefix=$PREFIX \
9. --enable-cross-compile \
10. --enable-runtime-cpudetect \
11. --disable-asm \
12. --arch=arm \
13. --cc=$PREBUILT/windows/bin/arm-linux-androideabi-gcc \
14. --cross-prefix=$PREBUILT/windows/bin/arm-linux-androideabi- \
15. --disable-stripping \
16. --nm=$PREBUILT/windows/bin/arm-linux-androideabi-nm \
17. --sysroot=$PLATFORM \
18. --enable-gpl --enable-shared --disable-static --enable-small \
19. --disable-ffprobe --disable-ffplay --disable-ffmpeg --disable-ffserver --disable-debug \
20. --extra-cflags="-fPIC -DANDROID -D__thumb__ -mthumb -Wfatal-errors -Wno-deprecated -mfloat-abi=softfp -marm -march=armv7-a"
21.
22. make
23. make install
成功编译后,可以看到如下类库
在java中通过JNI使用ffmpeg
JNI即java本地接口,java native interface,它是一个协议, 该协议用来沟通Java代码和外部的本地C/C++代码, 通过该协议 Java代码可以调用外部的本地代码, 外部的C/C++ 代码可以调用Java代码。简单来说,就是将一个C语言的方法映射到Java的某个方法上;
JNI中的一些概念 :
-- native : Java语言中修饰本地方法的修饰符, 被该修饰符修饰的方法没有方法体;
-- Native方法 : 在Java语言中被native关键字修饰的方法是Native方法;
-- JNI层 : Java声明Native方法的部分;
-- JNI函数 : JNIEnv提供的函数, 这些函数在jni.h中进行定义;
-- JNI方法 : Native方法对应的JNI层实现的 C/C++方法, 即在jni目录中实现的那些C语言代码;
1、创建常规Android项目
2、声明Native方法,形如public native String stringFromJNI();
3、创建c文件
在工程根目录下创建 jni 目录, 然后创建一个c语言源文件, 在文件中引入 include <jni.h>。c语言方法声明形如
1. jstring
2. Java_com_example_hellojni_HelloJni_stringFromJNI( JNIEnv* env,
3. jobject thiz )
jstring 是 Java语言中的String类型, 方法名格式为 : Java_完整包名类名_方法名();
-- JNIEnv参数 : 代表的是Java环境, 通过这个环境可以调用Java里面的方法;
-- jobject参数 : 调用C语言方法的对象, thiz对象表示当前的对象, 即调用JNI方法所在的类;
4、编写Android.mk文件
就好比常用的makefile,形如
1. LOCAL_PATH := $(call my-dir)
2.
3. include $(CLEAR_VARS)
4.
5. LOCAL_MODULE := hello-jni
6. LOCAL_SRC_FILES := hello-jni.c
7.
8. include $(BUILD_SHARED_LIBRARY)
-- LOCAL_PATH : 代表mk文件所在的目录;
-- include $(CLEAR_VARS) : 编译工具函数, 通过该函数可以进行一些初始化操作;
-- LOCAL_MODULE : 编译后的 .so 后缀文件叫什么名字;
-- LOCAL_SRC_FILES: 指定编译的源文件名称;
-- include $(BUILD_SHARED_LIBRARY) : 告诉编译器需要生成动态库;
5、NDK编译生成动态库
利用上面写好的.mk文件,进入 cygdrive 找到windows目录下对应的文件, 编译完成之后, 会自动生成so文件并放在libs目录下, 之后就可以在Java中调用C语言方法了;
6、java中加载动态库
在Java类中的静态代码块中使用System.LoadLibrary()方法加载编译好的 .so 动态库,形如
1. static {
2. "hello-jni");
3. }
需要说明的是,调试JNI程序非常麻烦,无法进入c文件中进行单步调试,只能通过输出一些信息然后利用logcat进行调试,所以也可以先在vs里面把c文件的内容跑一遍简单验证一下。
第一步:我们声明如下四个Native方法
1. //JNI
2. //初始化,读取待编码数据的宽和高
3. public native int initial(int width,int height);
4. //读取yuv数据进行编码
5. public native int encode(byte[] yuvimage);
6. //清空缓存的帧
7. public native int flush();
8. //清理
9. public native int close();
第二步:对应的c文件内容如下,基本就是一个将yuv数据编码为H.264的flv文件的流程,唯一需要注意的就是安卓摄像头拍摄数据的像素格式为NV21,需要转换为YUV420P才能进行编码
1. /**
2. * 基于FFmpeg安卓摄像头编码
3. * FFmpeg Android Camera Encoder
4. *
5. * 张晖 Hui Zhang
6. * zhanghuicuc@gmail.com
7. * 中国传媒大学/数字电视技术
8. * Communication University of China / Digital TV Technology
9. *
10. *
11. */
12.
13. #include <stdio.h>
14. #include <time.h>
15.
16. #include "libavcodec/avcodec.h"
17. #include "libavformat/avformat.h"
18. #include "libswscale/swscale.h"
19. #include "libavutil/log.h"
20.
21. #ifdef ANDROID
22. #include <jni.h>
23. #include <android/log.h>
24. #define LOGE(format, ...) __android_log_print(ANDROID_LOG_ERROR, "(>_<)", format, ##__VA_ARGS__)
25. #define LOGI(format, ...) __android_log_print(ANDROID_LOG_INFO, "(=_=)", format, ##__VA_ARGS__)
26. #else
27. #define LOGE(format, ...) printf("(>_<) " format "\n", ##__VA_ARGS__)
28. #define LOGI(format, ...) printf("(^_^) " format "\n", ##__VA_ARGS__)
29. #endif
30.
31. AVFormatContext *ofmt_ctx;
32. AVStream* video_st;
33. AVCodecContext* pCodecCtx;
34. AVCodec* pCodec;
35. AVPacket enc_pkt;
36. AVFrame *pFrameYUV;
37.
38. int framecnt = 0;
39. int yuv_width;
40. int yuv_height;
41. int y_length;
42. int uv_length;
43. int64_t start_time;
44.
45. //Output FFmpeg's av_log()
46. void custom_log(void *ptr, int level, const char* fmt, va_list vl){
47. FILE *fp=fopen("/storage/emulated/0/av_log.txt","a+");
48. if(fp){
49. vfprintf(fp,fmt,vl);
50. fflush(fp);
51. fclose(fp);
52. }
53. }
54.
55. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_initial
56. (JNIEnv *env, jobject obj,jint width,jint height)
57. {
58. const char* out_path = "/sdcard/zhanghui/testffmpeg.flv";
59. yuv_width=width;
60. yuv_height=height;
61. y_length=width*height;
62. uv_length=width*height/4;
63.
64. //FFmpeg av_log() callback
65. av_log_set_callback(custom_log);
66.
67. av_register_all();
68.
69. //output initialize
70. "flv", out_path);
71. //output encoder initialize
72. pCodec = avcodec_find_encoder(AV_CODEC_ID_H264);
73. if (!pCodec){
74. "Can not find encoder!\n");
75. return -1;
76. }
77. pCodecCtx = avcodec_alloc_context3(pCodec);
78. pCodecCtx->pix_fmt = PIX_FMT_YUV420P;
79. pCodecCtx->width = width;
80. pCodecCtx->height = height;
81. pCodecCtx->time_base.num = 1;
82. pCodecCtx->time_base.den = 30;
83. pCodecCtx->bit_rate = 800000;
84. pCodecCtx->gop_size = 300;
85. /* Some formats want stream headers to be separate. */
86. if (ofmt_ctx->oformat->flags & AVFMT_GLOBALHEADER)
87. pCodecCtx->flags |= CODEC_FLAG_GLOBAL_HEADER;
88.
89. //H264 codec param
90. //pCodecCtx->me_range = 16;
91. //pCodecCtx->max_qdiff = 4;
92. //pCodecCtx->qcompress = 0.6;
93. pCodecCtx->qmin = 10;
94. pCodecCtx->qmax = 51;
95. //Optional Param
96. pCodecCtx->max_b_frames = 3;
97. // Set H264 preset and tune
98. AVDictionary *param = 0;
99. "preset", "ultrafast", 0);
100. "tune", "zerolatency", 0);
101.
102. if (avcodec_open2(pCodecCtx, pCodec, ¶m) < 0){
103. "Failed to open encoder!\n");
104. return -1;
105. }
106.
107. //Add a new stream to output,should be called by the user before avformat_write_header() for muxing
108. video_st = avformat_new_stream(ofmt_ctx, pCodec);
109. if (video_st == NULL){
110. return -1;
111. }
112. video_st->time_base.num = 1;
113. video_st->time_base.den = 30;
114. video_st->codec = pCodecCtx;
115.
116. //Open output URL,set before avformat_write_header() for muxing
117. if (avio_open(&ofmt_ctx->pb, out_path, AVIO_FLAG_READ_WRITE) < 0){
118. "Failed to open output file!\n");
119. return -1;
120. }
121.
122. //Write File Header
123. avformat_write_header(ofmt_ctx, NULL);
124.
125. start_time = av_gettime();
126. return 0;
127. }
128.
129.
130. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_encode
131. (JNIEnv *env, jobject obj, jbyteArray yuv)
132. {
133. int ret;
134. int enc_got_frame=0;
135. int i=0;
136.
137. pFrameYUV = avcodec_alloc_frame();
138. uint8_t *out_buffer = (uint8_t *)av_malloc(avpicture_get_size(PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height));
139. avpicture_fill((AVPicture *)pFrameYUV, out_buffer, PIX_FMT_YUV420P, pCodecCtx->width, pCodecCtx->height);
140.
141. //安卓摄像头数据为NV21格式,此处将其转换为YUV420P格式
142. jbyte* in= (jbyte*)(*env)->GetByteArrayElements(env,yuv,0);
143. memcpy(pFrameYUV->data[0],in,y_length);
144. for(i=0;i<uv_length;i++)
145. {
146. *(pFrameYUV->data[2]+i)=*(in+y_length+i*2);
147. *(pFrameYUV->data[1]+i)=*(in+y_length+i*2+1);
148. }
149.
150. pFrameYUV->format = AV_PIX_FMT_YUV420P;
151. pFrameYUV->width = yuv_width;
152. pFrameYUV->height = yuv_height;
153.
154. enc_pkt.data = NULL;
155. enc_pkt.size = 0;
156. av_init_packet(&enc_pkt);
157. ret = avcodec_encode_video2(pCodecCtx, &enc_pkt, pFrameYUV, &enc_got_frame);
158. av_frame_free(&pFrameYUV);
159.
160. if (enc_got_frame == 1){
161. "Succeed to encode frame: %5d\tsize:%5d\n", framecnt, enc_pkt.size);
162. framecnt++;
163. enc_pkt.stream_index = video_st->index;
164.
165. //Write PTS
166. //{ 1, 1000 };
167. //{ 50, 2 };
168. AVRational time_base_q = { 1, AV_TIME_BASE };
169. //Duration between 2 frames (us)
170. double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1)); //内部时间戳
171. //Parameters
172. //enc_pkt.pts = (double)(framecnt*calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));
173. enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);
174. enc_pkt.dts = enc_pkt.pts;
175. //(double)(calc_duration)*(double)(av_q2d(time_base_q)) / (double)(av_q2d(time_base));
176. enc_pkt.pos = -1;
177.
178. //Delay
179. int64_t pts_time = av_rescale_q(enc_pkt.dts, time_base, time_base_q);
180. int64_t now_time = av_gettime() - start_time;
181. if (pts_time > now_time)
182. av_usleep(pts_time - now_time);
183.
184. ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);
185. av_free_packet(&enc_pkt);
186. }
187.
188. return 0;
189. }
190.
191. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_flush
192. (JNIEnv *env, jobject obj)
193. {
194. int ret;
195. int got_frame;
196. AVPacket enc_pkt;
197. if (!(ofmt_ctx->streams[0]->codec->codec->capabilities &
198. CODEC_CAP_DELAY))
199. return 0;
200. while (1) {
201. enc_pkt.data = NULL;
202. enc_pkt.size = 0;
203. av_init_packet(&enc_pkt);
204. ret = avcodec_encode_video2(ofmt_ctx->streams[0]->codec, &enc_pkt,
205. NULL, &got_frame);
206. if (ret < 0)
207. break;
208. if (!got_frame){
209. ret = 0;
210. break;
211. }
212. "Flush Encoder: Succeed to encode 1 frame!\tsize:%5d\n", enc_pkt.size);
213.
214. //Write PTS
215. //{ 1, 1000 };
216. AVRational r_framerate1 = { 60, 2 };
217. AVRational time_base_q = { 1, AV_TIME_BASE };
218. //Duration between 2 frames (us)
219. double)(AV_TIME_BASE)*(1 / av_q2d(r_framerate1)); //内部时间戳
220. //Parameters
221. enc_pkt.pts = av_rescale_q(framecnt*calc_duration, time_base_q, time_base);
222. enc_pkt.dts = enc_pkt.pts;
223. enc_pkt.duration = av_rescale_q(calc_duration, time_base_q, time_base);
224.
225. //转换PTS/DTS(Convert PTS/DTS)
226. enc_pkt.pos = -1;
227. framecnt++;
228. ofmt_ctx->duration = enc_pkt.duration * framecnt;
229.
230. /* mux encoded frame */
231. ret = av_interleaved_write_frame(ofmt_ctx, &enc_pkt);
232. if (ret < 0)
233. break;
234. }
235. //Write file trailer
236. av_write_trailer(ofmt_ctx);
237. return 0;
238. }
239.
240. JNIEXPORT jint JNICALL Java_com_zhanghui_test_MainActivity_close
241. (JNIEnv *env, jobject obj)
242. {
243. if (video_st)
244. avcodec_close(video_st->codec);
245. avio_close(ofmt_ctx->pb);
246. avformat_free_context(ofmt_ctx);
247. return 0;
248. }
1. LOCAL_PATH := $(call my-dir)
2.
3. # FFmpeg library
4. include $(CLEAR_VARS)
5. LOCAL_MODULE := avcodec
6. LOCAL_SRC_FILES := libavcodec-56.so
7. include $(PREBUILT_SHARED_LIBRARY)
8.
9. include $(CLEAR_VARS)
10. LOCAL_MODULE := avdevice
11. LOCAL_SRC_FILES := libavdevice-56.so
12. include $(PREBUILT_SHARED_LIBRARY)
13.
14. include $(CLEAR_VARS)
15. LOCAL_MODULE := avfilter
16. LOCAL_SRC_FILES := libavfilter-5.so
17. include $(PREBUILT_SHARED_LIBRARY)
18.
19. include $(CLEAR_VARS)
20. LOCAL_MODULE := avformat
21. LOCAL_SRC_FILES := libavformat-56.so
22. include $(PREBUILT_SHARED_LIBRARY)
23.
24. include $(CLEAR_VARS)
25. LOCAL_MODULE := avutil
26. LOCAL_SRC_FILES := libavutil-54.so
27. include $(PREBUILT_SHARED_LIBRARY)
28.
29. include $(CLEAR_VARS)
30. LOCAL_MODULE := postproc
31. LOCAL_SRC_FILES := libpostproc-53.so
32. include $(PREBUILT_SHARED_LIBRARY)
33.
34. include $(CLEAR_VARS)
35. LOCAL_MODULE := swresample
36. LOCAL_SRC_FILES := libswresample-1.so
37. include $(PREBUILT_SHARED_LIBRARY)
38.
39. include $(CLEAR_VARS)
40. LOCAL_MODULE := swscale
41. LOCAL_SRC_FILES := libswscale-3.so
42. include $(PREBUILT_SHARED_LIBRARY)
43.
44. # Program
45. include $(CLEAR_VARS)
46. LOCAL_MODULE := encode
47. LOCAL_SRC_FILES :=encode.c
48. LOCAL_C_INCLUDES += $(LOCAL_PATH)/include
49. LOCAL_LDLIBS := -llog -lz
50. LOCAL_SHARED_LIBRARIES := avcodec avdevice avfilter avformat avutil postproc swresample swscale
51. include $(BUILD_SHARED_LIBRARY)
第四步:使用cygwin切换到当前项目的jni目录下,输入ndk-build进行编译即可,如下
此时就可以在当前项目的libs目录下看到ffmpeg所有的类库以及我们自己的类库,我这里是libencode.so,如下
第五步:在java中加载动态库
1. static{
2. "avutil-54");
3. "swresample-1");
4. "avcodec-56");
5. "avformat-56");
6. "swscale-3");
7. "postproc-53");
8. "avfilter-5");
9. "avdevice-56");
10. "encode");
11. }
至此,就可以在java中调用我们声明的四个方法了。
java部分获取摄像头数据并编码的流程
简单来说,就是利用Camera的PreviewCallback获得摄像头数据,在通过AsyncTask开启后台线程将摄像头数据进行编码。这里为了避免编码过程占用过多的硬件资源,将编码视频宽和高设置为了640和480,。
这里有两个坑,一是onPreviewFrame方法的arg0参数就是YUV数据了,不要再转换为YuvImage对象了,否则会在头部加上一些多余的信息,导致编码错误,二是用于清空缓存帧的flush方法不能在oncreate主线程中调用,否则会导致程序闪退,目前还不清楚原因,所以这里连同close()方法一起放到了onPause方法中进行调用,在安卓开发方面我还是新手,希望有了解这个问题怎么解决的朋友多多指教。
1. package com.zhanghui.test;
2.
3.
4. import java.io.IOException;
5. import android.annotation.TargetApi;
6. import android.app.Activity;
7. import android.content.pm.PackageManager;
8. import android.hardware.Camera;
9. import android.os.AsyncTask;
10. import android.os.Build;
11. import android.os.Bundle;
12. import android.util.Log;
13. import android.view.Menu;
14. import android.view.MenuItem;
15. import android.view.SurfaceHolder;
16. import android.view.SurfaceView;
17. import android.view.View;
18. import android.widget.Button;
19. import android.widget.Toast;
20.
21. @SuppressWarnings("deprecation")
22. public class MainActivity extends Activity {
23. private static final String TAG= "MainActivity";
24. private Button mTakeButton;
25. private Camera mCamera;
26. private SurfaceView mSurfaceView;
27. private SurfaceHolder mSurfaceHolder;
28. private boolean isRecording = false;
29.
30. private class StreamTask extends AsyncTask<Void, Void, Void>{
31.
32. private byte[] mData;
33.
34. //构造函数
35. byte[] data){
36. this.mData = data;
37. }
38.
39. @Override
40. protected Void doInBackground(Void... params) {
41. // TODO Auto-generated method stub
42. if(mData!=null){
43. "fps: " + mCamera.getParameters().getPreviewFrameRate());
44. encode(mData);
45. }
46.
47. return null;
48. }
49. }
50. private StreamTask mStreamTask;
51.
52. @Override
53. protected void onCreate(Bundle savedInstanceState) {
54. super.onCreate(savedInstanceState);
55. setContentView(R.layout.activity_main);
56.
57. final Camera.PreviewCallback mPreviewCallbacx=new Camera.PreviewCallback() {
58. @Override
59. public void onPreviewFrame(byte[] arg0, Camera arg1) {
60. // TODO Auto-generated method stub
61. if(null != mStreamTask){
62. switch(mStreamTask.getStatus()){
63. case RUNNING:
64. return;
65. case PENDING:
66. false);
67. break;
68. }
69. }
70. new StreamTask(arg0);
71. null);
72. }
73. };
74.
75.
76. mTakeButton=(Button)findViewById(R.id.take_button);
77.
78. this.getPackageManager();
79. boolean hasCamera=pm.hasSystemFeature(PackageManager.FEATURE_CAMERA) ||
80. pm.hasSystemFeature(PackageManager.FEATURE_CAMERA_FRONT) ||
81. Build.VERSION.SDK_INT<Build.VERSION_CODES.GINGERBREAD;
82. if(!hasCamera)
83. false);
84.
85. new View.OnClickListener() {
86. @Override
87. public void onClick(View arg0) {
88. // TODO Auto-generated method stub
89. if(mCamera!=null)
90. {
91. if (isRecording) {
92. "Start");
93. null);
94. this, "encode done", Toast.LENGTH_SHORT).show();
95. false;
96. else {
97. "Stop");
98. initial(mCamera.getParameters().getPreviewSize().width,mCamera.getParameters().getPreviewSize().height);
99. mCamera.setPreviewCallback(mPreviewCallbacx);
100. true;
101. }
102. }
103. }
104. });
105.
106.
107. mSurfaceView=(SurfaceView)findViewById(R.id.surfaceView1);
108. SurfaceHolder holder=mSurfaceView.getHolder();
109. holder.setType(SurfaceHolder.SURFACE_TYPE_PUSH_BUFFERS);
110.
111. new SurfaceHolder.Callback() {
112.
113. @Override
114. public void surfaceDestroyed(SurfaceHolder arg0) {
115. // TODO Auto-generated method stub
116. if(mCamera!=null)
117. {
118. mCamera.stopPreview();
119. null;
120. null;
121. }
122. }
123.
124. @Override
125. public void surfaceCreated(SurfaceHolder arg0) {
126. // TODO Auto-generated method stub
127. try{
128. if(mCamera!=null){
129. mCamera.setPreviewDisplay(arg0);
130. mSurfaceHolder=arg0;
131. }
132. catch(IOException exception){
133. "Error setting up preview display", exception);
134. }
135. }
136.
137. @Override
138. public void surfaceChanged(SurfaceHolder arg0, int arg1, int arg2, int arg3) {
139. // TODO Auto-generated method stub
140. if(mCamera==null) return;
141. Camera.Parameters parameters=mCamera.getParameters();
142. 640,480);
143. 640,480);
144. mCamera.setParameters(parameters);
145. try{
146. mCamera.startPreview();
147. mSurfaceHolder=arg0;
148. catch(Exception e){
149. "could not start preview", e);
150. mCamera.release();
151. null;
152. }
153. }
154. });
155.
156. }
157.
158. @TargetApi(9)
159. @Override
160. protected void onResume(){
161. super.onResume();
162. if(Build.VERSION.SDK_INT>=Build.VERSION_CODES.GINGERBREAD){
163. 0);
164. else
165. {
166. mCamera=Camera.open();
167. }
168. }
169.
170. @Override
171. protected void onPause(){
172. super.onPause();
173. flush();
174. close();
175. if(mCamera!=null){
176. mCamera.release();
177. null;
178. }
179. }
180.
181.
182. @Override
183. public boolean onCreateOptionsMenu(Menu menu) {
184. // Inflate the menu; this adds items to the action bar if it is present.
185. getMenuInflater().inflate(R.menu.main, menu);
186. return true;
187. }
188.
189. @Override
190. public boolean onOptionsItemSelected(MenuItem item) {
191. // Handle action bar item clicks here. The action bar will
192. // automatically handle clicks on the Home/Up button, so long
193. // as you specify a parent activity in AndroidManifest.xml.
194. int id = item.getItemId();
195. if (id == R.id.action_settings) {
196. return true;
197. }
198. return super.onOptionsItemSelected(item);
199. }
200.
201. //JNI
202. public native int initial(int width,int height);
203. public native int encode(byte[] yuvimage);
204. public native int flush();
205. public native int close();
206.
207.
208. static{
209. "avutil-54");
210. "swresample-1");
211. "avcodec-56");
212. "avformat-56");
213. "swscale-3");
214. "postproc-53");
215. "avfilter-5");
216. "avdevice-56");
217. "encode");
218. }
219. }
至此,就完成了全部功能的开发,程序截图如下