|
public void surfaceCreated(SurfaceHolder holder) {
mCamera = Camera.open();
try {
mCamera.setPreviewDisplay(holder);
} catch (IOException exception) {
mCamera.release();
mCamera = null;
}
}
public void surfaceDestroyed(SurfaceHolder holder) {
mCamera.stopPreview();
mCamera.release();
mCamera = null;
}
public void draw(Canvas canvas){
super.draw(canvas);
Log.d("===>", "draw");
}
}
内容比较简单,Camera的管理都跟camerView 的几个接口绑在一块。
下来把View加到Active中去,同时用用 takePicture方法:
private void test2(){
cv = new camerView(this);
RelativeLayout relay = (RelativeLayout)findViewById(R.id.FrameLayout01);
relay.addView(cv);
buttonClick = (Button)findViewById(R.id.Button01);
buttonClick.setOnClickListener(new OnClickListener(){
public void onClick(View arg0) {
cv.mCamera.takePicture(
new ShutterCallback(){
public void onShutter() {
Log.d("===>", "onShutter");
}},
new PictureCallback(){
public void onPictureTaken(byte[] data, Camera camera) {
Log.d("===>", "raw:" + (data == null ? "null" : data.length));
}},//raw
new PictureCallback(){
public void onPictureTaken(byte[] data, Camera camera) {
Log.d("===>", "postview:" + (data == null ? "null" : data.length));
}}, //postview
new PictureCallback(){
public void onPictureTaken(byte[] data, Camera camera) {
Log.d("===>", "jpeg:" + (data == null ? "null" : data.length));
}} // jpeg
);
}
});
}
这样所有的代码就完成了,在模拟器上点击test按钮,在log中可以看到:
===>onShutter
===>raw:null
===>jpeg:18474
很奇怪的是 camerView中的 ===>draw没有输出,说明View不进行绘制,那么摄像图像是怎么出来的呢?
源代码中是调用本地方法,懒得去看C代码,不想钻得太深,娱乐而已。
上网查了一半天也没有搞明白,感觉是通过SurfaceHolder获得View的Canvas对象,直接进行绘制,Holder中没有View的引用,当然不会再去调用View的draw方法了。
最后在网上搜到文章一篇,对这个原因有一点说明,Copy之,以防后面忘记:
在通常情况下,OPhone程序中的View都是在同一个GUI线程中绘制的,该线程也是接收用户交互事件的线程(例如:按钮点击事件)。从另外的 线程修改GUI元素是不可以的,如果要迅速的更新UI显示该如何办?显然在主线程中还需要处理其他事件,不适合做这件事情,所以OPhone提供了 SurfaceView 来满足这种需求。一个SurfaceView 包装一个Surface对象(通过SurfaceHolder操作该对象)而不是Canvas对象,这就是关键所在,Surface可以在其他线程中绘 制,这对于周期性更新和要求高帧率的场景来说是很有用的,特别是在游戏开发中。Surface中包含了当前UI的原生数据(raw data),在不同的软件和硬件条件下对这些数据的处理是不一样的,这就可以通过一些设置来加速图形的绘制,可以通过SurfaceHolder的 setType函数来设置,目前接收如下的参数:
SURFACE_TYPE_NORMAL :用RAM缓存原生数据的普通Surface
SURFACE_TYPE_HARDWARE :适用于DMA(Direct memory access )引擎和硬件加速的Surface
SURFACE_TYPE_GPU :适用于GPU加速的Surface
SURFACE_TYPE_PUSH_BUFFERS :表明该Surface不包含原生数 据,Surface用到的数据由其他对象提供,在Camera图像预览中就使用该类型的Surface,有Camera负责提供给预览Surface数 据,这样图像预览会比较流畅。如果在这里设置了上面三种类型则可以发现不会出现预览图像,在和Camera底层的预览机制实现有关,如果对预览有特殊要求 的可以现实PreviewCallback 接口来自己处理 。
如果想在图像上叠加一些文字等透明信息的时候,总不能也像j2me一样地处理吧。
后面看到一篇文章介绍,直接将一个View叠加到Camera上就可以了,开始还不相信,后面实在找不到其它办法,试一试看看:
在test2()中加入
TextView tv = new TextView(this);
tv.setText("test");
RelativeLayout.LayoutParams lp = new RelativeLayout.LayoutParams(ViewGroup.LayoutParams.WRAP_CONTENT, ViewGroup.LayoutParams.WRAP_CONTENT);
lp.addRule(RelativeLayout.CENTER_IN_PARENT);
relay.addView(tv, lp);
果然可以。呵呵,分了一下神,再回来看看Camera。
既然jpeg数据有输出,看看jpeg是什么内容,
new PictureCallback(){
public void onPictureTaken(byte[] data, Camera camera) {
Log.d("===>", "jpeg:" + (data == null ? "null" : data.length));
}} // jpeg
在jpeg的回调接口中添加内容
Log.d("===>", "jpeg:" + (data == null ? "null" : data.length));
cv.setVisibility(View.INVISIBLE);
ImageView iv = new ImageView(test.this);
Bitmap bitmap = BitmapFactory.decodeByteArray(data, 0, data.length);
iv.setImageBitmap(bitmap);
relay.addView(iv);
其中的test是类名,另外需要把relay改成final变量:
final RelativeLayout relay = (RelativeLayout)findViewById(R.id.FrameLayout01);
呵呵,又看到那幅熟悉的图片了,帅。
raw数据没有输出,网上也有人提问,外网被屏蔽了看不到详细的信息,那就此处不表下次再说了。
看看能不能设置一下参数就可以有输出了,在好奇的驱使下,又试了一下设置参数。
从log中可以看到Parameters预设的参数:
picture-format=jpeg
picture-preview=yuv422sp
很可惜,设置为其它的参数系统都报错,玩不转,郁闷,看来要在摄像头这一块抱太多的遗憾了。
算了,看看Camera最后一点功能吧,获取帧数据:
mCamera.setPreviewCallback(new PreviewCallback(){
public void onPreviewFrame(byte[] data, Camera camera) {
Log.d("===>", "onPreviewFrame");
}
});
其中的data是yuv格式的,需要对其解码:
static public void decodeYUV420SP(byte[] rgbBuf, byte[] yuv420sp, int width, int height) {
final int frameSize = width * height;
if (rgbBuf == null)
throw new NullPointerException("buffer 'rgbBuf' is null");
if (rgbBuf.length < frameSize * 3)
throw new IllegalArgumentException("buffer 'rgbBuf' size "
+ rgbBuf.length + " < minimum " + frameSize * 3);
if (yuv420sp == null)
throw new NullPointerException("buffer 'yuv420sp' is null");
if (yuv420sp.length < frameSize * 3 / 2)
throw new IllegalArgumentException("buffer 'yuv420sp' size " + yuv420sp.length
+ " < minimum " + frameSize * 3 / 2);
int i = 0, y = 0;
int uvp = 0, u = 0, v = 0;
int y1192 = 0, r = 0, g = 0, b = 0;
for (int j = 0, yp = 0; j < height; j++) {
uvp = frameSize + (j >> 1) * width;
u = 0;
v = 0;
for (i = 0; i < width; i++, yp++) {
y = (0xff & ((int) yuv420sp[yp])) - 16;
if (y < 0) y = 0;
if ((i & 1) == 0) {
v = (0xff & yuv420sp[uvp++]) - 128;
u = (0xff & yuv420sp[uvp++]) - 128;
}
y1192 = 1192 * y;
r = (y1192 + 1634 * v);
g = (y1192 - 833 * v - 400 * u);
b = (y1192 + 2066 * u);
if (r < 0) r = 0; else if (r > 262143) r = 262143;
if (g < 0) g = 0; else if (g > 262143) g = 262143;
if (b < 0) b = 0; else if (b > 262143) b = 262143;
rgbBuf[yp * 3] = (byte)(r >> 10);
rgbBuf[yp * 3 + 1] = (byte)(g >> 10);
rgbBuf[yp * 3 + 2] = (byte)(b >> 10);
}
}
}
摄像头这一块android虽然给了一个接口,但是实现还是各个厂家自己实现的,所以不同的机型处理方式还不一致,
android camera 源码分析(基于应用)
这里主要是针对Ophone进行介绍的,当然 结合了android的源码(以下出现均为android2.2源码)。
首先在Ophone中也是通过android.hardware.Camera类来控制摄像头设备的,要使用只有通过 android.hardware.Camera.open()来打开。 try { mCameraDevice = android.hardware.Camera.open(); }
catch (RuntimeException e) { Log.e(TAG, "fail to connect Camera", e);
throw new CameraHardwareException(e); }
另外Ophone还提供了一些接口来给予回调,控制Camera的状态,
分别是: 1.android.hardware.Camera.ErrorCallback:摄像头出错的时候调用,这个接口具有一个void onError(int error,Camera camera)函数;其中,
前者表示数据类型,取值是Camera类中的常量CAMERA_ERROR_UNKNOWN或者是 CAMERA_ERROR_SERVICE_DIED;
|
|