我想在应用程序中使用视觉API提供的新的人脸检测功能以及额外的帧处理。为此,我需要访问人脸检测器处理过的相机帧,并使用人脸检测到的数据连接一个处理器。
正如我在示例中看到的那样,CameraSource抽象了检测和相机访问,并且我无法访问正在处理的帧。是否有如何在这个API中获取相机帧的示例,或者,可能,创建并连接一个接收它的检测器?至少这是可能的吗?
谢谢,卢西奥
是有可能的。你需要创建你自己的检测器子类,它包装FaceDetector,并在detect方法中执行额外的帧处理代码。它看起来像这样:
class MyFaceDetector extends Detector<Face> {
private Detector<Face> mDelegate;
MyFaceDetector(Detector<Face> delegate) {
mDelegate = delegate;
}
public SparseArray<Face> detect(Frame frame) {
// *** add your custom frame processing code here
return mDelegate.detect(frame);
}
public boolean isOperational() {
return mDelegate.isOperational();
}
public boolean setFocus(int id) {
return mDelegate.setFocus(id);
}
}
你将用你的类包裹人脸检测器,并将你的类传递到相机源。它看起来像这样:
FaceDetector faceDetector = new FaceDetector.Builder(context)
.build();
MyFaceDetector myFaceDetector = new MyFaceDetector(faceDetector);
myFaceDetector.setProcessor(/* include your processor here */);
mCameraSource = new CameraSource.Builder(context, myFaceDetector)
.build();
您的检测器将首先使用原始帧数据调用。
请注意,如果设备旋转,图像可能不垂直。您可以通过框架的元数据获得方向。getRotation方法。
需要注意的是:一旦detect方法返回,就不应该访问帧像素数据。由于相机源循环图像缓冲区,一旦方法返回,帧对象的内容最终将被覆盖。
编辑:(补充说明)您还可以使用如下所示的MultiDetector来避免MyFaceDetector
的样板代码:
MultiDetector multiDetector = new MultiDetector.Builder()
.add(new FaceDetector.Builder(context)
.build())
.add(new YourReallyOwnDetector())
.build();
还要注意FaceTrackerFactory
与MultiProcessor
的结合使用描述。
这是我最终确定的解决方案。它假定框位于屏幕中央。
public class BoxDetector extends Detector {
private Detector mDelegate;
private int mBoxWidth, mBoxHeight;
public BoxDetector(Detector delegate, int boxWidth, int boxHeight) {
mDelegate = delegate;
mBoxWidth = boxWidth;
mBoxHeight = boxHeight;
}
public SparseArray detect(Frame frame) {
int width = frame.getMetadata().getWidth();
int height = frame.getMetadata().getHeight();
int right = (width / 2) + (mBoxHeight / 2);
int left = (width / 2) - (mBoxHeight / 2);
int bottom = (height / 2) + (mBoxWidth / 2);
int top = (height / 2) - (mBoxWidth / 2);
YuvImage yuvImage = new YuvImage(frame.getGrayscaleImageData().array(), ImageFormat.NV21, width, height, null);
ByteArrayOutputStream byteArrayOutputStream = new ByteArrayOutputStream();
yuvImage.compressToJpeg(new Rect(left, top, right, bottom), 100, byteArrayOutputStream);
byte[] jpegArray = byteArrayOutputStream.toByteArray();
Bitmap bitmap = BitmapFactory.decodeByteArray(jpegArray, 0, jpegArray.length);
Frame croppedFrame =
new Frame.Builder()
.setBitmap(bitmap)
.setRotation(frame.getMetadata().getRotation())
.build();
return mDelegate.detect(croppedFrame);
}
public boolean isOperational() {
return mDelegate.isOperational();
}
public boolean setFocus(int id) {
return mDelegate.setFocus(id);
}
}
像这样将这个类包装在检测器中
BarcodeDetector barcodeDetector = new BarcodeDetector.Builder(context).build();
BoxDetector boxDetector = new BoxDetector(barcodeDetector, heightPx, widthPx);
根据用户(New Developer)的要求,如何设置盒子检测器。你可以像这样使用
使用@MCR
BoxDetector类,然后按照这些步骤。
我只是举一个关于文本识别器的例子你可以这样设置
TextRecognizer mTextRecognizer = new TextRecognizer.Builder(getApplicationContext()).build();
BoxDetector boxDetector = new BoxDetector(mTextRecognizer, heightPx, widthPx);
set boxDetecotr here
boxDetector.setProcessor(new Detector.Processor<TextBlock>() {
@Override
public void release() {
}
@Override
public void receiveDetections(Detector.Detections<TextBlock> detections) {
SparseArray<TextBlock> items = detections.getDetectedItems();
StringBuilder stringBuilder = new StringBuilder();
for (int i = 0; i < items.size(); ++i) {
TextBlock item = items.valueAt(i);
if (item != null && item.getValue() != null) {
stringBuilder.append(item.getValue() + " ");
}
}
final String fullText = stringBuilder.toString();
Handler handler = new Handler(Looper.getMainLooper());
handler.post(new Runnable() {
public void run() {
// here full string(fullText) you can get whatever is it scanned.
}
});
}
});