我使用AVFoundation来拍照。问题是,即使曝光时间、ISO和白平衡设置不变,我也会得到不同亮度的照片。火炬、闪光和所有可能的稳定都被禁用。
这个问题也出现在标准的苹果应用程序中,介绍了如何使用相机:https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html#//apple_ref/doc/uid/DTS40010112
这是我通过这个应用程序拍摄的视频,除了在会话初始化期间设置手动曝光外,没有任何更改:
https://www.youtube.com/watch?v=g9NOWGVeftI
请注意,如果数码相机的曝光设置是恒定的,则会突然变亮(不,这不是设置曝光设置和调用完成处理程序的时刻;设置已经设置)。
变亮并不总是发生,但无论如何,如果我把相机移开,再次对准物体,可能会有显著的亮度差异。但如果我在不移动相机的情况下拍摄一系列照片,亮度是一样的。
(当然,物体的照片是在同样光线的情况下拍摄的)
可能是这种增亮是设置自定义曝光设置的一部分(因为它通常在开始时发生),它的后期激活是我应该加快的过程,但我不知道如何做到
我在iPod Touch 5&iPad Air。我想这也可能发生在其他iOS设备上。
似乎场景亮度会影响最终图像的亮度(以及预览层的亮度)。设备不仅仅设置给定的曝光设置;它增加了一些基于当前场景亮度的校正,并在可见场景的普通亮度变化很大时改变了这种校正。
如果我用手合上相机,移开手拍一张照片,它会比以前不关相机拍摄的照片更亮。
可能不仅仅是亮度,还有对比度,因为当我把相机从白色显示屏上移开时,当屏幕外的[相对较暗]物体变得可见时,会有变亮的现象。
曝光目标偏移在增亮之前略小于零,而在增亮之后略大于零。
我认为这个值是基于这个意外调整的参数(如在自动曝光模式下)。
但是,通过观察目标偏移量的变化和设置相等的曝光目标偏移量来防止它的尝试失败了,因为目标偏移量一直在变化,不可能让工作相机永久改变它的目标偏移量。
尝试通过设置曝光目标偏置来强制调整,使拍摄前的曝光目标偏移值远离零,但也失败了,因为什么都没发生,我可以在尝试补偿后进行增亮。即使在自定义模式下,目标偏差也会影响曝光偏移量[客户端可见],但似乎不会影响负责曝光的部件中的设备行为。
我还发现在锁定曝光模式下没有亮度跳跃(或者我错过了…)。我试图在设置自定义曝光值后设置此模式,但问题是,在锁定模式下,设备不仅可以固定当前曝光值,还可以进行更改曝光设置的初始调整。
我在拍照后从exif数据和AVCaptureDevice实例中获得的曝光值在跳跃后不会改变。我试图通过KVO观察暴露值,但没有任何可疑之处。当我设置自定义模式曝光持续时间和ISO被更改了几次,然后调用了完成处理程序。提亮可以稍后进行,但不会影响我可以获得的当前曝光值。
这一切都令人困惑。如何提供图像亮度和曝光设置之间的直接关系?
经过修补,我找到了如何轻松锁定曝光的方法。在主摄像头初始化期间添加:
device.exposureMode = AVCaptureDevice.ExposureMode.custom
一旦设备被锁定用于配置
和(非常重要的)
device.exposureMode = AVCaptureDevice.ExposureMode.locked
这两者都确保:
1.您可以使用自定义设置初始化相机
2.在进行更改后,相机保持完全锁定
你的相机初始化代码应该是这样的:
try device.lockForConfiguration()
device.exposureMode = AVCaptureDevice.ExposureMode.custom
device.setExposureModeCustom(duration: durationCust, iso: minISO, completionHandler: nil)
device.setWhiteBalanceModeLocked(with: deviceGains) {
(timestamp:CMTime) -> Void in
}
device.exposureMode = AVCaptureDevice.ExposureMode.locked
device.unlockForConfiguration()
如果要主动更改曝光参数,请不要在实际更改曝光之外将曝光重新声明为锁定或自定义。函数中的代码应该是这样的:
try device.lockForConfiguration()
device.setExposureModeCustom(duration: durationCust, iso: minISO, completionHandler: nil)
device.unlockForConfiguration()
我很高兴能弄清楚这一点——我希望有人能找到它的帮助:)
- (void)setupAVCapture {
//-- Setup Capture Session.
_session = [[AVCaptureSession alloc] init];
[_session beginConfiguration];
//-- Set preset session size.
[_session setSessionPreset:AVCaptureSessionPreset1920x1080];
//-- Creata a video device and input from that Device. Add the input to the capture session.
AVCaptureDevice * videoDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
if(videoDevice == nil)
assert(0);
//-- Add the device to the session.
NSError *error;
AVCaptureDeviceInput *input = [AVCaptureDeviceInput deviceInputWithDevice:videoDevice error:&error];
if(error)
assert(0);
[_session addInput:input];
//-- Create the output for the capture session.
AVCaptureVideoDataOutput * dataOutput = [[AVCaptureVideoDataOutput alloc] init];
[dataOutput setAlwaysDiscardsLateVideoFrames:YES]; // Probably want to set this to NO when recording
//-- Set to YUV420.
[dataOutput setVideoSettings:[NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_420YpCbCr8BiPlanarFullRange]
forKey:(id)kCVPixelBufferPixelFormatTypeKey]]; // Necessary for manual preview
// Set dispatch to be on the main thread so OpenGL can do things with the data
[dataOutput setSampleBufferDelegate:self queue:dispatch_get_main_queue()];
[_session addOutput:dataOutput];
[_session commitConfiguration];
[_session startRunning];
}
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection
{
CFDictionaryRef metadataDict = CMCopyDictionaryOfAttachments(NULL,
sampleBuffer, kCMAttachmentMode_ShouldPropagate);
NSDictionary *metadata = [[NSMutableDictionary alloc]
initWithDictionary:(__bridge NSDictionary*)metadataDict];
CFRelease(metadataDict);
NSDictionary *exifMetadata = [[metadata
objectForKey:(NSString *)kCGImagePropertyExifDictionary] mutableCopy];
self.autoBrightness = [[exifMetadata
objectForKey:(NSString *)kCGImagePropertyExifBrightnessValue] floatValue];
float oldMin = -4.639957; // dark
float oldMax = 4.639957; // light
if (self.autoBrightness > oldMax) oldMax = self.autoBrightness; // adjust oldMax if brighter than expected oldMax
self.lumaThreshold = ((self.autoBrightness - oldMin) * ((3.0 - 1.0) / (oldMax - oldMin))) + 1.0;
NSLog(@"brightnessValue %f", self.autoBrightness);
NSLog(@"lumaThreshold %f", self.lumaThreshold);
}
lumaThreshold变量作为一个统一变量发送到我的碎片着色器,该着色器会乘以Y采样器纹理,以根据环境的亮度找到理想的亮度。现在,它使用后置摄像头;我可能会切换到前置摄像头,因为我只是改变屏幕的"亮度"以适应室内/室外观看,而且用户的眼睛都在摄像头的正面(而不是背面)。