我正在用 Objective C 在 IOS 上开发一个交互式相机应用程序。我想从相机捕捉静止图像并使用我自己的代码(用 C++ 实现)即时处理。不幸的是,我们的 IOS 人员只知道拍摄照片并将其保存为 dat 文件的 API,然后将 dat 文件重新保存为普通图像格式。我猜camera->dat->memory甚至camera->dat->storage->memory的过程会引入很多延迟,特别是如果我以更快的速度(例如,每秒10次捕获)。
那么,简而言之,是否有任何 Objective-c API 可用于将相机传感器数据加载到其他代码可以访问的内存中?
从相机中获取静止图像的常用方法是实现 UIImagePickerControllerDelegate 协议(protocol)的 didFinishPickingMediaWithInfo 方法,例如:
- (void) imagePickerController: (UIImagePickerController *) picker didFinishPickingMediaWithInfo: (NSDictionary *) info {
NSString *mediaType = [info objectForKey: UIImagePickerControllerMediaType];
// allow only image capture
if (CFStringCompare ((__bridge_retained CFStringRef) mediaType, kUTTypeImage, 0) == kCFCompareEqualTo) {
UIImage *picture = [info objectForKey:UIImagePickerControllerOriginalImage]; // here you have an UIImage in memory
NSData *photoData = UIImageJPEGRepresentation(picture, 1.0); // here you have the byte buffer for a JPEG
// OR: NSData *photoData = UIImagePNGRepresentation(picture); // here you have the byte buffer for a PNG
// do something with picture or photoData
}
[self dismissViewControllerAnimated:NO completion:nil];
}
然后你可以使用JPEG或PNG数据,无需写入文件
关于ios - 在IOS中,从相机中获取静止图像并直接将其放入内存中,而不保存到存储中,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33644002/
欢迎光临 OStack程序员社区-中国程序员成长平台 (https://ostack.cn/) | Powered by Discuz! X3.4 |