今日は半日くらいマルッと使えそうだったので、Swiftでカメラアプリなぞ作ってみました。
先人達のコードを参考にしつつ、XCode6.01のSwiftで書き直してあります。
コードはこちら。 Github
どーせ書き方が違うだけだろと思ってたんですが、全然そうでもなく、Obj-Cで書いたプログラムをそのまま書き直せば動くっていう感じでは無さそうです。
また、言語としての抽象度が上がっているので、逆に色々ハマりどころがあります。
以下ハマった所。
なかなかdeviceInputが取得出来なくて苦労しました。サンプルを持って来ると何故かnilが帰ってくるという。とりあえず、こんな感じに修正して動きました。
var videoDevice:AVCaptureDevice? ~~~~~~~~~~~~~中略~~~~~~~~~~~~~~~~ var error:NSError? videoDevice = CameraViewController.device(AVMediaTypeVideo, position: AVCaptureDevicePosition.Back) let videoDeviceInput = AVCaptureDeviceInput.deviceInputWithDevice(videoDevice!, error: &error) as AVCaptureDeviceInput ~~~~~~~~~~~~~中略~~~~~~~~~~~~~~~~ class func device(mediaType: NSString!, position: AVCaptureDevicePosition) -> AVCaptureDevice? { var devices = AVCaptureDevice.devicesWithMediaType(mediaType) as [AVCaptureDevice] if devices.isEmpty { return nil } var captureDevice = devices[0] for device in devices { if device.position == position { captureDevice = device break } } return captureDevice }あとイメージをキャプチャして保存するのが結構ハマりました。
func takePict(sender: AnyObject){ var layer : AVCaptureVideoPreviewLayer = previewLayer! as AVCaptureVideoPreviewLayer self.stillImageOutput?.connectionWithMediaType(AVMediaTypeVideo).videoOrientation = layer.connection.videoOrientation var error:NSError self.stillImageOutput?.captureStillImageAsynchronouslyFromConnection(self.stillImageOutput?.connectionWithMediaType(AVMediaTypeVideo), completionHandler: { (imageDataSampleBuffer,error) -> Void in if ((imageDataSampleBuffer) != nil) { var imageData : NSData = AVCaptureStillImageOutput.jpegStillImageNSDataRepresentation(imageDataSampleBuffer) var image : UIImage = UIImage(data: imageData) ALAssetsLibrary().writeImageToSavedPhotosAlbum(image.CGImage, orientation: ALAssetOrientation.fromRaw(image.imageOrientation.toRaw())!, completionBlock: nil) } }) }一応こんな感じで何とか動いてます。(正直まだ良く分からない所が多い。)
なんというか、Obj-Cよりも難しいなと思うのは、書き方のパターンが色々ある所とXcodeがまだ自動補完とか完全で無い感じの所ですね。
構造体とかの使い方が特徴的らしいので、その辺りをマスターすればよりSwiftっぽい書き方になるんじゃないかなーと思います。
参考になれば幸いです。
0 件のコメント:
コメントを投稿