swift 카메라 예제

RAW 형식 사진, 깊이 맵 또는 사용자 지정 시간 지정 메타데이터가 있는 비디오와 같은 시스템 카메라 UI와 는 다른 결과를 생성합니다. 불행히도, 우리는 여전히 한 걸음 더 나아요. 이는 Apple에서 시행하는 보안 요구 사항입니다. 앱에서 카메라를 사용해야 하는 이유를 설명하는 이유를 사용자에게 제공해야 합니다. Info.plist를 열고 행을 삽입: 비디오를 녹화하거나 사진을 찍는 방법에 대한 세부 정보로 이동하지 않습니다.이 문서에서는 사용자 지정 카메라 를 빌드하는 UI 부분에 중점을 둡니다. 바라건대, 나는 비디오를 녹화하고 곧 사진을 찍는 것에 대한 기사를 쓸 것입니다. 라이브 사진 캡처를 활성화하면 카메라가 캡처 순간에 하나의 스틸 이미지와 짧은 영화를 촬영합니다. 응용 프로그램은 라이브 사진 캡처와 같은 방식으로 라이브 사진 캡처트리거 : 캡처 한 통화를 통해PhotoWithSettings, 당신은 라이브 포토 무비 파일 URL 속성을 통해 라이브 사진 짧은 비디오에 대한 URL을 전달. AVCapturePhotoOutput 수준에서 라이브 사진을 활성화하거나 캡처당 기준으로 AVCapturePhotoSettings 수준에서 라이브 사진을 구성할 수 있습니다. 여기 captureSession 우리가 카메라 나 마이크와 같은 하나 이상의 장치 입력 사이에 데이터를 전송하고 비디오PreviewLayer를볼 수 있도록하는 데 도움이 우리의 ViewController이 기능에서 카메라보기 파인더를 렌더링하는 데 도움이, 그 이름에서 알 수 있듯이, 우리를 위해 이미지를 캡처합니다 우리가 구축 한 카메라 컨트롤러. 구현해 보겠습니다: 두 함수 모두 매우 유사한 구현을 가지고 있습니다. 먼저 캡처 세션의 모든 입력 배열을 얻고 요청 카메라로 전환할 수 있도록 합니다.

그런 다음 필요한 입력 장치를 만들고 이전 장치를 제거하고 새 입력 장치를 추가합니다. 마지막으로 카메라 컨트롤러 클래스가 변경 내용을 인식하도록 현재카메라 포지션을 설정합니다. 쉬운! 카메라를 전환하는 기능을 추가할 수 있도록 ViewController.swift로 돌아가십시오: iOS 11은 기계 학습 및 증강 현실과 같은 새로운 멋진 기능을 많이 제공합니다. 따라서 이러한 기능을 테스트하거나 멋진 앱을 만들 수 있습니다. 그러나 그들 중 일부는 사용자 정의 카메라가 필요하고 카메라 프레임에 액세스하는 것을 발견하면. iOS에는 장치 카메라에 액세스하고 이미지를 캡처하고 처리 할 수있는 많은 API가 있습니다. AVFoundation은 당신이보고해야 프레임 워크입니다. 이 프레임 워크는 거 대 하 고 원하는 기능을 달성 하는 방법의 많은 있기 때문에 다음에 대 한 블로그 게시물의 집합을 작성 하기로. AVCam을 사용하려면 iOS 13 이상에서 실행되는 iOS 장치가 필요합니다. Xcode는 장치 카메라에 액세스할 수 없으므로 시뮬레이터에서 이 샘플이 작동하지 않습니다.

swift 카메라 예제