ARKit | |
개발 | Apple |
출시 | 2017년 6월 |
플랫폼 | iOS | iPadOS | macOS |
ARKit 공식 사이트 |
[clearfix]
1. 개요
Apple이 개발하고, 2017년 6월 WWDC17에서 공개한 AR 앱을 제작하는 소프트웨어 프레임워크이다. iPhone, iPad, Mac 등의 Apple 제품에서 AR 기술을 구현하고 사용하게 해준다.2. 상세
ARKit이 활용된 예시 중 가장 유명한 것으로는 Apple 기본 애플리케이션인 '측정' 앱과 Apple의 제품을 iPhone과 iPad의 Safari에서 AR로 보는 것이 있으며, 2019년 iPhone 11 시리즈에서 Apple U1 칩을 탑재한 이후로 활용성이 더 넓어지고 있다. 또한 AirPods Pro에 추가된 공간 음향 기능과 더해져 시너지를 낼 것으로 기대하고 있다.ARKit이 공개된 지 몇 달 만에 이를 활용한 다양한 앱들이 App Store에 업데이트되기 시작했다. 인체 해부 실습 'Human Anatomy Atlas' 앱, IKEA의 '이케아 플레이스' 앱, 용 사육 게임 'AR 드래곤' 앱 등이 많은 관심을 받았다.
개발자들은 2017년 출시된 iPhone X 이후로 TrueDepth 카메라를 이용해 물체를 3D로 스캔하는 앱을 제작하기도 하였다.
2019년, NIKE의 신발들을 AR로 신어볼 수 있는 'Wanna Kicks' 앱이 출시되었다. 이후 비슷한 착용 앱이 줄지어 나오고 있으며, 명품 브랜드 GUCCI도 자사 앱에 AR로 신발을 신어보는 기능을 추가하였다.
2020년 4월, iPad Pro 112세대, iPad Pro 12.94세대에서 그리고 10월엔 iPhone 12 Pro, iPhone 12 Pro Max에도 LiDAR 센서가 탑재되면서 AR 앱 사용성이 더욱 정밀해지고 있다.
2021년 4월, AirTag의 '정밀 탐색' 기능에 사용되며 3차원 공간 수준의 추적 기능을 선보였다.
3. 업데이트
3.1. ARKit 2
- 2018년 6월 WWDC18을 통해 ARKit 2를 공개하였다. #
- 얼굴 표정 추적 개선
- 사실적인 렌더링: 조명의 정확성이 개선되었다.
- 3D 물체 감지: 완전한 3D 물체를 감지할 수 있게 개선되었다.
- 지속적인 경험: 물리적 사물과 연결된 AR 공간과 물체를 저장했다가 나중에 그 경험을 이어서 할 수 있다.
- 경험 공유: 여러 명의 사용자가 각자의 시점에서 같은 가상환경을 공유할 수 있게 되었다.
3.2. ARKit 3
- 2019년 6월 WWDC19를 통해 ARKit 3를 공개하였다. #
- 모션 캡처: 한 대의 카메라로 사람의 움직임을 실시간으로 캡처합니다. 몸의 위치와 움직임을 일련의 관절과 뼈로 파악하여 AR 경험에 동작과 자세를 입력하면서 AR의 중심에 인물을 배치할 수 있습니다. 높이 추정은 별도의 코드 변경 없이 iPhone 12, iPhone 12 Pro, iPad Pro에서 ARKit으로 빌드한 모든 앱에 대해 향상된 기능을 선보입니다.
- 다중 얼굴 추적: ARKit 얼굴 추적 기능은 Apple Neural Engine과 전면 카메라가 탑재된 모든 기기에서 한 번에 최대 3명의 얼굴을 추적하면서 미모티콘 및 Snapchat과 같은 AR 경험을 지원합니다.
- 인물 오클루전: AR 콘텐츠를 현실 세계에 있는 인물의 앞이나 뒤에 사실적으로 표시하면서 AR 경험을 더 몰입감 있게 만드는 동시에 대부분의 환경에서 '그린' 화면 스타일 효과를 적용할 수 있습니다. 깊이 추정은 별도의 코드 변경 없이 iPhone 12, iPhone 12 Pro, iPad Pro에서 ARKit으로 빌드한 모든 앱에 대해 향상된 기능을 선보입니다.
- 협업 세션: 여러 사람들과의 실시간 협업 세션을 사용하여 공동으로 AR 앱을 제작할 수 있으므로 AR 경험을 더욱 빠르게 개발하고 사용자들이 공유 AR 경험을 멀티 플레이어 게임처럼 즐기게 할 수 있다.
3.3. ARKit 4
- 2020년 6월 WWDC20을 통해 ARKit 4를 공개하였다. #
- Depth API: API에서는 LiDAR 스캐너에 내장된 고급 장면 인식 기능을 통해 주변 환경에 대한 픽셀당 심도 정보를 사용할 수 있습니다. 이 심도 정보를 Scene Geometry에서 생성된 3D 메시 데이터와 결합하면 가상 물체를 즉각적으로 배치하고 실제 환경에 원활하게 혼합하여 가상의 사물 오클루전을 더 사실적으로 구현할 수 있습니다. 이를 통해 더 정밀한 측정 및 사용자 환경에 효과 적용 등 앱 내에서 새로운 기능을 구현할 수 있습니다.
- 위치 앵커: 유명 랜드마크 및 도시 곳곳의 특정 위치에서 AR 경험을 구현할 수 있습니다. 위치 앵커를 통해 특정 위도, 경도 및 고도 좌표에 AR 창작물을 고정할 수 있습니다. 사용자는 카메라 렌즈를 통해 실제 물체를 보는 것처럼 가상 물체를 움직이고 다른 시각에서 확인할 수 있습니다.
- 얼굴 추적 기능 지원 확대: 얼굴 추적 기능에 대한 지원이 iPhone SE를 포함하여 A12 Bionic 칩 이상이 탑재된 모든 기기의 전면 카메라로 확대되어 더 많은 사용자가 전면 카메라를 사용하여 AR 경험을 즐길 수 있습니다. TrueDepth 카메라를 사용하여 한 번에 최대 3명의 얼굴을 추적하면서 미모티콘 및 Snapchat과 같은 전면 카메라 경험을 지원합니다.