본문 바로가기

iOS

WWDC2023) Unity + SwiftUI Integration (Apple Vision Pro 준비)

WWDC23 에서 애플은 웨어러블 AR기기인 Vision Pro를 발표했습니다.

 

그리고 기기와 함께 사용될 프레임워크들에 대해서도 발표가 이루어졌는데요. 그 중에 RealityKit과 ARKit을 제외하고 UI 프레임워크로는 SwiftUI만 있는 것을 보면, SwiftUI 전용 하드웨어라는 생각도 들게 했습니다.

 

 

그리고 소프트웨어 구축을 위해 애플의 VR/AR 프레임워크인 RealityKit과 ARKit에 별도로, Unity와 협력을 한다고 발표를 했습니다.

사실 Unity는 ARFoundation이라는 iOS와 안드로이드에 호환이 되는 AR 앱을 구축할 수 있는 패키지를 제공중이었는데요.

 

오늘은 Unity에서 SwiftUI 앱으로 Integration 하는 방법을 알아보겠습니다.

 

1. 설치

 

Unity 홈페이지에서 Unity Hub을 설치하고 그 안에서 유니티 에디터를 설치해줍니다

 

2. iOS Build Support

 

그 후에 우클릭을 한 후 모듈에서 iOS 빌드 서포트를 체크해서 설치해줍시다. 이는 Unity 앱이 iOS에서 구동되도록 지원하기 위함입니다.

 

3. Unity 프로젝트 생성

3D로 해도 되고, AR, VR과 같은 템플릿들을 설치 후에 생성하셔도 됩니다.

 

4. Build Setting

 

 

우선 Build Setting에서 iOS로 Switch Platform을 해주세요, 그리고 좌측 하단의 Player Settings로 가주세요

 

4 -1 . Player Settings

 

 

플레이어 세팅에서 확인해 주셔야 할 것은 두가지 입니다.

1. 번들 아이덴티파이어 - 임의적으로 작성해주세요.

2. Requires ARKit support - 카메라 접근 허용입니다. 그리고 그 위에 Camera Usage Description에서 경고 시 나올 문구를 임의적으로 변경 가능합니다.

+ 밑에 혹시 ARM64로 안되어있으면 수정하셔야 할 겁니다. (지금은 아마 환경을 인식하여 고정해두는 것 같습니다)

 

5. Project Settings

 

 

Edit - project settings 에서 XR Plug-In Management 의 Apple ARKit에 체크해주세요

 

6. Scene 구성하기

 

이제 실제로 AR Scene을 구성해주세요! 아마 AR로 설정해주셨으면 AR Session Origin과 AR Camera, AR Session이 잘 설정되어있겠지만, 그렇지 않다면 우클릭 후에 위와 같이 추가해주세요.

 

7. Build

 

 

빌드세팅으로 다시 돌아가셔서 Add Open Scenes를 눌러주시고 만들어 둔 Scene을 불러와주신다음 Run을 해주세요.

 

8. Xcode

 

 

 

 

엑스코드에서 위와 같이 Automatically manage signing에 체크 해주시고 Team을 설정해주세요!!

 

8. Run

 

그리고 실기기에서 실행을 하면, 카메라 허용 안내문이 나오고 다음과 같이 만들어둔 Scene이 잘 나오는 것을 확인할 수 있습니다!

 

 

이렇게 Unity에서 SwiftUI앱으로 integrate하는 과정을 마쳐보겠습니다.

 

 

사실 저는 Apple의 다양한 플랫폼(기기)과 연동성, 그리고 ARKit을 보고 앱개발에 처음 뛰어들었습니다. 그래서 그런지 Vision Pro가 정말 Apple 생태계를 총망라한 기기가 아닌가 싶네요. 앞으로 다가올 미래에 정말 설레입니다.