This is an old revision of the document!
Dispozitivele dezvoltate de către Meta (în trecut, cunoscute ca și Oculus) sunt soluții `all-in-one` ce permit dezvoltarea aplicațiilor de realitate virtuală și oferă suport pentru cele mai recente funcționalități din acest domeniu, precum hand tracking, realitate mixtă (MR), audio spațializat, eye și body tracking.
Dispozitive
În mod curent, în seria Quest, regăsim 3 astfel de dispozitive ce oferă suport activ pentru dezvoltarea aplicațiilor VR, anume:
Meta Quest 2 (pe care le veți folosi și voi) reprezintă încă o alegere bună pentru dezvoltarea (și consumul de content) VR
Meta Quest 3 vine cu o serie de îmbunătățiri față de Meta Quest 2 precum o rezoluție mai bună, o nouă generație de chipset (SD XR2 Gen1 vs Gen2) și suport sporit pentru realitate mixtă
Meta Quest 3S este o variantă mai puțin performantă decât Meta Quest 3, având o rezoluție mai mică și alt tip de lentile
Meta Quest Pro are un display panel mai bun, un upgrade de memorie RAM, dar avantajele principale sunt reprezentate de suport pentru face și eye tracking, precum și un design mai ergonomic. În plus, Meta Quest 3 și Meta Quest Pro vin cu controller-e ce au suport pentru feedback haptic mai avansat
O comparație mai detaliată o puteți studia
aici.
Integrări
Pentru dezvoltarea aplicațiilor de VR, există suport pentru OpenXR (aplicații native), sau SDK-uri ce oferă integrare cu game engine-urile standard, precum Unity și Unreal Engine.
Tehnologii disponibile
Integrarea SDK-ului vine cu suport pentru diverse feature-uri pe care le putem utiliza, în funcție de necesitățile aplicației pe care dorim s-o dezvoltăm:
Meta XR Core SDK: Funcționalități esențiale precum headset tracking, hand tracking, passthrough, ancore spațiale, etc.
Meta XR Interaction SDK: Funcționalități de interacțiune cu controller-ele sau mâinile, precum ray, poke, grab, etc. Pe acestea le vom studia în acest laborator!
Meta XR Audio SDK: Suport pentru sunet spațializat
Meta XR Haptics SDK: Suport pentru redare haptică avansată
Meta XR Voice SDK
Meta XR Platform SDK: Aspecte sociale / networking: Matchmaking, In-App Purchasing (IAP), Cloud Storage, etc.
Meta XR Simulator
Setup mediu de dezvoltare
În imaginea de mai jos puteți studia un flow generalizat al dezvoltării aplicațiilor de VR folosind dispozitivele celor de la Meta.
Cerințe pentru setup
Meta Quest Developer Hub (opțional,
download)
-
Aplicația vă oferă setări adiționale pentru un dispozitiv Quest conectat la calculator. Folosind MQDH puteți să:
Vizualizați log-uri ale dispozitivului pentru a face debugging
Screen cast, screen recording
Instalare/deploy aplicații pe cască
În cele ce urmează vom prezenta modalitatea de integrare a SDK-ului Meta XR în Unity. Veți avea și voi de integrat Meta XR în proiectul Unity suport.
XR Loader
În cazul în care nu vă apare acest meniu, sau dacă sunt actualizări ale acestuia, stergeți din proiect folder-ul Assets → Project Setup → CustomXRPluginProvider si reimportați ultima versiune a pachetului IRVA_ProjectSetup_XRPluginProviderController
, care se găsește în folder-ul UnityPackages din folder-ul root al proiectului, după care restartați Unity.
Până în Octombrie 2023, pachetul oficial, care se putea descărca de pe Unity Asset Store era Oculus Integration SDK. Atenție, acesta a fost
deprecated începând cu versiunea 57. Nu o să-l folosim pe acesta, dar pentru
suport legacy acesta se poate încă descărca de pe Asset Store de
aici.
Începând cu versiunea 59, pachetul de integrare se folosește de UPM (Unity Package Manager), oferind astfel o modalitate mai ușoară de integrare, realizarea rapidă a upgrade-urilor, iar probabil cel mai important, un management ușor în alegerea pachetelor esențiale de folosit (Core, Integration, Audio, etc.). Versiunea up-to-date la momentul redactării acestui text este 69.0.0.
Oculus XR Plugin
Acest plugin este backend-ul necesare pentru a dezvolta și face build-uri folosind Meta XR.
Din
Package Manager apăsați pe (+), selecați
Add package from git URL, introduceți
com.unity.xr.oculus
În Unity Editor ar trebui să aveți un buton nou cu iconița companiei Meta în colțul din dreata jos.
De aici puteți deschide Project Setup Tool, care vă permite să vă configurați proiectul de Unity pentru a fi compatibil cu cerințele SDK-ului.
Import scene demo
În continuare vom importa câteva scene demo din SDK-ul de interacțiuni pentru a vă prezenta și familiariza cu feature-urile incluse.
Pachetul instalat Meta XR All-in-One SDK nu mai conține scene sample, dar acestea se pot instala de pe pachelete individuale:
Play-test scene demo prin Quest Link
Intrați în modul Link pe headset
În proiectul suport, deschideți și testați scenele (prin Play în editor):
În următorul GIF este prezentat feature-ul de tip desktop virtual – puteți astfel controla PC-ul pe care l-ați conecat cu casca. În GIF proiectul este rulat din Unity prin acest desktop virtual.
Realizare build-uri
Sistemul de operare al acestor device-uri se bazează pe Android, așadar, procesul de build al unei aplicații este similar cu cel prezentat în laboratorul de Cardboard XR.
Puteți realiza build-uri în cel mai simplu mod prin opțiunea de Build And Run din meniul de Build Settings din Unity Editor. La finalul build-ului, aplicația este instalată pe headset și pornită în mod automat. Aplicația se poate apoi regăsi în următorul submeniu:
Pentru alte variante de build, în urma creării APK-ului din Unity (așadar Build simplu, nu Build And Run), se pot folosi Meta Quest Developer Hub sau SideQuest pentru instalarea acestor aplicații pe headset (proces cunsocut ca și sideloading).
Aveți
aici un ghid pentru folosirea MQDH.
Erori build Gradle
S-ar putea ca setarea
Project Settings → Player → Other Settings → Target API Level, care în mod implicit este pe
Automatic (highest installed), să nu fie suficientă, așadar recomandăm să testați
API Level-uri 31+ (setați-le manual).
Setup laborator
Veți învăța în continuare cum se pot integrare diverse componente ale SDK-ului pentru a integra în aplicația voastră headset-ul virtual, controller-ele, hand tracking-ul, funcționalitatea de passthrough, etc.
SDK-ul a introdus recent o nouă modalitate de setup a acestor elemente printr-un meniu de Building Blocks.
Înainte de introducerea acestor Building Blocks, elementele necesare ale unui scene trebuiau incluse manual - în esență acest meniu abstractizează procesul de căutare de prefab-uri, adăugare și parentare corectă a acestora în scenă
Totuși, rețineți că acest meniu nu este comprehensiv, întrucât abtractizează includerea elementelor pe care Meta le consideră cele mai utile; unele funcționalități tot vor necesita setup manual
Pentru acest laborator ne este suficient acest meniu
Camera Rig
În continuare vom configura, explica și o serie de funcționalități ale SDK-ului folosing acest meniu
Vă recomandăm să faceți drag-and-drop pentru building block-uri din meniul dedicat către ierarhia scenei și nu către Scene View, întrucât unele elemente s-ar putea parenta greșit.
Deschideți scena suport a laboratorului. Aceasta momentan nu conține niciun element care permite rularea folosit Quest Link
Includeți în primul rând în scenă prin drag-and-drop building block-ul Camera Rig
În scenă ar trebui să vă apară obiectul [BuildingBlock] Camera Rig. Acesta conține toată logica necesară camerei virtuale și head tracking-ului în scenă
De interest (pentru voi pe viitor dacă veți crea aplicații folosing acest SDK) este script-ul atașat OVR Maanger, care conține numeroase setări ce țin de headset, tracking, suport pentru hand, body, eye tracking, etc.
Controller Tracking
Includeți în scenă building block-ul Controller Tracking
Acesta va include în scenă elementele necesare activării funcționalității de tracking a controller-elor
Observați cum a fost modificată ierarhia - au fost adăgate obiectele și script-urile necesare în mod automat. În scenă ar trebui să vă apară și câteva modele 3D ce reprezintă controller-ele
Conectați-vă headset-ul în modul Link și dați Play din editor - ar trebui să vă apară controller-ele în mână, să le puteți roti, etc., fapt ce indică o funcționare corectă
Hand Tracking
Includeți în scenă building block-ul Hand Tracking
Acesta va include în scenă elementele necesare activării funcționalității de tracking a mâinilor
Observați cum a fost modificată ierarhia
Acest building block introduce un mod de vizualizare al hand tracking-ului precum și modalitatea de comunicare cu backend-ul SDK-ului pentru a capta informațiile și a le randa. Pentru a putea interacționa cu diverse elemente interactibile va trebui să extindem această funcționalitate prin mâini sintetice.
Virtual (Synthetic) Hands
Includeți în scenă building block-ul Virtual Hands
Acesta va include în scenă elementele necesare extinderii funcționalității de tracking a mâinilor prin adăugarea unor mâini sintetice
Observați cum a fost modificată ierarhia
A fost introdus un nou obiect [BuildingBlock] Interaction, care va fi părintele obiectelor ce vor defini diversele tipuri de interacțiuni posibile. Script-ul atașat acestuia, OVRCameraRigRef
realizează o referință către Camera Rig-ul creat anterior
Obiectele [BuildingBlock] Synthetic Left Hand și [BuildingBlock] Synthetic Right Hand reprezintă noile mâini virtuale / sintetice, un model pentru acestea se poate observa în scenă
Obiectele LeftHand și RightHand implementează script-ul Hand
, o clasă de bază ce se ocupă de prelucrearea datelor de la headset și transformarea acestei informații în date relevante developer-ului
Observați pentru moment faptul că obiectele HandInteractorsLeft și HandInteractorsRight nu au nici un copil
Conectați-vă headset-ul în modul Link și dați Play din editor - ar trebui să vă apară mâinile sintetice
Grab Interaction
Includeți în scenă building block-ul Grab Interaction
Acesta va include în scenă:
Observați elementele noi adăugate în ierarhie
Interacțiuni, interactor, interactibil
Vom învăța despre acestea în detaliu în următorul laborator, ce este esențial de știut pe moment este:
Un interactibil (ex. cubul tocmai adăugat) răspunde evenimentelor unui interactor (controller, mâini)
Interacțiunea reprezintă comunicarea interactor ↔ interactibil
Există diverse tipuri de interacțiuni: grab, distance grab, touch, etc.
Interactorii adăugați
Interactibilul adăugat (cubul)
În GIF-ul următor se prezintă acese funcționalități. Pentru a face switch între controller-e și hand tracking, pur și simplu lăsați din mână controller-ele, îintindeți mâinile în fața headset-ului și așteptați câteva secunde.
Tasks
Realizați pașii necesari setup-ului: Download repo (sau configurare proiect propriu cu SDK-ul necesar + samples), instalare software adițional, pairing prin Quest Link, testare scenă demo
În urma testării cu succes a scenei demo folosind Quest Link, realizați un build pe headset cu aceasta. În mod ideal, testați multiple variante de deployment (Build And Run, sideloading folosind MQDH sau SideQuest)
Creați-vă o scenă nouă (organizați-vă fișierele cum doriți în proiect, vă recomandăm să aveți un folder separat pentru ce lucrați custom) și urmăriți pașii din
acest tutorial de tip Hello World – săriți peste pașii care sunt deja configurați, extrageți informația din etapele relavante din tutorial. În final, testați aplicația atât pe Quest Link cât și într-un build
✨ Bonus