IT之家 6 月 10 日消息,蘋果發(fā)布了 iOS 16、iPadOS 16 系統(tǒng),并且已經(jīng)發(fā)布了首個開發(fā)者預覽版 Beta。
iOS 16 引入了多個新 API,允許開發(fā)人員擴展其應用程序的功能。例如,有用于鎖屏小組件、步話機、交互式地圖、天氣數(shù)據(jù)等的新 API。有趣的是,蘋果還更新了 Nearby Interaction API (附近交互)以將 U1 芯片集成到 ARKit 中,因為有傳言稱蘋果將推出一款新的混合現(xiàn)實 MR 設備。
Nearby Interactions API 是在 iOS 14 中引入的,它允許開發(fā)人員利用 iPhone 11 及更高版本中提供的超寬帶 U1 芯片。U1 芯片可實現(xiàn)設備的精確定位和空間感知,可用于檢測一部 iPhone 與另一部 iPhone 之間的距離等事情。
在 iOS 15 和 watchOS 8 中,蘋果已將這些功能擴展到 Apple Watch,因為 Apple Watch Series 6 及更高版本也配備了 U1 芯片。今年,iOS 16 為使用 Nearby Interaction API 的開發(fā)人員帶來了有趣的新選項,即通過 ARKit 將 U1 芯片與增強現(xiàn)實集成的能力。
正如該公司在 WWDC22 會議上所詳述的那樣,iOS 已經(jīng)使用 U1 芯片與 ARKit 結合使用精確查找功能來定位 AirTag。借助 U1 芯片提供的數(shù)據(jù)與 iPhone 的攝像頭相結合,F(xiàn)ind My 應用能夠精確地引導用戶找到他們的 AirTag。
現(xiàn)在,開發(fā)人員還可以使用 U1 芯片和 ARKit 在他們的應用程序中創(chuàng)建類似的體驗,這使得有關距離和方向的信息更加一致和準確。蘋果表示,此 API 的最佳用例是引導用戶到特定附近對象的體驗,例如放錯位置的物品、感興趣的對象或用戶想要與之交互的對象。
例如,應用程序可以告訴用戶他們正在尋找的對象是在面前還是在身后。
U1、ARKit 和蘋果 AR / VR 設備
最近有多個謠言指出,蘋果公司將在 2022 年末或 2023 年初的某個時間發(fā)布一款新的混合現(xiàn)實設備。盡管該產(chǎn)品并未在 WWDC22 上宣布,而且該公司在 WWDC 開幕主題演講中有很多關于 AR 和 VR 的內容。
對于預計具有多個攝像頭和先進傳感器(包括超寬帶芯片)的設備而言,顯然它具有精確的空間感知能力。盡管由于尚未正式宣布新設備且沒有 SDK,但蘋果似乎真的希望開發(fā)人員在 MR 設備發(fā)布之前為這種交互準備他們的應用程序。
當該公司首次發(fā)布 iPhone 11 的 U1 芯片時,它提到更快的 AirDrop 等體驗只是開始。U1 現(xiàn)在用于錢包應用程序中的車鑰匙和查找 AirTag 等功能,但該芯片肯定會在蘋果的混合現(xiàn)實設備中發(fā)揮重要作用。
與此相關的是,ARKit 在 iOS 16 中也進行了更新,包括對 4K HDR 視頻和高級室內掃描的支持,這是向 AR / VR 設備邁出的重要一步。
廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。