Apple News

Apple oznamuje ARKit 4 s ukotvením polohy, rozhraním Depth API a vylepšeným sledováním obličeje

Pondělí 22. června 2020 16:00 PDT od Hartley Charlton

Apple dnes oznámil ARKit 4 spolu s iOS 14 a iPadOS 14. Nová verze ARKit zavádí Location Anchors, nové Depth API a vylepšené sledování obličeje.





ARKit 4
Lokalizační kotvy umožňují vývojářům umístit AR zážitky, jako jsou umělecké instalace v životní velikosti nebo navigační pokyny, do pevného cíle. Location Anchoring využívá data ve vyšším rozlišení Apple Maps umístíte zážitky AR do konkrétního bodu na světě, což znamená, že zážitky z AR lze nyní umístit na konkrétní místa, například ve městech nebo vedle slavných památek. Uživatelé se mohou pohybovat po virtuálních objektech a pozorovat je z různých perspektiv, přesně tak, jak jsou skutečné objekty viděny objektivem fotoaparátu.

ARKit 4 také využívá iPad Pro Skener LiDAR se zbrusu novým rozhraním Depth API s pokročilými možnostmi porozumění scéně, což vytváří nový způsob přístupu k podrobným informacím o hloubce na pixel. V kombinaci s daty 3D sítě činí tyto informace o hloubce okluzi virtuálních objektů realističtější tím, že umožňují okamžité umístění virtuálních objektů do jejich fyzického okolí. To může vývojářům nabídnout nové možnosti, jako je provádění přesnějších měření a aplikace efektů na prostředí.



Konečně je v ARKit 4 rozšířeno sledování obličeje, aby podporovalo přední kameru na všech zařízeních s čipem A12 Bionic nebo novějším. Pomocí kamery TrueDepth lze nyní sledovat až tři obličeje najednou, aby bylo možné využívat zážitky s přední kamerou, jako jsou Memoji a Snapchat.