Google miało swoje rozwiazanie tego typu o nazwie Tango, ale niestety wymagało ono specjalnych telefonów z dodatkowymi czujnikami, co skutecznie ograniczało jego dostępność do niewielkiej grupy użytkowników. Natomiast rozwiązanie od Apple ma działać na wszystkich urządzeniach z procesorem A9 lub nowszym (czyli Phone 6S, iPhone SE, iPad 9,7 z 2017 roku oraz wszystkie iPady Pro), których na rynku jest zdecydowanie więcej niż tych kompatybilnych z platformą Tango.
Dlatego Google zdecydowało się udostępnić nieco bardziej uniwersalny framework o nazwie ARCore. Nie będzie on wymagał specjalnych sensorów i w założeniu powinien być kompatybilny z większością urządzeń z Androidem o w miarę przyzwoitych parametrach (by mogły na żywo przetwarzać obraz z kamery i nakładać na niego wirtualne obiekty).
Na razie nowy framework oraz aplikacje go wykorzystujące można testować na Pixelach oraz Galaxy S8. Jednak do czasu udostępnienia wersji 1.0 (co planowane jest na tę zimę), powinien być on dostępny nawet dla 100 milionów użytkowników. Google już pracuje z takimi producentami jak Samsung, LG, Huawei czy ASUS nad zapewnieniem jak najszerszej kompatybilności.
Źródło: Ars Technica