Mogliśmy się tylko domyślać, że będzie to odpowiednik AR Core, które daje programistom ujednolicone API do wykorzystania rozszerzonej rzeczywistości w ich aplikacjach. Tyle, że tym razem chodzi o sztuczną inteligencję.
Kilka dni temu Google w końcu przerwało milczenie. Na oficjalnym blogu dla programistów ogłoszono wprowadzenie modelu sztucznej inteligencji Gemini w kilku wersjach. Wspomniany pakiet AI Core daje programistom możliwość wykorzystania najmniej rozbudowanej z nich o nazwie Gemini Nano, która w całości działa lokalnie na urządzeniu. Ma oferować streszczanie tekstów, inteligentne odpowiedzi oraz zaawansowane sprawdzanie pisowni. Wszystko to bez potrzeby łączności z serwerami Google.
Na Pixelu 8 Pro model ten jest już wykorzystywany do streszczania zawartości nagrań w dyktafonie Google. Od teraz posiadacze tego urządzenia mogą też włączyć sugestie odpowiedzi w WhatsAppie w wersji testowej. Programiści zaś mogą się zgłaszać do programu wczesnego dostępu do API AI Core.
AI Core z czasem ma się pojawiać na kolejnych urządzeniach, przy czym będą one musiały mieć specjalne układy (NPU) do obliczeń wykonywanych przez sztuczną inteligencję, np. od Qualcomma, Samsunga czy Mediateka.