პრეზენტაციის „Android Show: XR Edition“ დროს Google-მა Android XR-ის განვითარების სტრატეგიული ვექტორი განსაზღვრა. მიუხედავად იმისა, რომ სცენაზე მოწყობილობების ახალი ფორმ-ფაქტორები გამოჩნდა, მთავარი აქცენტი, უდავოდ, AI-ის ღრმა ინტეგრაციაზეა გადატანილი. კომპანია Gemini-ს ერთგვარ შუალედურ ფენას, ანუ „წებოს“ უწოდებს, რომელიც მთელ სისტემას ერთიან მთლიანობად აკავშირებს და სხვადასხვა ტიპის მოწყობილობებზე კონტექსტურად მგრძნობიარე ურთიერთქმედებას უზრუნველყოფს.
Google უკვე იწყებს ახალი AI შესაძლებლობების განლაგებას არსებულ Samsung Galaxy XR ყურსასმენზე. ერთ-ერთი ყველაზე ტექნოლოგიური სიახლეა ფუნქცია Likeness, რომელიც, Google-ის ბლოგის თანახმად, ბეტა რეჟიმში გამოდის. ის ქმნის მომხმარებლის რეალისტურ ციფრულ ავატარს, რომელიც რეალურ დროში ასახავს სახის გამომეტყველებასა და ხელის ჟესტებს. ეს სისტემა ვიდეოზარებს უფრო ბუნებრივს და ცოცხალს გახდის.
მომავალი წლისთვის დაგეგმილი კიდევ ერთი AI ფუნქცია არის სისტემური „ავტო-სივრცულობა“. ნეიროქსელი პირდაპირ მოწყობილობაზე აანალიზებს ნაცნობ 2D კონტენტს — YouTube ვიდეოებიდან დაწყებული თამაშებით დამთავრებული — და ავტომატურად აქცევს მას სტერეოსკოპულ 3D გამოსახულებად.
ჭკვიანი სათვალეები მულტიმოდალურ ინტერფეისებად იქცევა
თუმცა, Google ყველაზე გადამწყვეტ ნაბიჯს AI-ის ყოვლისმომცველი დახმარებისკენ სწორედ ჭკვიანი სათვალეების სეგმენტში დგამს. Samsung-თან და ბრენდებთან Gentle Monster-სა და Warby Parker-თან ერთად, კომპანია AI-სათვალეებს ავითარებს, რომლებიც Meta✶-ს გადაწყვეტილებების პირდაპირი კონკურენტები უნდა გახდნენ.
Google ასეთ მოწყობილობებს ყოფს აუდიო-AI-ის სათვალეებად და დისპლეის AI-ის სათვალეებად, რომლებიც ურთიერთქმედების სხვადასხვა ფორმატს გვთავაზობენ. მაგრამ ტიპის მიუხედავად, ყველა მოდელი აღჭურვილია კამერებითა და მიკროფონებით, რათა Gemini-ს შეეძლოს მომხმარებლის გარემოს გაგება და ინტერპრეტირება. დემონსტრაციისას Google-მა აჩვენა, თუ როგორ ცნობს სათვალეები საგნებს ან თარგმნის ტექსტს რეალურ დროში — რასაც კომპანია მრავალი წელია აკეთებს, მაგრამ ახლა კიდევ უფრო სწრაფად და ბუნებრივად. AI-ს ასევე შეუძლია გამოიცნოს საჭირო მოქმედებები: მაგალითად, როდესაც ადამიანი სადგურს უახლოვდება, სათვალეები თავად აჩვენებენ უახლოესი მატარებლების განრიგს.
დეველოპერები იღებენ წვდომას Gemini Live API-ზე
ეკოსისტემის აპლიკაციებით შესავსებად Google ავრცელებს Android XR SDK-ის აპლიკაციის Developer Preview 3-ს. AI-დეველოპერებისთვის კი მთავარი სიახლე აქ არის Gemini Live API-ის ინტეგრაცია სათვალეებისთვის.
ახლა დეველოპერებს შეუძლიათ შექმნან აპლიკაციები, რომლებიც იყენებენ ვიზუალურ და აუდიო მონაცემებს სათვალიდან და კონტექსტურად რეაგირებენ მათზე. Google-მა ეს Uber-თან ინტეგრაციის მაგალითზე აჩვენა: სათვალეები ადგენენ, თუ სად ზუსტად იმყოფება მომხმარებელი აეროპორტში, ვიზუალურად მიჰყავთ ის ჩასხდომის ზონაში, ცნობენ ნომერს მანქანის ნომერზე და აჩვენებენ მგზავრობის სტატუსს.
სათვალეების გარდა, Google-მა წარმოადგინა XREAL-ის Project Aura — სადენიანი XR ყურსასმენი, რომელიც გარე მონიტორისა და AR-ინტერფეისის ფუნქციას ასრულებს.