Google ახორციელებს ვიდეო ანალიზის ტექნოლოგიის რეალურ დროში ინტეგრირებას თავის Gemini ასისტენტში. ამის შესახებ კომპანიამ Mobile World Congress-ზე განაცხადა.
Google წარმოგიდგენთ ხელოვნური ინტელექტის ფუნქციებს თავისი Gemini ასისტენტისთვის მსოფლიო მობილური კონგრესზე (MWC) ბარსელონაში. კომპანიამ გამოაცხადა, რომ Google One AI Premium-ის აბონენტები Gemini Advanced-ისთვის მიიღებენ წვდომას ვიდეოს სტრიმინგის და ეკრანის დემონსტრირების ფუნქციებზე ამ თვის ბოლოს.
Gemini Live-ში ორი ახალი მნიშვნელოვანი ფუნქცია გამოჩნდება: პირველი, ვიდეოს რეალურ დროში ანალიზის შესაძლებლობა და მეორე, ეკრანის დემონსტრირების ფუნქცია. ორივე ფუნქციის საშუალებით მომხმარებლებს შეეძლებათ გაუზიარონ ვიზუალური კონტენტი AI ასისტენტს რეალურ დროში – ვიდეოს შემთხვევაში რეალურ დროში კამერიდან, ხოლო ეკრანის დემონსტრირების შემთხვევაში – სმარტფონის ეკრანიდან, რათა მიიღონ კომენტარები კონტენტზე.
ახალი ფუნქციები თავდაპირველად ხელმისაწვდომია მხოლოდ Android მოწყობილობებზე და მხარს უჭერს რამდენიმე ენას. MWC-ზე Google აჩვენებს ამ ფუნქციების ინტეგრაციას პარტნიორი Android მწარმოებლების მოწყობილობებზე.
ვიზუალური ფუნქციების დამატება მნიშვნელოვანი ნაბიჯია AI ასისტენტების განვითარებაში, რომლებიც, მოსალოდნელია, უფრო ხშირად იმოქმედებენ მულტიმოდალურად და ურთიერთქმედებენ რეალურ სამყაროსთან.
Google-ის მიზანი 2025 წლისთვის არის პროექტი „Astra“, უნივერსალური მულტიმოდალური AI ასისტენტი, რომელსაც შეუძლია ტექსტური, ვიდეო და აუდიო მონაცემების დამუშავება რეალურ დროში და მათი შენახვა დიალოგის კონტექსტში ათ წუთამდე. Astra ასევე შეძლებს Google Search-ის, Lens-ისა და Maps-ის გამოყენებას.
უცნობია, გეგმავს თუ არა Google რეალურად Astra-ს გამოშვებას, ან, რაც უფრო სავარაუდოა, Astra-სთვის წარმოდგენილი ფუნქციები ინტეგრირებული იქნება თუ არა Gemini-ში.
Gemini Live-ის დახმარებით Google პოზიციონირებს თავს, როგორც OpenAI-ს და მისი ChatGPT-ის კონკურენტს: დეკემბრიდან ChatGPT-ის გაფართოებულ ხმოვან რეჟიმში გამოჩნდა რეალურ დროში ტრანსლაციის და ეკრანის დემონსტრირების მხარდაჭერა.