AI
Google-ის TurboQuant AI-კომპრესიის ალგორითმს LLM-ის მეხსიერების მოხმარების 6-ჯერ შემცირება შეუძლია
მაშინაც კი, თუ გენერაციული ხელოვნური ინტელექტის მოდელების შიდა მუშაობის პრინციპების შესახებ ბევრი არაფერი იცით, ალბათ გსმენიათ, რომ მათ დიდი მოცულობის მეხსიერება სჭირდებათ. სწორედ ამიტომ, ამჟამად თითქმის შეუძლებელია ოპერატიული მეხსიერების (RAM) თუნდაც მცირე ბარათის ყიდვა ისე, რომ არ გაგატყავონ. Google Research-მა ცოტა ხნის წინ წარადგინა TurboQuant, კომპრესიის ალგორითმი, რომელიც ამცირებს დიდი ენობრივი მოდელების (LLM) მეხსიერების კვალს, […]
დავით მაჭახელიძე