გასულ წელს Google I/O-ზე Google-მა წარმოადგინა საკუთარი ჩიპი სახელწოდებით Tensor Processing Unit, რომელიც გამიზნული იყო გაზრდილი გამოთვლითი მოთხოვნილებების დასაკმაყოფილებლად მონაცემთა დამუშავების ცენტრებში. Google-ის მკვლევარების მიერ გამოქვეყნებულ შრომაში TPU-ს წარმადობა შედარებულია Intel-ის სერვერული კლასის Haswell პროცესორებთან და Nvidia-ს ვიდეო პროცესორებთან და დეტალური შედეგები წარმოდგენილი იქნება ISCA-ზე ივნისში.
Google-ის მსგავსი კომპანიისთვის, რომელიც მონაცემთა დამუშავების გიგანტურ ცენტრებს ფლობს, ენერგოეფექტური, სწრაფი პროცესორები ძალიან მნიშვნელოვანია. ამიტომაც Google-მა მათი საკუთარი მანქანური შესწავლის პროცესორები Tensor Processing Unit შექმნეს.
კომპანის მიერ ჩატარებული ტესტების თანახმად TPU 15 – 30-ჯერ სწრაფია ხელოვნური ინტელექტისთვის საჭირო გამოთვლებში. TPU ძალიან მაღალი ენერგეოეფექტურობით გამოირჩევა და 30 – 80-ჯერ მეტი TeraOps/watt მაჩვენებელი აქვს GDDR5 მეხსიერების მოდულებთან ერთად მუშაობისას.
Google ამბობს, რომ ისინი უკვე იყენებენ აღნიშნულ პროცესორებს 2015 წლიდან, რითაც მათ შეამცირეს გამოთვლითი რესურსების ღირებულება. პირველ ეტაპზე ეს სისტემა გამოიყენებოდა Google Voice-ის მონაცემების დამუშავებისთვის, რომელიც რეალურ დროში მოითხოვდა გამოთვლების ჩატარებას. რო არა აღნიშნული პროცესორები კომპანიას მონაცემთა დამუშავების ცენტრების რაოდენობის გაორმაგება მოუწევდა.
TPU-ები უკვე გამოიყენება Google-ის ისეთ პროდუქტებში, როგორიცაა Image Search, Photos, Google Cloud Vision და ა. შ. ამ პროცესორს დიდი წვლილი მიუძღვის Google Translate-ის დრამატულ გაუმჯობესებაში, რაც გასულ წელს კომპანიის ყველაზე დიდ მიღწევადაც კი შეიძლება ჩაითვალოს ხელოვნური ინტელექტის სფეროში. პროექტს მჭირდო კავშირი აქვს ასევე DeepMind-ის გამარჯვებაში Go-ს ჩემპიონთან.
სამეცნიერო ნაშრომს შეგიძლიათ შემდეგ ბმულზე გაეცნოთ.