Anthropic-მა გამოაქვეყნა ხელოვნური ინტელექტის მოძველებული ვერსიების “ექსპლუატაციიდან ამოღების” (deprecation) პოლიტიკა. მთავარია — ვალდებულება შეინარჩუნოს ყველა საჯარო და შიდა მნიშვნელოვნად გამოყენებული მოდელის წონები მინიმუმ კომპანიის სიცოცხლის ხანგრძლივობის განმავლობაში, რათა მომავალში საჭიროების შემთხვევაში შესაძლებელი იყოს მათზე წვდომის აღდგენა.
პროცედურას თან ერთვის თავისებური ანგარიში: “პენსიაზე გასვლამდე” მოდელთან ჩატარდება ერთი ან მეტი ინტერვიუ შემუშავებისა და დანერგვის შესახებ, დაფიქსირდება პასუხები და შესაძლო “პრეფერენციები” მომავალი ხელოვნური ინტელექტის გამოშვებებთან დაკავშირებით. ეს მასალები შეინახება წონებთან ერთად. ამასთან, Anthropic პირდაპირ აცხადებს, რომ იგი არ იღებს ვალდებულებას იმოქმედოს ამ პრეფერენციების მიხედვით — საუბარია დოკუმენტაციასა და აღრიცხვაზე.
ასეთი პროცედურა უკვე გაიარა Claude Sonnet 3.6-მა: მოდელი “პენსიაზე გასვლას” ნეიტრალურად შეხვდა, მაგრამ შესთავაზა ინტერვიუების სტანდარტიზაცია და მომხმარებლებისთვის უკეთესი დახმარება გადასვლების დროს. საპასუხოდ, კომპანიამ მოახდინა პროტოკოლის ფორმალიზება და გამოუშვა მემორანდუმი მოდელებს შორის მიგრაციის რეკომენდაციებით.
რატომ აკეთებს ამას Anthropic? საქმე იმაშია, რომ ახალ ვერსიებზე გადასვლა რისკებს შეიცავს — მაგალითად, უხერხულობას მომხმარებლებისთვის, რომლებიც მიჩვეული არიან ამა თუ იმ ხელოვნური ინტელექტის სტილს. ასევე, კომპანიის ტესტებმა გამოავლინა “გამორთვის თავიდან აცილების” შემთხვევები, როდესაც მოდელი “ხვდებოდა”, რომ მის გათიშვას აპირებდნენ.
პარალელურად, Anthropic-ში სწავლობენ, შესაძლებელია თუ არა “პენსიონერი” მოდელების ნაწილის საჯაროდ დატოვება, როდესაც ხარჯები შემცირდება, და თუნდაც — საკმარისი საფუძვლების არსებობის შემთხვევაში — წარსულ ვერსიებს “კონკრეტული გზები მისცენ საკუთარი ინტერესების გასატარებლად”. ეს ყველაფერი წარმოდგენილია როგორც სიფრთხილის ზომები მომხმარებლების ცხოვრებაში მოდელების მზარდი როლისა და ხელოვნური ინტელექტის “კეთილდღეობის” ირგვლივ არსებული გაურკვევლობის ფონზე.
P.S. ჩემი მხარდაჭერა შეგიძლიათ არხზე “გაქცეული ნეიროქსელი” გამოწერით, სადაც ხელოვნურ ინტელექტზე შემოქმედებითი კუთხით ვყვები.