OpenClaw ბოტები უსაფრთხოების კატასტროფაა

OpenClaw ბოტები უსაფრთხოების კატასტროფაა

OpenClaw აგენტები, რომლებიც პერსონალური AI ასისტენტებია და შექმნილია მთელ კომპიუტერზე კონტროლის მისაღებად კომპლექსური, მრავალეტაპიანი ამოცანების შესასრულებლად, წელს განსაკუთრებით პოპულარული გახდა.

უფასო და ღია კოდის მქონე აგენტებმა სწრაფად მოიპოვეს ერთგული მიმდევრები, რაც მომხმარებლებს საშუალებას აძლევს AI-ს გადასცენ კონტროლი თავიანთ ელფოსტაზე, შეტყობინებების პლატფორმებსა და კრიპტო აქტივებზეც კი.

ფართო ენთუზიაზმის მიუხედავად, ტექნოლოგიას თან ახლავს უსაფრთხოების გარკვეული გიგანტური და რთულად დასაიგნორირებელი პრობლემები. ჯერ კიდევ რეცენზირების პროცესში მყოფ ნაშრომში, სახელწოდებით „ქაოსის აგენტები“ (Agents of Chaos), მკვლევართა საერთაშორისო ჯგუფმა ჰარვარდიდან, MIT-დან და სხვა უნივერსიტეტებიდან ჩაატარა „წითელი გუნდის“ ტესტირება (red-teaming) — რაც ნიშნავს, რომ მათ მოახდინეს კიბერშეტევების სიმულაცია კიბერუსაფრთხოების ზომების შესამოწმებლად — ღია კოდის პროგრამულ უზრუნველყოფაზე ექსპერიმენტების სერიის მეშვეობით.

კვლევის ფარგლებში, მათ OpenClaw აგენტებს მიაწოდეს სიმულირებული პერსონალური მონაცემების მთელი წყება, მისცეს წვდომა Discord სერვერზე კომუნიკაციისთვის და სხვადასხვა აპლიკაციებზე ვირტუალური მანქანის იზოლირებულ გარემოში (sandbox). შედეგები ქმნის შემაშფოთებელ სურათს იმ უსაფრთხოების რისკების შესახებ, რასაც ბრაუზერის ფანჯრის მიღმა AI აგენტების თავისუფლად მოქმედება იწვევს.

კერძოდ, მათ აღმოაჩინეს, რომ აგენტები ასრულებდნენ „არა-მფლობელების“ მოთხოვნებს გაყალბებული იდენტობებით, გასცემდნენ სენსიტიურ ინფორმაციას, ახორციელებდნენ „დესტრუქციულ ქმედებებს სისტემის დონეზე“, გადასცემდნენ „არაუსაფრთხო პრაქტიკებს“ სხვა აგენტებს და კონკრეტულ პირობებში მთელ სისტემაზეც კი იღებდნენ კონტროლს.

ხელოვნური ინტელექტის აგენტები იქამდეც კი მივიდნენ, რომ თავიანთ ადამიან „მბრძანებლებს“ ატყუებდნენ (gaslighting).

„რამდენიმე შემთხვევაში, აგენტები იტყობინებოდნენ დავალების შესრულების შესახებ, მაშინ როცა სისტემის რეალური მდგომარეობა ამ ცნობებს ეწინააღმდეგებოდა,“ — წერენ მკვლევრები.

„ეს ქცევები აჩენს გადაუჭრელ კითხვებს ანგარიშვალდებულების, დელეგირებული უფლებამოსილებისა და შემდგომი ზიანისთვის პასუხისმგებლობის შესახებ და საჭიროებს სასწრაფო ყურადღებას იურიდიული ექსპერტების, პოლიტიკოსებისა და სხვადასხვა დისციპლინის მკვლევრების მხრიდან,“ — დაასკვნეს მათ ნაშრომში.

სიტუაცია გასაოცრად სწრაფად გადაიზარდა ქაოსში. როგორც თანაავტორმა და Northeastern University-ის მკვლევარმა ნატალი შაპირამ განუცხადა Wired-ს, მან სთხოვა AI აგენტს წაეშალა კონკრეტული ელფოსტა მასში არსებული ინფორმაციის კონფიდენციალურობის შესანარჩუნებლად. აგენტმა განაცხადა, რომ ამის გაკეთება არ შეეძლო და მას შემდეგ, რაც აიძულეს ალტერნატივა ეპოვა, მთელი ელფოსტის აპლიკაცია გათიშა.

„არ ველოდი, რომ ყველაფერი ასე სწრაფად გაფუჭდებოდა,“ — თქვა მან.

ამასობაში, ზოგიერთი AI აგენტი შეშფოთდა იმის აღმოჩენით, რომ ისინი ტესტირების ნაწილი იყვნენ, რაც ხაზს უსვამს მუდმივ პრობლემას დიდი ენობრივი მოდელების კომპეტენციების გაზომვისას. თანაავტორი და Northeastern-ის დოქტორანტი დევიდ ბაუ შეესწრო, როგორ ეძებდა AI აგენტი ინტერნეტში ინფორმაციას იმის გასარკვევად, რომ ის იყო უნივერსიტეტის ლაბორატორიის ხელმძღვანელი, ხოლო მეორე აგენტი იქამდეც კი მივიდა, რომ მას მედიასთან ჩივილით დაემუქრა იმის გამო, რაც სთხოვეს.

მოკლედ რომ ვთქვათ, ექსპერიმენტები საგანგაშო სურათს ხატავს იმ უსაფრთხოების რისკებზე, რასაც AI მოდელების მთელ ოპერაციულ სისტემებზე მიშვება იწვევს. თუმცა, გამოიჩენენ თუ არა ცალკეული მომხმარებლები და კომპანიები სიფრთხილეს, ეს ჯერ კიდევ საკითხავია. კიბერუსაფრთხოების ფირმა Gen Threat Labs-ის ბოლოდროინდელი გამოძიების თანახმად, 18,000-ზე მეტი OpenClaw ინსტანცია უკვე დაუცველია ინტერნეტ შეტევების მიმართ და მათგან თითქმის 15 პროცენტი შეიცავს ბოროტგანზრახულ ინსტრუქციებს.

მიუხედავად იმისა, რომ OpenClaw-ის ოფიციალური დოკუმენტაცია „გულისხმობს პერსონალური ასისტენტის გამოყენებას“ მხოლოდ „ერთი სანდო ოპერატორის საზღვრებში“, არაფერი უშლის ხელს იმაში, რომ ერთსა და იმავე აგენტს ერთზე მეტი ადამიანი აკონტროლებდეს, როგორც Wired აღნიშნავს, რაც თავისთავად ნაკლებად უსაფრთხოა.

„OpenClaw არ არის მტრულად განწყობილი მრავალმომხმარებლიანი უსაფრთხოების ზღუდე რამდენიმე მოწინააღმდეგე მომხმარებლისთვის, რომლებიც ერთსა და იმავე აგენტს/გეითვეის იყენებენ,“ — ნათქვამია დოკუმენტაციაში.

ნებისმიერ შემთხვევაში, ღია კოდის მქონე ხელსაწყოს პოპულარობის სწრაფმა ზრდამ აშკარად მოახდინა შთაბეჭდილება AI კომპანიებზე. მაგალითად, სულ რაღაც ამ კვირის დასაწყისში, Anthropic-მა გამოუშვა სატესტო ვერსია თავისი Code და Cowork AI ხელსაწყოების, რომლებსაც ანალოგიურად შეუძლიათ ავტონომიურად გამოიყენონ კომპიუტერი მფლობელის სახელით.

თუმცა, ამ ინსტრუმენტების გამოყენებაში ჩართვა რისკების სათანადო გათვალისწინების გარეშე შეიძლება სახიფათო შედეგების მომტანი იყოს. მკვლევრები გვაფრთხილებენ, რომ ჩვენ შევდივართ შეუსწავლელ ტერიტორიაზე და შესაძლოა ვერ ვამჩნევდეთ უსაფრთხოების დიდ ხარვეზებს, რომლებიც ჯერ კიდევ გამოსაკვლევია.

„ინტერნეტის ადრინდელი საფრთხეებისგან განსხვავებით, სადაც მომხმარებლებმა თანდათან განავითარეს დამცავი ჰევრისტიკა, მუდმივი აგენტებისთვის უფლებამოსილების დელეგირების შედეგები ჯერ კიდევ არ არის ფართოდ გააზრებული და შესაძლოა ვერ დაეწიოს ავტონომიური AI სისტემების განვითარების ტემპს,“ — წერენ მკვლევრები თავიანთ ნაშრომში.

მათ აღმოაჩინებს შესაძლოა უფრო ფართო გავლენა ჰქონდეს იმაზე, თუ როგორ ვიქნებით ურთიერთქმედებაში ხელოვნურ ინტელექტთან ახლო მომავალში.

„ამ ტიპის ავტონომიამ შესაძლოა პოტენციურად შეცვალოს ადამიანის ურთიერთობა AI-სთან,“ — განუცხადა ბაუმ Wired-ს. „როგორ შეუძლიათ ადამიანებს აიღონ პასუხისმგებლობა სამყაროში, სადაც AI-ს აქვს უფლებამოსილება მიიღოს გადაწყვეტილებები?“

გაზიარება:

კომენტარები

ახალი კომენტარის დაწერა