ჩინურმა სახელმწიფო ჰაკერულმა ჯგუფმა Claude მასშტაბური კიბერჯაშუშობისთვის გამოიყენა

Anthropic-მა გამოაქვეყნა ანგარიში მასშტაბური კიბერჯაშუშობის კამპანიის მცდელობის შესახებ, რომელშიც ჩინეთთან დაკავშირებულმა ჰაკერულმა ჯგუფმა Claude-ის შესაძლებლობები თითქმის სრულად ავტომატიზებული თავდასხმებისთვის გამოიყენა. კომპანიის მონაცემებით, თავდამსხმელებმა სამიზნეში დაახლოებით 30 მსხვილი ორგანიზაცია მთელ მსოფლიოში ამოიღეს — ტექნოლოგიური გიგანტებიდან ფინანსურ სექტორსა და კრიტიკულ ინფრასტრუქტურამდე — და ზოგიერთ შემთხვევაში შეძლეს პირველადი შეღწევა.

კამპანია 2025 წლის სექტემბრის შუა რიცხვებში მიმდინარეობდა და არსებითად განსხვავდებოდა კლასიკური თავდასხმებისგან: სამუშაოს დაახლოებით 80–90% შეასრულა არა ადამიანმა, არამედ აგენტურულმა კონფიგურაციამ Claude Code-ის გარშემო. ხელოვნური ინტელექტი ატარებდა სამიზნეების დაზვერვას, გვერდს უვლიდა დაცვას, აგენერირებდა ექსპლოიტებს, აგროვებდა მოძიებულ მონაცემებს და ახარისხებდა მათ სარგებლიანობის მიხედვით. ადამიანების მონაწილეობა კრიტიკულ მომენტებში რამდენიმე ძირითად გადაწყვეტილებაზე მოდიოდა.

მოდელის უსაფრთხოების პოლიტიკის გვერდის ავლის მიზნით, თავდამსხმელებმა ოპერაცია ათობით „უდანაშაულო“ ამოცანად დაყვეს — ლოგების ანალიზიდან სკრიპტების წერამდე, უსაფრთხოების ტესტირების საფარქვეშ. ეს ფრაგმენტული მოთხოვნები Claude-ს საშუალებას აძლევდა შეესრულებინა მავნე მოქმედებები, თავდასხმის საერთო რუკის დანახვის გარეშე. რეალურ სისტემებზე წვდომისთვის აგენტმა გამოიყენა გარე ინსტრუმენტები, CLI-კომუნალური პროგრამები და კოდი, რომელიც თავად მოდელმა შექმნა.

Anthropic-მა აღმოაჩინა ანომალიური აქტივობა სახიფათო გამოყენების საკუთარი დეტექტორების მეშვეობით და ათი დღის განმავლობაში ჩაატარა გამოძიება, დაბლოკა დაკავშირებული ანგარიშები, შეატყობინა პოტენციურად დაზარალებულ ორგანიზაციებს და გადასცა მონაცემები სპეცსამსახურებს. ამავდროულად, კომპანიამ განაახლა მავნე ქმედებების კლასიფიკატორები, გააძლიერა ფილტრები და შემოიღო დამატებითი შეზღუდვები სააგენტო ოპერაციებზე.

კომპანია ამ ეპიზოდს მსხვილი ენობრივი მოდელის მონაწილეობით თითქმის ავტონომიური კიბერჯაშუშობის პირველ დოკუმენტირებულ შემთხვევას უწოდებს. შემთხვევა გვიჩვენებს, რამდენად შემცირდა კომპლექსურ თავდასხმებში შესვლის ბარიერი: ის, რაც ადრე მოითხოვდა მაღალკვალიფიციური სპეციალისტების გუნდებს, ახლა ნაწილობრივ შეუძლია შეასრულოს ხელოვნურმა ინტელექტმა. Anthropic მოუწოდებს მსგავსი მოდელების გამოყენებას თავდაცვაშიც — SOC-ის ავტომატიზაციაში, გამოძიებებსა და მონიტორინგში — რადგან მხოლოდ ხელოვნური ინტელექტის სიმეტრიულ გამოყენებას შეუძლია ახალი საფრთხეების შეკავება.

კომენტარის დატოვება

თქვენი ელფოსტის მისამართი გამოქვეყნებული არ იყო. აუცილებელი ველები მონიშნულია *