The Information-ი იტყობინება, რომ OpenAI-მ ChatGPT-ის მორგებული ვერსია აამოქმედა, რომელსაც წვდომა აქვს თანამშრომლების Slack-ის მიმოწერაზე, ელექტრონულ ფოსტასა და კომპანიის შიდა დოკუმენტებზე. როდესაც პრესაში გაჟონილი ინფორმაციის შემცველი სტატია ჩნდება, უსაფრთხოების სამსახური მას ამ ხელსაწყოს აწვდის — და ის წუთებში ადგენს სავარაუდო წყაროს, პუბლიკაციის ტექსტს შიდა ფაილებსა და იმ თანამშრომლების სიას ადარებს, რომლებსაც მათზე წვდომა ჰქონდათ.
ინფორმაციის გაჟონვის პრევენციის ტრადიციული სისტემებისგან (DLP) განსხვავებით, რომლებიც საკვანძო სიტყვების მიხედვით ეძებენ დამთხვევებს, OpenAI-ის AI ინსტრუმენტს ესმის კონტექსტი — მას შეუძლია გაჟონვის აღმოჩენა მაშინაც კი, თუ თანამშრომელმა ინფორმაცია სხვა სიტყვებით გადმოსცა. სისტემა აანალიზებს კონკრეტულ ფორმულირებებს, უნიკალურ მონაცემებსა და პროექტების კოდურ სახელწოდებებს, რომლებიც შესაძლოა მხოლოდ ადამიანთა შეზღუდული წრისთვის ყოფილიყო ცნობილი. The Decoder-ის მონაცემებით, ინსტრუმენტის არქიტექტურა შესაძლოა ეფუძნებოდეს შიდა AI აგენტს, რომელიც OpenAI-ის ინჟინრებმა ცოტა ხნის წინ წარუდგინეს კოლეგებს — ის მონაცემების რთული ანალიზის ბუნებრივ ენაზე გაშვების საშუალებას იძლევა Slack-თან, Google Docs-თან და სხვა კორპორატიულ საცავებთან დაკავშირებით.
ინსტრუმენტი 2024 წლის ბოლოს გამოჩნდა, Q* და Strawberry პროექტების შესახებ ინფორმაციის გაჟონვის ტალღისა და NDA-სთან (გაუთქმელობის შეთანხმება) დაკავშირებული სკანდალის შემდეგ. 2024 წლის გაზაფხულზე გაირკვა, რომ OpenAI სამსახურიდან წასულ თანამშრომლებს აიძულებდა ხელი მოეწერათ სამუდამო გაუთქმელობის შეთანხმებებზე — მილიონობით დოლარის ღირებულების უკვე გამომუშავებული აქციების გაუქმების მუქარით. ყოფილმა თანამშრომელმა დანიელ კოკოტაილომ ხელის მოწერაზე უარი თქვა და თავისი წილი დაკარგა. სემ ალტმანმა მაშინ ბოდიში მოიხადა და პირობა დადო, რომ სადავო პუნქტებს სტანდარტული დოკუმენტებიდან ამოიღებდა.
ჯერჯერობით არ არსებობს დადასტურება იმისა, რომ AI ინსტრუმენტის საშუალებით ვინმე რეალურად დაიჭირეს. თუმცა, თავად მისი არსებობის ფაქტი ცვლის ატმოსფეროს კომპანიის შიგნით. ერთ-ერთმა ინჟინერმა ანონიმურად თქვა: იწყებ ყოველი შეტყობინების გადამოწმებას, თუნდაც ყველაზე უწყინარის. დარგობრივი მონაცემებით, 2024 წელს ორგანიზაციების 83%-ს შეექმნა პრობლემა ინსაიდერული თავდასხმების გამო, ხოლო ერთი ასეთი ინციდენტის საშუალო ღირებულება 17 მილიონ დოლარს აჭარბებს — ასე რომ, OpenAI-ის მოტივაცია გასაგებია. თუმცა ირონია მაინც აშკარაა: კომპანია, რომელიც მოდელების გასაწვრთნელად ღია ინტერნეტიდან აგროვებს მონაცემებს, თავის მთავარ პროდუქტს იყენებს იმისათვის, რომ საკუთარი ინფორმაციის არცერთი ბაიტი არ გაჟონოს გარეთ.