მასკმა აღიარა, რომ Grok-ს OpenAI-ს მოდელებზე წვრთნიდნენ

მასკმა აღიარა, რომ Grok-ს OpenAI-ს მოდელებზე წვრთნიდნენ

ილონ მასკმა ოკლენდის ფედერალურ სასამართლოში ფიცის ქვეშ აღიარა, რომ მისმა კომპანიამ xAI-მ Grok-ის გასაწვრთნელად OpenAI-ს მოდელების დისტილაცია გამოიყენა. ეს განცხადება გაკეთდა პროცესზე, სადაც მასკი OpenAI-სგან 134 მილიარდ დოლარს ითხოვს “თავდაპირველი არაკომერციული მისიიდან გადახვევის” გამო. OpenAI-ს ადვოკატმა უილიამ სევიტმა პირდაპირ ჰკითხა — მასკმა უპასუხა, რომ ეს “ინდუსტრიის სტანდარტული პრაქტიკაა”, ხოლო დამაზუსტებელ კითხვაზე, ნიშნავს თუ არა ეს “დიახ”-ს, თქვა: “ნაწილობრივ”.

დისტილაცია არის ტექნიკა, რომლის დროსაც ერთი მოდელი სწავლობს მეორის, უკვე გამოშვებული მოდელის პასუხებზე. დეველოპერი სისტემატურად გამოკითხავს კონკურენტის ჩატბოტს ან API-ს, აგროვებს პასუხებს და მათზე წვრთნის საკუთარ მოდელს. შედეგად მიიღება თითქმის იმავე დონის სისტემა, ოღონდ ინფრასტრუქტურასა და სწავლებაში მრავალმილიარდიანი ინვესტიციების გარეშე. ამჟამად ეს აშშ-ის კანონმდებლობით აკრძალული არ არის, თუმცა, როგორც წესი, არღვევს სამომხმარებლო შეთანხმებას, რომელსაც ლაბორატორიები საკუთარი პროდუქტებისთვის აწესებენ.

აქამდე ინდუსტრიაში დისტილაციაზე საუბარი თითქმის ექსკლუზიურად ჩინურ ლაბორატორიებზე მიდიოდა — DeepSeek-სა და Qwen-ს რეგულარულად ეჭვობდნენ იმაში, რომ ისინი თავიანთ მოდელებს ChatGPT-ისა და Claude-ის პასუხებზე წვრთნიდნენ. OpenAI-მ, Anthropic-მა და Google-მა ერთობლივი Frontier Model Forum-იც კი აამოქმედეს, რომლის ფარგლებშიც მასობრივი საეჭვო მოთხოვნებისგან დაცვის მეთოდებს აზიარებენ. ამავე ლაბორატორიების თანამშრომლები კულუარებში დიდი ხანია ამბობდნენ, რომ ამერიკელი მოთამაშეები ერთმანეთის მიმართ იმავეს აკეთებენ — თუმცა საჯაროდ ეს არავის დაუდასტურებია. მასკის ჩვენება — პირველი ასეთი დადასტურებაა ფიცის ქვეშ.

მოსარჩელის პოზიციის ირონია აქ უკვე ქვეტექსტში კი არა, ზედაპირზეა. ერთი დღით ადრე მასკი ნაფიც მსაჯულებს ეუბნებოდა, რომ კომერციული ხელოვნური ინტელექტი “უსაფრთხოების რისკს ქმნის” და დაეთანხმა, რომ ეს xAI-საც ეხება. აქვე მან ინდუსტრია საფრთხის დონის მიხედვით დააჯგუფა: პირველ ადგილზე Anthropic, შემდეგ OpenAI, Google და ჩინური open-source მოდელები; საკუთარი xAI კი დაახასიათა, როგორც “ბევრად პატარა” კომპანია რამდენიმე ასეული თანამშრომლით. ანუ ადამიანი, რომელიც OpenAI-სგან რეკორდულ თანხას ითხოვს სხვისი მისიის დარღვევისთვის, თავად აღიარებს, რომ არღვევდა ამავე OpenAI-ს სამომხმარებლო პირობებს (ToS) — რადგან რამდენიმე ასეული თანამშრომლით ლიდერების დაწევა სხვანაირად არარეალური იყო.

თავისთავად ეს აღიარება დისტილაციას უკანონოს არ ხდის, მაგრამ აძლევს OpenAI-სა და Anthropic-ს საფუძველს, გაამკაცრონ API-ს დაცვა არა მხოლოდ ჩინური მოთამაშეებისგან, არამედ ამერიკელებისგანაც — ეს კი უკვე აღარ არის პარასკევის ლუდზე საუბრის თემა, არამედ ჩანაწერი სასამართლო ოქმში.

გაზიარება:

დაკავშირებული პოსტები

სემ ალტმანის პროექტი World ვერიფიკაციის ტექნოლოგიას გაცნობის აპლიკაციებში ნერგავს
AI

სემ ალტმანის პროექტი World ვერიფიკაციის ტექნოლოგიას გაცნობის აპლიკაციებში ნერგავს

Telegram-მა მესამე მხარის კლიენტების მომხმარებლების მონიშვნა დაიწყო. ასევე, მესენჯერმა მიიღო ხელოვნური ინტელექტის რედაქტორი და ბოტების ფაბრიკა
AI

Telegram-მა მესამე მხარის კლიენტების მომხმარებლების მონიშვნა დაიწყო. ასევე, მესენჯერმა მიიღო ხელოვნური ინტელექტის რედაქტორი და ბოტების ფაბრიკა

CERN-ში მონაცემთა მასივების გასაფილტრად ჩიპებში ინტეგრირებულ სპეციალურ AI-მოდელებს იყენებენ
AI

CERN-ში მონაცემთა მასივების გასაფილტრად ჩიპებში ინტეგრირებულ სპეციალურ AI-მოდელებს იყენებენ

Anthropic: DeepSeek-ი, Moonshot-ი და MiniMax-ი ფარულად წვრთნიდნენ თავიანთ მოდელებს Claude-ის პასუხებზე
AI

Anthropic: DeepSeek-ი, Moonshot-ი და MiniMax-ი ფარულად წვრთნიდნენ თავიანთ მოდელებს Claude-ის პასუხებზე

Google თავის საუკეთესო პროდუქტიულობის ინსტრუმენტებს ფასიანს ხდის
AI

Google თავის საუკეთესო პროდუქტიულობის ინსტრუმენტებს ფასიანს ხდის

სტარტაპმა Taalas-მა ნეიროქსელი ჩიპში ჩააშენა და რეკორდული 17 000 ტოკენი წამში მიიღო
AI

სტარტაპმა Taalas-მა ნეიროქსელი ჩიპში ჩააშენა და რეკორდული 17 000 ტოკენი წამში მიიღო

კომენტარები

ახალი კომენტარის დაწერა