ერთ წელზე მეტი გავიდა მას შემდეგ, რაც Apple-მა დანერგა ფუნქცია, რომელიც ავტომატურად ამოიცნობს iPhone-ის ფოტოებს, რომლებიც შეიცავს ბავშვზე ძალადობის (CSAM) სცენებს.
Apple თავდაპირველად გეგმავდა ფუნქციის დამატება iOS 15-ში 2021 წლის ბოლომდე. მაგრამ კომპანიამ დააყოვნა მისი გაშვება მას შემდეგ, რაც ის გააკრიტიკეს მომხმარებლებმა, უსაფრთხოების ექსპერტებმა და ადამიანის უფლებათა ჯგუფებმა.
2021 წლის დეკემბერში Apple-მა ამოიღო ყველა მითითება ფუნქციაზე თავისი ვებსაიტიდან, მაგრამ კომპანიის სპიკერმა თქვა, რომ გეგმები არ შეცვლილა. მას შემდეგ Apple-ს ფუნქციის გაშვებაზე კომენტარი არ გაუკეთებია.
Apple აპირებდა მხოლოდ iCloud-ზე ატვირთული ფოტოების სკანირებას. ყველა ტრანზაქცია უნდა განხორციელებულიყო iPhone-ზე. სკანირებისთვის, თითოეული სურათი გახეხილი იყო, შემდეგ კი სისტემამ მისი კოდი შეადარა ფოტოებს, რომლებიც შეიცავს ბავშვზე ძალადობის სცენებს.
მრავალჯერადი დამთხვევით, სპეციალურ ადამიანს უნდა შეემოწმებინა სურათები. თუ ის დაადასტურებდა უკანონო ფოტოების არსებობას, მაშინ Apple გადასცემს ინფორმაციას iPhone-ის მფლობელის შესახებ არაკომერციულ ორგანიზაციას, რომელიც მუშაობს აშშ-ს სამართალდამცავ ორგანოებთან თანამშრომლობით.