Πριν από ένα μήνα περίπου, η Apple έκανε γνωστό ότι πρόκειται να εισάγει δύο νέα εργαλεία που έχουν σχεδιαστεί ειδικά για την προστασία των παιδιών και την πάταξη της παιδικής κακοποίησης και παιδικής πορνογραφίας.

Το εργαλείο «Ασφάλεια Επικοινωνίας» (Communication Safety) αξιοποιεί την μηχανική εκμάθηση εντός της συσκευής (δεν επικοινωνεί με διακομιστές κ.λπ.) για τον εντοπισμό και τη «θόλωση» των άσεμνων σεξουαλικά εικόνων που ενδέχεται να ληφθούν από παιδιά στην εφαρμογή «Μηνύματα» (Messages). Επιπλέον, μπορεί να ειδοποιήσει τον γονιό στην περίπτωση που ένα παιδί ηλικίας 12 ετών ή μικρότερης ηλικίας αποφασίσει να δει ή να αποστείλει σε κάποιον μία τέτοια άσεμνη εικόνα.

Το δεύτερο εργαλείο ανιχνεύει περιεχόμενο παιδικής σεξουαλικής κακοποίησης (Child Sexual Abuse Material ή CSAM) σαρώνοντας τις εικόνες ή τις φωτογραφίες των χρηστών εφόσον έχουν επιλέξει να τις αποθηκεύσουν στο iCloud. Σε αυτή τη περίπτωση, αφού πρώτα επαληθευθεί ότι υπάρχει τέτοιου είδους υλικό, ειδοποιούνται οι αρχές.

Τα δύο παραπάνω εργαλεία, αναμφισβήτητα αποτελούν δύο σημαντικές λύσεις για την προστασία των παιδιών, ωστόσο δεν ήταν λίγες οι οργανώσεις και οι ομάδες προστασίας της ψηφιακής ιδιωτικότητας, μεταξύ των οποίων και το Electronic Frontier Foundation, που εξέφρασαν επιφυλάξεις για τη λειτουργία των δύο συγκεκριμένων χαρακτηριστικών καθώς θα μπορούσαν να χρησιμοποιηθούν και για άλλους λόγους (π.χ. μαζική παρακολούθηση κ.ά.).

Πιο συγκεκριμένα, πολλές οργανώσεις και ομάδες προστασίας του απορρήτου υποστηρίζουν ότι τα νέα αυτά εργαλεία πρόκειται να εισάγουν μία κερκόπορτα (backdoor) στο λογισμικό της Apple, η οποία θα μπορούσε να επεκταθεί για την σάρωση και ανίχνευση περιεχομένου που υπερβαίνει το περιεχόμενο παιδικής σεξουαλικής κακοποίησης. Διάφορες αυταρχικές κυβερνήσεις ή καθεστώτα θα μπορούσαν να αξιοποιήσουν τα εργαλεία για να κατασκοπεύουν τους πολίτες ή για ανίχνευση «αντικυβερνητικού» περιεχομένου ενώ σε άλλες περιπτώσεις, όπως στην περίπτωση καθεστώτων που προωθούν μία ατζέντα ενάντια στο κίνημα ΛΟΑΤΚΙ+ για να πατάξουν την σεξουαλική έκφραση. «Ακόμα και μία εξαιρετικά τεκμηριωμένη, προσεκτικά μελετημένη και με περιορισμένο εύρος κερκόπορτα, εξακολουθεί να αποτελεί κερκόπορτα» υποστηρίζει το Electronic Frontier Foundation.

Μετά τη δημόσια κατακραυγή, η Apple προχώρησε σε ανακοινώσεις και διευκρινήσεις σε μία προσπάθεια να καθησυχάσει τους χρήστες και να κάμψει τις όποιους φόβους ότι το εργαλείο σάρωσης εικόνων ή φωτογραφιών για παιδική σεξουαλική κακοποίηση της θα μπορούσε να αξιοποιηθεί από αυταρχικές κυβερνήσεις για μαζική παρακολούθηση.

Τελικά, η εταιρεία έλαβε την απόφαση να καθυστερήσει τα εργαλεία που ανακοίνωσε και τα οποία προγραμμάτιζε να εισάγει φέτος.

«Τον περασμένο μήνα ανακοινώσαμε σχέδια για χαρακτηριστικά που προορίζονταν να βοηθήσουν στην προστασία των παιδιών από τα αρπακτικά που χρησιμοποιούν εργαλεία επικοινωνίας για να προσελκύσουν και να τα εκμεταλλευτούν καθώς και για να περιορίσουμε τη διάδοση υλικού σεξουαλικής κακοποίησης παιδιών» ανέφερε η Apple σε δήλωση της στην ιστοσελίδα The Verge. «Με βάση τα σχόλια πελατών, ομάδων προστασίας (της ψηφιακής ιδιωτικότητας), ερευνητών και άλλων, αποφασίσαμε να πάρουμε πρόσθετο χρόνο τους επόμενους μήνες για να συλλέξουμε πληροφορίες και να κάνουμε βελτιώσεις πριν από το λανσάρισμα αυτών των εξαιρετικά σημαντικών χαρακτηριστικών ασφάλειας για τα παιδιά».