Η Apple επιβεβαίωσε πρόσφατα τις φήμες που ήθελαν την εταιρεία να χρησιμοποιεί ένα σύστημα -μέσω και μίας ενημέρωσης που θα διατεθεί στους κατόχους συσκευών της- το οποίο θα της επιτρέπει να σαρώνει τις συσκευές iPhone για την εύρεση φωτογραφιών ή εικόνων με θύματα παιδικής σεξουαλικής κακοποίησης ή παιδικής πορνογραφίας.

Η φημολογία, προτού επιβεβαιωθεί από την ίδια της Apple, ξεκίνησε από την εφημερίδα Financial Times, σύμφωνα με την οποία η Αμερικάνικη εταιρεία είχε διαρκείς συναντήσεις με ερευνητές ασφαλείας για το σύστημα «neuralMatch», το οποία θα «σαρώνει διαρκώς τις φωτογραφίες που αποθηκεύονται στις συσκευές iPhone των Αμερικανών χρηστών αλλά και που “ανεβαίνουν» στο σύστημα αντιγράφων ασφαλείας της εταιρείας iCloud».    

Το σύστημα στη συνέχεια, και εφόσον βρεθούν ενδείξεις για εικόνες ή φωτογραφίες παιδικής σεξουαλικής κακοποίησης «θα ειδοποιεί προληπτικά μία εξειδικευμένη ομάδα ανθρώπων οι οποίοι θα αξιολογούν τα ευρήματα στην περίπτωση που ανιχνευθούν παράνομες φωτογραφίες/ εικόνες». Στη συνέχεια, η ομάδα της Apple θα ειδοποιεί τις αρχές επιβολής του νόμου στην περίπτωση που οι φωτογραφίες αποδειχτούν παράνομες. Η δράση του συστήματος neuralMatch, το οποίο έχει εκπαιδευτεί χρησιμοποιώντας τη βάση δεδομένων του Εθνικού Κέντρου Αγνοουμένων και Κακοποιημένων παιδιών (National Center for Missing and Exploited children) των ΗΠΑ, σε πρώτη φάση θα περιοριστεί στις συσκευές iPhone των Αμερικανών χρηστών.

Σε αυτό το σημείο ωστόσο, αξίζει να επισημανθεί ότι με τη συγκεκριμένη κίνηση από την Apple, η εταιρεία δείχνει να αμφιταλαντεύεται πια (ή ακόμα και να κάνει βήματα προς τα πίσω) σε ότι αφορά το ζήτημα της ιδιωτικότητας, όσο σοβαρά, μοχθηρά και ακατανόητα αποτρόπαια είναι τα εγκλήματα παιδικής σεξουαλικής κακοποίησης. Δεν ήταν άλλωστε λίγες οι φορές που βρέθηκε απέναντι από τις αρχές επιβολής του νόμου στις ΗΠΑ για να υπερασπιστεί την ιδιωτικότητα των χρηστών των συσκευών της. Αν θυμάστε, η εταιρεία βρέθηκε αντιμέτωπη με το ίδιο το FBI το 2016 όταν αρνήθηκε να «ξεκλειδώσει» το iPhone του χρήστη που ήταν πίσω από την τρομοκρατική επίθεση στο San Bernardino. Ο Διευθύνων Σύμβουλος της Apple, Tim Cook, είχε δηλώσει τότε ότι το αίτημα της κυβέρνησης ήταν «ανατριχιαστικό» και αν η εταιρεία έκανε ότι της ζητούσαν θα δημιουργούσε προηγούμενο για τη δημιουργία μίας κερκόπορτας για περισσότερη κυβερνητική παρακολούθηση (το FBI τελικώς στράφηκε σε μία εταιρεία ασφαλείας εκτός της Apple για να ξεκλειδώσει το iPhone του τρομοκράτη).

Τώρα, διάφοροι ερευνητές ασφαλείας εγείρουν παρόμοιες ανησυχίες. Παρόλο που υπάρχει καθολική συναίνεση και ευρεία υποστήριξη στις αυξανόμενες και ακόμα πιο συλλογικές προσπάθειες για την καταπολέμηση της παιδικής σεξουαλικής κακοποίησης, οι ερευνητές που μίλησαν στην εφημερίδα Financial Times εξέφρασαν την άποψη ότι το σύστημα της Apple θα μπορούσε να ανοίξει την πόρτα σε αυταρχικά καθεστώτα για να κατασκοπεύουν τους πολίτες τους, καθώς ένα σύστημα εκπαιδευμένο και σχεδιασμένο να ανιχνεύει έναν συγκεκριμένο τύπο εικόνας, θα μπορούσε να επεκταθεί και σε άλλους τύπους περιεχομένου, όπως σε οποιοδήποτε περιεχόμενο θα μπορούσε να χαρακτηριστεί «αντικυβερνητικό».  Παράλληλα, η Apple και άλλες εταιρείες δέχονται αυξανόμενες πιέσεις για να βρουν τρόπους συνεργασίας με τις αρχές επιβολής του νόμου. Όπως επισημαίνεται και στο άρθρο της εφημερίδας Financial Times, μπορεί οι πλατφόρμες κοινωνικής δικτύωσης ή κάποιοι πάροχοι αποθηκευτικού χώρου cloud, όπως συμβαίνει και στην περίπτωση του iCloud, να χρησιμοποιούν ήδη τέτοια συστήματα ανίχνευσης φωτογραφιών παιδικής κακοποίησης ή παιδικής πορνογραφίας ωστόσο η επέκταση τους στις συσκευές των χρηστών αποτελεί μία πολύ μεγάλη αλλαγή για τη στρατηγική της εταιρείας.

Όπως αναφέραμε στην αρχή του άρθρου, αν και αρχικά η εταιρεία αρνήθηκε να σχολιάσει το ρεπορτάζ της εφημερίδας Financial Times, τελικά επιβεβαίωσε σε ανακοίνωση της την πιλοτική λειτουργία του συστήματος. «Η μέθοδος της Apple για τον εντοπισμό γνωστού υλικού παιδικής σεξουαλικής κακοποίησης (Child Sexual Abuse Material ή CSAM) σχεδιάστηκε με γνώμονα την ιδιωτικότητα του χρήστη. Αντί να σαρώνει για εικόνες στο cloud, το σύστημα εκτελεί αντιστοίχιση στη συσκευή χρησιμοποιώντας μια βάση δεδομένων γνωστών κατακερματισμών εικόνων CSAM που παρέχονται από τo NCMEC και άλλους οργανισμούς για την ασφάλεια των παιδιών. Η Apple προχωρά στην περαιτέρω μετατροπή της βάσης δεδομένων σε ένα μη αναγνώσιμο σύνολο κατακερματισμένων εικόνων που αποθηκεύονται με ασφάλεια στις συσκευές των χρηστών».

  • Like 2
  • Sad 1