Προς το περιεχόμενο

Apple. Η σάρωση εικόνων για παιδική κακοποίηση δεν θα εργαλειοποιηθεί από καμία κυβέρνηση για παρακολούθηση


polemikos

Προτεινόμενες αναρτήσεις

Μέσω μίας νέας σελίδας με Συχνές Ερωτήσεις (FAQ) που αναρτήθηκε στην επίσημη διαδικτυακή τοποθεσία της, η Apple επιχειρεί να κάμψει τις ανησυχίες και τους φόβους ότι το εργαλείο σάρωσης εικόνων ή φωτογραφιών για παιδική σεξουαλική κακοποίηση της θα μπορούσε να εργαλειοποιηθεί από αυταρχικές κυβερνήσεις για μαζική παρακολούθηση.

«Θέλουμε να είμαστε ξεκάθαροι, αυτή η τεχνολογία περιορίζεται αποκλειστικά για την ανίχνευση περιεχομένου παιδικής σεξουαλικής κακοποίησης που αποθηκεύεται στο iCloud και δεν πρόκειται να υποκύψουμε σε οποιοδήποτε αίτημα κυβέρνησης να το επεκτείνουμε» υποστηρίζει η εταιρεία.

Τα νέα εργαλεία της Apple, τα οποία ανακοινώθηκαν την περασμένη εβδομάδα, περιλαμβάνουν δύο χαρακτηριστικά που έχουν σχεδιαστεί ειδικά για την προστασία των παιδιών. Το ένα, που ονομάζεται «Ασφάλεια Επικοινωνίας» (Communication Safety) αξιοποιεί την μηχανική εκμάθηση στην συσκευή για τον εντοπισμό και τη «θόλωση» (blurring) άσεμνων σεξουαλικά εικόνων που ενδέχεται να ληφθούν από παιδιά στην εφαρμογή «Μηνύματα» (Messages) και έχει τη δυνατότητα να ειδοποιήσει τον γονιό στην περίπτωση που ένα παιδί ηλικίας 12 ετών και κάτω αποφασίσει να δει ή να στείλει μίας τέτοιου είδους εικόνα. Το δεύτερο εργαλείο σχεδιάστηκε για την ανίχνευση γνωστού περιεχομένου παιδικής σεξουαλικής κακοποίησης (Child Sexual Abuse Material ή CSAM) σαρώνοντας τις εικόνες ή τις φωτογραφίες των χρηστών στην περίπτωση που έχουν επιλέξει να τις ανεβάσουν στο iCloud. Σε μία τέτοια περίπτωση, το σύστημα ειδοποιεί την Apple και αφού επαληθευτεί ότι υπάρχει τέτοιου είδους υλικό θα ειδοποιούνται οι αρχές.

Μετά την ανακοίνωση των νέων εργαλείων, δεν ήταν λίγες οι οργανώσεις και οι ομάδες προστασίας της ψηφιακής ιδιωτικότητας που υποστήριξαν ότι τα νέα αυτά εργαλεία πρόκειται να εισάγουν μία κερκόπορτα (backdoor) στο λογισμικό της Apple, η οποία θα μπορούσε να επεκταθεί για την σάρωση και ανίχνευση περιεχομένου που υπερβαίνει το περιεχόμενο ή το υλικό παιδικής σεξουαλικής κακοποίησης. Διάφορες αυταρχικές κυβερνήσεις ή καθεστώτα θα μπορούσαν να αξιοποιήσουν τα εργαλεία για να κατασκοπεύουν τους πολίτες ή για ανίχνευση «αντικυβερνητικού» περιεχομένου ενώ σε άλλες περιπτώσεις, όπως στην περίπτωση καθεστώτων που προωθούν μία ατζέντα ενάντια στο κίνημα ΛΟΑΤΚΙ+ για να πατάξουν την σεξουαλική έκφραση.

«Ακόμα και μία εξαιρετικά τεκμηριωμένη, προσεκτικά μελετημένη και με περιορισμένο εύρος κερκόπορτα, εξακολουθεί να είναι κερκόπορτα» διαβάζουμε στην ανακοίνωση του Electronic Frontier Foundation. «Έχουμε ήδη δει να συμβαίνει κάτι τέτοιο στην πράξη. Μία από τις τεχνολογίες που αρχικά δημιουργήθηκε για τη σάρωση και τον κατακερματισμό εικόνων σεξουαλικής κακοποίησης παιδιών χρησιμοποιήθηκε για άλλο σκοπό όπως για να δημιουργήσει μια βάση δεδομένων «τρομοκρατικού» περιεχομένου, στην οποία συνεισφέρουν και έχουν πρόσβαση διάφορες εταιρείες με σκοπό να εντοπίζουν και να απαγορεύουν την προβολή τέτοιου περιεχομένου στις ιστοσελίδες τους».

Η Apple ωστόσο υποστηρίζει ότι έχει λάβει μέτρα ασφαλείας που απαγορεύουν την χρήση των εργαλείων της για άλλους σκοπούς πέρα από την ανίχνευση εικόνων παιδικής σεξουαλικής κακοποίησης. Για τον εντοπισμό γνωστού υλικού παιδικής σεξουαλικής κακοποίησης (Child Sexual Abuse Material ή CSAM), το σύστημα της Apple χρησιμοποιεί μία βάση δεδομένων γνωστών κατακερματισμών εικόνων παιδικής σεξουαλικής κακοποίησης που παρέχονται από τo Εθνικό Κέντρο Αγνοουμένων και Κακοποιημένων παιδιών (NCMEC) προτού προχωρήσει σε αντιστοίχιση στη συσκευή του χρήστη. Στο μεταξύ, η βάση δεδομένων αποτελεί ένα μη αναγνώσιμο σύνολο κατακερματισμένων εικόνων (image hashes) που είναι με ασφάλεια αποθηκευμένο στις συσκευές των χρηστών. Η εταιρεία λέει πως δεν πρόκειται να συμβάλει στην λίστα των image hashes και πως η λίστα είναι η ίδια σε όλα τα iPhone και iPad ώστε να αποτρέψει την πιθανότητα μεμονωμένης στοχοποίησης.   

Η εταιρεία επίσης υποστηρίζει ότι θα αρνηθεί οποιοδήποτε αίτημα κυβέρνησης για να προστεθούν εικόνες που δεν έχουν σχέση με CSAM στη λίστα. «Έχουμε βρεθεί αντιμέτωποι στο παρελθόν με απαιτήσεις για να υλοποιήσουμε και να εφαρμόσουμε αλλαγές από τη κυβέρνηση που υποβαθμίζουν την ιδιωτικότητα των χρηστών και έχουμε σταθερά απορρίψει τέτοιες απαιτήσεις. Θα εξακολουθήσουμε να τις αρνούμαστε και μελλοντικά» λέει η Apple. Αξίζει πάντως σε αυτό το σημείο να επισημάνουμε ότι παρά τις διαβεβαιώσεις της, η Apple έχει στο παρελθόν κάνει παραχωρήσεις σε κυβερνήσεις προκειμένου να συνεχίσει να δραστηριοποιείται εμπορικά στις χώρες τους. Έτσι, πουλάει iPhone χωρίς FaceTime σε χώρες που δεν επιτρέπουν τις κρυπτογραφημένες τηλεφωνικές κλήσεις ενώ στην Κίνα έχει αφαιρέσει χιλιάδες εφαρμογές από το App Store κατόπιν παρεμβάσεων από την Κινεζική κυβέρνηση ενώ έχει μεταφέρει τα δεδομένα των Κινέζων χρηστών στους διακομιστές μίας κρατικής εταιρείας τηλεπικοινωνιών. 

Αν και η εταιρεία προσπαθεί να καθησυχάσει χρήστες και οργανώσεις, εντούτοις στο FAQ αποτυγχάνει να εξηγήσει με σαφήνεια πως μπορεί να διασφαλίσει ότι το εργαλείο της εστιάζει αποκλειστικά στις εικόνες παιδικής σεξουαλικής κακοποίησης. Για παράδειγμα, λέει το Electronic Frontier Foundation «το μόνο που απαιτείται για να αυξηθεί το “εύρος” της κερκόπορτας που δημιουργεί η Apple, είναι μία απλή αλλαγή στις παραμέτρους της μηχανικής εκμάθησης ώστε να αναζητούνται και άλλοι τύποι περιεχομένου». Το Electronic Frontier Foundation επίσης επισημαίνει ότι οι τεχνολογίες μηχανικής εκμάθησης συχνά ταξινομούν λανθασμένα το περιεχόμενο αναφέροντας το παράδειγμα του Tumblr που χρησιμοποίησε την τεχνολογία για να καταπολεμήσει το σεξουαλικό περιεχόμενο αλλά έγιναν πολλά, πολλά λάθη.   


Διαβάστε ολόκληρο το άρθρο

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Απαντ. 86
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Μακάρι να βοηθήσει την όλη κατάσταση και της δύσκολες στιγμές που ζουνε τα μικρά αγγελούδια . Μακάρι αυτά τα διεστραμμένα άτομα να τα κλείσουν μέσα σιγά σιγά !!!

  • Like 5
  • Thanks 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
Αναφορά σε κείμενο

η Apple επιχειρεί να κάμψει τις ανησυχίες και τους φόβους ότι το εργαλείο σάρωσης εικόνων ή φωτογραφιών

Ασ' το..  δεν το μαζεύεις..

Επεξ/σία από keysmith
  • Like 15
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

6 λεπτά πριν, LongTom είπε

εταιρία που οι αμερικάνικες αρχές ανάγκασαν να κρατήσει τις κερκόπορτες ανοικτές

Αυτό απο πότε; Πολλάκις φορές αποδείχθηκε το αντίθετο.

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Ειμαι βεβαιος οτι ολοι οι παιδεραστες δεν ακουσαν τπτ απολυτως και θα συνεχισουν να ανεβαζουν φωτο στο icloud οπως παντα. Γιατι ειναι το καταλληλο μερος αλλωστε. 

  • Like 6
  • Thanks 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

Κατά τα αλλά εμείς ήμασταν special snowflakes και αυτοί που δεν καταλαβαίναμε ή δεν διαβάζαμε τις ανακοινώσεις της Apple…

Επεξ/σία από AtiX
  • Like 14
  • Thanks 5
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 ώρα πριν, AtiX είπε

Κατά τα αλλά εμείς ήμασταν special snowflakes και αυτοί που δεν καταλαβαίναμε ή δεν διαβάζαμε τις ανακοινώσεις της Apple…

....εεε καλά κ εσύ...με τόση αλαζονεία που τους περιλούζει πιστεύεις ότι θα αναθεωρήσουν ή θα απολογηθούν?!? (Ο νοών νοείτω)

  • Like 5
  • Thanks 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Μόλις τώρα, TechnoState είπε

....εεε καλά κ εσύ...με τόση αλαζονεία που τους περιλούζει πιστεύεις ότι θα αναθεωρήσουν ή θα απολογηθούν?!? (Ο νοών νοείτω)

Θα έπρεπε όμως, ειδικά όταν μειώνεις συμφορητες που δεν έχουν δείξει τέτοιου είδους χαρακτηριστικά…

  • Like 6
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...