Μετά τη σχετική φημολογία ότι η Apple αναπτύσσει εργαλεία που θα σαρώνουν τις συσκευές iPhone για τυχόν εικόνες ή φωτογραφίες που σχετίζονται με παιδική κακοποίηση ή παιδική πορνογραφία, ήρθε η επίσημη επιβεβαίωση από την εταιρεία με μία ανάρτηση που παρέχει περισσότερες λεπτομέρειες σχετικά με τις προσπάθειες της για την ασφάλεια των παιδιών.

Με τη διάθεση των λειτουργικών συστημάτων iOS 15, watchOS 8 και macOS Monterey αργότερα μέσα στη χρονιά, η εταιρεία λέει πως πρόκειται να συστήσει μία σειρά από χαρακτηριστικά που αφορούν την ασφάλεια των παιδιών στις εφαρμογές Messages, Photos και Siri.

Το Messages app θα περιλαμβάνει νέες ειδοποιήσεις που θα προειδοποιούν τα παιδιά, καθώς και τους γονείς τους, όταν αποστέλλονται ή λαμβάνονται μέσω της εφαρμογής ακατάλληλες ή άσεμνες φωτογραφίες. Για παράδειγμα, αν κάποιος στείλει σε ένα παιδί μια ακατάλληλη εικόνα, η εφαρμογή θα την θολώνει και θα εμφανίσει διάφορες προειδοποιήσεις προτού «ανοιχτεί» από το παιδί. Μία από τις ειδοποιήσεις για παράδειγμα λέει «Δεν φταις εσύ, αλλά ευαίσθητες φωτογραφίες και βίντεο μπορούν να χρησιμοποιηθούν για να σε βλάψουν». Ως ένα πρόσθετο μέσο προφύλαξης, το Messages app επίσης μπορεί να ειδοποιήσει τους γονείς στην περίπτωση που το παιδί τους τελικώς αποφασίσει να δει την εικόνα με το ευαίσθητο περιεχόμενο παρά την προειδοποίηση. «Παρόμοιες προστασίες είναι διαθέσιμες ακόμα και για την περίπτωση που ένα παιδί επιχειρήσει να αποστείλει σεξουαλικά άσεμνες φωτογραφίες» λέει η Apple. Η εταιρεία επίσης επισημαίνει ότι η συγκεκριμένη λειτουργία χρησιμοποιεί μηχανική εκμάθηση στην ίδια την συσκευή για να καθοριστεί αν μία φωτογραφία είναι άσεμνη ή ακατάλληλου περιεχομένου. Επιπλέον, η Apple λέει πως δεν έχει η ίδια πρόσβαση στα ίδια τα μηνύματα των χρηστών. Αξίζει να σημειωθεί ότι το παραπάνω χαρακτηριστικό θα είναι διαθέσιμο για τους οικογενειακούς λογαριασμούς iCloud.

Η Apple πρόκειται να λανσάρει επίσης νέα εργαλεία στα λειτουργικά συστήματα iOS και iPadOS που θα επιτρέψουν στην εταιρεία να εντοπίζει πότε κάποιος ανεβάζει περιεχόμενο στο iCloud που απεικονίζει παιδιά που εμπλέκονται σε σεξουαλικές πράξεις. Η εταιρεία λέει ότι θα αξιοποιήσει τη τεχνολογία ειδοποιώντας το Εθνικό Κέντρο Αγνοουμένων και Κακοποιημένων παιδιών (NCMEC), το οποίο με τη σειρά του θα ειδοποιεί και θα συνεργάζεται με τις αρχές στις ΗΠΑ. «Η μέθοδος της Apple για τον εντοπισμό γνωστού υλικού παιδικής σεξουαλικής κακοποίησης (Child Sexual Abuse Material ή CSAM) σχεδιάστηκε με γνώμονα την ιδιωτικότητα του χρήστη. Αντί να σαρώνει για εικόνες στο cloud, το σύστημα εκτελεί αντιστοίχιση στη συσκευή χρησιμοποιώντας μια βάση δεδομένων γνωστών κατακερματισμών εικόνων CSAM που παρέχονται από τo NCMEC και άλλους οργανισμούς για την ασφάλεια των παιδιών. Η Apple προχωρά στην περαιτέρω μετατροπή της βάσης δεδομένων σε ένα μη αναγνώσιμο σύνολο κατακερματισμένων εικόνων που αποθηκεύονται με ασφάλεια στις συσκευές των χρηστών». Η εταιρεία λέει στη συνέχεια ότι η βάση δεδομένων εκχωρεί ένα hash στις φωτογραφίες, το οποίο λειτουργεί ως ένα είδος ψηφιακού αποτυπώματος για κάθε μία από αυτές.

child-safety__evd7tla79kqe_large.jpg

Μια τεχνολογία κρυπτογράφησης που ονομάζεται «private set intersection» επιτρέπει στην Apple να καθορίσει αν υπάρχει κάποια αντιστοιχία με τη βάση δεδομένων χωρίς στην πραγματικότητα να δει η ίδια το αποτέλεσμα της διαδικασίας. Σε περίπτωση αντιστοιχίας, ένα iPhone ή iPad δημιουργεί ένα κρυπτογραφικό κουπόνι ασφαλείας που κρυπτογραφεί τη μεταφόρτωση, μαζί με οποιαδήποτε δεδομένα σχετίζονται με αυτή. Μια άλλη τεχνολογία που ονομάζεται «threshold secret sharing» καθιστά αδύνατο για την εταιρεία να δει το περιεχόμενο αυτών των κουπονιών, εκτός και αν κάποιος «περάσει» ένα απροσδιόριστο όριο περιεχομένου παιδικής σεξουαλικής κακοποίησης (CSAM). «Αυτό το όριο έχει καθοριστεί να παρέχει ένα εξαιρετικά υψηλό επίπεδο ακρίβειας ώστε οι πιθανότητες να επισημάνει λανθασμένα έναν συγκεκριμένο λογαριασμό χρήστη να είναι λιγότερες από μία στο ένα τρισεκατομμύριο» δηλώνει η εταιρεία. 

Μόνο όταν ξεπεραστεί αυτό το όριο, θα επιτρέπετε στην εταιρεία να ελέγχει χειροκίνητα το περιεχόμενο κάθε κρυπτογραφικού κουπονιού για να επιβεβαιώσει την αντιστοιχία. Στην περίπτωση που βρεθεί τέτοιο περιεχόμενο, θα απενεργοποιεί τον λογαριασμό iCloud του συγκεκριμένου ατόμου και θα ειδοποιεί Εθνικό Κέντρο Αγνοουμένων και Κακοποιημένων παιδιών (NCMEC). Φυσικά, θα υπάρχουν τα εργαλεία για να αντιστραφεί η αναστολή του λογαριασμού εφόσον υπάρξουν χρήστες που πιστεύουν ότι έγινε λάθος. 

iphone 2.jpg

Η εταιρεία πρόκειται επίσης να επέμβει με σχετικές αλλαγές και στη Siri, καθώς και στην ενσωματωμένη λειτουργία αναζήτησης στα λειτουργικά συστήματα iOS και macOS. Τα παραπάνω χαρακτηριστικά θα φροντίσουν να οδηγούν τους χρήστες σε πηγές που σχετίζονται με την ασφάλεια των παιδιών. Για παράδειγμα, οι χρήστες θα μπορούν να ρωτούν την ψηφιακή βοηθό της Apple πως μπορούν να αναφέρουν περιστατικά παιδικής κακοποίησης. Η Apple επίσης σχεδιάζει να ενημερώσει τη Siri ώστε να παρεμβαίνει σε περίπτωση που κάποιος πραγματοποιεί αναζητήσεις για περιεχόμενο που σχετίζεται με παιδική σεξουαλική κακοποίηση. Η ψηφιακή βοηθός για παράδειγμα θα λέει ότι «το ενδιαφέρον για το συγκεκριμένο θέμα είναι επιβλαβές και προβληματικό» και θα υποδεικνύει πόρους ή υπηρεσίες που προσφέρουν βοήθεια για το ζήτημα στο άτομο που έκανε τέτοιες αναζητήσεις.

  • Like 7
  • Confused 1