Προς το περιεχόμενο

Η Apple θα σαρώνει τις συσκευές iPhone στις ΗΠΑ για φωτογραφίες παιδικής κακοποίησης


polemikos

Προτεινόμενες αναρτήσεις

21 minutes ago, NotAliki177 said:

Αράξτε λίγο... κλασικά το πήγατε "ποιος την έχει μεγαλύτερη, ποιος ξέρει περισσότερα". Επικεντρωθείτε στην ουσία.

Η Apple χαράσσει τον δρόμο φίλε μου... το closed-source είναι καλό, το open-source κακό, τα mAh δεν παίζουν ρόλο: 2500mAh (avg 2k21 iphone battery) > 5000mAh android.... και άλλα τέτοια για να καραφλιάσεις.

Δεν είμαι fan είτε των open source, είτε των closed source λύσεων: προτιμώ να επιλέγω κατά περίπτωση από τις διαθέσιμες προτάσεις και θα ήθελα να έχω ανοιχτά αμφότερα τα μονοπάτια - μεταξύ άλλων και για το φόβο των Ιουδαίων. Δε με απασχολεί πως το βαπτίζει η Apple και πως το ωραιοποιεί με επίκληση στο συναίσθημα ή προσπαθώντας να θολώσει τα νερά σε τεχνικό επίπεδο. Η ουσία για μένα παραμένει πως για πρώτη φορά παραδέχονται πως θα ΠΑΡΑΚΟΛΟΥΘΟΥΝ τα δεδομένα της συσκευής σου και θα ΕΝΕΡΓΟΥΝ (απίστευτο πραγματικά! ) αυτοβούλως δίνοντας υλικό στις αρχές. Θεωρώ πως ένα μικρό βήμα είναι η καταγγελία για εκφράσεις μίσους, ρατσιστική συμπεριφορά, διακρίσεις σε φύλο/προέλευση, κλπ.

  • Thanks 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Απαντ. 105
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοφιλείς Ημέρες

1 ώρα πριν, billdanos είπε

Πάρε τηλέφωνο με λειτουργικό από τη Google. 😛 

Μπα σε πρόλαβα ήδη δεν έχω καν :) puts tinfoil hat on.Φυσικα αστειεύομαι έχω ένα παλιό samsung .

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

4 minutes ago, billdanos said:

Η όποια ανησυχία για την ωρα (που ξαναλέω πως δεν γνωρίζουμε όλες τις λεπτομέρειες) δεν αφορά τη χρήση των δεδομένων μας απο την apple, αλλα το γεγονός πως θα μπορούσε να χρησιμοποιηθεί καταχρηστικά απο τρίτους (αν αυτο θα ειναι εφικτό).

«Keeping children safe is such an important mission. In true Apple fashion, pursuing this goal has required deep cross-functional commitment, spanning Engineering, GA, HI, Legal, Product Marketing and PR. What we announced today is the product of this incredible collaboration, one that delivers tools to protect children, but also maintain Apple’s deep commitment to user privacy. 

We’ve seen many positive responses today. We know some people have misunderstandings, and more than a few are worried about the implications, but we will continue to explain and detail the features so people understand what we’ve built. And while a lot of hard work lays ahead to deliver the features in the next few months, I wanted to share this note that we received today from NCMEC. I found it incredibly motivating, and hope that you will as well.»

You bet Apple.

Μακάρι να είναι όπως τα λες, αλλά πραγματικά, επειδή είναι αρκετά σαφές το τι θα κάνουν (σε όποιον έχει μια στοιχειώδη κατάρτιση σε θέματα αλγορίθμων και CS γενικότερα) - που πραγματικά δεν γνωρίζω πως θα μπορούσε να καθησυχάσει τις δικές μου ανησυχίες - και όσων σκέφτονται σαν εμένα. Ενδεχομένως να ποντάρει στο ότι έχει ένα σκληροπυρηνικό κοινό που θα την ακολουθήσει no matter what. Δεκτόν, αν όμως ισχύει κάτι τέτοιο, εμένα με χάνει. Διότι μετά από αυτό πως θα την εμπιστευτώ για να αγοράσω το MBA που γλυκοκοιτάω;

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Super Moderators
8 minutes ago, DrFreeman said:

You bet Apple.

Μακάρι να είναι όπως τα λες, αλλά πραγματικά, επειδή είναι αρκετά σαφές το τι θα κάνουν (σε όποιον έχει μια στοιχειώδη κατάρτιση σε θέματα αλγορίθμων και CS γενικότερα) - που πραγματικά δεν γνωρίζω πως θα μπορούσε να καθησυχάσει τις δικές μου ανησυχίες - και όσων σκέφτονται σαν εμένα. Ενδεχομένως να ποντάρει στο ότι έχει ένα σκληροπυρηνικό κοινό που θα την ακολουθήσει no matter what. Δεκτόν, αν όμως ισχύει κάτι τέτοιο, εμένα με χάνει. Διότι μετά από αυτό πως θα την εμπιστευτώ για να αγοράσω το MBA που γλυκοκοιτάω;

«Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the unreadable set of known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines if there is a match without revealing the result. Private set intersection (PSI) allows Apple to learn if an image hash matches the known CSAM image hashes, without learning anything about image hashes that do not match. PSI also prevents the user from learning whether there was a match.»

Απο τη στιγμή που οι αρχικές τεχνικές εξηγήσεις απο την ίδια την Apple δεν σε καλύπτουν ή δεν τους πιστεύεις, δεν χρειάζεται να το αναλύσουμε περισσότερο. Ο καθένας μας κάνει παντα τις επιλογές που του ταιριάζουν περισσότερο. Εξάλλου αν το γενικεύσεις κι αλλο (που προσωπικά διαφωνώ με αυτη την ισοπέδωση), εδώ και χρόνια οι φωτογραφίες των χρηστών πάνε παντου μέσα απο τα permissions που οι ίδιοι δίνουν (μερικές φορες και χωρίς άδεια ίσως) σε διαφορα apps… 

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)
8 minutes ago, billdanos said:

«Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the unreadable set of known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines if there is a match without revealing the result. Private set intersection (PSI) allows Apple to learn if an image hash matches the known CSAM image hashes, without learning anything about image hashes that do not match. PSI also prevents the user from learning whether there was a match.»

Απο τη στιγμή που οι αρχικές τεχνικές εξηγήσεις απο την ίδια την Apple δεν σε καλύπτουν ή δεν τους πιστεύεις, δεν χρειάζεται να το αναλύσουμε περισσότερο. Ο καθένας μας κάνει παντα τις επιλογές που του ταιριάζουν περισσότερο. Εξάλλου αν το γενικεύσεις κι αλλο (που προσωπικά διαφωνώ με αυτη την ισοπέδωση), εδώ και χρόνια οι φωτογραφίες των χρηστών πάνε παντου μέσα απο τα permissions που οι ίδιοι δίνουν (μερικές φορες και χωρίς άδεια ίσως) σε διαφορα apps… 

Δεν κάνω αυτή την ισοπέδωση διότι είναι άλλο πράγμα. Προσωπικά δεν δημοσιεύω σε social media φωτό που δεν θέλω κι επιλέγω τι υλικό θα στείλω και που. Αλλο αυτό κι άλλο να έχει η Google τη δυνατότητα να με καταγγείλει στις αρχές (εν αγνοία μου) διότι κάποια φωτό που έχω ιδιωτικά αποθηκευμένη στο κινητό μου και μόνο δεν αρέσει στην ομάδα επίβλεψης που έχουν ορίσει για τον σχετικό έλεγχο.

Αν ο έλεγχος γινόταν μόνο στο iCloud ρητώς και κατηγορηματικώς δε θα είχα καμία ένσταση - απλώς δεν θα χρησιμοποιούσα το δικό τους και θα πήγαινα σε άλλο. Το θετικό της υπόθεσης (και το λέω με κάθε ειλικρίνεια), είναι πως τουλάχιστον το δηλώνουν ξεκάθαρα πως θα προβούν σε αυτές τις ενέργειες. Οπότε όποιος θέλει να ενημερωθεί, ενημερώνεται.

Επεξ/σία από DrFreeman
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

  • Super Moderators
13 minutes ago, DrFreeman said:

Δεν κάνω αυτή την ισοπέδωση διότι είναι άλλο πράγμα. Προσωπικά δεν δημοσιεύω σε social media φωτό που δεν θέλω κι επιλέγω τι υλικό θα στείλω και που. Αλλο αυτό κι άλλο να έχει η Google τη δυνατότητα να με καταγγείλει στις αρχές (εν αγνοία μου) διότι κάποια φωτό που έχω ιδιωτικά αποθηκευμένη στο κινητό μου και μόνο δεν αρέσει στην ομάδα επίβλεψης που έχουν ορίσει για τον σχετικό έλεγχο.

Αν ο έλεγχος γινόταν μόνο στο iCloud ρητώς και κατηγορηματικώς δε θα είχα καμία ένσταση - απλώς δεν θα χρησιμοποιούσα το δικό τους και θα πήγαινα σε άλλο. Το θετικό της υπόθεσης (και το λέω με κάθε ειλικρίνεια), είναι πως τουλάχιστον το δηλώνουν ξεκάθαρα πως θα προβούν σε αυτές τις ενέργειες. Οπότε όποιος θέλει να ενημερωθεί, ενημερώνεται.

Το matching όμως των φωτογραφιών θα γίνεται με μια βάση δεδομένων με εικόνες αγνοουμένων παιδιών κλπ και όχι με μια γενικότερη γυμνή (για παράδειγμα) φωτό με το παιδί σου στη μπανιέρα! Και αυτη η ταυτοποίηση δεν θα γίνεται οπτικά αλλά με άλλα στοιχεία των συγκεκριμένων φωτογραφιών. 

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

κατανοητο ότι δεν διαβάζει ο αλγόριθμος και δεν βλέπει εικόνες.

το ζήτημα είναι τι ποσοστό επιτυχίας έχει ο αλγόριθμος;

γιατί αν είναι έστω και 95% παλι θα πρέπει να παραβιάζονται τα δικαιώματα του 5% γιατί θα πρέπει να γίνεται έλεγχος...

  • Like 2
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

16 ώρες πριν, Dmspolys είπε

Είναι τόσο σοβαρό το θέμα που δεν θα έπρεπε καν να σκεφτόμαστε ιδιωτικότητα και χαζομάρες . 

Πολύ λάθος το σκέφτεσαι,  όποιος ειναι να έχει ότι φώτο έχει θα το έχει σε μια συσκευή χωρίς Apple services η Google services με firewall root κλπ κομμένη και ραμμένη στα μέτρα του

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

2 ώρες πριν, billdanos είπε

Το matching όμως των φωτογραφιών θα γίνεται με μια βάση δεδομένων με εικόνες αγνοουμένων παιδιών κλπ και όχι με μια γενικότερη γυμνή (για παράδειγμα) φωτό με το παιδί σου στη μπανιέρα! Και αυτη η ταυτοποίηση δεν θα γίνεται οπτικά αλλά με άλλα στοιχεία των συγκεκριμένων φωτογραφιών. 

Το πρόβλημα είναι τόσο μεγάλο που η ταυτοποίηση αγνοουμένων παιδιών αντιστοιχεί μόνο στο 3-5% της πραγματικότητας…

Δυστυχώς η apple είναι φάουλ και μάλιστα χωρίς καν δικαιολογία!!!!

  • Like 2
  • Thanks 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

 

1 ώρα πριν, The_Judas είπε

κατανοητο ότι δεν διαβάζει ο αλγόριθμος και δεν βλέπει εικόνες.

το ζήτημα είναι τι ποσοστό επιτυχίας έχει ο αλγόριθμος;

γιατί αν είναι έστω και 95% παλι θα πρέπει να παραβιάζονται τα δικαιώματα του 5% γιατί θα πρέπει να γίνεται έλεγχος...

Το δεν θα διαβάζει ο αλγόριθμος τις εικόνες είναι technicality. Στην πράξη τις έχει ήδη διαβάσει για να παράξει το εν λόγω hash που πιο πολύ με "thumbnail" μοιάζει παρά με hash.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

1 ώρα πριν, michael92 είπε

 

Το δεν θα διαβάζει ο αλγόριθμος τις εικόνες είναι technicality. Στην πράξη τις έχει ήδη διαβάσει για να παράξει το εν λόγω hash που πιο πολύ με "thumbnail" μοιάζει παρά με hash.

παλι τις ίδιες ασυναρτησίες? Αμα το πεις 50 φορες δεν το κανει λιγότερο λάθος 

  • Confused 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

5 ώρες πριν, DrFreeman είπε

Δεν κάνω αυτή την ισοπέδωση διότι είναι άλλο πράγμα. Προσωπικά δεν δημοσιεύω σε social media φωτό που δεν θέλω κι επιλέγω τι υλικό θα στείλω και που. Αλλο αυτό κι άλλο να έχει η Google τη δυνατότητα να με καταγγείλει στις αρχές (εν αγνοία μου) διότι κάποια φωτό που έχω ιδιωτικά αποθηκευμένη στο κινητό μου και μόνο δεν αρέσει στην ομάδα επίβλεψης που έχουν ορίσει για τον σχετικό έλεγχο.

Αν ο έλεγχος γινόταν μόνο στο iCloud ρητώς και κατηγορηματικώς δε θα είχα καμία ένσταση - απλώς δεν θα χρησιμοποιούσα το δικό τους και θα πήγαινα σε άλλο. Το θετικό της υπόθεσης (και το λέω με κάθε ειλικρίνεια), είναι πως τουλάχιστον το δηλώνουν ξεκάθαρα πως θα προβούν σε αυτές τις ενέργειες. Οπότε όποιος θέλει να ενημερωθεί, ενημερώνεται.

Από το https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf:

"
Before an image is stored in iCloud Photos, an on-device matching process is performed for that image against the known CSAM hashes. This matching process is powered by a cryptographic technology called private set intersection, which determines if there is a match without revealing the result. The device creates a cryptographic safety voucher that encodes the match result along with additional encrypted data about the image. This voucher is uploaded to iCloud Photos along with the image.
"

Συνεπώς όχι, αν κάποιος δεν χρησιμοποιεί το iCloud Photos, δεν "κινδυνεύει" (αντίστοιχα και αν δε χρησιμοποιεί iMessage, καθώς και εκεί παίζει ο έλεγχος των hashes). Τα hashes γίνονται uploaded μαζί με τις φωτό μόνο αν ο χρήστης ανεβάζει τις φωτο in the first place. Οπότε όποιος δεν εμπιστεύεται την Apple, έχει το google photos ή κάτι άλλο.

Επειδή λόγω δουλείας έχω διαβάσει (και ελπίζω κατανοήσει) το πώς λειτουργεί όλο το τεχνικό κομμάτι, ο μόνος κίνδυνος είναι το να πειραχτεί η βάση δεδομένων των εικόνων του input, προκειμένου να βρεθούν "αντίστοιχες". Με άλλα λόγια αν θέλουν να δουν αν έχεις μια φωτό του DiCaprio, να βάλουν στη βάση μια τέτοια. Το οποίο πιστεύω (αυτό δεν το έχω ψάξει, για τα δικηγορικά αλλού :p) ότι είναι transparent και ελέγχεται.

Επίσης επειδή αναφέρθηκε το ποσοστό λάθους, αυτό είναι once in a trillion, μαθηματικά αποδεδειγμένο και όχι α λα "the new A13 is 324% faster than A12" :)

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

 

11 λεπτά πριν, apostolisd είπε

Συνεπώς όχι, αν κάποιος δεν χρησιμοποιεί το iCloud Photos, δεν "κινδυνεύει"

Ούτε και εσύ διάβασες το άρθρο, έτσι;;;; Δεν μιλάει για φώτο μόνο στο cloud. Από την επίσημη ανακοίνωση:
 

Αναφορά σε κείμενο

 Instead of scanning images in the cloud, the system performs on-device matching using a database of known CSAM image hashes provided by NCMEC and other child safety organizations.

Το ίδιο ισχύει και για τα μνήματα: 

 

Αναφορά σε κείμενο

Messages uses on-device machine learning to analyze image attachments and determine if a photo is sexually explicit.

 

  • Like 1
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

18 λεπτά πριν, filip123go είπε

Ούτε και εσύ διάβασες το άρθρο, έτσι;;;; Δεν μιλάει για φώτο μόνο στο cloud. Από την επίσημη ανακοίνωση:
 

Το ίδιο ισχύει και για τα μνήματα: 

 

Φίλε μου ποιό άρθρο, σου λέω ότι διάβασα ολόκληρο το technical specification.

Ναι, το hash υπολογίζεται on device και για όλες τις φωτό. Γίνεται όμως upload (και ελέγχεται) μόνο όταν ο χρήστης χρησιμοποιεί iMessage ή ανεβάζει τις φωτό στο iCloud (το μυστικό για τον τελικό έλεγχο υπάρχει μόνο στους servers της apple in any case).

Είναι απίστευτο το πώς η έλλειψη κατανόησης σου δίνει το κουράγιο να κατηγορήσεις κάποιον που έχει αφιερώσει πολλαπλάσιο χρόνο προκειμένου να καταλάβει κάτι στην πληρότητά του και όχι απλά να μπει σε διαδικασία blaming χωρίς να ξέρει για τί μιλάει.

Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημοσ. (επεξεργασμένο)

Μα αυτό πουλάει η apple,ασφάλεια.Ετσι δεν το δικαιολογουσε πριν από ένα διάστημα;Πληρώστε παραπάνω,αλλά νιώστε ασφαλείς.Όλα closed source,πλήρης εξάρτηση και με απλά λόγια-η συσκευή του νοικοκυραίου.Καλοφάγωτα τώρα

Επεξ/σία από arkheon89
Συνδέστε για να σχολιάσετε
Κοινοποίηση σε άλλες σελίδες

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...