Η ανακοίνωση της Apple για ένα νέο σχέδιο αυτόματης σάρωσης φωτογραφιών των χρηστών στο iCloud με στόχο την καταπολέμηση της σεξουαλικής κακοποίησης έχει προκαλέσει έντονες ανησυχίες σχετικά με την αξιοποίησή του για σκοπούς μαζικής επιτήρησης. Το προτεινόμενο σύστημα “CSAM” της Apple δεν είναι τόσο διαφορετικό από τα συστήματα αναγνώρισης εικόνας που χρησιμοποιούνται για πάνα από μία δεκαετία από άλλους μεγάλους παρόχους αποθήκευσης cloud, ωστόσο όσον αφορά την ιδιωτικότητα των χρηστών φαίνεται να διευκολύνει τις αμερικανικές υπηρεσίες επιβολής του νόμου να ζητήσουν αυτές τις φωτογραφίες από την εταιρεία, ανοίγοντας ίσως τον δρόμο για την μαζική παρακολούθηση των ανθρώπων.
- Πώς θα λειτουργεί το σύστημα της Apple;
Υπάρχουν τρία βασικά στοιχεία στο σύστημα, τα οποία αναμένεται να επηρεάσουν τα λογισμικά της Apple που περιλαμβάνουν το iCloud.
1.Σκανάρισμα των φωτογραφιών
Το σύστημα της Apple θα σαρώνει όλες τις φωτογραφίες που είναι αποθηκευμένες στο iCloud για να διαπιστώσει εάν ταιριάζουν με τη βάση δεδομένων που διατηρεί το Εθνικό Κέντρο για τα Αγνοούμενα και Εκμεταλλευόμενα Παιδιά (NCMEC). Οι φωτογραφίες θα σαρώνονται στη συσκευή χρησιμοποιώντας μια βάση δεδομένων με γνωστούς κατακερματισμούς εικόνων (“hashes”) που παρέχονται από το NCMEC και άλλους οργανισμούς ασφάλειας παιδιών. Η Apple έπειτα θα μετατρέπει αυτή τη βάση δεδομένων σε ένα μη αναγνώσιμο σύνολο κατακερματισμών, το οποίο θα αποθηκεύεται με ασφάλεια στις συσκευές των ίδιων των χρηστών. Έπετα, ξεκινάει η διαδικασία αντιστοίχισης. Σε περίπτωση που ένας λογαριασμός Apple ξεπεράσει το όριο πολλαπλών εμφανίσεων γνωστού περιεχομένου της βάσης CSAM, ένα παιδί δηλαδή εμφανίζεται σε πολλές φωτογραφίες ή μέρη τα οποία έχει επισκεφτεί ο χρήστης, ειδοποιείται αυτόματα η Apple και τα δεδομένα ελέγχονται χειροκίνητα (μη αυτοματοποιημένα), ενώ ο λογαριασμός του χρήστη απενεργοποιείται και ενημερώνεται το NCMEC.
Το σύστημα αυτό δεν έχει τελειοποιηθεί, με την εταιρεία να αναφέρει ότι υπάρχει λιγότερο από ένα στο ένα τρισεκατομμύριο πιθανότητα να επισημανθεί εσφαλμένα ένας λογαριασμός. Ωστόσο, οι χρήστες που πιστεύουν ότι έχουν επισημανθεί κατά λάθος μπορούν να προσφύγουν κατά της Εταιρείας.
2. Σκανάρισμα των μηνυμάτων
Το σύστημα της Apple χρησιμοποιεί αλγορίθμους μηχανικής μάθησης στις συσκευές για να σαρώνει τις φωτογραφίες στα μηνύματα που αποστέλλονται ή λαμβάνονται από ανηλίκους για σεξουαλικό υλικό, προειδοποιώντας τους γονείς στην περίπτωση που εντοπιστούν τέτοιες εικόνες. Οι γονείς μπορούν να ενεργοποιήσουν ή να απενεργοποιήσουν το σύστημα και κάθε τέτοιο περιεχόμενο που λαμβάνει ένα παιδί θα είναι θολό. Επιπρόσθετα, εάν ένα παιδί επιχειρήσει να στείλει μήνυμα σεξουαλικού περιεχομένου, θα ειδοποιηθούν άμεσα οι γονείς. Η Apple δηλώνει ότι δεν διαθέτει πρόσβαση στις φωτογραφίες που σαρώνονται στη συσκευή του παιδιού.
3. Παρακολούθηση των αναζητήσεων
Το τρίτο μέρος αποτελείται από ενημερώσεις στο Siri και την Αναζήτηση της Apple. Η Εταιρεία αναφέρει ότι οι λειτουργίες αυτές θα παρέχουν στους γονείς και τα παιδιά διευρυμένες πληροφορίες και βοήθεια εάν αντιμετωπίσουν μη ασφαλείς καταστάσεις. Το Siri και η Αναζήτηση Apple θα παρεμβαίνουν επίσης όταν οι χρήστες κάνουν ερωτήματα αναζήτησης που σχετίζονται με τη βάση δεδομένων CSAM, εξηγώντας ότι το ενδιαφέρον για αυτό το θέμα είναι προβληματικό.
- Οι φόβοι που ενισχύθηκαν με την ανακοίνωση της Apple
Ένας προβληματισμός που οξύνθηκε μετά την ανακοίνωση αφορά την πίεση που θα μπορούσαν να ασκήσουν οι αμερικανικές αρχές επιβολής του νόμου στην εταιρεία, χρησιμοποιώντας ως λόγο άρσης του απορρήτου των φωτογραφιών των χρηστών τις έρευνες για άσεμνες φωτογραφίες. Η Apple δημοσίευσε ωστόσο μια ειδοποίηση στην ιστοσελίδα της δηλώνοντας πως θα απορρίψει κάθε κυβερνητική απαίτηση για μαζική παρακολούθηση, ότι δεν θα αποκρυπτογραφεί τα μηνύματα και ότι η κρυπτογράφηση από άκρο σε άκρο (end-to-end encryption) σε συσκευές θα εξακολουθεί να είναι πλήρως λειτουργική. Επιπλέον, επεσήμανε οι σαρώσεις CSAM θα μπορούν να απενεργοποιηθούν ολοκληρωτικά, απενεργοποιώντας τις Φωτογραφίες iCloud, ενώ επαλήθευσε το γεγονός ότι δεν θα σαρώνει συλλογές φωτογραφιών που έχουν αποθηκευτεί τοπικά στη συσκευή και δεν έχουν επιλεγεί για μεταφόρτωση στο iCloud. Ωστόσο, η δήλωση αυτή δεν ασχολήθηκε άμεσα με το ζήτημα των πιθανών αιτημάτων επιβολής του νόμου για πρόσβαση σε αρχεία μέσω CSAM σε μεμονωμένες έρευνες.
Επιπρόσθετα, μέσω των αλγορίθμων που αξιοποιούνται ελλοχεύει ο κίνδυνος δημιουργίας άλλων, διαφορετικών βάσεων προσώπων, στις οποίες να περιλαμβάνονται για παράδειγμα πολιτικοί διαδηλωτές. Ως προς τους φόβους αυτούς, η Apple απάντησε πως το σύστημα λειτουργεί μόνο με εικόνες που παρέχονται από το σύστημα του NCMC, ενώ δεν θα υπάρχει η δυνατότητα να προστεθούν χειροκίνητα νέα δεδομένα στις βάσεις.
Από τα παραπάνω γίνεται φανερό πως με ένα τέτοιο σύστημα σάρωσης φωτογραφιών και μηνυμάτων, η προστασία των προσωπικών δεδομένων των χρηστών πλέον δέχεται ισχυρό πλήγμα. Θα μπορούσε να πει κανείς πως η Apple βρίσκεται σε επικίνδυνα μονοπάτια που οδηγούν σε μια ατέρμονη επέμβαση στην ιδιωτικότητα των χρηστών, μέσω των συστημάτων της, που θα μπορούσαν εύκολα να καταχραστούν ορισμένα κράτη για σκοπούς μαζικού ελέγχου και επιβολής του νόμου.
Όπως ανέφερε και ο Edward Snowden σε μία ανάρτησή του στο Tweeter «Ανεξάρτητα από τις καλές προθέσεις της, η Apple πραγματοποιεί μαζική παρακολούθηση σε ολόκληρο τον κόσμο με αυτό το σύστημα. Να είστε βέβαιοι: εάν μπορούν να σαρώσουν τις φωτογραφίες των παιδιών σήμερα, μπορούν να σαρώσουν οτιδήποτε αύριο».
Κοινοποιήστε αυτό το άρθρο
