Η Apple ακυρώνει επίσημα τα σχέδιά της για σάρωση φωτογραφιών iCloud για υλικό κακοποίησης παιδιών

 Το σχέδιο του τεχνολογικού γίγαντα, το οποίο θα είχε εισαγάγει τολμηρές νέες δυνάμεις επιτήρησης στο iOS, τίθεται επίσημα.

Η Apple σκότωσε επίσημα μία από τις πιο αμφιλεγόμενες προτάσεις της: ένα σχέδιο για σάρωση εικόνων iCloud για ενδείξεις υλικού σεξουαλικής κακοποίησης παιδιών (ή CSAM).

Ναι, το περασμένο καλοκαίρι, η Apple ανακοίνωσε ότι θα λανσάρει τη σάρωση στη συσκευή — μια νέα δυνατότητα στο iOS που χρησιμοποίησε προηγμένη τεχνολογία για να κοσκινίζει αθόρυβα τις φωτογραφίες μεμονωμένων χρηστών για σημάδια κακού υλικού. Το νέο χαρακτηριστικό σχεδιάστηκε έτσι ώστε, σε περίπτωση που ο σαρωτής βρει στοιχεία για CSAM, να ειδοποιεί τους ανθρώπινους τεχνικούς, οι οποίοι στη συνέχεια θα ειδοποιούσαν πιθανώς την αστυνομία.

Το σχέδιο ενέπνευσε αμέσως μια καταρρακτώδη αντίδραση από τους ειδικούς σε θέματα ιδιωτικότητας και ασφάλειας, με τους επικριτές να υποστηρίζουν ότι η δυνατότητα σάρωσης θα μπορούσε τελικά να επανασχεδιαστεί για να αναζητήσει άλλου είδους περιεχόμενο. Ακόμη και η ύπαρξη τέτοιων δυνατοτήτων σάρωσης στο iOS ήταν μια ολισθηρή κατεύθυνση προς ευρύτερες καταχρήσεις παρακολούθησης, ισχυρίστηκαν οι επικριτές, και η γενική συναίνεση ήταν ότι το εργαλείο θα μπορούσε γρήγορα να γίνει κερκόπορτα για την αστυνομία.

Εκείνη την εποχή, η Apple πολέμησε σκληρά ενάντια σε αυτές τις επικρίσεις, αλλά η εταιρεία τελικά υποχώρησε και, λίγο μετά την αρχική ανακοίνωση της νέας δυνατότητας, είπε ότι θα «ανέβαλε» την εφαρμογή για μεταγενέστερη ημερομηνία.

Τώρα, φαίνεται ότι αυτή η ημερομηνία δεν θα έρθει ποτέ. Την Τετάρτη, εν μέσω ανακοινώσεων για μια σειρά νέων χαρακτηριστικών ασφαλείας iCloud, η εταιρεία αποκάλυψε επίσης ότι δεν θα προχωρήσει με τα σχέδιά της για σάρωση στη συσκευή. Σε μια δήλωση που κοινοποιήθηκε στο περιοδικό Wired, η Apple κατέστησε σαφές ότι είχε αποφασίσει να ακολουθήσει μια διαφορετική διαδρομή:

Μετά από εκτεταμένες διαβουλεύσεις με ειδικούς για τη συλλογή σχολίων σχετικά με τις πρωτοβουλίες παιδικής προστασίας που προτείναμε πέρυσι, εμβαθύνουμε την επένδυσή μας στη λειτουργία Ασφάλεια επικοινωνίας που διαθέσαμε για πρώτη φορά τον Δεκέμβριο του 2021. Αποφασίσαμε περαιτέρω να μην προχωρήσουμε στην ανίχνευση CSAM εργαλείο για iCloud Photos. Τα παιδιά μπορούν να προστατευτούν χωρίς οι εταιρείες να χτενίζουν τα προσωπικά δεδομένα και θα συνεχίσουμε να συνεργαζόμαστε με κυβερνήσεις, συνήγορες παιδιών και άλλες εταιρείες για να βοηθήσουμε στην προστασία των νέων, στη διατήρηση του δικαιώματός τους στην ιδιωτική ζωή και να κάνουμε το διαδίκτυο ασφαλέστερο μέρος για τα παιδιά και για όλους εμάς .

Τα σχέδια της Apple φαίνονταν καλοπροαίρετα. Η ψηφιακή εξάπλωση του CSAM είναι ένα σημαντικό πρόβλημα - και οι ειδικοί λένε ότι έχει επιδεινωθεί μόνο τα τελευταία χρόνια. Προφανώς, η προσπάθεια επίλυσης αυτού του προβλήματος ήταν θετική. Τούτου λεχθέντος, η υποκείμενη τεχνολογία που πρότεινε να χρησιμοποιηθεί η Apple - και οι κίνδυνοι επιτήρησης που εγκυμονούσε - φαίνεται ότι απλώς δεν ήταν το κατάλληλο εργαλείο για τη δουλειά.

Comments

Popular posts from this blog

Πώς να φροντίζετε τα ρούχα ενώ εξοικονομείτε κόστος πλυντηρίου

Πρίγκιπας Χάρι: Τα μέλη της βασιλικής οικογένειας δεν κατάλαβαν τον κίνδυνο ρατσιστικών επιθέσεων για τη Μέγκαν

Το Met Office επεκτείνει τις προειδοποιήσεις για πάγο και χιόνι σε μεγάλο μέρος του Ηνωμένου Βασιλείου