Jump to content



  • astrolabos
    astrolabos

    Η Apple παρέχει περισσότερες διευκρινίσεις σχετικά με το γιατί εγκατέλειψε το σχέδιο ανίχνευσης CSAM σε φωτογραφίες στο iCloud

      Τελικά επικράτησαν οι ανησυχίες για ευρύτερη παραβίαση της ιδιωτικότητας των χρηστών

    Η δήλωση της Apple, που κοινοποιήθηκε στο Wired και αναπαράγεται παρακάτω, ήρθε ως απάντηση στην απαίτηση της ομάδας Heat Initiative για την ασφάλεια των παιδιών να "ανιχνεύσει, να αναφέρει και να αφαιρέσει" CSAM (Child sexual abuse material) από το iCloud και να προσφέρει περισσότερα εργαλεία στους χρήστες για να αναφέρουν τέτοιο περιεχόμενο στην εταιρεία.

     

    "Το υλικό σεξουαλικής κακοποίησης παιδιών είναι αποτρόπαιο και δεσμευόμαστε να σπάσουμε την αλυσίδα του εξαναγκασμού και της επιρροής που κάνει τα παιδιά ευάλωτα σε αυτό", έγραψε ο Erik Neuenschwander, διευθυντής της Apple για το απόρρητο των χρηστών και την ασφάλεια των παιδιών, στην απάντηση της εταιρείας στη Heat Initiative. Πρόσθεσε, ωστόσο, ότι μετά από συνεργασία με μια σειρά από ερευνητές που ασχολούνται με την προστασία της ιδιωτικής ζωής και την ασφάλεια, ομάδες για τα ψηφιακά δικαιώματα και υποστηρικτές της ασφάλειας των παιδιών, η εταιρεία κατέληξε στο συμπέρασμα ότι δεν μπορεί να προχωρήσει στην ανάπτυξη ενός μηχανισμού σάρωσης CSAM, ακόμη και ενός μηχανισμού που έχει κατασκευαστεί ειδικά για τη διατήρηση της ιδιωτικής ζωής.

    "Η σάρωση των ιδιωτικά αποθηκευμένων δεδομένων iCloud κάθε χρήστη θα δημιουργούσε νέους φορείς απειλής για να βρουν και να εκμεταλλευτούν οι κλέφτες δεδομένων", έγραψε ο Neuenschwander. "Θα εισήγαγε επίσης το ενδεχόμενο για μια ολισθηρή πορεία με ακούσιες συνέπειες. Η σάρωση για έναν τύπο περιεχομένου, για παράδειγμα, ανοίγει την πόρτα για μαζική επιτήρηση και θα μπορούσε να δημιουργήσει την επιθυμία αναζήτησης άλλων συστημάτων κρυπτογραφημένων μηνυμάτων σε όλους τους τύπους περιεχομένου".

    Τον Αύγουστο του 2021, η Apple ανακοίνωσε σχέδια για τρία νέα χαρακτηριστικά ασφαλείας για παιδιά, συμπεριλαμβανομένου ενός συστήματος για τον εντοπισμό γνωστών εικόνων CSAM που είναι αποθηκευμένες στις φωτογραφίες iCloud, μιας επιλογής Ασφάλειας Επικοινωνίας που θολώνει τις φωτογραφίες σεξουαλικού περιεχομένου στην εφαρμογή Μηνύματα και πόρων εκμετάλλευσης παιδιών για τη Siri. Το Communication Safety ξεκίνησε στις ΗΠΑ με το iOS 15.2 τον Δεκέμβριο του 2021 και έκτοτε επεκτάθηκε στο Ηνωμένο Βασίλειο, τον Καναδά, την Αυστραλία και τη Νέα Ζηλανδία, ενώ οι πόροι του Siri είναι επίσης διαθέσιμοι, αλλά η ανίχνευση CSAM δεν κατέληξε ποτέ να ξεκινήσει.

     

    Η Apple δήλωσε αρχικά ότι η ανίχνευση CSAM θα εφαρμοζόταν σε μια ενημερωμένη έκδοση του iOS 15 και του iPadOS 15 μέχρι το τέλος του 2021, αλλά η εταιρεία ανέβαλε τη λειτουργία με βάση τα "σχόλια από πελάτες, ομάδες υπεράσπισης, ερευνητές και άλλους". Τα σχέδια επικρίθηκαν από ένα ευρύ φάσμα ατόμων και οργανισμών, όπως ερευνητές ασφαλείας, το Electronic Frontier Foundation (EFF), πολιτικοί, ομάδες πολιτικής, πανεπιστημιακοί ερευνητές, ακόμη και ορισμένοι υπάλληλοι της Apple.

     

    Η τελευταία απάντηση της Apple στο θέμα αυτό έρχεται σε μια εποχή που η συζήτηση για την κρυπτογράφηση έχει αναζωπυρωθεί από την κυβέρνηση του Ηνωμένου Βασιλείου, η οποία εξετάζει σχέδια τροποποίησης της νομοθεσίας για την επιτήρηση που θα απαιτούσε από τις εταιρείες τεχνολογίας να απενεργοποιούν χαρακτηριστικά ασφαλείας, όπως η κρυπτογράφηση από άκρο σε άκρο, χωρίς να ενημερώνουν το κοινό.

     

    Η Apple λέει ότι θα αποσύρει υπηρεσίες όπως το FaceTime και το iMessage στο Ηνωμένο Βασίλειο, αν η νομοθεσία περάσει στην παρούσα μορφή της.


    Πηγή
    Φωτογραφία: macrumors.com
×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.