Ένα σφάλμα κατακερματισμού CSAM από την Google προσγειώνεται ένας γονέας σε πρόβλημα, δημιουργεί περισσότερες αμφιβολίες για την ανίχνευση CSAM της Apple

Οι New York Times αναφέρουν ότι ένα περιστατικό του Hashing CSAM από την Google οδήγησε σε νομικές ενέργειες εναντίον ενός αθώου γονέα ενός ασθενούς παιδιού το 2021, κατά τη διάρκεια του κλειδώματος Covid-19. Η υπόθεση αυτή έθεσε περισσότερες ερωτήσεις σχετικά με την αξιοπιστία και την ακρίβεια της δυνατότητας ανίχνευσης CSAM της Apple και του συστήματος κατακερματισμού.

Το υλικό σεξουαλικής κακοποίησης παιδιών (CSAM) χρησιμοποιείται από εγκληματίες για να καλύπτει τα μικρά παιδιά και να εξαπλωθεί σε απευθείας σύνδεση για σκοπούς παιδικής πορνογραφίας και διακίνησης σεξ. Για να αποφευχθεί η διάδοση του CSAM, οι εταιρείες τεχνολογίας χρησιμοποιούν ένα σύστημα νευρικού κατακερματισμού που σαρώνει τις φωτογραφίες των χρηστών για να εντοπίσει υλικό σεξουαλικής κακοποίησης παιδιών ενάντια στο Hashes που παρέχεται από το Εθνικό Κέντρο για τα Αλεξίσφαιρα και τα Εκμεταλλευόμενα Παιδιά (NCMEC) στις ΗΠΑ και να λάβουν τις απαραίτητες νομικές ενέργειες όταν εντοπίζεται το υλικό.

Η Google ξεκίνησε το Toolkit API AI AI AI το 2018 για τις υπηρεσίες της για να "προσδιορίσει προορατικά" ποτέ, να μην εμφανιστεί η εικόνα CSAM, ώστε να μπορεί να αναθεωρηθεί και, εάν επιβεβαιωθεί ως CSAM, να απομακρυνθεί και να αναφερθεί όσο το δυνατόν γρηγορότερα ". Όσο καλοπροαίρετα είναι το σύστημα, προσγειώθηκε ένας ενδιαφερόμενος γονέας σε ζεστό νερό με την επιβολή του νόμου για την απλή συμβουλή γιατρού, ένα πρόβλημα που προειδοποιούν οι υποστηρικτές της ιδιωτικής ζωής.

Το λανθασμένο Hashing CSAM της Google ενισχύει το επιχείρημα των εμπειρογνωμόνων κατά της τεχνολογίας ανίχνευσης της Apple

Σύμφωνα με την έκθεση, ο κατηγορούμενος γονέας Mark παρατήρησε διόγκωση στην περιοχή των γεννητικών οργάνων του γιου του και έβγαλε φωτογραφίες του γιου του μετά από το αίτημα της νοσοκόμας για διαβούλευση βίντεο με γιατρό επειδή τα γραφεία έκλεισαν τον Φεβρουάριο του 2021 λόγω της πανδημίας Covid-19.

Δύο ημέρες μετά τη λήψη των φωτογραφιών, ο Mark ενημερώθηκε από την Google ότι οι λογαριασμοί του είχαν κλειδωθεί για την αποθήκευση "επιβλαβών περιεχομένων" που παραβίαζαν τις πολιτικές της εταιρείας και μπορεί να είναι παράνομες. Ο αριθμός τηλεφώνου, οι επαφές, οι φωτογραφίες και τα μηνύματα ηλεκτρονικού ταχυδρομείου του Mark ήταν κλειδωμένα.

Παρόλο που ο Mark προσπάθησε να ασκήσει έφεση στην απόφαση, αναφέρθηκε στις αρχές και το αστυνομικό τμήμα του Σαν Φρανσίσκο ξεκίνησε έρευνα για να διερευνήσει το θέμα. ΌπωςΤα πόδια, "Η Google ανέφερε 621.583 περιπτώσεις CSAM στην CyberTipline του NCMEC, ενώ το NCMEC προειδοποίησε τις αρχές των 4.260 δυνητικών θυμάτων, έναν κατάλογο που λέει η NYT, ο γιος του Mark" το 2021.

Η δοκιμασία που ξεκίνησε με ένα λανθασμένο κατακερματισμό, έληξε όταν ο ερευνητής διαπίστωσε ότι ο Μάρκος ήταν αθώος και το περιστατικό «δεν πληρούσε τα στοιχεία ενός εγκλήματος και ότι δεν συνέβη κανένα έγκλημα». Αυτός είναι ακριβώς ο εφιάλτης για τους γονείς και τους άλλους χρήστες που έχουν προειδοποιήσει αρκετούς εμπειρογνώμονες για την προστασία της ιδιωτικής ζωής. Οι αθώες φωτογραφίες των παιδιών που παίζουν στην μπανιέρα, ή στην πισίνα μπορούν επίσης να χαστούμε με CSAM.

Διαβάστε περισσότερα:Το δίλημμα ανίχνευσης CSAM της Apple - Tech Giant εξηγεί γιατί έσβησε τα εργαλεία ανίχνευσης CSAM

Όταν η Apple ανακοίνωσε τη δυνατότητα ανίχνευσης CSAM, η οποία θα σαρώσει τις φωτογραφίες των χρηστών και θα τις συγκρίνει με υλικά σεξουαλικής κακοποίησης παιδιών που παρέχονται από το NCMEC πριν τα μεταφορτώσουν στο iCloud. Όταν το σύστημα κατακερματισμού φτάσει στο κατώφλι των 30 εικόνων, η εταιρεία θα παραπέμψει τον λογαριασμό για την επανεξέταση του ανθρώπου και θα αναλάβει ποινικές ενέργειες εάν απαιτείται.

Ωστόσο, ένας προγραμματιστής Reverse-Engineed IOS IOS 14.3 ενημέρωση για τη συγκομιδή του συστήματος ανίχνευσης και υπογράμμισε ότι το σύστημα κατακερματισμού ήταν λανθασμένο. Μετά από αντίδραση από δημοσιογράφους, εμπειρογνώμονες ασφαλείας και άλλους, η Apple καθυστέρησε το χαρακτηριστικό προς το παρόν.