Το Facebook ζητά συγγνώμη για την ταξινόμηση των μαύρων ανδρών ως πρωτεύοντα θηλαστικά

Αυτό είναι ένα αυθεντικό άρθρο που γράφτηκε από τον BramvdnHeuvel.

Εκτιμώμενος χρόνος ανάγνωσης: 2 λεπτά.

Το Facebook ζητά συγγνώμη για την ταξινόμηση των μαύρων ανδρών ως πρωτεύοντα θηλαστικά

Οι τεχνητές νοημοσύνες μπορεί να έχουν φυλετικές προκαταλήψεις. Τα καυκάσια πρόσωπα έχουν 10 έως 100 φορές περισσότερες πιθανότητες να αναγνωριστούν και να ταυτοποιηθούν σωστά από ό,τι τα αφροαμερικανικά και τα ασιατικά πρόσωπα, γεγονός που έχει ήδη οδηγήσει σε άδικες κατηγορίες, συλλήψεις, ακόμη και φυλακίσεις επειδή μια τεχνητή νοημοσύνη δεν μπόρεσε να αντιστοιχίσει σωστά ένα μη λευκό πρόσωπο.

Πολλοί μαθητές το βίωσαν αυτό από πρώτο χέρι κατά τη διάρκεια της πανδημίας. Πολλές εταιρείες όπως η Proctorio έχουν σημειώσει μεγάλες επιτυχίες σε πανεπιστήμια και σχολεία, όπου οι καθηγητές καθοδηγούν τους μαθητές τους να εγκαταστήσουν λογισμικό που ελέγχει αν κάνουν ένα τεστ με ειλικρίνεια. Το λογισμικό ήταν πιο πιθανό να κατηγορήσει τους έγχρωμους για αντιγραφή, επειδή το λογισμικό δεν μπορούσε να αναγνωρίσει τα πρόσωπά τους. Τέτοια λογισμικά ελέγχου έχει αποδειχθεί ότι ενισχύουν τη λευκή υπεροχή, τον σεξισμό, τον ableism και την τρανσφοβία.

Το λάθος του Facebook

Η συγγνώμη του Facebook αφορούσε μαύρους άνδρες σε συμπλοκές με λευκούς πολίτες και αστυνομικούς, σύμφωνα με τους New York Times. Μια τεχνητή νοημοσύνη αναγνώρισης εικόνας ταξινόμησε τα κλιπ ως πλάνα από μαϊμούδες ή πρωτεύοντα θηλαστικά, παρόλο που τα βίντεο δεν είχαν καμία σχέση με κανένα από τα δύο.

Πώς συμβαίνει αυτό; Η προκατάληψη σε μια τεχνητή νοημοσύνη είναι συνήθως αποτέλεσμα ενός προκατειλημμένου συνόλου εκπαίδευσης. Όπως εξηγεί η Joy Buolamwini στην ομιλία της στο TED, όπου εξηγεί πώς το λογισμικό αναγνώρισης προσώπου δεν μπόρεσε να αναγνωρίσει το πρόσωπό της. Με τον ίδιο τρόπο, ένα σύνολο δεδομένων όπου πάνω από το 80% των προσώπων είναι λευκά μπορεί να δυσκολευτεί περισσότερο να αναγνωρίσει ανθρώπους με διαφορετικό χρώμα δέρματος και να καταφύγει στην ταξινόμηση αυτών των προσώπων ως κάτι που μοιάζει με άνθρωπο - όπως οι πίθηκοι και άλλα πρωτεύοντα θηλαστικά.

Ένα παρόμοιο σκάνδαλο με το πρόσφατο λάθος του Facebook παρατηρήθηκε το 2015, όταν η Google ταυτοποίησε λανθασμένα μαύρους ανθρώπους ως γορίλες στις φωτογραφίες Google. Ωστόσο, αντί να αλλάξει την τεχνητή νοημοσύνη, η Google Photos ξεφορτώθηκε λέξεις όπως "γορίλας", "χιμπατζής", "χιμπατζής" και "μαϊμού". Αν και αυτό σημαίνει ότι οι άνθρωποι δεν θα αναγνωρίζονται πλέον ως πίθηκοι στις φωτογραφίες Google Photos, υποδηλώνει ότι τα βασικά προβλήματα με την τεχνητή νοημοσύνη δεν έχουν διορθωθεί ακόμη.

Η φυλετική παραβατική συμπεριφορά του Facebook

Παρόλο που το λάθος της τεχνητής νοημοσύνης του Facebook προέρχεται από ένα υποκείμενο ζήτημα που παίζει σε κοινωνικό επίπεδο, το Facebook έχει ιστορικό καταχρήσεων, συχνά φυλετικών.

Παραδείγματα όπως αυτά αφήνουν πολλά περιθώρια να αναρωτηθεί κανείς πόσο ειλικρινά παίρνει το Facebook την αναντιστοιχία πρωτευόντων - και να αναρωτηθεί αν η συγγνώμη είναι απλώς μια ενέργεια δημοσίων σχέσεων για να αποφευχθεί περαιτέρω διαμάχη.

Τι μπορούμε να κάνουμε γι' αυτό;

Η αναγνώριση εικόνας είναι ένα πολύ χρήσιμο εργαλείο που μπορεί να μας βοηθήσει να βελτιώσουμε την καθημερινή μας ζωή, αλλά η καινοτομία δεν πρέπει να συνοδεύεται από διακρίσεις ή ενίσχυση της μισαλλοδοξίας. Η ταξινόμηση ενός ανθρώπου ως πιθήκου είναι τέτοιας ταπείνωσης και δεν είναι παρά προφανές ότι το Facebook ως εταιρεία θα πρέπει να θεωρηθεί υπεύθυνο.

Είναι ασήμαντο ότι ένας απλός αλγόριθμος μπορεί να οδηγήσει σε σημαντικές συνέπειες σε μια μεγάλη πλατφόρμα, και ως εκ τούτου οι αλγόριθμοι θα πρέπει να αντιμετωπίζονται με αυτόν τον τρόπο. Ένας αλγόριθμος αναγνώρισης προσώπων δεν θα έπρεπε να είναι απλώς κάτι που μπορείτε να ρίξετε σε εκατομμύρια ανθρώπους, και η κατηγοριοποίηση χιλιάδων ανθρώπων στο τμήμα των γορίλων είναι εξίσου απαράδεκτη με τη δημόσια καταγγελία αυτών των ανθρώπων ως πιθήκων.

Μην αφήσετε μια συγγνώμη να είναι αρκετή, ειδικά για μια εταιρεία με τέτοιο ιστορικό φυλετικών καταχρήσεων.