Ο κολοσσός της τεχνολογίας απέλυσε ερευνήτρια επειδή διαπίστωσε αδυναμίες στον τρόπο που η τεχνητή νοημοσύνη «διδάσκεται» από κείμενα με ρατσιστικές αναφορές, fake news και θεωρίες συνωμοσίας.
Ηαπόφαση της Google να απολύσει την Timnit Gebru, μια πολλά υποσχόμενη ερευνήτρια Τεχνητής Νοημοσύνης που ήταν γνωστή για την δουλειά της στους αλγορίθμους αναγνώρισης προσώπου, έχει ξεσηκώσει την αντίδραση ερευνητών και εργαζομένων. Η σύγκρουση αυτή μεταξύ Google και Gebru έχει προκαλέσει μεγάλο προβληματισμό στην επιστημονική κοινότητα σχετικά με τα ερωτήματα της ηθικής στην έρευνα που διεξάγεται από τις μεγάλες τεχνολογικές εταιρείες.
Η Timnit Gebru, που αποτελεί μια από τις ελάχιστες μαύρες γυναίκες με υψηλό κύρος στον τομέα της και ήταν συνεπικεφαλής του τομέα Ηθικής για την Τεχνητή Νοημοσύνη, ανέφερε στο Twitter πως απολύθηκε από την εταιρεία εξαιτίας μιας ακαδημαϊκής έρευνας την οποία συνυπέγραφε, και δεν δεχόταν να αφαιρεθεί το όνομα της αν και δέχθηκε πιέσεις από την εταιρεία. Μετά από όλα αυτά, είχε στείλει και εσωτερικό mail κατηγορώντας την Google πως «δεν θέλει να ακούγονται οι περιθωριοποιημένες φωνές».
Ο επικεφαλής του τομέα AI στη Google, Τζεν Ντιν με email του προς τους υπαλλήλους ανέφερε πως η έρευνα της Gebru άφηνε εκτός σημαντικές πληροφορίες και δεν ακολούθησε την διαδικασία της εταιρείας για να καταθέσει δουλειά της ώστε να δημοσιευτεί εκτός της εταιρείας. Από την πλευρά όσων βρίσκονται στο πλευρό της Timnit Gebru, με ανοιχτή επιστολή περισσότερων από 4.500 ανθρώπων, συμπεριλαμβανομένου των ερευνητών της DeepMind και Βρετανών ακαδημαϊκών ζητούν μεγαλύτερη διαφάνεια στην υπόθεση.
Μέλη της ομάδας της Gemru στη Google έστειλαν και δεύτερη ανοιχτή επιστολή μέσα στην εβδομάδα που αμφισβητεί την απόφαση της εταιρείας για την απόλυση της ερευνήτριας και αναφέρουν πως η ερευνήτρια απολύθηκε εξαιτίας της ανοιχτής κριτικής που άσκησε προς τον τεχνολογικό κολοσσό για τις εργασιακές συνθήκες για τους έγχρωμους εργαζόμενους της εταιρείας.
Οι κολοσσοί της τεχνολογίας όπως η Google έχουν επενδύσει πολλά στην Τεχνητή Νοημοσύνη από τις αρχές της χιλιετίας όταν και οι ερευνητές ανακάλυψαν πως μπορούν να κάνουν την αναγνώριση λόγου και εικόνας με μεγαλύτερη ακρίβεια χρησιμοποιώντας την τεχνική «machine learning».
Η Microsoft ανακοίνωσε πως θα εκδώσει ένα νέο σύστημα το GPT-3 που δημιουργήθηκε από το ανεξάρτητο εργαστήριο OpenAI, που το χρησιμοποιούν επιχειρηματίες για να γράφουν αυτοματοποιημένα email και διαφημιστικά κείμενα. Αυτές οι εξελίξεις έχουν ωθήσει τους ερευνητές να αναζητήσουν τα όρια και τις πιθανές κοινωνικές επιπτώσεις που μπορεί να έχει αυτή η νέα τεχνολογία.
Οι προβληματισμοί της έρευνας
Η έρευνα δεν επιτίθεται στην Google ούτε στην τεχνολογία, αλλά εξετάζει προηγούμενα αποτελέσματα για τους περιορισμούς των συστημάτων Τεχνητής Νοημοσύνης που αναλύουν και παράγουν κείμενα. Παράλληλα, αναφέρει τρόπους που θα μπορούσαν οι ερευνητές Τεχνητής Νοημοσύνης να είναι πιο προσεκτικοί με την τεχνολογία, συμπεριλαμβανομένης και της καλύτερης καταγραφής των δεδομένων που χρησιμοποιούνται για να δημιουργηθούν τέτοια συστήματα.
Στην έρευνα που δημοσιοποιήθηκε, υπογραμμίζεται πως πρέπει να υπάρξουν πιο ισχυρές δικλείδες ασφαλείας για την Τεχνητή Νοημοσύνη και μεγαλύτερος προβληματισμό για τα πιθανά ρίσκα που μπορεί να έχει αυτή η τεχνολογία στο μέλλον. Συγκεκριμένα, η έρευνα προειδοποιεί πως μεγάλα μοντέλα γλώσσας που συγκεντρώνουν δισεκατομμύρια προτάσεις από το ίντερνετ και χρησιμοποιούνται για να μάθουν οι μηχανές να μιλούν και να γράφουν όπως οι άνθρωποι χρειάζονται περισσότερες ρυθμίσεις ασφαλείας ώστε να μην συνεχιστεί η αναπαραγωγή ρατσιστικού ή σεξιστικού λόγου που μπορεί να προσλάβουν οι αλγόριθμοι κατά τη διάρκεια της συλλογής μεγάλων κειμένων από το διαδίκτυο. Σημειώνεται επίσης πως η Τεχνητή Νοημοσύνη μπορεί να μιμηθεί επίσης τις διαδικτυακές θεωρίες συνωμοσίας.
Αναγνωρίζεται ωστόσο πως έχουν γίνει προσπάθειες για να αφαιρεθούν τέτοιες προκαταλήψεις, όμως επισημαίνεται ότι επειδή οι αλγόριθμοι δεν είναι πλήρως κατανοητοί από τους δημιουργούς τους είναι αδύνατο να εξασφαλιστεί ότι δεν θα υπάρχουν σφάλματα.
Η έρευνα επίσης σημειώνει και το περιβαλλοντικό κόστος που θα υπάρξει από την διαχείριση τεράστιων data center που έχουν τεράστιες ενεργειακές ανάγκες για να εκπαιδεύσουν τους αλγόριθμους. Όπως αναφέρεται, η εκμάθηση ενός τόσο μεγάλου μοντέλου επικοινωνίας μπορεί να καταναλώσει τόση ενέργεια όσο ένα αυτοκίνητο από την ημέρα παραγωγής του μέχρι να αποσυρθεί τελείως
Με την αμφισβήτηση της τεχνολογίας, η Gebru και οι συνάδελφοι της προτείνουν πως το BERT, μια από τις πιο υποσχόμενες και αναμενόμενες εφευρέσεις της Google είναι ελαττωματική και έδειχνε τους περιορισμούς που έχει. Το BERT είναι το πρόγραμμα εκμάθησης γλώσσας της Google που χρησιμοποιείται σε κάθε αναζήτηση που γίνεται στην Google στα αγγλικά. Τα στοιχεία έδειξαν πως το BERT τείνει να συγχέει φράσεις που παραπέμπουν σε αναπηρίες με τον αρνητικό λόγο.
Όταν ο τεχνολογικός κολοσσός ξεκίνησε να χρησιμοποιεί το BERT στην μηχανή αναζήτησης, από την περασμένη χρονιά, τα υψηλόβαθμα στελέχη είχαν αναφέρει πως «αποτελεί ένα μεγάλο βήμα» για τα αποτελέσματα στις μηχανές αναζήτησης.
Στο “mute” βάζει τις αντίθετες φωνές η Google
Η Gebru δεν είναι η πρώτη εργαζόμενη που απολύεται μετά από κριτική προς την Google. Κι άλλοι ακτιβιστές εντός της εταιρείας έχουν παραιτηθεί ή έχουν απολυθεί έπειτα από δημόσιες διαφωνίες με την Google και τον Αύγουστο η Gebru είχε αντιδράσει επειδή είχε δεχθεί κριτική από συναδέλφους και στελέχη για τον ακτιβισμό της.
Η Google είναι εξαιρετικά προσεκτική όσο αφορά την εικόνα της. Ακόμα και αν έχει αφήσει εδώ και χρόνο το ρητό «Μην είσαι κακός», το αίσθημα αυτό μετράει ακόμα για πολλούς υπαλλήλους που βλέπουν ακόμα την Google σαν μια εταιρεία που θέλει να δίνει χρήσιμα και βοηθητικά εργαλεία που θα κάνουν καλύτερες τις ζωές δισεκατομμυρίων ανθρώπων. Επίσης η Τεχνητή Νοημοσύνη είναι βασικός πυρήνας της ταυτότητας του τεχνολογικού κολοσσού, με επιστήμονες και εργαζόμενους της εταιρείας να την βλέπουν ως απαραίτητη για το μέλλον.
Είναι επίσης αδιαμφισβήτητο πως η δουλειά της Google και της μητρικής της Alphabet, στην Τεχνητή Νοημοσύνη έχει οδηγήσει σε μεγάλα κέρδη για την κοινωνία, από την μετάφραση κειμένων μέχρι ανακαλύψεις στην ιατρική επιστήμη. Όμως ενώ η πίστη στα όσα υπόσχεται η τεχνολογία είναι βασική για την Google, η έρευνα της Gebru είναι πολύ λιγότερο αισιόδοξη, τονίζοντας πως υπάρχουν προβλήματα που είναι σοβαρά ώστε να επιβραδύνουν ή ακόμα και να οδηγήσουν στην αναθεώρηση σκέψεων για το πώς θα αναπτυχθεί η Τεχνητή Νοημοσύνη.
Ακόμα και αν η έρευνα καθαυτή δεν είναι αυτή που οδήγησε την Gebru στην απόλυση, είναι εύκολο να δει κανείς πώς αυτή η άποψη μπορεί να προκάλεσε προβληματισμό στα υψηλά κλιμάκια του τεχνολογικού κολοσσού. Τα αποτελέσματα δείχνουν πως ακόμα και εντός της Google υπάρχει έντονη η συζήτηση, όπως και στην κοινωνία, για τα κέρδη αλλά και τους κινδύνους της τεχνολογίας. Μια συζήτηση που δεν πρόκειται να λήξει σύντομα.
Η Julien Cornebise του University College London που είχε δει προσχέδιο της έρευνας είχε αναφέρει πως πρόκειται για «μια εξαιρετική δουλειά όπου έχει πραγματοποιηθεί πολύ έρευνα» και προσθέτει πως «δεν μπορώ να πιστέψω πως μια τέτοια έρευνα θα μπορούσε να προκαλέσει αναστάτωση σε οποιοδήποτε εργαστήριο, πολύ περισσότερο το να οδηγήσει στην απόλυση κάποιου επειδή την έκανε».