Οι περισσότεροι από εμάς δεν μπορούμε να κατανοήσουμε ούτε το νόημα των φράσεων «ηθική της Τεχνητής Νοημοσύνης (Τ.Ν.)» και «αλγοριθμικές μεροληψίες», αλλά ούτε και τον τρόπο με τον οποίο μπορεί να συνδέονται αυτά τα δύο. Πολλοί δυσκολεύονται να καταλάβουν γιατί πρέπει να είναι ψηλά στις προτεραιότητες των ενδιαφερόντων μας τέτοια πράγματα. Εδώ έχουμε πανδημίες, προβλήματα με τους γείτονές μας, με την ηθική της Τ.Ν. θα ασχολούμαστε;
Ας πάμε ένα βήμα πίσω. Τις τελευταίες δεκαετίες, οι τεχνολογικές εξελίξεις σχετίζονται με την αυτοματοποίηση. Οταν μπαίνουμε σ’ ένα αεροπλάνο γνωρίζουμε ότι η πτήση μας μπαίνει στον αυτόματο πιλότο, ενώ έχουμε όλοι δει σε ρεπορτάζ κάποια ρομπότ σε βιομηχανικές εγκαταστάσεις να εκτελούν αυτοματοποιημένες εργασίες. Η τάση είναι ξεκάθαρη, αν και όχι τόσο οφθαλμοφανής: δημιουργούμε μηχανές που μας απαλλάσσουν από εργασίες, κάνοντάς τις πιο αποδοτικές, πιο ελεγχόμενες κι ίσως πιο ασφαλείς. Η Τ.Ν., αλλά και το παρακλάδι της, η μηχανική μάθηση (Μ.Μ.), είναι το κύριο πεδίο της αυτοματοποίησης. Με απλά λόγια, η Τ.Ν. είναι ένα σύστημα το οποίο επεξεργάζεται δεδομένα, μέσω μεταβλητών κι εντολών, κι έχει στόχο την εξαγωγή ενός σταθερά προβλέψιμου αποτελέσματος. Αυτά που βλέπουμε στο Facebook είναι το αποτέλεσμα μιας τέτοιας νοημοσύνης.
Οι μεγάλες επενδύσεις που θα γίνουν το επόμενο διάστημα παγκοσμίως στην Τ.Ν. και στη Μ.Μ. θα αυτοματοποιήσουν καθετί που μπορεί να αυτοματοποιηθεί και θα απελευθερώσουν τον άνθρωπο από τα δεσμά της εργασίας και το άγχος της περιπλοκότητας. Αυτή είναι η θετική πλευρά και δεν είναι καθόλου αμελητέα. Προσδεθείτε, μιλάμε για μια τεράστια επανάσταση. Απ’ την άλλη, η πιο γνωστή αρνητική πλευρά έχει να κάνει με την απώλεια των θέσεων εργασίας που αναπόφευκτα θα επέλθει.
Πιστεύουμε, ως το έξυπνο ανθρώπινο ον που είναι ο καθένας μας, ότι οι αποφάσεις μας είναι προϊόντα συνειδητής σκέψης. Είναι όμως έτσι;
Το κόστος που θα χρειαστεί να πληρώσουν οι κοινωνίες είναι ακόμα αχαρτογράφητο πεδίο. Αλλά μια εξίσου σοβαρή συνέπεια είναι η ίδια η φύση των αποτελεσμάτων που προσδοκούμε από τα συστήματα της Τ.Ν., καθώς η αυτοματοποίηση –ιδίως εκείνη των ανθρώπινων αποφάσεων– δεν είναι κάτι απλό, ούτε ουδέτερο. Μπορεί στην πορεία να κάνουμε μεγάλα λάθη, υπονομεύοντας καθετί που κατακτήσαμε με κόπους αιώνων. Εδώ, λοιπόν, έρχεται να μας βοηθήσει η φιλοσοφία.
Η ηθική της Τ.Ν. απασχολεί τους επιστήμονες από την αρχή της εξερεύνησης του πεδίου. Σταδιακά, αρχίζει να απασχολεί ολοένα και περισσότερους, καθώς αυτοματοποιημένες διαδικασίες λήψης αποφάσεων χρησιμοποιούνται σε νευραλγικούς τομείς της κοινωνίας και της οικονομίας, τόσο από ιδιωτικούς όσο και από δημόσιους οργανισμούς.
Πώς θα νιώθατε αν ένας αλγόριθμος σας έφραζε τον δρόμο για ένα δάνειο ή για μια θέση εργασίας; Πώς θα νιώθατε αν ένας αλγόριθμος διάβαζε λάθος την πινακίδα του STOP την ώρα που βρίσκεστε στο αυτοκινούμενο όχημά σας; Ή αν παραποιηθούν ξαφνικά τα δεδομένα του ιατρικού σας ιστορικού την ώρα που ετοιμάζεστε για ένα σοβαρό χειρουργείο; Η ηθική διάσταση της Τ.Ν., το αν δηλαδή θέλει το καλό μας, αν είναι σωστή ή αν μεροληπτεί υπέρ ή εναντίον μας, αλλά και η ασφάλεια, η διαφάνεια, η ιδιωτικότητα, όσο και η εξηγησιμότητα των αποφάσεών της, είναι κάτι που τα επόμενα χρόνια θα μας αφορά όλους. Πώς θα διασφαλίσουμε όμως ότι η Τ.Ν. θα είναι υπεύθυνη; Πρέπει πρώτα να καταλάβουμε για τί πράγμα μιλάμε.
Η εξέλιξη και ο ανθρώπινος εγκέφαλος
Ας πάμε ακόμη ένα βήμα πίσω. Οπως έχει δείξει ο κάτοχος του Νομπέλ Οικονομίας Ντάνιελ Κάνεμαν στο διαυγές έργο του «Σκέψη, αργή και γρήγορη» (μτφρ. Βασιλική Παπαδοπούλου, εκδ. Κάτοπτρο, 2013), είμαστε βαθύτατα μεροληπτικά όντα, διχασμένα ανάμεσα σ’ έναν εαυτό που σκέφτεται γρήγορα κι αυτόματα και σ’ έναν εαυτό που σκέφτεται αργά κατόπιν μεγάλης προσπάθειας. Πιστεύουμε, ως το έξυπνο ανθρώπινο ον που είναι ο καθένας μας, ότι οι αποφάσεις μας είναι προϊόντα συνειδητής σκέψης. Όμως οι συλλογισμοί μας είναι ευάλωτοι σε μια σειρά μεροληψιών, οι οποίες αλλοιώνουν την κρίση μας αποφασιστικά, ενώ την ίδια στιγμή αγνοούμε την άγνοιά μας. Είναι αδυναμίες που έχει εγκαταστήσει η εξέλιξη στον εγκέφαλό μας εδώ και χιλιάδες χρόνια.
Αν ανατρέξει κανείς στο λήμμα της Wikipedia με τίτλο «Κατάλογος γνωστικών μεροληψιών» https://en.wikipedia.org/wiki/List_of_cognitive_biases, θα καταλάβει ότι ο εγκέφαλός μας είναι πραγματικά έκθετος σε δεκάδες συστηματικά γνωστικές μεροληψίες και οι αποφάσεις μας ευεπίφορες στο σφάλμα. Εξελιχθήκαμε βιολογικά προσαρμοζόμενοι σ’ ένα περιβάλλον που δεν επιβράβευε την εξέχουσα διάνοια, αλλά τη συνεργασία και την προστασία. Με λίγα λόγια, η εξέλιξη έκανε τους εγκεφάλους μας ευαίσθητους σε γρήγορα ερεθίσματα, για να μας προστατεύσει από τους κινδύνους. Μας έκανε επίσης ατελείς στοχαστές, γιατί χρειαζόμασταν τις ευκολίες, τους σύντομους δρόμους. Οι μεροληψίες μάς βοήθησαν να επιβιώσουμε σε δύσκολα κι εχθρικά περιβάλλοντα. Τώρα όμως, σε πολλές περιπτώσεις αυτές οι ίδιες μας υπονομεύουν, καθώς τις εντάσσουμε στους αλγορίθμους μας.
Οι καθηγητές Γνωσιακής Επιστήμης Στίβεν Σλόμαν και Φίλιπ Φέρνμπαχ, στο βιβλίο τους «Η ψευδαίσθηση της γνώσης – Πώς η συλλογική σκέψη οδηγεί στην επιτυχία» (μτφρ. Χρήστος Μπαρουξής, εκδ. Ψυχογιός, 2017), αναφέρουν ένα παράδειγμα που αποδεικνύει ότι υπερεκτιμάμε συστηματικά τις γνώσεις μας και κατ’ επέκταση την ικανότητά μας να λαμβάνουμε καλές αποφάσεις. «Η Ρεμπέκα Λόσον, ψυχολόγος στο Πανεπιστήμιο του Λίβερπουλ», γράφουν, «έδειξε σε μια ομάδα προπτυχιακών φοιτητών Ψυχολογίας το σκίτσο ενός ποδηλάτου απ’ το οποίο έλειπαν η αλυσίδα, τα πετάλια και αρκετά μέρη ενός σκελετού. Υστερα ζήτησε απ’ τους φοιτητές να συμπληρώσουν τα μέρη που έλειπαν. Δοκιμάστε το κι εσείς. Ποια μέρη του σκελετού λείπουν; Πού μπαίνουν η αλυσίδα και τα πετάλια; Μπορεί να εκπλαγείτε με το πόσο δύσκολο είναι να απαντήσετε σ’ αυτά τα ερωτήματα. Στη μελέτη της Λόσον, σχεδόν οι μισοί φοιτητές δεν κατάφεραν να συμπληρώσουν το σκίτσο (…) Ούτε και έμπειροι ποδηλάτες δεν κατάφεραν να ολοκληρώσουν αυτή τη φαινομενικά εύκολη δοκιμασία χωρίς λάθη. Είναι εντυπωσιακό πόσο αποσπασματική και ρηχή είναι η κατανόηση που έχουμε για οικεία αντικείμενα, ακόμα και για αντικείμενα που συναντάμε συνεχώς και είναι εύκολο να παρατηρήσουμε τους μηχανισμούς τους». Φανταστείτε τι συμβαίνει με πράγματα που δεν έχουν άμεσα ορατούς μηχανισμούς, όπως η πολιτική, η πιστοληπτική ικανότητα, η επιδημιολογία ή η Δικαιοσύνη.
Οι Σλόμαν και Φέρνμπαχ λένε ότι μεροληπτούμε υπέρ των αφηγήσεων κι ότι είμαστε ικανοί να ανακαλύπτουμε ιστορίες ακόμα κι από τυχαίες κινήσεις αντικειμένων στην οθόνη. Μας είναι εύκολο να πιστέψουμε μια ιστορία, ακόμα κι αν αυτή βασίζεται σε τεράστια λάθη.
«Η ψευδαίσθηση της γνώσης» και «Σκέψη, αργή και γρήγορη». Δύο από τα εξαιρετικά βιβλία που κυκλοφορούν διεθνώς για το θέμα της γνώσης – νοημοσύνης και έχουν μεταφραστεί στα ελληνικά. Θα βοηθήσουν τον αναγνώστη να εντρυφήσει σε πτυχές ενός ζητήματος που θα μας απασχολεί όλο και περισσότερο.
Ο κίνδυνος των αλγορίθμων που «τρέφονται» με λάθος δεδομένα
Ούτε ρομπότ ούτε τεχνητές νοημοσύνες πρωταγωνιστούν στην ταινία του Ιστγουντ, αλλά οι άνθρωποι εκείνοι που παίρνουν τις λανθασμένες αποφάσεις, επειδή οι διαδικασίες της λήψης των αποφάσεών τους είναι προβληματικές.
Αυτές τις διαδικασίες ετοιμαζόμαστε εμείς τώρα, με την ταχύτατη υιοθέτηση αλγοριθμικών μοντέλων, να τις μεταφέρουμε σε κάθε πεδίο της ζωής. Ένα από τα μεγάλα προβλήματα των μοντέλων είναι τα λάθος θετικά –ή τα λάθος αρνητικά– αποτελέσματα. Είμαστε όλοι εξοικειωμένοι με αυτά, λόγω των συναγερμών. Ένας πολύ ευαίσθητος ή χαλασμένος συναγερμός δίνει λάθος θετικά σήματα, ενώ ένας ελάχιστα ευαίσθητος, ή επίσης χαλασμένος, μπορεί να δίνει λάθος αρνητικά σήματα. Με τους προβληματικούς συναγερμούς, καταλήγουμε είτε με σπασμένα νεύρα είτε να κοιμόμαστε την ώρα που μας κλέβουν το αυτοκίνητο.
Φανταστείτε τώρα έναν συναγερμό που παίρνει σε ζωντανό χρόνο εικόνες γύρω από το περιβάλλον του αυτοκινήτου σας. Ο αλγόριθμος που επεξεργάζεται τα δεδομένα καταλήγει να ενεργοποιεί τον συναγερμό κάθε φορά που πλησιάζει στο αυτοκίνητο ένας νέος μελαμψός που φοράει κουκούλα και συγκεκριμένη μάρκα αθλητικών παπουτσιών, χωρίς πανεπιστημιακή μόρφωση, και η αναγνώριση του προσώπου του λέει ότι έχει κατά 65% πιθανότητες να διαπράξει κλοπή. Δεν είναι καθόλου εύκολο να δαμάσεις την περιπλοκότητα της πραγματικότητας.
Σε αυτή τη «χρυσή εποχή των δεδομένων», πρέπει να είμαστε ενήμεροι για τους αλγόριθμους και τα μοντέλα που παίρνουν αποφάσεις.
Tα μαύρα κουτιά
Είμαστε λοιπόν μπροστά σε ένα διπλό πρόβλημα, το οποίο έχει πολιτικές, νομικές αλλά και ηθικές προεκτάσεις. Κατ’ αρχάς, είναι ένα ζήτημα δεδομένων. Όσο πιο στρεβλά, ατελή, μεροληπτικά, ελλειπή ή φτωχά είναι τα δεδομένα που «εξορύσσουμε» (mining λέγεται η διαδικασία συλλογής δεδομένων) τόσο πιο λανθασμένα θα είναι τα αποτελέσματα που θα δίνει ο αλγόριθμός μας. Ο χαλασμένος αισθητήρας που στέλνει λάθος δεδομένα στον πιλότο του αεροπλάνου τον υποχρεώνει σε μια κίνηση με καταστροφικά αποτελέσματα. Επίσης, κι αυτό είναι το πιο ανησυχητικό, μπορεί να δεδομένα να είναι σκόπιμα προβληματικά, να είναι το αποτέλεσμα χακαρίσματος (hacking).
Έπειτα, το ίδιο ισχύει και για την άλλη πλευρά του μηχανισμού, που είναι η επεξεργασία των δεδομένων, ο κώδικας, η γλώσσα που γράφουμε τις εντολές. Όταν θέλουμε σκόπιμα να κάνουμε διακρίσεις υπέρ ενός φύλου, μιας φυλής, μιας κοινωνικής τάξης ενδεχομένως, θα γράφουμε μεροληπτικά εναντίον μιας άλλης. Εδώ λοιπόν κωδικοποιούμε τις μεροληψίες μας, μεταφράζοντάς τις σε μια άλλη γλώσσα. Παράλληλα, ισχυροποιούμε τις διακρίσεις, γιατί τις ντύνουμε με το πέπλο της μηχανικής αντικειμενικότητας.
Προβληματικά δεδομένα μπαίνουν σε προβληματικά μοντέλα για να υπηρετήσουν προβληματικούς σκοπούς, είτε αθέλητα είτε εσκεμμένα. Αυτό ίσως να είναι ένα από τα σοβαρότερα προβλήματα που θα έχουμε να αντιμετωπίσουμε στην εποχή της πλήρους αυτοματοποίησης.
Η βασική απαίτηση που γεννά η αυτοματοποίηση τέτοιων αποφάσεων είναι να γνωρίζουμε το περιεχόμενο αυτών των μηχανισμών. Να γνωρίζουμε πώς κατέληξαν στις αποφάσεις τους, να μην είναι αυτό που στη γλώσσα των μηχανικών ονομάζεται «μαύρα κουτιά».
Για να εμπιστευτούμε τα συστήματα, πρέπει να μας πείσουν ότι είναι αξιόπιστα. Πρέπει να ξέρουμε ποια δεδομένα μας χρησιμοποιούνται, πώς συλλέχθηκαν, με ποιο σκοπό και ποια είναι η διαδικασία που ακολουθήθηκε για να πάρουν συγκεκριμένες αποφάσεις.
Είτε δημόσια είτε ιδιωτικά, είναι γεγονός ότι τα συστήματα αυτά φέρουν μεγάλα οφέλη στην ανθρωπότητα. Ομως η ανθρωπότητα έχει καθήκον να εξασφαλίσει ότι τα οφέλη της τεχνολογίας, και ειδικότερα της Τ.Ν., θα μοιραστούν σε όλους.
Εάν κωδικοποιήσουμε τις αδικίες, τις μεροληψίες και τις ανισότητες του παρελθόντος στα νέα συστήματα, το κόστος που θα πληρώσουμε θα είναι τεράστιο. Η Τ.Ν. των social media είναι μόνο ένα προμήνυμα του τι θα ακολουθήσει, αν δεν αναληφθεί έγκαιρα δράση. Για να είναι ασφαλή και υπεύθυνα τα συστήματα της Τ.Ν., πρέπει να δουλέψει συντονισμένα κόσμος με πολύ διαφορετικές δεξιότητες. Η Κάθι Ο’ Νιλ θεωρεί ότι οι προγραμματιστές και οι επιστήμονες των δεδομένων πρέπει να κάνουν έναν όρκο σαν εκείνο που κάνουν οι γιατροί στον Ιπποκράτη, προκειμένου να αποφεύγονται «οι πιθανές καταχρήσεις και παρερμηνείες των μοντέλων τους». Η υπεύθυνη Τ.Ν. είναι ένας στόχος συλλογικός που πρέπει οπωσδήποτε να κερδηθεί. Στην αυτοματοποίηση των ανθρώπινων αποφάσεων παίζεται το μέλλον των κοινωνιών μας.
Η λύση είναι να φτιάξουμε καλύτερους αλγορίθμους, να αναθέσουμε την ηθική εξέτασή τους σε γνώστες, να υποστηρίξουμε αναγκαίες ρυθμίσεις και, βέβαια, να ευαισθητοποιηθούν η κοινωνία και οι πολίτες.
Οι ανθρώπινες αποφάσεις, αν αναλυθούν με απόλυτη ακρίβεια, είναι αλγόριθμοι, υποστηρίζουν οι συγγραφείς. Η αυτοματοποίησή τους δεν πρέπει να αφήνει κανέναν αδιάφορο. Κοινωνικοαλγοριθμικά ζητήματα ιδιωτικότητας, δικαιοσύνης, αλλά και ασφάλειας, διαφάνειας, λογοδοσίας και ηθικής, θα βρίσκονται ολοένα και πιο συχνά στο προσκήνιο. Σε αυτή τη «χρυσή εποχή των δεδομένων», όσο λιγότερο ενήμεροι είμαστε για τους αλγορίθμους και τα μοντέλα που παίρνουν αποφάσεις τόσο πιο εύκολο θα είναι να μεροληπτούν, να λανθάνουν, ακόμα και να μας καταπιέζουν. Ο δρόμος προς τον τεχνολογικό παράδεισο περνάει μέσα από ηθικούς αλγορίθμους.
«Homo Automaton. Η τεχνητή νοημοσύνη και εμείς» Μανώλης Ανδριωτάκης Εκδόσεις Garage Books