Σε σύνδεση τώρα

Έχουμε 53 επισκέπτες συνδεδεμένους
PDF Εκτύπωση E-mail
Θεματικές Ενότητες - ΕΛΕΥΘΕΡΙΑ
Πέμπτη, 05 Σεπτέμβριος 2024 11:23
Ευρετήριο Άρθρου
Ελευθερία (Μάθημα 3ο)
Ελευθερία: Το δράμα της λήψης αποφάσεων
Ελευθερία: Ψηφιακές Δικτατορίες
Όλες οι Σελίδες

 

Το δράμα της λήψης αποφάσεων

Αυτό που έχει αρχίσει ήδη να συμβαίνει στην ιατρική θα επεκτείνεται κατά πάσα πιθανότητα σε ολοένα και περισσότερα πεδία. Η αποφασιστική εφεύρεση είναι ο βιομετρικός αισθητήρας, τον οποίο οι άνθρωποι μπορούν να φοράνε ή να τον έχουν μέσα στο σώμα τους και ο οποίος μετατρέπει τις βιολογικές διαδικασίες σε ηλεκτρονική πληροφορία που μπορεί να αποθηκευτεί και να αναλυθεί από υπολογιστές. Αν διαθέτουν αρκετά βιομετρικά δεδομένα και αρκετή υπολογιστική ισχύ, τα εξωτερικά συστήματα επεξεργασίας δεδομένων θα μπορούν να αποκωδικοποιήσουν όλες σας τις επιθυμίες, τις αποφάσεις και τις απόψεις. Θα γνωρίζουν ακριβώς ποιος είστε.

 

Οι περισσότεροι άνθρωποι δεν γνωρίζουν αρκετά καλά τον εαυτό τους. Όταν ήμουν είκοσι ενός, συνειδητοποίησα τελικά ότι ήμουν γκέι, έχοντας περάσει αρκετά χρόνια μέσα στην άρνηση. Αυτό δεν είναι καθόλου ασυνήθιστο. Πολλοί γκέι στρες περνάνε όλη τους την εφηβική ηλικία αβέβαιοι για τη σεξουαλικότητά τους. Φανταστείτε τώρα την κατάσταση το 2050, όταν ένας αλγόριθμος θα μπορεί να πει σε κάθε έφηβο ακριβώς πού βρίσκεται στο φάσμα ομοφυλοφιλίας/ετεροφυλοφιλίας η ακόμα και πόσο μεταβλητή μπορεί να είναι αυτή η θέση. Ίσως ο αλγόριθμος να μας δείχνει εικόνες ή βίντεο με ελκυστικούς άντρες και γυναίκες, να παρακολουθεί τις κινήσεις των ματιών σας, την πίεση του αίματος και την εγκεφαλική δραστηριότητα και μέσα σε πέντε λεπτά να βγάζει έναν αριθμό στην κλίμακα Κίνσεϊ. Εμένα θα με είχε γλιτώσει από πολλά χρόνια απογοητεύσεων. Ίσως εσείς προσωπικά να μη θέλατε να κάνετε ένα τέτοιο τεστ, αλλά μπορεί πάλι να βρισκόσασταν με μια παρέα σε κάποιο βαρετό πάρτι γενεθλίων και κάποιος να έριχνε την ιδέα να κάνετε όλοι με τη σειρά το τεστ με αυτόν τον νέο αλγόριθμο (ενώ θα κοιτάζετε όλοι μαζί τα αποτελέσματα και θα τα σχολιάζετε). Θα λέγατε «όχι»;

 

Ακόμα κι αν λέγατε «όχι» και συνεχίζατε να κρύβεστε από τον εαυτό σας και τους συμμαθητές σας, δεν θα μπορούσατε να κρυφτείτε από το Amazon, το Alibaba ή τη μυστική αστυνομία. Καθώς σερφάρετε στο διαδίκτυο, παρακολουθείτε YouTube ή διαβάζετε τα νέα σας στα μέσα κοινωνικής δικτύωσης, οι αλγόριθμοι θα σας παρακολουθούν διακριτικά, θα σας αναλύουν και θα λένε στην Κόκα Κόλα ότι, αν θέλει να σας πουλήσει ένα αναψυκτικό, καλύτερα να χρησιμοποιήσει τη διαφήμιση με τον γυμνόστηθο τύπο παρά με την κοπέλα. Εσείς δεν θα το ξέρετε καν. Εκείνοι όμως θα το ξέρουν κι οι πληροφορίες αυτές θα αξίζουν δισεκατομμύρια.

Από την άλλη, μπορεί όλα να είναι φανερά και οι άνθρωποι να κοινοποιούν ευχαρίστως τις πληροφορίες τους, ώστε να τους γίνονται πιο εύστοχες συστάσεις και τελικά να παίρνει ο αλγόριθμος τις αποφάσεις για λογαριασμό τους. Αυτό θα αρχίσει με απλά πράγματα, όπως να αποφασίσει κανείς ποια ταινία να δει. Καθώς μαζεύεστε με μια παρέα φίλων για να περάσετε ένα χαλαρό απόγευμα βλέποντας τηλεόραση, πρέπει πρώτα να αποφασίσετε τι θα δείτε. Πριν από πενήντα χρόνια υπήρχε επιλογή, αλλά σήμερα -με την εμφάνιση των υπηρεσιών κατά παραγγελία- υπάρχουν διαθέσιμοι χιλιάδες τίτλοι. Αλλά το να συμφωνήσετε μπορεί να είναι δύσκολο, γιατί σ’ εσάς αρέσουν τα θρίλερ επιστημονικής φαντασίας, στον Γιάννη οι ρομαντικές κομεντί και στην Ιουλία οι γαλλικές σινεφίλ ταινίες. Θα μπορούσατε να συμβιβαστείτε τελικά για κάποια μέτρια ταινία β' διαλογής που θα είναι απογοητευτική για όλους.

 

Ένας αλγόριθμος μπορεί να βοηθούσε. Μπορείτε να του πείτε ποιες από τις ταινίες που έχετε δει άρεσαν πολύ στον καθένα σας και, αξιοποιώντας την τεράστια βάση στατιστικών του δεδομένων, ο αλγόριθμος θα μπορέσει να βρει την τέλεια ταινία για την παρέα. Δυστυχώς, ένας τόσο χοντροκομμένος αλγόριθμος μπορεί εύκολα να παραπλανηθεί, ιδίως επειδή τα πράγματα που αναφέρουν οι άνθρωποι για τον εαυτό τους είναι ένα εντελώς αναξιόπιστο μέτρο για τις πραγματικές τους προτιμήσεις. Τυχαίνει συχνά να ακούσουμε κάποιον να επαινεί μια ταινία ως αριστούργημα, νιώθουμε ότι οφείλουμε να τη δούμε, και μολονότι κοιμόμαστε στο μισό έργο, δεν θέλουμε να φανούμε ακαλλιέργητοι κι έτσι λέμε σε όλους ότι ήταν μια εκπληκτική εμπειρία.

 

Αυτά τα προβλήματα, ωστόσο, μπορούν να λυθούν αν επιτρέψουμε στον αλγόριθμο να συγκεντρώνει τα δεδομένα μας σε πραγματικό χρόνο καθώς παρακολουθούμε ταινίες, αντί να βασίζεται στις αμφίβολες δηλώσεις μας. Για αρχή, ο αλγόριθμος θα μπορούσε να ελέγχει ποιες ταινίες είδαμε ολόκληρες και ποιες τις σταματήσαμε στη μέση. Ακόμα κι αν πούμε σε όλο τον κόσμο ότι το Όσα παίρνει ο άνεμος είναι η καλύτερη ταινία που έγινε ποτέ, ο αλγόριθμος θα ξέρει ότι εμείς δεν φτάσαμε ποτέ πέρα από το πρώτο μισάωρο και ποτέ δεν είδαμε στ’ αλήθεια την Ατλάντα να καίγεται.

 

Ωστόσο, ο αλγόριθμος μπορεί να προχωρήσει πολύ πιο βαθιά. Αυτή τη στιγμή οι σχεδιαστές αναπτύσσουν λογισμικό που μπορεί να ανιχνεύει τα ανθρώπινα συναισθήματα βασισμένο στις κινήσεις των ματιών και των μυών του προσώπου. Βάζουμε μια καλή κάμερα στην τηλεόραση και ένα τέτοιο λογισμικό θα γνωρίζει ποιες σκηνές μάς έκαναν να γελάσουμε, ποιες μας έκαναν να λυπηθούμε και ποιες να βαρεθούμε. Στη συνέχεια, συνδέουμε τον αλγόριθμο με βιομετρικούς αισθητήρες και τώρα θα ξέρει πώς επηρέασε κάθε πλάνο τους σφυγμούς μας, την πίεσή μας και την εγκεφαλική μας δραστηριότητα. Καθώς βλέπουμε, ας πούμε, το Ρulρ Fiction του Ταραντίνο, ο αλγόριθμος μπορεί να παρατηρήσει ότι η σκηνή του βιασμού μάς προκάλεσε μια σχεδόν ανεπαίσθητη υποψία σεξουαλικής διέγερσης, πως όταν ο Βίνσεντ πυροβόλησε κατά λάθος τον Μάρβιν στο πρόσωπο γελάσαμε με κάποια ενοχή και ότι δεν καταλάβαμε το αστείο με το χάμπουργκερ Μπιγκ Καχούνα, ωστόσο γελάσαμε για να μη φανούμε ανόητοι. Όταν γελάμε επίτηδες χρησιμοποιούμε διαφορετικά εγκεφαλικά κυκλώματα και μυς απ’ ό,τι όταν γελάμε επειδή κάτι μας φάνηκε αστείο. Οι άνθρωποι δεν μπορούν συνήθως να εντοπίσουν τη διαφορά. Αλλά ένας βιομετρικός αισθητήρας θα μπορούσε.

 

Η λέξη «τηλεόραση» συντίθεται από τα αρχαιοελληνικά «τηλε-» και «ορώ». Επινοήθηκε αρχικά σαν μια συσκευή που μας επιτρέπει να βλέπουμε κάτι από μακριά. Σύντομα όμως μπορεί να μας επιτρέπει να μας βλέπουν από μακριά. Όπως το οραματίστηκε ο Τζορτζ Όργουελ στο 1984, η τηλεόραση μπορεί να παρακολουθεί καθώς την παρακολουθούμε. Όταν θα έχουμε δει πια όλη τη φιλμογραφία του Ταραντίνο, μπορεί να έχουμε ξεχάσει τα πιο πολλά πράγματα. Όμως το Netflix και το Amazon ή όποιος άλλος διαθέτει τον αλγόριθμο της τηλεόρασης, θα ξέρουν τον τύπο της προσωπικότητάς μας και τον τρόπο να πατάνε τα συναισθηματικά μας κουμπιά. Τα δεδομένα αυτά θα επιτρέπουν Netflix και το Amazon να επιλέγουν ταινίες για εμάς με απίστευτη ακρίβεια, αλλά θα μπορούσαν επίσης να τους επιτρέπουν να παίρνουν για λογαριασμό μας τις πιο σημαντικές αποφάσεις της ζωής μας - όπως τι να σπουδάσουμε, πού να δουλέψουμε και ποιον να παντρευτούμε.

 

Φυσικά, το Amazon δεν θα βρίσκει πάντα το σωστό. Αυτό είναι αδύνατο. Οι αλγόριθμοι θα κάνουν συχνά λάθη, λόγω ανεπάρκειας δεδομένων, κακού προγραμματισμού, ασαφούς ορισμού στόχων αλλά και του χαοτικού χαρακτήρα της ζωής. Αλλά το Amazon δεν χρειάζεται να είναι τέλειο. Αρκεί να είναι κατά μέσο καλύτερο από τους ανθρώπους. Κι αυτό δεν είναι τόσο δύσκολο, γιατί οι άνθρωποι δεν ξέρουν πολύ καλά τον εαυτό τους και οι περισσότεροι κάνουν συχνά φριχτά λάθη στις πιο σημαντικές αποφάσεις της ζωής τους. Περισσότερο κι από τους αλγόριθμους, οι άνθρωποι πάσχουν από ανεπάρκεια δεδομένων, από κακό προγραμματισμό (γενετικό και πολιτισμικό), από ασάφεια ορισμών και από το χάος της ζωής.

 

Θα μπορούσατε βέβαια να καταγράψετε τα πολλά προβλήματα που μαστίζουν τους αλγόριθμους και να φτάσετε στο συμπέρασμα ότι οι άνθρωποι δεν θα τους εμπιστευτούν ποτέ. Αλλά αυτό είναι κάπως σαν να απαριθμούμε τα μειονεκτήματα της δημοκρατίας και να καταλήγουμε ότι κανένας λογικός άνθρωπος δεν θα υποστήριζε ποτέ ένα τέτοιο σύστημα. Είναι διάσημη η ρήση του Γουίνστον Τσόρτσιλ ότι η δημοκρατία είναι το χειρότερο δυνατό πολιτικό σύστημα, με εξαίρεση- όλα τα υπόλοιπα. Είτε έχουν δίκιο είτε άδικο, οι άνθρωποι μπορεί να φτάσουν στο ίδιο συμπέρασμα σχετικά με τους αλγόριθμους Μεγάλων Δεδομένων: έχουν πολλές ατέλειες, αλλά δεν έχουμε καλύτερη εναλλακτική.

 

Καθώς οι επιστήμονες κατανοούν καλύτερα τον τρόπο με τον οποίο παίρνουν αποφάσεις οι άνθρωποι, ο πειρασμός να βασιζόμαστε στους αλγόριθμους μάλλον θα αυξάνεται. Η αποκωδικοποίηση του ανθρώπινου τρόπου λήψης αποφάσεων δεν θα κάνει απλώς πιο αξιόπιστους τους αλγόριθμους Μεγάλων Δεδομένων, θα κάνει συγχρόνως και τα ανθρώπινα συναισθήματα λιγότερο αξιόπιστα. Καθώς οι κυβερνήσεις και οι εταιρείες θα καταφέρνουν να χακάρουν το ανθρώπινο λειτουργικό σύστημα, θα βρεθούμε εκτεθειμένοι σε κύματα χειραγώγησης, διαφήμισης και προπαγάνδας τεράστιας ακρίβειας. Η χειραγώγηση των απόψεων και των συναισθημάτων μας μπορεί να γίνει τόσο εύκολη, που θα αναγκαστούμε να βασιζόμαστε σε αλγόριθμους με τον ίδιο τρόπο που όταν ένας πιλότος παθαίνει κρίση ιλίγγου πρέπει να αγνοήσει τις αισθήσεις του και να βασιστεί απόλυτα στα μηχανικά όργανα που διαθέτει.

 

Σε κάποιες χώρες και σε κάποιες περιπτώσεις, οι άνθρωποι μπορεί να μην έχουν καν την επιλογή και να είναι αναγκασμένοι να υπακούν στις εντολές των αλγόριθμων Μεγάλων Δεδομένων. Ωστόσο, ακόμα και στις ελεύθερες -υποτίθεται- κοινωνίες, οι αλγόριθμοι μπορεί να πάρουν την εξουσία επειδή θα μάθουμε από την εμπειρία μας να τους εμπιστευόμαστε σε ολοένα και περισσότερα ζητήματα και θα χάσουμε σταδιακά την ικανότητα να αποφασίζουμε μόνοι μας. Σκεφτείτε απλώς ότι μέσα σε δύο μόλις δεκαετίες δισεκατομμύρια άνθρωποι έφτασαν να εμπιστεύονται τον αλγόριθμο αναζήτησης του Google σε μία από τις σημαντικότερες εργασίες που υπάρχουν: την αναζήτηση σχετικών και αξιόπιστων πληροφοριών. Δεν ψάχνουμε πια για πληροφορίες. Αντίθετα, γκουγκλάρουμε. Και καθώς βασιζόμαστε όλο και περισσότερο στο Google για να βρούμε τις απαντήσεις που θέλουμε, η ικανότητά μας να αναζητούμε οι ίδιοι πληροφορίες μειώνεται. Ήδη σήμερα η «αλήθεια» ορίζεται από τα κορυφαία αποτελέσματα μιας αναζήτησης στο Google.

 

Το ίδιο συμβαίνει επίσης και με τις σωματικές ικανότητες, όπως η κίνηση μέσα στο χώρο. Οι άνθρωποι ζητάνε από το Google να τους καθοδηγήσει. Όταν βρίσκονται σε μια διασταύρωση, μπορεί το ένστικτό τους να τους λέει «στρίψε αριστερά», αλλά οι Χάρτες Google λένε «στρίψε δεξιά». Στην αρχή ακούν το ένστικτό τους, στρίβουν αριστερά, πέφτουν σε μποτιλιάρισμα και χάνουν μια σημαντική συνάντηση. Την επόμενη φορά ακούν το Google, στρίβουν δεξιά και φτάνουν στην ώρα τους. Μαθαίνουν από την εμπειρία τους να εμπιστεύονται το Google. Μέσα σε ένα ή δύο χρόνια, βασίζονται τυφλά σε ό,τι τους πουν οι Χάρτες Google, κι αν το κινητό κάνει λάθος, δεν έχουν ιδέα τι να κάνουν.

 

Τον Μάρτιο του 2012 στην Αυστραλία, τρεις ιάπωνες τουρίστες αποφάσισαν να κάνουν μια εκδρομή σε ένα μικρό νησί κοντά στις ακτές και κατέληξαν με το αυτοκίνητό τους μέσα στον Ειρηνικό Ωκεανό. Ο οδηγός, ο 21 ετών Γιούζου Νόντα, δήλωσε αργότερα ότι ακολούθησε απλώς τις οδηγίες του GPS και ότι «μας είπε πως μπορούσαμε να πάμε με το αμάξι. Συνέχισε να λέει ότι θα μας οδηγούσε σε κάποιο δρόμο. Κολλήσαμε». Σε διάφορα παρόμοια περιστατικά, άνθρωποι βρέθηκαν με το αυτοκίνητο μέσα σε λίμνες ή έπεσαν από κατεδαφισμένες γέφυρες, ακολουθώντας προφανώς τις οδηγίες του GPS . Η ικανότητα να κινούμαστε είναι σαν τους μυς - αν δεν τη χρησιμοποιείς, ατονεί. Το ίδιο ισχύει την ικανότητα να διαλέγεις συζύγους ή επαγγέλματα.

 

Κάθε χρόνο, εκατομμύρια νέοι πρέπει να αποφασίσουν τι θα σπουδάσουν στο Πανεπιστήμιο. Πρόκειται για μια πολύ σημαντική και πολύ δύσκολη απόφαση, πιέσεις από τους γονείς, τους φίλους και τους καθηγητές σου, οι οποίοι έχουν διαφορετικές απόψεις και συμφέροντα. Έχεις επίσης να αντιμετωπίσεις τους φόβους και τις φαντασιώσεις σου. Η κρίση σου συσκοτίζεται και χειραγωγείται από χολιγουντιανές ταινίες, μυθιστορήματα της σειράς και εκλεπτυσμένες διαφημιστικές καμπάνιες. Είναι πολύ δύσκολο να κάνεις μια σωστή επιλογή γιατί δεν ξες τι χρειάζεται για να πετύχεις σε κάθε επάγγελμα και δεν είναι σίγουρο πως έχεις μια ρεαλιστική εικόνα για τις δυνάμεις και τις αδυναμίες σου. Τι χρειάζεται για να πετύχεις ως δικηγόρος; Πώς λειτουργώ υπό πίεση; Είμαι καλός στην ομαδική δουλειά;

 

Μια φοιτήτρια μπορεί να πάει στη νομική επειδή έχει ανακριβή εικόνα για τις ικανότητές της και μια ακόμα πιο στρεβλή άποψη για την πραγματική δουλειά του δικηγόρου (δεν εκφωνείς δραματικούς λόγους και φωνάζεις όλη μέρα «Ένσταση κε πρόεδρε!»). Στο μεταξύ, η φίλη της αποφασίζει να εκπληρώσει το δικό της όνειρο και να κάνει σπουδές επαγγελματικού χορού, παρότι δεν έχει την απαραίτητη σωματοδομή και πειθαρχία. Χρόνια αργότερα μετανιώνουν και οι δύο πικράγια τις επιλογές τους. Στο μέλλον θα μπορούμε να βασιζόμαστε στο Googleγια τέτοιου είδους επιλογές. Το Googleθα μπορεί να μου πει ότι θα έχανα τον χρόνο μου στη νομική ή στη σχολή μπαλέτου - αλλά ότι θα γινόμουν ένας θαυμάσιος (και πολύ ευτυχισμένος) ψυχολόγος ή υδραυλικός.

 

Όταν η Τεχνητή Νοημοσύνη θα αρχίσει να παίρνει καλύτερες αποφάσεις για τη σταδιοδρομία και ίσως και για τις σχέσεις μας, η αντίληψή μας για την ανθρωπότητα και για τη ζωή αναγκαστικά θα αλλάξει. Οι άνθρωποι σκέφτονται τη ζωή σαν ένα δράμα που αφορά τη λήψη αποφάσεων. Η φιλελεύθερη δημοκρατία και ο καπιταλισμός της ελεύθερης αγοράς βλέπουν το άτομο σαν έναν αυτόνομο φορέα που κάνει διαρκώς επιλογές σχετικά με τον κόσμο. Τα έργα τέχνης -είτε πρόκειται για θεατρικά του Σαίξπηρ, μυθιστορήματα της Τζέιν Όστιν ή φτηνιάρικες κωμωδίες του Χόλιγουντ- συνήθως περιστρέφονται γύρω από κάποια κρίσιμη απόφαση που πρέπει να πάρει ο ήρωας. Να ζει κανείς ή να μη ζει. Να ακούσω τη γυναίκα μου και να σκοτώσω τον Ντάνκαν ή να ακούσω τη συνείδηση μου και να τον αφήσω να ζήσει; Να παντρευτώ τον κ. Κόλινς ή τον κο Ντάρσι; Η χριστιανική και η μουσουλμανική θεολογία εστιάζουν αντίστοιχα στο δράμα των αποφάσεων, υποστηρίζοντας ότι η αιώνια λύτρωση ή η καταδίκη εξαρτάται από τις σωστές επιλογές.

 

Τι θα απογίνει αυτή η άποψη για τη ζωή καθώς θα βασιζόμαστε για τις επιλογές μας όλο και περισσότερο στην Τ.Ν.; Για την ώρα εμπιστευόμαστε το Netflix για να μας προτείνει ταινίες και τους Χάρτες Google για να διαλέξουν αν θα στρίψουμε δεξιά ή αριστερά. Όταν όμως θα αρχίσουμε να βασιζόμαστε στην Τ.Ν. για να αποφασίσουμε τι θα σπουδάσουμε, πού θα εργαστούμε και ποιον να παντρευτούμε, η ανθρώπινη ζωή θα πάψει να είναι ένα δράμα αποφάσεων. Οι δημοκρατικές εκλογές και οι ελεύθερες αγορές δεν θα έχουν πια πολύ νόημα. Το ίδιο και οι θρησκείες και τα έργα τέχνης. Φανταστείτε την Άννα Καρένινα να βγάζει το κινητό της και να ρωτάει τον αλγόριθμο του Facebook αν πρέπει να μείνει παντρεμένη με τον Καρένιν ή να κλεφτεί με τον γοητευτικό κόμη Βρόνσκι. Ή φανταστείτε το αγαπημένο σας έργο του Σαίξπηρ με όλες τις κρίσιμες αποφάσεις να λαμβάνονται από τον αλγόριθμο του Google. Ο Άμλετ και ο Μάκβεθ θα ζουν πολύ πιο άνετα, αλλά τι ζωή ακριβώς θα είναι αυτή; Διαθέτουμε τα μοντέλα για να μπορούμε να κατανοήσουμε μια τέτοια ζωή;

 

Καθώς η αυθεντία θα περνάει από τους ανθρώπους στους αλγόριθμους, μπορεί να πάψουμε να βλέπουμε τον κόσμο σαν πεδίο αυτόνομων ατόμων που αγωνίζονται να κάνουν τις σωστές επιλογές. Μπορεί να αρχίσουμε να αντιλαμβανόμαστε ολόκληρο το σύμπαν σαν ροή δεδομένων, οι οργανισμοί να μη μας φαίνονται σαν κάτι παραπάνω από βιοχημικοί αλγόριθμοι και να πιστέψουμε ότι η κοσμική αποστολή της ανθρωπότητας είναι να δημιουργήσει ένα σύστημα επεξεργασίας δεδομένων που θα περιλαμβάνει τα πάντα - κι έπειτα να συγχωνευτεί με αυτό. Ήδη σήμερα γινόμαστε μικροσκοπικά κυκλώματα μέσα σε ένα γιγάντιο σύστημα επεξεργασίας δεδομένων που κανείς δεν το κατανοεί πραγματικά. Αφομοιώνω καθημερινά αμέτρητα δεδομένα μέσω ηλεκτρονικών μηνυμάτων, tweetκαι άρθρων˙ επεξεργάζομαι τα δεδομένα˙ και αναμεταδίδω νέα δεδομένα μέσω περισσότερων ηλεκτρονικών μηνυμάτων, tweetκαι άρθρων. Δεν ξέρω ποια πραγματικά είναι η θέση μου μέσα στο συνολικό σχέδιο ούτε πώς συνδέονται τα δεδομένα μου με τα δεδομένα που παράγουν δισεκατομμύρια άλλοι άνθρωποι και υπολογιστές. Δεν έχω τον καιρό να μάθω, γιατί είμαι υπερβολικά απασχολημένος με το να απαντάω σε όλα αυτά τα ηλεκτρονικά μηνύματα.

 

Το φιλοσοφικό βαγόνι

Κάποιοι άνθρωποι μπορεί να έφερναν την αντίρρηση ότι οι αλγόριθμοι δεν θα μπορούσαν ποτέ να πάρουν σοβαρές αποφάσεις για λογαριασμό μας, γιατί οι σημαντικές αποφάσεις περιλαμβάνουν συνήθως και μια ηθική διάσταση, και οι αλγόριθμοι δεν κατανοούν την ηθική. Ωστόσο, δεν υπάρχει κάποιος λόγος να υποθέτουμε ότι οι αλγόριθμοι δεν θα μπορέσουν να ξεπεράσουν τον μέσο άνθρωπο ακόμα και στην ηθική. Ήδη σήμερα, καθώς συσκευές όπως τα έξυπνα κινητά και τα αυτόνομα οχήματα αναλαμβάνουν αποφάσεις που παλιότερα τις μονοπωλούσαν οι άνθρωποι, αρχίζουν να αντιμετωπίζουν ηθικά προβλήματα σαν αυτά που βασανίζουν τους ανθρώπους εδώ και χιλιετίες.

 

Για παράδειγμα, ας υποθέσουμε ότι δύο παιδιά που κυνηγάνε μια μπάλα πετάγονται μπροστά σε ένα αυτόνομο αυτοκίνητο. Κάνοντας αστραπιαίους υπολογισμούς, ο αλγόριθμος που οδηγεί το αυτοκίνητο καταλήγει στο συμπέρασμα ότι ο μόνος τρόπος να αποφύγει να χτυπήσει τα δύο παιδιά είναι να βγει στο αντίθετο ρεύμα, κινδυνεύοντας να συγκρουστεί με ένα φορτηγό που πλησιάζει. Ο αλγόριθμος υπολογίζει ότι ο ιδιοκτήτης του αυτοκινήτου -που κοιμάται στο πίσω κάθισμα- έχει 70% πιθανότητα να σκοτωθεί. Τι πρέπει να κάνει;

 

Οι φιλόσοφοι συζητούν για τέτοια «προβλήματα του τραμ» εδώ και χιλιετίες (ονομάζονται προβλήματα του τραμ» γιατί τα τυπικά παραδείγματα στις σύγχρονες φιλοσοφικές συζητήσεις αναφέρονται σε αποκομμένα βαγόνια τραμ που τρέχουν μόνα τους στις ράγες και όχι σε αυτόνομα αυτοκίνητα). Μέχρι τώρα, τα επιχειρήματα αυτά είχαν ενοχλητικά μικρή επίδραση στην πραγματική συμπεριφορά, γιατί σε στιγμές κρίσης οι άνθρωποι πολύ συχνά ξεχνάνε τις φιλοσοφικές απόψεις τους και ακολουθούν τα συναισθήματα και τα ένστικτά τους.

 

Ένα από τα πιο κακοήθη πειράματα στην ιστορία των κοινωνικών επιστημών πραγματοποιήθηκε τον Δεκέμβριο του 1970 σε μια ομάδα φοιτητών του Θεολογικού Σεμιναρίου του Πρίνστον, οι οποίοι εκπαιδεύονταν για να γίνουν ιερείς Πρεσβυτεριανή Εκκλησία. Ζητήθηκε από κάθε φοιτητή να πάει γρήγορα σε μια μακρινή αίθουσα διαλέξεων και να κάνει εκεί μια ομιλία για την παραβολή του Καλού Σαμαρείτη, η οποία λέει για έναν Ισραηλίτη που, ενώ πήγαινε από τα Ιεροσόλυμα στην Ιεριχώ, ληστεύτηκε και χτυπήθηκε από ληστές, που τον άφησαν στην άκρη του δρόμου να πεθάνει. Μετά από λίγο πέρασε από εκεί ένας ιερέας κι ένας Λευίτης, αλλά κι οι δύο τον αγνόησαν. Αντίθετα, ένας Σαμαρείτης -μέλος μιας θρησκευτικής ομάδας που οι Ισραηλίτες απεχθάνονταν- σταμάτησε όταν είδε το θύμα, τον φρόντισε και του έσωσε τη ζωή. Το ηθικό δίδαγμα της παραβολής είναι ότι η αξία των ανθρώπων πρέπει να κρίνεται από τη συμπεριφορά τους και όχι από τις θρησκευτικές τους πεποιθήσεις.

 

Οι πρόθυμοι φοιτητές έσπευσαν προς την αίθουσα διαλέξεων, προσπαθώντας να σκεφτούν στη διαδρομή πώς θα εξηγούσαν καλύτερα την παραβολή του Καλού Σαμαρείτη. Αλλά οι σχεδιαστές του πειράματος είχαν τοποθετήσει στον δρόμο τους ένα άτομο κακοντυμένο που καθόταν ακουμπισμένο σε μια πόρτα με το κεφάλι πεσμένο μπροστά και τα μάτια κλειστά. Καθώς ο κάθε ανυποψίαστος φοιτητής περνούσε βιαστικά μπροστά του, το «θύμα» έβηχε και βογκούσε αξιοθρήνητα. Οι περισσότεροι φοιτητές ούτε που στάθηκαν για να ρωτήσουν τι του συνέβαινε, πόσο μάλλον να τον βοηθήσουν. Η συναισθηματική πίεση που τους δημιουργούσε η υποχρέωση να φτάσουν γρήγορα στην αίθουσα υπερίσχυσε της ηθικής τους υποχρέωσης να βοηθούν τους ξένους που βρίσκονταν σε κίνδυνο.

 

Τα ανθρώπινα συναισθήματα υπερισχύουν των φιλοσοφικών θεωριών σε αμέτρητες άλλες καταστάσεις. Αυτό καθιστά την ηθική και φιλοσοφική ιστορία του κόσμου μια μάλλον καταθλιπτική ιστορία υπέροχων ιδανικών, και συμπεριφορών κάθε άλλο παρά ιδανικών. Πόσοι χριστιανοί γυρίζουν όντως το άλλο μάγουλο, πόσοι βουδιστές ξεπερνούν πράγματι τις εγωιστικές εμμονές και πόσοι Εβραίοι αγαπούν όντως τον πλησίον τους όσο τον εαυτό τους; Έτσι όμως έχει διαμορφώσει τον χόμο σάπιενς η φυσική επιλογή. Όπως όλα τα θηλαστικά, ο χόμο σάπιενς χρησιμοποιεί τα συναισθήματα, για να παίρνει γρήγορα αποφάσεις ζωής και θανάτου. Έχουμε κληρονομήσει την οργή, το φόβο και τη λαγνεία μας από εκατομμύρια προγόνους, που όλοι τους είχαν περάσει τους πιο αυστηρούς ελέγχους ποιότητας της φυσικής επιλογής.

 

Δυστυχώς, αυτό που ήταν κατάλληλο για την επιβίωση και την αναπαραγωγή στην αφρικανική σαβάνα πριν από ένα εκατομμύριο χρόνια δεν συνιστά κατ’ ανάγκη υπεύθυνη συμπεριφορά στους αυτοκινητόδρομους του 21ου αιώνα. Οι μη συγκεντρωμένοι, θυμωμένοι και αγχωμένοι οδηγοί σκοτώνουν κάθε χρόνο πάνω από ένα εκατομμύριο ανθρώπους σε τροχαία δυστυχήματα. Μπορούμε να στείλουμε όλους μας τους φιλόσοφους, τους προφήτες και τους ιερείς για να διδάξουν ηθική στους οδηγούς αυτούς - αλλά στο δρόμο, τα ένστικτα του θηλαστικού και της σαβάνας θα υπερισχύσουν. Συνεπώς, οι βιαστικοί φοιτητές θα αγνοούν τους ανθρώπους που βρίσκονται σε κίνδυνο και οι οδηγοί που βρίσκονται σε κρίση θα πατάνε άτυχους πεζούς.

 

Η ασυνέπεια ανάμεσα στο σεμινάριο και το δρόμο είναι ένα από τα μεγαλύτερα πρακτικά προβλήματα της ηθικής. Ο Ιμάνουελ Καντ, ο Τζον Στιούαρτ Μιλ και ο Τζον Ρολς μπορεί να κάθονται και να συζητούν θεωρητικά προβλήματα της ηθικής για μέρες σε κάποια άνετη πανεπιστημιακή αίθουσα - αλλά θα εφαρμοστούν, άραγε, τα συμπεράσματά τους από κάποιον στρεσαρισμένο οδηγό στα κλάσματα δευτερολέπτου μιας έκτακτης κατάστασης; Ίσως ο Μίκαελ Σουμάχερ -ο πρωταθλητής της Φόρμουλα 1 που θεωρείται από κάποιους ο καλύτερος οδηγός στην ιστορία- να είχε την ικανότητα να σκέφτεται τη φιλοσοφία, ενώ οδηγούσε ένα αυτοκίνητο· αλλά οι περισσότεροι δεν είμαστε Σουμάχερ.

 

Οι αλγόριθμοι των υπολογιστών, ωστόσο, δεν έχουν διαμορφωθεί από τη φυσική επιλογή και δεν έχουν ούτε συναισθήματα ούτε ένστικτα. Επομένως, σε στιγμές κρίσης θα μπορούσαν να ακολουθήσουν ηθικές οδηγίες πολύ καλύτερα απ’ ό,τι οι άνθρωποι -αρκεί να βρούμε τον τρόπο να κωδικοποιήσουμε την ηθική με ακριβείς αριθμούς και στατιστικές. Αν μάθουμε στον Καντ, τον Μιλ και τον Ρολς να γράφουν κώδικα, θα μπορούσαν να προγραμματίσουν προσεκτικά το αυτόνομο αυτοκίνητο στο άνετο εργαστήριό τους και να είναι σίγουροι ότι το αυτοκίνητο θα ακολουθήσει τις εντολές τους στον αυτοκινητόδρομο. Στην πράξη, κάθε αυτοκίνητο θα είχε για οδηγό τον Σουμάχερ και τον Καντ μαζί.

 

Έτσι, αν προγραμματίσουμε ένα αυτόνομο αυτοκίνητο να σταματάει και να βοηθάει αγνώστους σε κίνδυνο, θα το κάνει ο κόσμος να χαλάσει (εκτός βέβαια αν βάλετε κάποια ρήτρα εξαίρεσης για περιπτώσεις που χαλάει ο κόσμος). Με τον ίδιο τρόπο, αν το αυτόνομο αυτοκίνητο είναι προγραμματισμένο να βγει στο αντίθετο ρεύμα για να σώσει τα δύο παιδιά που βρέθηκαν στο δρόμο του, μπορείτε να είστε απόλυτα σίγουροι ότι θα κάνει ακριβώς αυτό. Πράγμα που σημαίνει πως όταν η Τογιότα ή η Τέσλα θα σχεδιάζουν το αυτόνομο αυτοκίνητό τους, θα μετατρέπουν ένα θεωρητικό πρόβλημα της ηθικής φιλοσοφίας σε πρακτικό πρόβλημα μηχανικής.

 

Βέβαια, οι φιλοσοφικοί αλγόριθμοι ποτέ δεν θα είναι τέλειοι. Θα γίνονται λάθη, που θα οδηγούν σε τραυματισμούς, θανάτους και απίστευτα περίπλοκες μηνύσεις. (Για πρώτη φορά στην ιστορία θα είστε σε θέση να μηνύσετε έναν φιλόσοφο για το ατυχές αποτέλεσμα των θεωριών του, γιατί για πρώτη φορά στην ιστορία θα μπορείτε να αποδείξετε την ύπαρξη αιτιακής σχέσης ανάμεσα σε φιλοσοφικές ιδέες και πραγματικά γεγονότα). Ωστόσο, οι αλγόριθμοι δεν χρειάζεται να είναι τέλειοι για να πάρουν τη θέση των ανθρώπων-οδηγών. Αρκεί να τα καταφέρνουν καλύτερα απ’ αυτούς. Δεδομένου ότι οι άνθρωποι-οδηγοί σκοτώνουν πάνω από ένα εκατομμύριο άτομα κάθε χρόνο, δεν θα είναι και τόσο δύσκολο. Στο κάτω κάτω, ποιος θα προτιμούσατε να οδηγεί το αμάξι δίπλα σας; Ένας μεθυσμένος έφηβος ή η ομάδα Σουμάχερ-Καντ;

 

Η ίδια λογική δεν ισχύει μόνο για την οδήγηση, αλλά και για πολλές ακόμα καταστάσεις. Για παράδειγμα, για τις αιτήσεις εργασίας. Στον 21ο αιώνα, η απόφαση αν θα προσληφθεί κάποιος ή όχι σε μια δουλειά θα λαμβάνεται ολοένα και περισσότερο από αλγόριθμους. Δεν μπορούμε να βασιστούμε σε μια μηχανή για να θέσει τους ηθικούς κανόνες - αυτό θα πρέπει ακόμα να το κάνουν άνθρωποι. Αλλά όταν θα έχει αποφασιστεί το ηθικό πρότυπο που θα ισχύει στην αγορά εργασίας -για παράδειγμα, ότι είναι λάθος να γίνονται διακρίσεις εις βάρος των μαύρων ατόμων ή των γυναικών-θα μπορούμε να είμαστε σίγουροι ότι οι μηχανές θα εφαρμόζουν και θα τηρούν τον κανόνα αυτό καλύτερα απ’ ό,τι οι άνθρωποι.

 

Ένας διευθυντής μπορεί να γνωρίζει κι ακόμα να συμφωνεί ότι είναι ανήθικο να γίνονται διακρίσεις κατά των μαύρων και των γυναικών, αλλά όταν μια μαύρη γυναίκα υποβάλλει αίτηση για μια θέση, ο διευθυντής κάνει υποσυνείδητα τη διάκριση και αποφασίζει να μην την προσλάβει. Αν αφήσουμε έναν υπολογιστή να αξιολογεί τις αιτήσεις για δουλειά και τον προγραμματίσουμε να αγνοεί εντελώς τη φυλετική καταγωγή και το φύλο, μπορούμε να είμαστε σίγουροι ότι ο υπολογιστής όντως θα αγνοεί αυτούς τους παράγοντες, επειδή οι υπολογιστές δεν έχουν υποσυνείδητο. Φυσικά, δεν θα είναι εύκολο να γραφτεί κώδικας για την αξιολόγηση αιτήσεων εργασίας και υπάρχει πάντα ο κίνδυνος να περάσουν οι σχεδιαστές τις υποσυνείδητες προκαταλήψεις τους στο λογισμικό. Ωστόσο, όταν ανακαλύψουμε αυτά τα λάθη, θα είναι μάλλον πολύ ευκολότερο να διορθώσουμε το λογισμικό απ’ ό,τι να απαλλάξουμε τους ανθρώπους από τις ρατσιστικές και μισογυνικές τους προκαταλήψεις.

 

Είδαμε ότι η διάδοση της τεχνητής νοημοσύνης μπορεί να αποβάλει τους περισσότερους ανθρώπους από την αγορά εργασίας - όπως τους οδηγούς και τους τροχονόμους (όταν οι ταραξίες άνθρωποι θα έχουν αντικατασταθεί από υπάκουους αλγόριθμους, η Τροχαία θα είναι πια περιττή). Ωστόσο, μπορεί να υπάρχουν νέες ευκαιρίες για τους φιλόσοφους, γιατί οι γνώσεις τους -που δεν είχαν ως τώρα καμία αξία στην αγορά εργασίας- θα είναι ξαφνικά περιζήτητες. Έτσι, αν θέλετε να σπουδάσετε κάτι που θα σας εξασφαλίσει μια δουλειά στο μέλλον, ίσως η φιλοσοφία να μην είναι τόσο κακή ιδέα.

 

Φυσικά, οι φιλόσοφοι σπάνια συμφωνούν μεταξύ τους για τον καλύτερο τρόπο δράσης. Ελάχιστα «προβλήματα του τραμ» έχουν επιλυθεί με τρόπο που να αφήνει όλους τους φιλόσοφους ευχαριστημένους, και οι στοχαστές της συνεπειοκρατίας όπως ο Τζον Στιούαρτ Μιλ (που κρίνουν τις πράξεις ανάλογα με τις συνέπειές τους) έχουν πολύ διαφορετικές απόψεις από τους δεοντολόγους, όπως ο Ιμάνουελ Καντ (που κρίνουν τις πράξεις με βάση απόλυτους κανόνες). Θα πρέπει η Τέσλα να πάρει θέση σε τόσο ακανθώδη ζητήματα για να κατασκευάσει ένα αυτοκίνητο;

 

Λοιπόν, ίσως η Τέσλα πρέπει να το αφήσει στην αγορά. Η Τέσλα θα κατασκευάσει δύο μοντέλα του αυτόνομου αυτοκινήτου: το Τέσλα Άλτρουιστ και το Τέσλα Έγκοϊστ. Σε μια κατάσταση έκτακτης ανάγκης, το Άλτρουιστ θα θυσιάζει τον ιδιοκτήτη του για το γενικό καλό, ενώ το Έγκοϊστ θα κάνει ό,τι μπορεί για να σώσει τον ιδιοκτήτη του, ακόμα κι αν αυτό σημαίνει να σκοτώσει τα δύο παιδιά. Έτσι, οι πελάτες θα μπορούν να αγοράσουν το αυτοκίνητο που ταιριάζει καλύτερα στη φιλοσοφική τους άποψη. Αν πουλιούνται περισσότερα Έγκοϊστ, δεν θα μπορείτε να κατηγορήσετε γι’ αυτό την Τέσλα. Στο κάτω κάτω, ο πελάτης έχει πάντα δίκιο.

 

Δεν πρόκειται για πλάκα. Σε μια πρωτοποριακή μελέτη που έγινε το 2015, παρουσιάστηκε σε κάποιους ανθρώπους το υποθετικό σενάριο ενός αυτόνομου αυτοκινήτου που είναι έτοιμο να χτυπήσει αρκετούς πεζούς. Οι περισσότεροι είπαν ότι, σε μια τέτοια περίπτωση, το αυτοκίνητο θα πρέπει να σώσει τους πεζούς ακόμα και με τίμημα να σκοτωθεί ο ιδιοκτήτης του. Όταν ρωτήθηκαν αν θα αγόραζαν οι ίδιοι προσωπικά ένα αυτοκίνητο προγραμματισμένο να θυσιάσει τον ιδιοκτήτη του για το γενικό καλό, οι περισσότεροι απάντησαν «όχι». Για τον εαυτό τους θα προτιμούσαν το Τέσλα Έγκοϊστ.

 

Φανταστείτε την κατάσταση: έχετε αγοράσει καινούργιο αυτοκίνητο, πριν όμως αρχίσετε να το χρησιμοποιείτε, πρέπει να ανοίξετε το μενού με τις ρυθμίσεις και να επιλέξετε διάφορα κουτάκια. Σε περίπτωση ατυχήματος, θέλετε το αυτοκίνητο να θυσιάσει τη ζωή σας ή να σκοτώσει την οικογένεια στο απέναντι αυτοκίνητο; Θέλετε, άραγε, έστω και να κάνετε αυτή την επιλογή; Σκεφτείτε μόνο τους καβγάδες που θα κάνετε με τον/τη σύζυγό σας για το κουτάκι που θα διαλέξετε.

 

Μήπως, λοιπόν, θα έπρεπε να παρέμβει το κράτος και να ρυθμίσει την αγορά θέτοντας έναν ηθικό κώδικα που θα δεσμεύει όλα τα αυτόνομα αυτοκίνητα; Κάποιοι νομοθέτες σίγουρα θα ενθουσιαστούν που θα μπορούν, επιτέλους, να φτιάξουν νόμους οι οποίοι θα τηρούνται πάντα κατά γράμμα. Άλλοι μπορεί να θορυβηθούν μπροστά σε μια τόσο πρωτοφανή και ολοκληρωτική ευθύνη. Σε τελική ανάλυση, σε όλη την ιστορία οι περιορισμοί στη δυνατότητα επιβολής του νόμου πρόσφεραν μια καλοδεχούμενη συγκράτηση στις προκαταλήψεις, τα σφάλματα και τις υπερβολές των νομοθετών. Ήταν μεγάλο ευτύχημα που οι νόμοι κατά της ομοφυλοφιλίας και της βλασφημίας εφαρμόζονταν μόνο εν μέρει. Θέλουμε, άραγε, στ’ αλήθεια ένα σύστημα στο οποίο οι αποφάσεις μη αλάνθαστων πολιτικών θα έχουν γίνει τόσο απόλυτες όσο η βαρύτητα;

 



Τελευταία Ενημέρωση στις Πέμπτη, 05 Σεπτέμβριος 2024 12:08