Σε σύνδεση τώρα

Έχουμε 63 επισκέπτες συνδεδεμένους
PDF Εκτύπωση E-mail
Θεματικές Ενότητες - ΕΛΕΥΘΕΡΙΑ
Πέμπτη, 05 Σεπτέμβριος 2024 11:23
Ευρετήριο Άρθρου
Ελευθερία (Μάθημα 3ο)
Ελευθερία: Το δράμα της λήψης αποφάσεων
Ελευθερία: Ψηφιακές Δικτατορίες
Όλες οι Σελίδες

 

Yuval Noah Harari

Μάθημα 3ο: Ελευθερία

Τα μεγάλα δεδομένα σε παρακολουθούν

 

 

Η φιλελεύθερη αφήγηση λατρεύει την ανθρώπινη ελευθερία ως την ανώτερη αξία της. Υποστηρίζει ότι κάθε αυθεντία προέρχεται τελικά από την ελεύθερη βούληση των μεμονωμένων ατόμων, όπως αυτή εκφράζεται με τα συναισθήματα, τις επιθυμίες και τις επιλογές τους. Στην πολιτική, ο φιλελευθερισμός πιστεύει ότι ο ψηφοφόρος γνωρίζει καλύτερα. Υποστηρίζει, επομένως, τις δημοκρατικές εκλογές. Στην οικονομία, ο φιλελευθερισμός ισχυρίζεται ότι ο πελάτης έχει πάντα δίκιο. Ασπάζεται, λοιπόν, τις αρχές της ελεύθερης αγοράς. Στα προσωπικά ζητήματα, ο φιλελευθερισμός προτρέπει τους ανθρώπους να ακούν τον εαυτό τους, να είναι αληθινοί και να ακολουθούν την καρδιά τους – αρκεί να μην παρεμποδίζουν τις ελευθερίες των άλλων. Αυτή η προσωπική ελευθερία διαφυλάσσεται με τα ανθρώπινα δικαιώματα.

 

Ο όρος «φιλελεύθερος» χρησιμοποιείται κάποιες φορές σήμερα με μια πολύ πιο περιορισμένη έννοια, ως αντίθετο του «συντηρητικός». Ωστόσο, πολλοί από τους λεγόμενους συντηρητικούς ασπάζονται επίσης το φιλελευθερισμό. Κάντε αυτή τη δοκιμή. Πιστεύετε ότι είναι καλύτερα οι άνθρωποι να επιλέγουν την κυβέρνησή τους αντί να υπακούν τυφλά ένα βασιλιά; Πιστεύετε ότι είναι καλύτερα να επιλέγουν το επάγγελμά τους αντί να γεννιούνται ως μέλη μιας κάστας; Πιστεύετε ότι είναι καλύτερα να διαλέγουν το ταίρι τους αντί να παντρεύονται όποιον επιλέξουν οι γονείς τους; Αν απαντήσατε «Ναι» και στις 3 ερωτήσεις είστε φιλελεύθερος.

 

Συγκεκριμένα, είναι απαραίτητο να θυμόμαστε ότι ήρωες του συντηρητισμού όπως ο Ρόναλντ Ρέιγκαν και η Μάργκαρετ Θάτσερ ήταν μεγάλοι υπέρμαχοι όχι μόνο των οικονομικών ελευθεριών αλλά και των ατομικών. Σε μια διάσημη συνέντευξή της το 1987, η Θάτσερ είχε πει ότι «Αυτό που λέμε κοινωνία δεν υπάρχει. Υπάρχει ένα σύνολο από άντρες και γυναίκες [...] και η ποιότητα της ζωής μας εξαρτάται από το κατά πόσο ο καθένας μας είναι διατεθειμένος αναλάβει τις ευθύνες του».

 

Οι κληρονόμοι της Θάτσερ στο Συντηρητικό Κόμμα συμφωνούν απόλυτα με το Εργατικό Κόμμα ότι η πολιτική εξουσία προέρχεται από τα αισθήματα, τις επιλογές και την ελεύθερη βούληση των ψηφοφόρων. Έτσι, όταν η Βρετανία έπρεπε να αποφασίσει αν θα έφευγε ή όχι από την Ε.Ε., ο πρωθυπουργός Ντέιβιντ Κάμερον δεν ζήτησε από τη βασίλισσα Ελισάβετ Β', τον Αρχιεπίσκοπο του Καντέρμπουρι ή την Οξφόρδη και το Καίμπριτζ να λύσουν το ζήτημα. Δεν ρώτησε καν τα μέλη του Κοινοβουλίου. Αντίθετα, έκανε δημοψήφισμα στο οποίο κάθε Βρετανός ρωτήθηκε: «Εσείς πώς αισθάνεστε γι’ αυτό;»

 

Μπορεί να αντιτείνετε ότι η ερώτηση ήταν «Τι νομίζετε;» και όχι αισθάνεστε», αλλά πρόκειται για μια συνηθισμένη παρανόηση. Τα δημοψηφίσματα και οι εκλογές αφορούν πάντα τα συναισθήματα των ανθρώπων, όχι ορθολογικότητά τους. Αν η δημοκρατία ήταν ζήτημα ορθολογικής λήψης αποφάσεων, δεν θα υπήρχε κανένας λόγος να δίνουμε σε όλους τους ανθρώπους ίσα εκλογικά δικαιώματα - ίσως και οποιαδήποτε εκλογικά δικαιώματα. Υπάρχουν άφθονα στοιχεία ότι κάποιοι άνθρωποι είναι πολύ πιο καταρτισμένοι και λογικοί από άλλους, ιδίως σε ό,τι αφορά συγκεκριμένα και πολιτικά ζητήματα. Αμέσως μετά την απόφαση για το Brexit, ο επιφανής βιολόγος Ρίτσαρντ Ντόκινς διαμαρτυρήθηκε ότι δεν έπρεπε ποτέ να έχει ζητηθεί από τη συντριπτική πλειονότητα του βρετανικού κοινού -συμπεριλαμβανομένου και του ίδιου- να ψηφίσουν στο δημοψήφισμα, γιατί δεν διέθεταν το απαραίτητο υπόβαθρο στην οικονομική την πολιτική επιστήμη. «Θα μπορούσατε εξίσου καλά να κάνετε ένα πανεθνικό δημοψήφισμα για να αποφασιστεί αν ήταν σωστά τα μαθηματικά του Αϊνστάιν ή να αφήνετε τους επιβάτες να αποφασίζουν σε ποιο διάδρομο πρέπει να προσγειωθεί ο πιλότος».

 

Ωστόσο, είτε μας αρέσει είτε όχι, οι εκλογές και τα δημοψηφίσματα δεν αφορούν τις απόψεις μας, αλλά τα συναισθήματά μας. Και στα συναισθήματα, Αϊνστάιν και ο Ντόκινς δεν είναι καλύτεροι από οποιονδήποτε άλλο άνθρωπο. Η δημοκρατία θεωρεί ότι τα ανθρώπινα συναισθήματα αντανακλούν μια μυστήρια και βαθύτερη «ελεύθερη βούληση», ότι αυτή η «ελεύθερη βούληση» είναι η υπέρτατη πηγή αυθεντίας και ότι, ενώ κάποιοι άνθρωποι είναι πιο ευφυείς από άλλους όλοι οι άνθρωποι είναι εξίσου ελεύθεροι. Ένας αγράμματος διαθέτει ελεύθερη βούληση όπως ο Αϊνστάιν και ο Ντόκινς, κι έτσι στις εκλογές τα συναισθήματά του –όπως αντιπροσωπεύονται από την ψήφο του- μετράνε το ίδιο με των άλλων (…)

 

Αυτή η εξάρτηση από την καρδιά μπορεί να αποδειχτεί η αχίλλειος πτέρνα της φιλελεύθερης δημοκρατίας. Γιατί μόλις κάποιος (είτε βρίσκεται στο Πεκίνο είτε στο Σαν Φρανσίσκο) αποκτήσει την ικανότητα να χειραγωγεί την ανθρώπινη καρδιά, η δημοκρατική πολιτική θα μεταλλαχτεί σε ένα συναισθηματικό κουκλοθέατρο.

 

Άκου τον αλγόριθμο

Η φιλελεύθερη πεποίθηση στα συναισθήματα και τις ελεύθερες επιλογές των ατόμων δεν είναι ούτε φυσική ούτε και ιδιαίτερα παλιά. Για χιλιάδες χρόνια οι πίστευαν ότι η αυθεντία προέρχεται από θεϊκούς νόμους και όχι από την ανθρώπινη καρδιά και ότι, συνεπώς, πρέπει να θεωρούμε ιερό το λόγο του η την ανθρώπινη ελευθερία. Μόνο κατά τους τελευταίους αιώνες η πηγή της αυθεντίας μεταφέρθηκε από τις ουράνιες θεότητες στους ανθρώπους με σάρκα και οστά.

 

Σύντομα η αυθεντία μπορεί να μεταφερθεί ξανά - από τους ανθρώπους στους αλγόριθμους. Όπως ακριβώς η θεϊκή αυθεντία επικυρωνόταν από τις θρησκευτικές μυθολογίες και η ανθρώπινη αυθεντία βασιζόταν στη φιλελεύθερη αφήγηση, έτσι η επερχόμενη τεχνολογική επανάσταση μπορεί να εγκαθιδρύσει την αυθεντία των αλγόριθμων Μεγάλων Δεδομένων, ανατρέποντας παράλληλα την ίδια την ιδέα της ατομικής ελευθερίας.

 

Όπως αναφέραμε στο προηγούμενο κεφάλαιο, οι γνώσεις που έχει αποκτήσει η επιστήμη για τον τρόπο με τον οποίο λειτουργεί ο εγκέφαλος και το σώμα μας δείχνουν ότι τα συναισθήματά μας δεν αποτελούν κάποιο αποκλειστικά ανθρώπινο πνευματικό χαρακτηριστικό και δεν αντανακλούν κάποια «ελεύθερη βούληση. Αντιθέτως, τα συναισθήματα είναι βιοχημικοί μηχανισμοί τους οποίους διαθέτουν όλα τα θηλαστικά και τα πουλιά, ώστε να μπορούν να υπολογίζουν γρήγορα πιθανότητες επιβίωσης και αναπαραγωγής. Τα συναισθήματα δεν βασίζονται στη διαίσθηση, την έμπνευση ή την ελευθερία - βασίζονται στον υπολογισμό.

 

Όταν ένας πίθηκος, ένα ποντίκι ή ένας άνθρωπος βλέπουν ένα φίδι, μέσα τους γεννιέται φόβος, επειδή εκατομμύρια νευρώνες στον εγκέφαλό τους υπολογίζουν ταχύτατα τα σχετικά δεδομένα και καταλήγουν ότι η πιθανότητα θανάτου είναι υψηλή. Τα συναισθήματα σεξουαλικής έλξης γεννιούνται, όταν άλλοι βιοχημικοί αλγόριθμοι υπολογίζουν ότι ένα άτομο που βρίσκεται κοντά προσφέρει υψηλή πιθανότητα επιτυχημένου ζευγαρώματος, κοινωνικού δεσμού ή κάποιου άλλου επιθυμητού στόχου. Τα ηθικά αισθήματα όπως η οργή, η ενοχή ή η συγχώρεση προκύπτουν από νευρωνικούς μηχανισμούς που έχουν εξελιχθεί ώστε να επιτρέπουν τη συνεργασία σε ομάδες. Όλοι αυτοί οι βιοχημικοί αλγόριθμοι ακονίστηκαν μέσα σε εκατομμύρια χρόνια εξέλιξης. Αν τα συναισθήματα κάποιου αρχαίου προγόνου έκαναν λάθος, τα γονίδια που είχαν διαμορφώσει αυτά τα συναισθήματα δεν περνούσαν στην επόμενη γένια. Τα συναισθήματα, επομένως, δεν είναι το αντίθετο της ορθολογικότητας – είναι η ενσάρκωση της εξελικτικής ορθολογικότητας.

 

Συνήθως, δεν συνειδητοποιούμε ότι τα συναισθήματα είναι στην πραγματικότητα υπολογισμοί, επειδή αυτή η αστραπιαία υπολογιστική διαδικασία πραγματοποιείται στο κατώφλι της συνείδησης. Δεν αισθανόμαστε τα εκατομμύρια νευρώνες στον εγκέφαλό μας που υπολογίζουν πιθανότητες επιβίωσης και αναπαραγωγής κι έτσι πιστεύουμε εσφαλμένα ότι ο φόβος μας για τα φίδια, οι επιλογές σεξουαλικών συντρόφων ή οι απόψεις μας για την Ευρωπαϊκή Ένωση είναι αποτέλεσμα κάποιας μυστηριώδους «ελεύθερης βούλησης».

 

Εντούτοις, παρότι ο φιλελευθερισμός κάνει λάθος όταν νομίζει ότι τα συναισθήματά μας αντανακλούν την ελεύθερη βούληση, το να βασιζόμαστε στα συναισθήματα ήταν μέχρι τώρα λογικό από πρακτική σκοπιά. Γιατί μολονότι τα συναισθήματα δεν έχουν τίποτα μαγικό ή ελεύθερο, ήταν η καλύτερη μέθοδος στον κόσμο για να αποφασίσουμε τι να σπουδάσουμε, ποιον να παντρευτούμε και ποιο κόμμα να ψηφίσουμε. Επιπλέον, κανένα εξωτερικό σύστημα δεν θα μπορούσε ποτέ να κατανοήσει τα αισθήματά μου καλύτερα απ’ ό,τι εγώ. Ακόμα και αν με παρακολουθούσε η Ιερά Εξέταση και η KGB σε κάθε στιγμή της ζωή μου δεν διέθεταν τις βιολογικές γνώσεις και την απαραίτητη υπολογιστική ισχύ για να χακάρουν τις βιοχημικές διαδικασίες που διαμορφώνουν τις επιθυμίες και τις επιλογές μου. Από πρακτική σκοπιά, ήταν εύλογο να λέω ότι διέθετα ελεύθερη βούληση, γιατί η βούλησή μου διαμορφωνόταν κυρίως από την αλληλεπίδραση εσωτερικών δυνάμεων, τις οποίες δεν μπορούσε κανείς να δει απ’ έξω. Μπορούσα να διατηρώ την ψευδαίσθηση ότι έχω τον έλεγχο του εσωτερικού μου πεδίου, ενώ οι απ’ έξω δεν μπορούσαν ποτέ να κατανοήσουν πραγματικά τι συμβαίνει μέσα μου και με ποιο τρόπο παίρνω τις αποφάσεις μου.

 

Συνεπώς, ο φιλελευθερισμός έκανε καλά που συμβούλευε τους ανθρώπους να ακολουθούν την καρδιά τους, και όχι τις επιταγές κάποιου ιερέα ή κάποιου μέλους του κόμματος. Σύντομα, ωστόσο, οι ψηφιακοί αλγόριθμοι θα μπορούν να μας δώσουν καλύτερες συμβουλές απ’ ό,τι τα συναισθήματά μας. Καθώς η Ιερά Εξέταση και η KGB δίνουν τη θέση τους στη Google και τη Baidu, θα αποκαλυφθεί μάλλον ότι η «ελεύθερη βούληση» είναι ένας μύθος και ο φιλελευθερισμός θα χάσει ίσως τα πρακτικά του πλεονεκτήματα.

 

Γιατί αυτή τη στιγμή βρισκόμαστε στη συμβολή δύο ασύλληπτων επαναστάσεων. Από τη μία μεριά οι βιολόγοι αποκωδικοποιούν τα μυστήρια του ανθρώπινου σώματος, και ειδικότερα του εγκεφάλου και των ανθρώπινων συναισθημάτων. Την ίδια στιγμή, οι επιστήμονες της πληροφορικής μάς δίνουν μια πρωτοφανή δύναμη επεξεργασίας δεδομένων. Όταν οι επαναστάσεις της βιοτεχνολογίας και της τεχνολογίας της πληροφορίας συνενωθούν, θα δημιουργήσουν αλγόριθμους Μεγάλων Δεδομένων, που θα μπορούν να παρακολουθούν και να κατανοούν τα συναισθήματά μου πολύ καλύτερα απ’ ό,τι εγώ, και τότε η αυθεντία μάλλον θα περάσει από τους ανθρώπους στους υπολογιστές. Η ψευδαίσθησή μου για την ελεύθερη βούληση θα διαλυθεί μάλλον και αυτή καθώς θα έρχομαι καθημερινά σε επαφή με θεσμούς, εταιρείες και κυβερνητικούς φορείς που θα κατανοούν και θα χειραγωγούν αυτό που μέχρι τώρα ήταν ο απροσπέλαστος εσωτερικός μου κόσμος.

 

Αυτό συμβαίνει ήδη στο πεδίο της ιατρικής. Οι πιο σημαντικές αποφάσεις στη ζωή μας δεν βασίζονται στην αίσθησή μας για το αν είμαστε άρρωστοι ή καλά, ούτε και στις προβλέψεις του γιατρού μας, αλλά στους υπολογισμούς ηλεκτρονικών υπολογιστών που κατανοούν το σώμα μας πολύ καλύτερα απ’ ό,τι εμείς οι ίδιοι. Σε μερικές δεκαετίες, οι αλγόριθμοι Μεγάλων Δεδομένων που θα παίρνουν πληροφορίες από μια συνεχή ροή βιομετρικών δεδομένων θα μπορούν να παρατηρούν την υγεία μας 24 ώρες το 24ωρο. Θα μπορούν να ανιχνεύουν την απαρχή της γρίπης, του καρκίνου ή του αλτσχάιμερ πολύ πριν νιώσουμε ότι κάτι πηγαίνει στραβά. Θα μπορούν στη συνέχεια να προτείνουν την κατάλληλη θεραπεία, δίαιτα ή αγωγή, ειδικά φτιαγμένη ακριβώς για το σώμα μας, το DΝΑ και την προσωπικότητά μας.

 

Οι άνθρωποι θα απολαμβάνουν την καλύτερη φροντίδα υγείας στην ιστορία, αλλά ακριβώς για αυτό το λόγο θα είναι μάλλον διαρκώς άρρωστοι. Πάντα κάτι πηγαίνει στραβά σε κάποιο σημείο του σώματος. Πάντα υπάρχει κάτι που μπορεί να βελτιωθεί. Στο παρελθόν, ένιωθε κανείς απόλυτα υγιής, εφόσον δεν είχε κάποιο πόνο ή κάποια εμφανή αναπηρία, όπως να κουτσαίνει. Αλλά το 2050, χάρη στους βιομετρικούς αισθητήρες και τους αλγόριθμους Μεγάλων Δεδομένων, οι ασθένειες θα μπορούν να διαγνωστούν και να αντιμετωπιστούν πολύ πριν προκαλέσουν πόνο ή αναπηρία. Κατά συνέπεια, θα πάσχουμε διαρκώς από κάποιο «ιατρικό πρόβλημα» και θα ακολουθούμε αυτή ή την άλλη σύσταση του αλγόριθμου. Αν αρνηθούμε να το κάνουμε, η ασφάλισή μας θα ακυρώνεται ή το αφεντικό μας θα μας απολύει - γιατί να πληρώνουν για το πείσμα μας;

 

Άλλο πράγμα είναι να συνεχίζετε να καπνίζετε αγνοώντας τις γενικές στατιστικές που συνδέουν το κάπνισμα με τον καρκίνο των πνευμόνων και εντελώς διαφορετικό να κάνετε το ίδιο αγνοώντας μια πολύ συγκεκριμένη προειδοποίηση από έναν βιομετρικό αισθητήρα που έχει μόλις ανακαλύψει δεκαεφτά καρκινικά κύτταρα στον άνω λοβό του αριστερού σας πνεύμονα. Κι αν είστε πρόθυμοι να αψηφήσετε τον αισθητήρα, τι θα κάνετε όταν ο αισθητήρας προωθήσει την προειδοποίηση στον ασφαλιστικό σας φορέα, στο διευθυντή σας και στη μητέρα σας;

 

Ποιος θα έχει το χρόνο και την ενέργεια να ασχολείται με όλες αυτές τις αρρώστιες; Κατά πάσα πιθανότητα, θα μπορεί μάλλον κανείς να δώσει την εντολή στον προσωπικό του αλγόριθμο υγείας να αντιμετωπίζει τα προβλήματα αυτά με τον τρόπο που θεωρεί καλύτερο. Οπότε, το πολύ πολύ να στέλνει κατά καιρούς μηνύματα στο έξυπνο κινητό μας που θα λένε «δεκαεφτά καρκινικά κύτταρα εντοπίστηκαν και καταστράφηκαν». Οι υποχόνδριοι μπορεί να διαβάζουν επιμελώς αυτές τις ενημερώσεις, αλλά οι περισσότεροι θα τις αγνοούμε, όπως ακριβώς αγνοούμε και τις ειδοποιήσεις των αντιικών προγραμμάτων στον υπολογιστή μας.

 


 

Το δράμα της λήψης αποφάσεων

Αυτό που έχει αρχίσει ήδη να συμβαίνει στην ιατρική θα επεκτείνεται κατά πάσα πιθανότητα σε ολοένα και περισσότερα πεδία. Η αποφασιστική εφεύρεση είναι ο βιομετρικός αισθητήρας, τον οποίο οι άνθρωποι μπορούν να φοράνε ή να τον έχουν μέσα στο σώμα τους και ο οποίος μετατρέπει τις βιολογικές διαδικασίες σε ηλεκτρονική πληροφορία που μπορεί να αποθηκευτεί και να αναλυθεί από υπολογιστές. Αν διαθέτουν αρκετά βιομετρικά δεδομένα και αρκετή υπολογιστική ισχύ, τα εξωτερικά συστήματα επεξεργασίας δεδομένων θα μπορούν να αποκωδικοποιήσουν όλες σας τις επιθυμίες, τις αποφάσεις και τις απόψεις. Θα γνωρίζουν ακριβώς ποιος είστε.

 

Οι περισσότεροι άνθρωποι δεν γνωρίζουν αρκετά καλά τον εαυτό τους. Όταν ήμουν είκοσι ενός, συνειδητοποίησα τελικά ότι ήμουν γκέι, έχοντας περάσει αρκετά χρόνια μέσα στην άρνηση. Αυτό δεν είναι καθόλου ασυνήθιστο. Πολλοί γκέι στρες περνάνε όλη τους την εφηβική ηλικία αβέβαιοι για τη σεξουαλικότητά τους. Φανταστείτε τώρα την κατάσταση το 2050, όταν ένας αλγόριθμος θα μπορεί να πει σε κάθε έφηβο ακριβώς πού βρίσκεται στο φάσμα ομοφυλοφιλίας/ετεροφυλοφιλίας η ακόμα και πόσο μεταβλητή μπορεί να είναι αυτή η θέση. Ίσως ο αλγόριθμος να μας δείχνει εικόνες ή βίντεο με ελκυστικούς άντρες και γυναίκες, να παρακολουθεί τις κινήσεις των ματιών σας, την πίεση του αίματος και την εγκεφαλική δραστηριότητα και μέσα σε πέντε λεπτά να βγάζει έναν αριθμό στην κλίμακα Κίνσεϊ. Εμένα θα με είχε γλιτώσει από πολλά χρόνια απογοητεύσεων. Ίσως εσείς προσωπικά να μη θέλατε να κάνετε ένα τέτοιο τεστ, αλλά μπορεί πάλι να βρισκόσασταν με μια παρέα σε κάποιο βαρετό πάρτι γενεθλίων και κάποιος να έριχνε την ιδέα να κάνετε όλοι με τη σειρά το τεστ με αυτόν τον νέο αλγόριθμο (ενώ θα κοιτάζετε όλοι μαζί τα αποτελέσματα και θα τα σχολιάζετε). Θα λέγατε «όχι»;

 

Ακόμα κι αν λέγατε «όχι» και συνεχίζατε να κρύβεστε από τον εαυτό σας και τους συμμαθητές σας, δεν θα μπορούσατε να κρυφτείτε από το Amazon, το Alibaba ή τη μυστική αστυνομία. Καθώς σερφάρετε στο διαδίκτυο, παρακολουθείτε YouTube ή διαβάζετε τα νέα σας στα μέσα κοινωνικής δικτύωσης, οι αλγόριθμοι θα σας παρακολουθούν διακριτικά, θα σας αναλύουν και θα λένε στην Κόκα Κόλα ότι, αν θέλει να σας πουλήσει ένα αναψυκτικό, καλύτερα να χρησιμοποιήσει τη διαφήμιση με τον γυμνόστηθο τύπο παρά με την κοπέλα. Εσείς δεν θα το ξέρετε καν. Εκείνοι όμως θα το ξέρουν κι οι πληροφορίες αυτές θα αξίζουν δισεκατομμύρια.

Από την άλλη, μπορεί όλα να είναι φανερά και οι άνθρωποι να κοινοποιούν ευχαρίστως τις πληροφορίες τους, ώστε να τους γίνονται πιο εύστοχες συστάσεις και τελικά να παίρνει ο αλγόριθμος τις αποφάσεις για λογαριασμό τους. Αυτό θα αρχίσει με απλά πράγματα, όπως να αποφασίσει κανείς ποια ταινία να δει. Καθώς μαζεύεστε με μια παρέα φίλων για να περάσετε ένα χαλαρό απόγευμα βλέποντας τηλεόραση, πρέπει πρώτα να αποφασίσετε τι θα δείτε. Πριν από πενήντα χρόνια υπήρχε επιλογή, αλλά σήμερα -με την εμφάνιση των υπηρεσιών κατά παραγγελία- υπάρχουν διαθέσιμοι χιλιάδες τίτλοι. Αλλά το να συμφωνήσετε μπορεί να είναι δύσκολο, γιατί σ’ εσάς αρέσουν τα θρίλερ επιστημονικής φαντασίας, στον Γιάννη οι ρομαντικές κομεντί και στην Ιουλία οι γαλλικές σινεφίλ ταινίες. Θα μπορούσατε να συμβιβαστείτε τελικά για κάποια μέτρια ταινία β' διαλογής που θα είναι απογοητευτική για όλους.

 

Ένας αλγόριθμος μπορεί να βοηθούσε. Μπορείτε να του πείτε ποιες από τις ταινίες που έχετε δει άρεσαν πολύ στον καθένα σας και, αξιοποιώντας την τεράστια βάση στατιστικών του δεδομένων, ο αλγόριθμος θα μπορέσει να βρει την τέλεια ταινία για την παρέα. Δυστυχώς, ένας τόσο χοντροκομμένος αλγόριθμος μπορεί εύκολα να παραπλανηθεί, ιδίως επειδή τα πράγματα που αναφέρουν οι άνθρωποι για τον εαυτό τους είναι ένα εντελώς αναξιόπιστο μέτρο για τις πραγματικές τους προτιμήσεις. Τυχαίνει συχνά να ακούσουμε κάποιον να επαινεί μια ταινία ως αριστούργημα, νιώθουμε ότι οφείλουμε να τη δούμε, και μολονότι κοιμόμαστε στο μισό έργο, δεν θέλουμε να φανούμε ακαλλιέργητοι κι έτσι λέμε σε όλους ότι ήταν μια εκπληκτική εμπειρία.

 

Αυτά τα προβλήματα, ωστόσο, μπορούν να λυθούν αν επιτρέψουμε στον αλγόριθμο να συγκεντρώνει τα δεδομένα μας σε πραγματικό χρόνο καθώς παρακολουθούμε ταινίες, αντί να βασίζεται στις αμφίβολες δηλώσεις μας. Για αρχή, ο αλγόριθμος θα μπορούσε να ελέγχει ποιες ταινίες είδαμε ολόκληρες και ποιες τις σταματήσαμε στη μέση. Ακόμα κι αν πούμε σε όλο τον κόσμο ότι το Όσα παίρνει ο άνεμος είναι η καλύτερη ταινία που έγινε ποτέ, ο αλγόριθμος θα ξέρει ότι εμείς δεν φτάσαμε ποτέ πέρα από το πρώτο μισάωρο και ποτέ δεν είδαμε στ’ αλήθεια την Ατλάντα να καίγεται.

 

Ωστόσο, ο αλγόριθμος μπορεί να προχωρήσει πολύ πιο βαθιά. Αυτή τη στιγμή οι σχεδιαστές αναπτύσσουν λογισμικό που μπορεί να ανιχνεύει τα ανθρώπινα συναισθήματα βασισμένο στις κινήσεις των ματιών και των μυών του προσώπου. Βάζουμε μια καλή κάμερα στην τηλεόραση και ένα τέτοιο λογισμικό θα γνωρίζει ποιες σκηνές μάς έκαναν να γελάσουμε, ποιες μας έκαναν να λυπηθούμε και ποιες να βαρεθούμε. Στη συνέχεια, συνδέουμε τον αλγόριθμο με βιομετρικούς αισθητήρες και τώρα θα ξέρει πώς επηρέασε κάθε πλάνο τους σφυγμούς μας, την πίεσή μας και την εγκεφαλική μας δραστηριότητα. Καθώς βλέπουμε, ας πούμε, το Ρulρ Fiction του Ταραντίνο, ο αλγόριθμος μπορεί να παρατηρήσει ότι η σκηνή του βιασμού μάς προκάλεσε μια σχεδόν ανεπαίσθητη υποψία σεξουαλικής διέγερσης, πως όταν ο Βίνσεντ πυροβόλησε κατά λάθος τον Μάρβιν στο πρόσωπο γελάσαμε με κάποια ενοχή και ότι δεν καταλάβαμε το αστείο με το χάμπουργκερ Μπιγκ Καχούνα, ωστόσο γελάσαμε για να μη φανούμε ανόητοι. Όταν γελάμε επίτηδες χρησιμοποιούμε διαφορετικά εγκεφαλικά κυκλώματα και μυς απ’ ό,τι όταν γελάμε επειδή κάτι μας φάνηκε αστείο. Οι άνθρωποι δεν μπορούν συνήθως να εντοπίσουν τη διαφορά. Αλλά ένας βιομετρικός αισθητήρας θα μπορούσε.

 

Η λέξη «τηλεόραση» συντίθεται από τα αρχαιοελληνικά «τηλε-» και «ορώ». Επινοήθηκε αρχικά σαν μια συσκευή που μας επιτρέπει να βλέπουμε κάτι από μακριά. Σύντομα όμως μπορεί να μας επιτρέπει να μας βλέπουν από μακριά. Όπως το οραματίστηκε ο Τζορτζ Όργουελ στο 1984, η τηλεόραση μπορεί να παρακολουθεί καθώς την παρακολουθούμε. Όταν θα έχουμε δει πια όλη τη φιλμογραφία του Ταραντίνο, μπορεί να έχουμε ξεχάσει τα πιο πολλά πράγματα. Όμως το Netflix και το Amazon ή όποιος άλλος διαθέτει τον αλγόριθμο της τηλεόρασης, θα ξέρουν τον τύπο της προσωπικότητάς μας και τον τρόπο να πατάνε τα συναισθηματικά μας κουμπιά. Τα δεδομένα αυτά θα επιτρέπουν Netflix και το Amazon να επιλέγουν ταινίες για εμάς με απίστευτη ακρίβεια, αλλά θα μπορούσαν επίσης να τους επιτρέπουν να παίρνουν για λογαριασμό μας τις πιο σημαντικές αποφάσεις της ζωής μας - όπως τι να σπουδάσουμε, πού να δουλέψουμε και ποιον να παντρευτούμε.

 

Φυσικά, το Amazon δεν θα βρίσκει πάντα το σωστό. Αυτό είναι αδύνατο. Οι αλγόριθμοι θα κάνουν συχνά λάθη, λόγω ανεπάρκειας δεδομένων, κακού προγραμματισμού, ασαφούς ορισμού στόχων αλλά και του χαοτικού χαρακτήρα της ζωής. Αλλά το Amazon δεν χρειάζεται να είναι τέλειο. Αρκεί να είναι κατά μέσο καλύτερο από τους ανθρώπους. Κι αυτό δεν είναι τόσο δύσκολο, γιατί οι άνθρωποι δεν ξέρουν πολύ καλά τον εαυτό τους και οι περισσότεροι κάνουν συχνά φριχτά λάθη στις πιο σημαντικές αποφάσεις της ζωής τους. Περισσότερο κι από τους αλγόριθμους, οι άνθρωποι πάσχουν από ανεπάρκεια δεδομένων, από κακό προγραμματισμό (γενετικό και πολιτισμικό), από ασάφεια ορισμών και από το χάος της ζωής.

 

Θα μπορούσατε βέβαια να καταγράψετε τα πολλά προβλήματα που μαστίζουν τους αλγόριθμους και να φτάσετε στο συμπέρασμα ότι οι άνθρωποι δεν θα τους εμπιστευτούν ποτέ. Αλλά αυτό είναι κάπως σαν να απαριθμούμε τα μειονεκτήματα της δημοκρατίας και να καταλήγουμε ότι κανένας λογικός άνθρωπος δεν θα υποστήριζε ποτέ ένα τέτοιο σύστημα. Είναι διάσημη η ρήση του Γουίνστον Τσόρτσιλ ότι η δημοκρατία είναι το χειρότερο δυνατό πολιτικό σύστημα, με εξαίρεση- όλα τα υπόλοιπα. Είτε έχουν δίκιο είτε άδικο, οι άνθρωποι μπορεί να φτάσουν στο ίδιο συμπέρασμα σχετικά με τους αλγόριθμους Μεγάλων Δεδομένων: έχουν πολλές ατέλειες, αλλά δεν έχουμε καλύτερη εναλλακτική.

 

Καθώς οι επιστήμονες κατανοούν καλύτερα τον τρόπο με τον οποίο παίρνουν αποφάσεις οι άνθρωποι, ο πειρασμός να βασιζόμαστε στους αλγόριθμους μάλλον θα αυξάνεται. Η αποκωδικοποίηση του ανθρώπινου τρόπου λήψης αποφάσεων δεν θα κάνει απλώς πιο αξιόπιστους τους αλγόριθμους Μεγάλων Δεδομένων, θα κάνει συγχρόνως και τα ανθρώπινα συναισθήματα λιγότερο αξιόπιστα. Καθώς οι κυβερνήσεις και οι εταιρείες θα καταφέρνουν να χακάρουν το ανθρώπινο λειτουργικό σύστημα, θα βρεθούμε εκτεθειμένοι σε κύματα χειραγώγησης, διαφήμισης και προπαγάνδας τεράστιας ακρίβειας. Η χειραγώγηση των απόψεων και των συναισθημάτων μας μπορεί να γίνει τόσο εύκολη, που θα αναγκαστούμε να βασιζόμαστε σε αλγόριθμους με τον ίδιο τρόπο που όταν ένας πιλότος παθαίνει κρίση ιλίγγου πρέπει να αγνοήσει τις αισθήσεις του και να βασιστεί απόλυτα στα μηχανικά όργανα που διαθέτει.

 

Σε κάποιες χώρες και σε κάποιες περιπτώσεις, οι άνθρωποι μπορεί να μην έχουν καν την επιλογή και να είναι αναγκασμένοι να υπακούν στις εντολές των αλγόριθμων Μεγάλων Δεδομένων. Ωστόσο, ακόμα και στις ελεύθερες -υποτίθεται- κοινωνίες, οι αλγόριθμοι μπορεί να πάρουν την εξουσία επειδή θα μάθουμε από την εμπειρία μας να τους εμπιστευόμαστε σε ολοένα και περισσότερα ζητήματα και θα χάσουμε σταδιακά την ικανότητα να αποφασίζουμε μόνοι μας. Σκεφτείτε απλώς ότι μέσα σε δύο μόλις δεκαετίες δισεκατομμύρια άνθρωποι έφτασαν να εμπιστεύονται τον αλγόριθμο αναζήτησης του Google σε μία από τις σημαντικότερες εργασίες που υπάρχουν: την αναζήτηση σχετικών και αξιόπιστων πληροφοριών. Δεν ψάχνουμε πια για πληροφορίες. Αντίθετα, γκουγκλάρουμε. Και καθώς βασιζόμαστε όλο και περισσότερο στο Google για να βρούμε τις απαντήσεις που θέλουμε, η ικανότητά μας να αναζητούμε οι ίδιοι πληροφορίες μειώνεται. Ήδη σήμερα η «αλήθεια» ορίζεται από τα κορυφαία αποτελέσματα μιας αναζήτησης στο Google.

 

Το ίδιο συμβαίνει επίσης και με τις σωματικές ικανότητες, όπως η κίνηση μέσα στο χώρο. Οι άνθρωποι ζητάνε από το Google να τους καθοδηγήσει. Όταν βρίσκονται σε μια διασταύρωση, μπορεί το ένστικτό τους να τους λέει «στρίψε αριστερά», αλλά οι Χάρτες Google λένε «στρίψε δεξιά». Στην αρχή ακούν το ένστικτό τους, στρίβουν αριστερά, πέφτουν σε μποτιλιάρισμα και χάνουν μια σημαντική συνάντηση. Την επόμενη φορά ακούν το Google, στρίβουν δεξιά και φτάνουν στην ώρα τους. Μαθαίνουν από την εμπειρία τους να εμπιστεύονται το Google. Μέσα σε ένα ή δύο χρόνια, βασίζονται τυφλά σε ό,τι τους πουν οι Χάρτες Google, κι αν το κινητό κάνει λάθος, δεν έχουν ιδέα τι να κάνουν.

 

Τον Μάρτιο του 2012 στην Αυστραλία, τρεις ιάπωνες τουρίστες αποφάσισαν να κάνουν μια εκδρομή σε ένα μικρό νησί κοντά στις ακτές και κατέληξαν με το αυτοκίνητό τους μέσα στον Ειρηνικό Ωκεανό. Ο οδηγός, ο 21 ετών Γιούζου Νόντα, δήλωσε αργότερα ότι ακολούθησε απλώς τις οδηγίες του GPS και ότι «μας είπε πως μπορούσαμε να πάμε με το αμάξι. Συνέχισε να λέει ότι θα μας οδηγούσε σε κάποιο δρόμο. Κολλήσαμε». Σε διάφορα παρόμοια περιστατικά, άνθρωποι βρέθηκαν με το αυτοκίνητο μέσα σε λίμνες ή έπεσαν από κατεδαφισμένες γέφυρες, ακολουθώντας προφανώς τις οδηγίες του GPS . Η ικανότητα να κινούμαστε είναι σαν τους μυς - αν δεν τη χρησιμοποιείς, ατονεί. Το ίδιο ισχύει την ικανότητα να διαλέγεις συζύγους ή επαγγέλματα.

 

Κάθε χρόνο, εκατομμύρια νέοι πρέπει να αποφασίσουν τι θα σπουδάσουν στο Πανεπιστήμιο. Πρόκειται για μια πολύ σημαντική και πολύ δύσκολη απόφαση, πιέσεις από τους γονείς, τους φίλους και τους καθηγητές σου, οι οποίοι έχουν διαφορετικές απόψεις και συμφέροντα. Έχεις επίσης να αντιμετωπίσεις τους φόβους και τις φαντασιώσεις σου. Η κρίση σου συσκοτίζεται και χειραγωγείται από χολιγουντιανές ταινίες, μυθιστορήματα της σειράς και εκλεπτυσμένες διαφημιστικές καμπάνιες. Είναι πολύ δύσκολο να κάνεις μια σωστή επιλογή γιατί δεν ξες τι χρειάζεται για να πετύχεις σε κάθε επάγγελμα και δεν είναι σίγουρο πως έχεις μια ρεαλιστική εικόνα για τις δυνάμεις και τις αδυναμίες σου. Τι χρειάζεται για να πετύχεις ως δικηγόρος; Πώς λειτουργώ υπό πίεση; Είμαι καλός στην ομαδική δουλειά;

 

Μια φοιτήτρια μπορεί να πάει στη νομική επειδή έχει ανακριβή εικόνα για τις ικανότητές της και μια ακόμα πιο στρεβλή άποψη για την πραγματική δουλειά του δικηγόρου (δεν εκφωνείς δραματικούς λόγους και φωνάζεις όλη μέρα «Ένσταση κε πρόεδρε!»). Στο μεταξύ, η φίλη της αποφασίζει να εκπληρώσει το δικό της όνειρο και να κάνει σπουδές επαγγελματικού χορού, παρότι δεν έχει την απαραίτητη σωματοδομή και πειθαρχία. Χρόνια αργότερα μετανιώνουν και οι δύο πικράγια τις επιλογές τους. Στο μέλλον θα μπορούμε να βασιζόμαστε στο Googleγια τέτοιου είδους επιλογές. Το Googleθα μπορεί να μου πει ότι θα έχανα τον χρόνο μου στη νομική ή στη σχολή μπαλέτου - αλλά ότι θα γινόμουν ένας θαυμάσιος (και πολύ ευτυχισμένος) ψυχολόγος ή υδραυλικός.

 

Όταν η Τεχνητή Νοημοσύνη θα αρχίσει να παίρνει καλύτερες αποφάσεις για τη σταδιοδρομία και ίσως και για τις σχέσεις μας, η αντίληψή μας για την ανθρωπότητα και για τη ζωή αναγκαστικά θα αλλάξει. Οι άνθρωποι σκέφτονται τη ζωή σαν ένα δράμα που αφορά τη λήψη αποφάσεων. Η φιλελεύθερη δημοκρατία και ο καπιταλισμός της ελεύθερης αγοράς βλέπουν το άτομο σαν έναν αυτόνομο φορέα που κάνει διαρκώς επιλογές σχετικά με τον κόσμο. Τα έργα τέχνης -είτε πρόκειται για θεατρικά του Σαίξπηρ, μυθιστορήματα της Τζέιν Όστιν ή φτηνιάρικες κωμωδίες του Χόλιγουντ- συνήθως περιστρέφονται γύρω από κάποια κρίσιμη απόφαση που πρέπει να πάρει ο ήρωας. Να ζει κανείς ή να μη ζει. Να ακούσω τη γυναίκα μου και να σκοτώσω τον Ντάνκαν ή να ακούσω τη συνείδηση μου και να τον αφήσω να ζήσει; Να παντρευτώ τον κ. Κόλινς ή τον κο Ντάρσι; Η χριστιανική και η μουσουλμανική θεολογία εστιάζουν αντίστοιχα στο δράμα των αποφάσεων, υποστηρίζοντας ότι η αιώνια λύτρωση ή η καταδίκη εξαρτάται από τις σωστές επιλογές.

 

Τι θα απογίνει αυτή η άποψη για τη ζωή καθώς θα βασιζόμαστε για τις επιλογές μας όλο και περισσότερο στην Τ.Ν.; Για την ώρα εμπιστευόμαστε το Netflix για να μας προτείνει ταινίες και τους Χάρτες Google για να διαλέξουν αν θα στρίψουμε δεξιά ή αριστερά. Όταν όμως θα αρχίσουμε να βασιζόμαστε στην Τ.Ν. για να αποφασίσουμε τι θα σπουδάσουμε, πού θα εργαστούμε και ποιον να παντρευτούμε, η ανθρώπινη ζωή θα πάψει να είναι ένα δράμα αποφάσεων. Οι δημοκρατικές εκλογές και οι ελεύθερες αγορές δεν θα έχουν πια πολύ νόημα. Το ίδιο και οι θρησκείες και τα έργα τέχνης. Φανταστείτε την Άννα Καρένινα να βγάζει το κινητό της και να ρωτάει τον αλγόριθμο του Facebook αν πρέπει να μείνει παντρεμένη με τον Καρένιν ή να κλεφτεί με τον γοητευτικό κόμη Βρόνσκι. Ή φανταστείτε το αγαπημένο σας έργο του Σαίξπηρ με όλες τις κρίσιμες αποφάσεις να λαμβάνονται από τον αλγόριθμο του Google. Ο Άμλετ και ο Μάκβεθ θα ζουν πολύ πιο άνετα, αλλά τι ζωή ακριβώς θα είναι αυτή; Διαθέτουμε τα μοντέλα για να μπορούμε να κατανοήσουμε μια τέτοια ζωή;

 

Καθώς η αυθεντία θα περνάει από τους ανθρώπους στους αλγόριθμους, μπορεί να πάψουμε να βλέπουμε τον κόσμο σαν πεδίο αυτόνομων ατόμων που αγωνίζονται να κάνουν τις σωστές επιλογές. Μπορεί να αρχίσουμε να αντιλαμβανόμαστε ολόκληρο το σύμπαν σαν ροή δεδομένων, οι οργανισμοί να μη μας φαίνονται σαν κάτι παραπάνω από βιοχημικοί αλγόριθμοι και να πιστέψουμε ότι η κοσμική αποστολή της ανθρωπότητας είναι να δημιουργήσει ένα σύστημα επεξεργασίας δεδομένων που θα περιλαμβάνει τα πάντα - κι έπειτα να συγχωνευτεί με αυτό. Ήδη σήμερα γινόμαστε μικροσκοπικά κυκλώματα μέσα σε ένα γιγάντιο σύστημα επεξεργασίας δεδομένων που κανείς δεν το κατανοεί πραγματικά. Αφομοιώνω καθημερινά αμέτρητα δεδομένα μέσω ηλεκτρονικών μηνυμάτων, tweetκαι άρθρων˙ επεξεργάζομαι τα δεδομένα˙ και αναμεταδίδω νέα δεδομένα μέσω περισσότερων ηλεκτρονικών μηνυμάτων, tweetκαι άρθρων. Δεν ξέρω ποια πραγματικά είναι η θέση μου μέσα στο συνολικό σχέδιο ούτε πώς συνδέονται τα δεδομένα μου με τα δεδομένα που παράγουν δισεκατομμύρια άλλοι άνθρωποι και υπολογιστές. Δεν έχω τον καιρό να μάθω, γιατί είμαι υπερβολικά απασχολημένος με το να απαντάω σε όλα αυτά τα ηλεκτρονικά μηνύματα.

 

Το φιλοσοφικό βαγόνι

Κάποιοι άνθρωποι μπορεί να έφερναν την αντίρρηση ότι οι αλγόριθμοι δεν θα μπορούσαν ποτέ να πάρουν σοβαρές αποφάσεις για λογαριασμό μας, γιατί οι σημαντικές αποφάσεις περιλαμβάνουν συνήθως και μια ηθική διάσταση, και οι αλγόριθμοι δεν κατανοούν την ηθική. Ωστόσο, δεν υπάρχει κάποιος λόγος να υποθέτουμε ότι οι αλγόριθμοι δεν θα μπορέσουν να ξεπεράσουν τον μέσο άνθρωπο ακόμα και στην ηθική. Ήδη σήμερα, καθώς συσκευές όπως τα έξυπνα κινητά και τα αυτόνομα οχήματα αναλαμβάνουν αποφάσεις που παλιότερα τις μονοπωλούσαν οι άνθρωποι, αρχίζουν να αντιμετωπίζουν ηθικά προβλήματα σαν αυτά που βασανίζουν τους ανθρώπους εδώ και χιλιετίες.

 

Για παράδειγμα, ας υποθέσουμε ότι δύο παιδιά που κυνηγάνε μια μπάλα πετάγονται μπροστά σε ένα αυτόνομο αυτοκίνητο. Κάνοντας αστραπιαίους υπολογισμούς, ο αλγόριθμος που οδηγεί το αυτοκίνητο καταλήγει στο συμπέρασμα ότι ο μόνος τρόπος να αποφύγει να χτυπήσει τα δύο παιδιά είναι να βγει στο αντίθετο ρεύμα, κινδυνεύοντας να συγκρουστεί με ένα φορτηγό που πλησιάζει. Ο αλγόριθμος υπολογίζει ότι ο ιδιοκτήτης του αυτοκινήτου -που κοιμάται στο πίσω κάθισμα- έχει 70% πιθανότητα να σκοτωθεί. Τι πρέπει να κάνει;

 

Οι φιλόσοφοι συζητούν για τέτοια «προβλήματα του τραμ» εδώ και χιλιετίες (ονομάζονται προβλήματα του τραμ» γιατί τα τυπικά παραδείγματα στις σύγχρονες φιλοσοφικές συζητήσεις αναφέρονται σε αποκομμένα βαγόνια τραμ που τρέχουν μόνα τους στις ράγες και όχι σε αυτόνομα αυτοκίνητα). Μέχρι τώρα, τα επιχειρήματα αυτά είχαν ενοχλητικά μικρή επίδραση στην πραγματική συμπεριφορά, γιατί σε στιγμές κρίσης οι άνθρωποι πολύ συχνά ξεχνάνε τις φιλοσοφικές απόψεις τους και ακολουθούν τα συναισθήματα και τα ένστικτά τους.

 

Ένα από τα πιο κακοήθη πειράματα στην ιστορία των κοινωνικών επιστημών πραγματοποιήθηκε τον Δεκέμβριο του 1970 σε μια ομάδα φοιτητών του Θεολογικού Σεμιναρίου του Πρίνστον, οι οποίοι εκπαιδεύονταν για να γίνουν ιερείς Πρεσβυτεριανή Εκκλησία. Ζητήθηκε από κάθε φοιτητή να πάει γρήγορα σε μια μακρινή αίθουσα διαλέξεων και να κάνει εκεί μια ομιλία για την παραβολή του Καλού Σαμαρείτη, η οποία λέει για έναν Ισραηλίτη που, ενώ πήγαινε από τα Ιεροσόλυμα στην Ιεριχώ, ληστεύτηκε και χτυπήθηκε από ληστές, που τον άφησαν στην άκρη του δρόμου να πεθάνει. Μετά από λίγο πέρασε από εκεί ένας ιερέας κι ένας Λευίτης, αλλά κι οι δύο τον αγνόησαν. Αντίθετα, ένας Σαμαρείτης -μέλος μιας θρησκευτικής ομάδας που οι Ισραηλίτες απεχθάνονταν- σταμάτησε όταν είδε το θύμα, τον φρόντισε και του έσωσε τη ζωή. Το ηθικό δίδαγμα της παραβολής είναι ότι η αξία των ανθρώπων πρέπει να κρίνεται από τη συμπεριφορά τους και όχι από τις θρησκευτικές τους πεποιθήσεις.

 

Οι πρόθυμοι φοιτητές έσπευσαν προς την αίθουσα διαλέξεων, προσπαθώντας να σκεφτούν στη διαδρομή πώς θα εξηγούσαν καλύτερα την παραβολή του Καλού Σαμαρείτη. Αλλά οι σχεδιαστές του πειράματος είχαν τοποθετήσει στον δρόμο τους ένα άτομο κακοντυμένο που καθόταν ακουμπισμένο σε μια πόρτα με το κεφάλι πεσμένο μπροστά και τα μάτια κλειστά. Καθώς ο κάθε ανυποψίαστος φοιτητής περνούσε βιαστικά μπροστά του, το «θύμα» έβηχε και βογκούσε αξιοθρήνητα. Οι περισσότεροι φοιτητές ούτε που στάθηκαν για να ρωτήσουν τι του συνέβαινε, πόσο μάλλον να τον βοηθήσουν. Η συναισθηματική πίεση που τους δημιουργούσε η υποχρέωση να φτάσουν γρήγορα στην αίθουσα υπερίσχυσε της ηθικής τους υποχρέωσης να βοηθούν τους ξένους που βρίσκονταν σε κίνδυνο.

 

Τα ανθρώπινα συναισθήματα υπερισχύουν των φιλοσοφικών θεωριών σε αμέτρητες άλλες καταστάσεις. Αυτό καθιστά την ηθική και φιλοσοφική ιστορία του κόσμου μια μάλλον καταθλιπτική ιστορία υπέροχων ιδανικών, και συμπεριφορών κάθε άλλο παρά ιδανικών. Πόσοι χριστιανοί γυρίζουν όντως το άλλο μάγουλο, πόσοι βουδιστές ξεπερνούν πράγματι τις εγωιστικές εμμονές και πόσοι Εβραίοι αγαπούν όντως τον πλησίον τους όσο τον εαυτό τους; Έτσι όμως έχει διαμορφώσει τον χόμο σάπιενς η φυσική επιλογή. Όπως όλα τα θηλαστικά, ο χόμο σάπιενς χρησιμοποιεί τα συναισθήματα, για να παίρνει γρήγορα αποφάσεις ζωής και θανάτου. Έχουμε κληρονομήσει την οργή, το φόβο και τη λαγνεία μας από εκατομμύρια προγόνους, που όλοι τους είχαν περάσει τους πιο αυστηρούς ελέγχους ποιότητας της φυσικής επιλογής.

 

Δυστυχώς, αυτό που ήταν κατάλληλο για την επιβίωση και την αναπαραγωγή στην αφρικανική σαβάνα πριν από ένα εκατομμύριο χρόνια δεν συνιστά κατ’ ανάγκη υπεύθυνη συμπεριφορά στους αυτοκινητόδρομους του 21ου αιώνα. Οι μη συγκεντρωμένοι, θυμωμένοι και αγχωμένοι οδηγοί σκοτώνουν κάθε χρόνο πάνω από ένα εκατομμύριο ανθρώπους σε τροχαία δυστυχήματα. Μπορούμε να στείλουμε όλους μας τους φιλόσοφους, τους προφήτες και τους ιερείς για να διδάξουν ηθική στους οδηγούς αυτούς - αλλά στο δρόμο, τα ένστικτα του θηλαστικού και της σαβάνας θα υπερισχύσουν. Συνεπώς, οι βιαστικοί φοιτητές θα αγνοούν τους ανθρώπους που βρίσκονται σε κίνδυνο και οι οδηγοί που βρίσκονται σε κρίση θα πατάνε άτυχους πεζούς.

 

Η ασυνέπεια ανάμεσα στο σεμινάριο και το δρόμο είναι ένα από τα μεγαλύτερα πρακτικά προβλήματα της ηθικής. Ο Ιμάνουελ Καντ, ο Τζον Στιούαρτ Μιλ και ο Τζον Ρολς μπορεί να κάθονται και να συζητούν θεωρητικά προβλήματα της ηθικής για μέρες σε κάποια άνετη πανεπιστημιακή αίθουσα - αλλά θα εφαρμοστούν, άραγε, τα συμπεράσματά τους από κάποιον στρεσαρισμένο οδηγό στα κλάσματα δευτερολέπτου μιας έκτακτης κατάστασης; Ίσως ο Μίκαελ Σουμάχερ -ο πρωταθλητής της Φόρμουλα 1 που θεωρείται από κάποιους ο καλύτερος οδηγός στην ιστορία- να είχε την ικανότητα να σκέφτεται τη φιλοσοφία, ενώ οδηγούσε ένα αυτοκίνητο· αλλά οι περισσότεροι δεν είμαστε Σουμάχερ.

 

Οι αλγόριθμοι των υπολογιστών, ωστόσο, δεν έχουν διαμορφωθεί από τη φυσική επιλογή και δεν έχουν ούτε συναισθήματα ούτε ένστικτα. Επομένως, σε στιγμές κρίσης θα μπορούσαν να ακολουθήσουν ηθικές οδηγίες πολύ καλύτερα απ’ ό,τι οι άνθρωποι -αρκεί να βρούμε τον τρόπο να κωδικοποιήσουμε την ηθική με ακριβείς αριθμούς και στατιστικές. Αν μάθουμε στον Καντ, τον Μιλ και τον Ρολς να γράφουν κώδικα, θα μπορούσαν να προγραμματίσουν προσεκτικά το αυτόνομο αυτοκίνητο στο άνετο εργαστήριό τους και να είναι σίγουροι ότι το αυτοκίνητο θα ακολουθήσει τις εντολές τους στον αυτοκινητόδρομο. Στην πράξη, κάθε αυτοκίνητο θα είχε για οδηγό τον Σουμάχερ και τον Καντ μαζί.

 

Έτσι, αν προγραμματίσουμε ένα αυτόνομο αυτοκίνητο να σταματάει και να βοηθάει αγνώστους σε κίνδυνο, θα το κάνει ο κόσμος να χαλάσει (εκτός βέβαια αν βάλετε κάποια ρήτρα εξαίρεσης για περιπτώσεις που χαλάει ο κόσμος). Με τον ίδιο τρόπο, αν το αυτόνομο αυτοκίνητο είναι προγραμματισμένο να βγει στο αντίθετο ρεύμα για να σώσει τα δύο παιδιά που βρέθηκαν στο δρόμο του, μπορείτε να είστε απόλυτα σίγουροι ότι θα κάνει ακριβώς αυτό. Πράγμα που σημαίνει πως όταν η Τογιότα ή η Τέσλα θα σχεδιάζουν το αυτόνομο αυτοκίνητό τους, θα μετατρέπουν ένα θεωρητικό πρόβλημα της ηθικής φιλοσοφίας σε πρακτικό πρόβλημα μηχανικής.

 

Βέβαια, οι φιλοσοφικοί αλγόριθμοι ποτέ δεν θα είναι τέλειοι. Θα γίνονται λάθη, που θα οδηγούν σε τραυματισμούς, θανάτους και απίστευτα περίπλοκες μηνύσεις. (Για πρώτη φορά στην ιστορία θα είστε σε θέση να μηνύσετε έναν φιλόσοφο για το ατυχές αποτέλεσμα των θεωριών του, γιατί για πρώτη φορά στην ιστορία θα μπορείτε να αποδείξετε την ύπαρξη αιτιακής σχέσης ανάμεσα σε φιλοσοφικές ιδέες και πραγματικά γεγονότα). Ωστόσο, οι αλγόριθμοι δεν χρειάζεται να είναι τέλειοι για να πάρουν τη θέση των ανθρώπων-οδηγών. Αρκεί να τα καταφέρνουν καλύτερα απ’ αυτούς. Δεδομένου ότι οι άνθρωποι-οδηγοί σκοτώνουν πάνω από ένα εκατομμύριο άτομα κάθε χρόνο, δεν θα είναι και τόσο δύσκολο. Στο κάτω κάτω, ποιος θα προτιμούσατε να οδηγεί το αμάξι δίπλα σας; Ένας μεθυσμένος έφηβος ή η ομάδα Σουμάχερ-Καντ;

 

Η ίδια λογική δεν ισχύει μόνο για την οδήγηση, αλλά και για πολλές ακόμα καταστάσεις. Για παράδειγμα, για τις αιτήσεις εργασίας. Στον 21ο αιώνα, η απόφαση αν θα προσληφθεί κάποιος ή όχι σε μια δουλειά θα λαμβάνεται ολοένα και περισσότερο από αλγόριθμους. Δεν μπορούμε να βασιστούμε σε μια μηχανή για να θέσει τους ηθικούς κανόνες - αυτό θα πρέπει ακόμα να το κάνουν άνθρωποι. Αλλά όταν θα έχει αποφασιστεί το ηθικό πρότυπο που θα ισχύει στην αγορά εργασίας -για παράδειγμα, ότι είναι λάθος να γίνονται διακρίσεις εις βάρος των μαύρων ατόμων ή των γυναικών-θα μπορούμε να είμαστε σίγουροι ότι οι μηχανές θα εφαρμόζουν και θα τηρούν τον κανόνα αυτό καλύτερα απ’ ό,τι οι άνθρωποι.

 

Ένας διευθυντής μπορεί να γνωρίζει κι ακόμα να συμφωνεί ότι είναι ανήθικο να γίνονται διακρίσεις κατά των μαύρων και των γυναικών, αλλά όταν μια μαύρη γυναίκα υποβάλλει αίτηση για μια θέση, ο διευθυντής κάνει υποσυνείδητα τη διάκριση και αποφασίζει να μην την προσλάβει. Αν αφήσουμε έναν υπολογιστή να αξιολογεί τις αιτήσεις για δουλειά και τον προγραμματίσουμε να αγνοεί εντελώς τη φυλετική καταγωγή και το φύλο, μπορούμε να είμαστε σίγουροι ότι ο υπολογιστής όντως θα αγνοεί αυτούς τους παράγοντες, επειδή οι υπολογιστές δεν έχουν υποσυνείδητο. Φυσικά, δεν θα είναι εύκολο να γραφτεί κώδικας για την αξιολόγηση αιτήσεων εργασίας και υπάρχει πάντα ο κίνδυνος να περάσουν οι σχεδιαστές τις υποσυνείδητες προκαταλήψεις τους στο λογισμικό. Ωστόσο, όταν ανακαλύψουμε αυτά τα λάθη, θα είναι μάλλον πολύ ευκολότερο να διορθώσουμε το λογισμικό απ’ ό,τι να απαλλάξουμε τους ανθρώπους από τις ρατσιστικές και μισογυνικές τους προκαταλήψεις.

 

Είδαμε ότι η διάδοση της τεχνητής νοημοσύνης μπορεί να αποβάλει τους περισσότερους ανθρώπους από την αγορά εργασίας - όπως τους οδηγούς και τους τροχονόμους (όταν οι ταραξίες άνθρωποι θα έχουν αντικατασταθεί από υπάκουους αλγόριθμους, η Τροχαία θα είναι πια περιττή). Ωστόσο, μπορεί να υπάρχουν νέες ευκαιρίες για τους φιλόσοφους, γιατί οι γνώσεις τους -που δεν είχαν ως τώρα καμία αξία στην αγορά εργασίας- θα είναι ξαφνικά περιζήτητες. Έτσι, αν θέλετε να σπουδάσετε κάτι που θα σας εξασφαλίσει μια δουλειά στο μέλλον, ίσως η φιλοσοφία να μην είναι τόσο κακή ιδέα.

 

Φυσικά, οι φιλόσοφοι σπάνια συμφωνούν μεταξύ τους για τον καλύτερο τρόπο δράσης. Ελάχιστα «προβλήματα του τραμ» έχουν επιλυθεί με τρόπο που να αφήνει όλους τους φιλόσοφους ευχαριστημένους, και οι στοχαστές της συνεπειοκρατίας όπως ο Τζον Στιούαρτ Μιλ (που κρίνουν τις πράξεις ανάλογα με τις συνέπειές τους) έχουν πολύ διαφορετικές απόψεις από τους δεοντολόγους, όπως ο Ιμάνουελ Καντ (που κρίνουν τις πράξεις με βάση απόλυτους κανόνες). Θα πρέπει η Τέσλα να πάρει θέση σε τόσο ακανθώδη ζητήματα για να κατασκευάσει ένα αυτοκίνητο;

 

Λοιπόν, ίσως η Τέσλα πρέπει να το αφήσει στην αγορά. Η Τέσλα θα κατασκευάσει δύο μοντέλα του αυτόνομου αυτοκινήτου: το Τέσλα Άλτρουιστ και το Τέσλα Έγκοϊστ. Σε μια κατάσταση έκτακτης ανάγκης, το Άλτρουιστ θα θυσιάζει τον ιδιοκτήτη του για το γενικό καλό, ενώ το Έγκοϊστ θα κάνει ό,τι μπορεί για να σώσει τον ιδιοκτήτη του, ακόμα κι αν αυτό σημαίνει να σκοτώσει τα δύο παιδιά. Έτσι, οι πελάτες θα μπορούν να αγοράσουν το αυτοκίνητο που ταιριάζει καλύτερα στη φιλοσοφική τους άποψη. Αν πουλιούνται περισσότερα Έγκοϊστ, δεν θα μπορείτε να κατηγορήσετε γι’ αυτό την Τέσλα. Στο κάτω κάτω, ο πελάτης έχει πάντα δίκιο.

 

Δεν πρόκειται για πλάκα. Σε μια πρωτοποριακή μελέτη που έγινε το 2015, παρουσιάστηκε σε κάποιους ανθρώπους το υποθετικό σενάριο ενός αυτόνομου αυτοκινήτου που είναι έτοιμο να χτυπήσει αρκετούς πεζούς. Οι περισσότεροι είπαν ότι, σε μια τέτοια περίπτωση, το αυτοκίνητο θα πρέπει να σώσει τους πεζούς ακόμα και με τίμημα να σκοτωθεί ο ιδιοκτήτης του. Όταν ρωτήθηκαν αν θα αγόραζαν οι ίδιοι προσωπικά ένα αυτοκίνητο προγραμματισμένο να θυσιάσει τον ιδιοκτήτη του για το γενικό καλό, οι περισσότεροι απάντησαν «όχι». Για τον εαυτό τους θα προτιμούσαν το Τέσλα Έγκοϊστ.

 

Φανταστείτε την κατάσταση: έχετε αγοράσει καινούργιο αυτοκίνητο, πριν όμως αρχίσετε να το χρησιμοποιείτε, πρέπει να ανοίξετε το μενού με τις ρυθμίσεις και να επιλέξετε διάφορα κουτάκια. Σε περίπτωση ατυχήματος, θέλετε το αυτοκίνητο να θυσιάσει τη ζωή σας ή να σκοτώσει την οικογένεια στο απέναντι αυτοκίνητο; Θέλετε, άραγε, έστω και να κάνετε αυτή την επιλογή; Σκεφτείτε μόνο τους καβγάδες που θα κάνετε με τον/τη σύζυγό σας για το κουτάκι που θα διαλέξετε.

 

Μήπως, λοιπόν, θα έπρεπε να παρέμβει το κράτος και να ρυθμίσει την αγορά θέτοντας έναν ηθικό κώδικα που θα δεσμεύει όλα τα αυτόνομα αυτοκίνητα; Κάποιοι νομοθέτες σίγουρα θα ενθουσιαστούν που θα μπορούν, επιτέλους, να φτιάξουν νόμους οι οποίοι θα τηρούνται πάντα κατά γράμμα. Άλλοι μπορεί να θορυβηθούν μπροστά σε μια τόσο πρωτοφανή και ολοκληρωτική ευθύνη. Σε τελική ανάλυση, σε όλη την ιστορία οι περιορισμοί στη δυνατότητα επιβολής του νόμου πρόσφεραν μια καλοδεχούμενη συγκράτηση στις προκαταλήψεις, τα σφάλματα και τις υπερβολές των νομοθετών. Ήταν μεγάλο ευτύχημα που οι νόμοι κατά της ομοφυλοφιλίας και της βλασφημίας εφαρμόζονταν μόνο εν μέρει. Θέλουμε, άραγε, στ’ αλήθεια ένα σύστημα στο οποίο οι αποφάσεις μη αλάνθαστων πολιτικών θα έχουν γίνει τόσο απόλυτες όσο η βαρύτητα;

 


 

Ψηφιακές Δικτατορίες

Η Τ.Ν. συχνά φοβίζει τους ανθρώπους επειδή δεν είναι σίγουροι ότι θα παραμείνει υπάκουη. Έχουμε δει τόσες ταινίες επιστημονικής φαντασίας στις οποίες τα ρομπότ εξεγείρονται ενάντια στους αφέντες τους και ξεχύνονται έξαλλα στους δρόμους εξολοθρεύοντας τους πάντες. Ωστόσο, το πραγματικό πρόβλημα με τα ρομπότ είναι ακριβώς το αντίθετο. Πρέπει να τα φοβόμαστε επειδή μάλλον θα υπακούν πάντα τους αφέντες τους και δεν θα εξεγερθούν ποτέ.

 

Η τυφλή υπακοή δεν είναι κακή, βέβαια, αρκεί ο αφέντης που υπηρετούν τα ρομπότ να είναι καλός. Ακόμα και στον πόλεμο, η χρήση φονικών ρομπότ θα μπορούσε να διασφαλίσει ότι για πρώτη φορά στην ιστορία το δίκαιο του πολέμου θα τηρείται όντως στο πεδίο της μάχης. Οι στρατιώτες οδηγούνται ορισμένες φορές από τα συναισθήματα τους να δολοφονήσουν, να λεηλατήσουν και να βιάσουν, παραβιάζοντας τους νόμους του πολέμου. Συνήθως συσχετίζουμε τα συναισθήματα με τη συμπόνια, την αγάπη και την κατανόηση, αλλά σε καιρό πολέμου τα συναισθήματα που κυριαρχούν είναι πολύ συχνά εκείνα του φόβου, του μίσους και της σκληρότητας. Καθώς τα ρομπότ δεν έχουν συναισθήματα, θα μπορούμε να είμαστε σίγουροι ότι θα εφαρμόζουν πάντα κατά γράμμα τον στρατιωτικό κώδικα και δεν θα παρεκκλίνουν ποτέ εξαιτίας προσωπικών φόβων και μίσους.

 

Στις 16 Μαρτίου 1968, ένας λόχος αμερικανών στρατιωτών έπαθε αμόκ στο χωριό Μάι Λάι του Νότιου Βιετνάμ και κατέσφαξε 400 άμαχους. Αυτό το έγκλημα πολέμου διαπράχτηκε από πρωτοβουλία των αντρών που βρίσκονταν επιτόπου και που πολεμούσαν με αντάρτες στη ζούγκλα επί αρκετούς μήνες. Δεν εξυπηρετούσε κάποιον στρατηγικό στόχο και ερχόταν σε αντίθεση τόσο με τη νομοθεσία όσο και με τη στρατιωτική πολιτική των ΗΠΑ. Υπαίτια για αυτό ήταν τα ανθρώπινα συναισθήματα. Αν οι ΗΠΑ χρησιμοποιούσαν φονικά ρομπότ στο Βιετνάμ, η σφαγή του Μάι Λάι δεν θα είχε συμβεί.

 

Εντούτοις, προτού σπεύσουμε να σχεδιάσουμε και να αρχίσουμε να χρησιμοποιούμε ρομπότ-δολοφόνους, πρέπει να θυμηθούμε ότι τα ρομπότ πάντα αντανακλούν και ενισχύουν τα χαρακτηριστικά του κώδικά τους. Αν ο κώδικας χαρακτηρίζεται από συγκράτηση και καλοήθεια, τα ρομπότ θα αποτελέσουν μάλλον σημαντική βελτίωση σε σχέση με τον μέσο στρατιώτη. Αν όμως ο κώδικας είναι ανελέητος και σκληρός, τότε το αποτέλεσμα θα είναι καταστροφικό. Το πραγματικό πρόβλημα με τα ρομπότ δεν είναι η τεχνητή τους νοημοσύνη, αλλά μάλλον η φυσική βλακεία και σκληρότητα των ανθρώπων που τα ελέγχουν.

 

Τον Ιούλιο του 1995, σερβοβόσνιοι στρατιώτες δολοφόνησαν πάνω από 8.000 βόσνιους μουσουλμάνους στην πόλη Σρεμπρένιτσα. Αντίθετα από την απρογραμμάτιστη σφαγή του Μάι Λάι, οι δολοφονίες της Σρεμπρένιτσα ήταν μια παρατεταμένη και καλά οργανωμένη επιχείρηση που αντανακλούσε την σερβοβοσνιακή πολιτική εθνοκάθαρσης της Βοσνίας από τους μουσουλμάνους. Αν οι Σερβοβόσνιοι είχαν χρησιμοποιήσει ρομπότ-δολοφόνους το 1995, το έγκλημα θα ήταν μάλλον ακόμα μεγαλύτερο. Ούτε ένα ρομπότ δεν θα είχε δείξει τον παραμικρό δισταγμό να εκτελέσει τις διαταγές που είχε λάβει, όποιες κι αν ήταν αυτές, και δεν θα είχε χαρίσει τη ζωή ούτε σε ένα παιδάκι λόγω συναισθημάτων συμπόνιας, αηδίας ή απλής ψυχικής κούρασης.

 

Ένας ανελέητος δικτάτορας που θα είχε στη διάθεσή του τέτοια φονικά ρομπότ δεν θα φοβόταν ποτέ ότι οι στρατιώτες του μπορεί να στραφούν εναντίον του, όσο άσπλαχνες και τρελές κι αν ήταν οι εντολές του. Ένας στρατός από ρομπότ θα είχε μάλλον καταπνίξει τη Γαλλική Επανάσταση στα σπάργανά της το 1789, κι αν το 2011 ο Χόσνι Μουμπάρακ διέθετε ένα απόσπασμα φονικών ρομπότ, θα τα είχε εξαπολύσει εναντίον του πληθυσμού χωρίς να φοβάται τις λιποταξίες. Αντίστοιχα, μια ιμπεριαλιστική κυβέρνηση που θα βασιζόταν σε ένα στρατό από ρομπότ θα μπορούσε να διεξάγει αντιδημοφιλείς πολέμους χωρίς να ανησυχεί ότι τα ρομπότ της μπορεί να έχαναν τη διάθεσή τους ή ότι οι οικογένειές τους μπορεί να οργάνωναν διαμαρτυρίες. Αν οι ΗΠΑ είχαν ρομπότ-δολοφόνους στον Πόλεμο του Βιετνάμ, η σφαγή του Μάι Λάι μπορεί να είχε αποφευχθεί, αλλά ο ίδιος ο πόλεμος μπορεί να είχε τραβήξει για πολλά χρόνια ακόμα, γιατί η αμερικανική κυβέρνηση δεν θα χρειαζόταν να ανησυχεί τόσο για το ηθικό των στρατιωτών, τις μεγάλες αντιπολεμικές διαδηλώσεις ή κάποιο κίνημα «βετεράνων ρομπότ κατά του πολέμου» (κάποιοι αμερικανοί πολίτες μπορεί να αντιτάσσονταν πάλι στον πόλεμο, όμως χωρίς το φόβο ότι μπορεί να επιστρατεύονταν και οι ίδιοι, χωρίς τις αναμνήσεις από αγριότητες που είχαν διαπράξει οι ίδιοι ή χωρίς την οδυνηρή απώλεια κάποιου δικού τους προσώπου, οι διαδηλωτές θα ήταν μάλλον λιγότεροι και λιγότερο αποφασισμένοι).

 

Τα προβλήματα αυτά δεν αφορούν σχεδόν καθόλου τα αυτόνομα πολιτικά αυτοκίνητα, γιατί κανένας κατασκευαστής αυτοκινήτων δεν θα προγραμμάτιζε κακόβουλα τα οχήματά του ώστε να στοχεύουν και να σκοτώνουν ανθρώπους. Ωστόσο, τα αυτόνομα οπλικά συστήματα είναι μια καταστροφή που προετοιμάζεται, γιατί τάρα πολλές κυβερνήσεις είναι ηθικά διεφθαρμένες ή και κατάφωρα μοχθηρές.

 

Ο κίνδυνος δεν περιορίζεται στις φονικές μηχανές. Τα συστήματα επιτήρησης μπορούν να είναι εξίσου επικίνδυνα. Στα χέρια μιας αγαθής κυβέρνησης, οι ισχυροί αλγόριθμοι επιτήρησης θα μπορούσαν να είναι το καλύτερο πράγμα που συνέβη ποτέ στην ανθρωπότητα. Ωστόσο, οι ίδιοι αλγόριθμοι Μεγάλων Δεδομένων θα μπορούσαν επίσης να οπλίσουν έναν μελλοντικό Μεγάλο Αδερφό και να βρεθούμε τελικά με ένα οργουελικό καθεστώς επιτήρησης, όπου οι πάντες θα παρακολουθούνται συνεχώς.

 

Θα μπορούσαμε μάλιστα να καταλήξουμε σε κάτι που ακόμα κι ο Όργουελ δεν θα μπορούσε να το φανταστεί: ένα καθεστώς ολοκληρωτικής επιτήρησης, το ποιο δεν θα παρακολουθεί μόνο όλες τις εξωτερικές μας δραστηριότητες και συνομιλίες, αλλά θα μπορεί να μπει ακόμα και μέσα μας και να παρακολουθεί τις εσωτερικές μας εμπειρίες. Φανταστείτε, για παράδειγμα, τι μπορεί να κάνει με τη νέα τεχνολογία το καθεστώς Κιμ στη Βόρεια Κορέα. Στο μέλλον, κάθε βορειοκορεάτης πολίτης μπορεί να είναι υποχρεωμένος να φοράει ένα βιομετρικό βραχιόλι το οποίο θα καταγράφει ό,τι κάνει και ό,τι λέει - καθώς και την πίεσή του και την εγκεφαλική του δραστηριότητα. Χρησιμοποιώντας την ολοένα και μεγαλύτερη κατανόησή μας για τον ανθρώπινο εγκέφαλο και τις τεράστιες δυνατότητες της μηχανικής εκμάθησης, το καθεστώς της Βόρειας Κορέας μπορεί να είναι σε θέση για πρώτη φορά στην ιστορία να καταγράφει τι σκέφτεται κάθε πολίτης ανά πάσα στιγμή. Αν κοιτάζατε μια φωτογραφία του Κιμ Γιονγκ Ουν και ο βιομετρικός αισθητήρας κατέγραφε ενδείξεις θυμού (άνοδος της πίεσης, αυξημένη δραστηριότητα στην αμυγδαλή), το επόμενο πρωί θα βρισκόσασταν στο γκουλάγκ.

 

Είναι αλήθεια πως, λόγω της απομόνωσής του, το καθεστώς της Βόρειας Κορέας θα δυσκολευόταν ίσως να αναπτύξει μόνο του την απαραίτητη τεχνολογία. Ωστόσο, η τεχνολογία μπορεί να αναπτυχθεί σε άλλες, καλύτερα καταρτισμένες χώρες και να αντιγράφει ή να αγοραστεί από τη Βόρεια Κορέα ή άλλες οπισθοδρομικές δικτατορίες. Τόσο η Κίνα όσο και η Ρωσία βελτιώνουν διαρκώς τα εργαλεία επιτήρησης που διαθέτουν, όπως κάνουν και αρκετές δημοκρατικές χώρες, από τις ΗΠΑ μέχρι την πατρίδα μου, το Ισραήλ. Το Ισραήλ, με το παρατσούκλι «η χώρα σταρτ-απ», διαθέτει έναν εξαιρετικά δυναμικό τομέα υψηλής τεχνολογίας και την τελευταία λέξη της βιομηχανίας κυβερνοασφάλειας. Την ίδια στιγμή, βρίσκεται επίσης σε μια διαρκή θανάσιμη σύγκρουση με τους Παλαιστίνιους και τουλάχιστον ορισμένοι από τους ηγέτες, τους στρατηγούς και τους πολίτες του μπορεί να δημιουργούσαν με πολύ μεγάλη χαρά ένα καθεστώς ολικής επιτήρησης στη Δυτική Όχθη, μόλις θα είχαν την απαραίτητη τεχνολογία.

 

Ήδη σήμερα, όποτε οι Παλαιστίνιοι κάνουν ένα τηλεφώνημα, ανεβάζουν κάτι στο Facebook ή ταξιδεύουν από τη μία πόλη στην άλλη, είναι πολύ πιθανό να παρακολουθούνται από ισραηλινά μικρόφωνα, κάμερες, drone ή λογισμικό παρακολούθησης. Τα δεδομένα που συγκεντρώνονται αναλύονται με τη βοήθεια αλγόριθμων Μεγάλων Δεδομένων. Αυτό βοηθάει τις ισραηλινές δυνάμεις ασφαλείας να εντοπίζουν και να εξουδετερώνουν πιθανές απειλές, χωρίς να χρειάζεται να χρησιμοποιούν πολύ ανθρώπινο δυναμικό επιτόπου. Οι Παλαιστίνιοι μπορεί να διοικούν κάποιες πόλεις και χωριά στη Δυτική Όχθη, αλλά οι Ισραηλινοί ελέγχουν τον ουρανό, τα ραδιοκύματα και τον κυβερνοχώρο. Έτσι απαιτούνται ελάχιστοι ισραηλινοί στρατιώτες για να ελέγχουν αποτελεσματικά περίπου 2,5 εκατομμύρια Παλαιστίνιους στη Δυτική Όχθη.

 

Τον Οκτώβριο του 2017, συνέβη ένα κωμικοτραγικό περιστατικό. Ένας παλαιστίνιος εργάτης ανέβασε στον προσωπικό του λογαριασμό στο Facebookμια φωτογραφία του στο χώρο εργασίας του, δίπλα σε μια μπουλντόζα. Δίπλα στην εικόνα έγραψε «Καλημέρα!» Ο αυτόματος αλγόριθμος έκανε ένα μικρό λάθος στη μεταγραφή των αραβικών γραμμάτων και αντί για «Καλημέρα!» διάβασε «Χτυπήστε τους!» - φράσεις με παρεμφερή προφορά. Υποπτευόμενες ότι ο άντρας αυτός μπορεί να ήταν τρομοκράτης που σκόπευε να χρησιμοποιήσει τη μπουλντόζα για να χτυπήσει ανθρώπους, οι ισραηλινές δυνάμεις ασφαλείας τον συνέλαβαν αμέσως. Αφέθηκε ελεύθερος όταν συνειδητοποίησαν ότι ο αλγόριθμος είχε κάνει λάθος. Αλλά το επίμαχο ποστ στο Facebookκατέβηκε, παρ’ όλα αυτά. Πρέπει πάντα να προσέχεις. Αυτό που βιώνουν σήμερα οι Παλαιστίνιοι στη Δυτική Όχθη μπορεί να είναι απλώς μια πρωτόγονη εισαγωγή σε αυτό που θα καταλήξουν να βιώνουν δισεκατομμύρια άνθρωποι σε όλο τον πλανήτη.

 

Στα τέλη του 20ού αιώνα, οι δημοκρατίες συνήθως απέδιδαν καλύτερα από τις δικτατορίες επειδή ήταν καλύτερες στην επεξεργασία δεδομένων. Η δημοκρατία κατανέμει τη δυνατότητα επεξεργασίας πληροφοριών και της λήψης αποφάσεων από πολλούς ανθρώπους και θεσμούς, ενώ η δικτατορία συγκεντρώνει τις πληροφορίες και την εξουσία σε ένα σημείο. Με δεδομένη την τεχνολογία του 20ου αιώνα, η συγκέντρωση υπερβολικά πολλών πληροφοριών και εξουσίας σε ένα σημείο ήταν αναποτελεσματική. Κανείς δεν είχε την ικανότητα να επεξεργαστεί αρκετά γρήγορα αυτές τις πληροφορίες και να πάρει τις σωστές αποφάσεις. Αυτός είναι εν μέρει και ο λόγος που η Σοβιετική Ένωση πήρε πολύ χειρότερες αποφάσεις από τις ΗΠΑ και που η σοβιετική οικονομία έμεινε πολύ πίσω από την αμερικανική.

 

Σύντομα, ωστόσο, η Τ.Ν. μπορεί να κάνει τη ζυγαριά να γείρει προς την άλλη πλευρά. Η Τ.Ν. καθιστά εφικτή την επεξεργασία τεράστιων ποσοτήτων πληροφορίας κεντρικά. Μάλιστα, η Τ.Ν. μπορεί να κάνει τα συγκεντρωτικά συστήματα πολύ πιο αποτελεσματικά από τα διάχυτα, γιατί η μηχανική εκμάθηση λειτουργεί πολύ καλύτερα όσο περισσότερες πληροφορίες μπορεί να αναλύει. Αν συγκεντρώνετε τις πληροφορίες που αφορούν ένα δισεκατομμύριο ανθρώπους σε μία βάση δεδομένων, αγνοώντας κάθε ζήτημα προσωπικών δεδομένων, μπορείτε να εκπαιδεύσετε πολύ καλύτερα τους αλγόριθμους απ’ ό,τι αν σέβεστε τα προσωπικά δεδομένα και διατηρείτε στη βάση δεδομένων μόνο αποσπασματικές πληροφορίες για ένα εκατομμύριο άτομα. Για παράδειγμα, αν μια αυταρχική κυβέρνηση διέταζε του πολίτες της να δώσουν δείγμα DNA και να μοιράζονται όλα τα ιατρικά τους δεδομένα με μία κεντρική αρχή, θα αποκτούσε τεράστιο πλεονέκτημα στη γενετική και ιατρική έρευνα απέναντι σε κοινωνίες στις οποίες τα ιατρικά δεδομένα θα ήταν αυστηρά προσωπικά. Το βασικό μειονέκτημα των αυταρχικών καθεστώτων στον 20ό αιώνα -η προσπάθεια να συγκεντρώσουν όλη την πληροφορία σε ένα μέρος - μπορεί στον 21ο να γίνει το καθοριστικό τους πλεονέκτημα.

 

Καθώς οι αλγόριθμοι θα μας μαθαίνουν τόσο καλά, οι αυταρχικές κυβερνήσεις θα μπορούσαν να αποκτήσουν τον απόλυτο έλεγχο των πολιτών τους, πολύ περισσότερο απ’ όσο η ναζιστική Γερμανία, και η αντίσταση σε ένα τέτοιο καθεστώς θα είναι εντελώς αδύνατη. Το καθεστώς δεν θα γνωρίζει μόνο ακριβώς πώς αισθάνεστε - θα μπορεί να σας κάνει να αισθάνεστε όπως θέλει αυτό. Ο δικτάτορας ίσως να μην μπορεί να προσφέρει στους πολίτες του υγειονομική περίθαλψη ή ισότητα, αλλά θα μπορεί να τους κάνει να τον αγαπούν και να μισούν τους αντιπάλους του. Η δημοκρατία στην τωρινή της μορφή δεν μπορεί να επιβιώσει από τη συγχώνευση της βιοτεχνολογίας με την τεχνολογία της πληροφορίας. Είτε θα πρέπει να επινοηθεί εκ νέου με ριζικά νέα μορφή, είτε οι άνθρωποι θα καταλήξουν να ζουν σε «ψηφιακές δικτατορίες».

 

Δεν θα επιστρέφουμε στις μέρες του Χίτλερ και του Στάλιν. Οι ψηφιακές δικτατορίες θα είναι τόσο διαφορετικές από τη ναζιστική Γερμανία, όσο ήταν η ναζιστική Γερμανία από το ancientregimeτης Γαλλίας. Ο Λουδοβίκος ΙΔ' ήταν ένας συγκεντρωτικός αυτοκράτορας, αλλά δεν διέθετε την τεχνολογία για να οικοδομήσει ένα σύγχρονο ολοκληρωτικό κράτος. Δεν είχε να αντιμετωπίσει κάποια αντιπολίτευση, αλλά καθώς δεν υπήρχαν ραδιόφωνα, τηλέφωνα και τρένα, ασκούσε ελάχιστο έλεγχο στην καθημερινή ζωή των χωρικών στα μακρινά χωριά της Βρετάνης ή ακόμα και του αστικού πληθυσμού στην καρδιά του Παρισιού. Δεν είχε ούτε την επιθυμία ούτε τη δυνατότητα να ιδρύσει ένα μαζικό κόμμα, ένα κίνημα νεολαίας σε όλη τη χώρα ή ένα εθνικό εκπαιδευτικό σύστημα. Οι νέες τεχνολογίες του 20ού αιώνα ήταν εκείνες που έδωσαν στον Χίτλερ τόσο το κίνητρο όσο και τη δύναμη να κάνει αυτά τα πράγματα. Δεν μπορούμε να προβλέψουμε τα κίνητρα και τις δυνατότητες των ψηφιακών δικτατοριών το 2084, αλλά είναι πολύ απίθανο να αντιγράψουν τον Χίτλερ και τον Στάλιν. Εκείνοι που προετοιμάζονται για να ξαναδώσουν τις μάχες της δεκαετίας του 1930 μπορεί να αιφνιδιαστούν όταν θα δεχτούν επίθεση από εντελώς διαφορετική πλευρά.

 

Ακόμα κι αν η δημοκρατία καταφέρει να προσαρμοστεί και να επιβιώσει, οι άνθρωποι μπορεί να πέσουν θύματα νέων ειδών καταπίεσης και διακρίσεων. Ήδη σήμερα ολοένα και περισσότερες τράπεζες, εταιρείες και οργανισμοί χρησιμοποιούν αλγόριθμους για να αναλύουν δεδομένα και να παίρνουν αποφάσεις που μας αφορούν. Όταν υποβάλλετε αίτηση για δάνειο στην τράπεζά σας, είναι πιθανό την αίτησή σας να την εξετάζει αλγόριθμος και όχι άνθρωπος. Ο αλγόριθμος αναλύει πολλά δεδομένα σχετικά με εσάς και στατιστικές για εκατομμύρια άλλους ανθρώπους και αποφασίζει αν είστε αρκετά αξιόπιστοι για να σας δώσουν δάνειο. Συχνά ο αλγόριθμος κάνει τη δουλειά καλύτερα από τον τραπεζικό υπάλληλο. Αλλά το πρόβλημα είναι ότι, αν ο αλγόριθμος κάνει άδικες διακρίσεις σε βάρος κάποιων ανθρώπων, είναι δύσκολο να το μάθουμε. Αν η τράπεζα αρνηθεί να σας δώσει δάνειο και ρωτήσετε «Γιατί;», η τράπεζα θα απαντήσει «Ο αλγόριθμος είπε “όχι”». Εσείς θα ρωτήσετε «Γιατί είπε “όχι” ο αλγόριθμος; Ποιο είναι το πρόβλημα;» αλλά η τράπεζα θα απαντήσει «Δεν ξέρουμε. Κανένας άνθρωπος δεν μπορεί να καταλάβει αυτόν τον αλγόριθμο, γιατί λειτουργεί με προηγμένη μηχανική εκμάθηση. Αλλά τον εμπιστευόμαστε, οπότε δάνειο δεν θα σας δώσουμε».

 

Όταν οι διακρίσεις στρέφονται κατά ολόκληρων ομάδων, όπως οι γυναίκες ή οι μαύροι, οι ομάδες αυτές μπορούν να οργανωθούν και να διαμαρτυρηθούν για στις συλλογικές αυτές διακρίσεις. Αλλά τώρα ο αλγόριθμος μπορεί να κάνει διακρίσεις απέναντι σε εσάς προσωπικά και να μην έχετε ιδέα γιατί. Ίσως να βρήκε κάτι που δεν του άρεσε στο DNAσας, στο προσωπικό σας ιστορικό ή στον λογατιασμό σας στο Facebook. Ο αλγόριθμος δεν κάνει διακρίσεις σε βάρος σας, επειδή είστε γυναίκα ή Αφροαμερικανός, αλλά επειδή είστε εσείς. Ειδικά έχετε κάτι που δεν του αρέσει. Δεν ξέρετε τι είναι αυτό, κι ακόμα κι αν το ξέρατε δεν θα μπορούσατε να οργανωθείτε μαζί με άλλους για να διαμαρτυρηθείτε, γιατί δεν υπάρχουν άλλοι που να υφίστανται τις ίδιες ακριβώς διακρίσεις. Μόνο εσείς. Αντί να έχουμε μόνο συλλογικές διακρίσεις, στον 21 ο αιώνα, μπορεί να αντιμετωπίσουμε το πρόβλημα των ατομικών διακρίσεων.

 

Στα ανώτερα επίπεδα της εξουσίας θα διατηρήσουμε μάλλον ανθρώπους-ανδρείκελα, που θα μας δίνουν την ψευδαίσθηση ότι οι αλγόριθμοι είναι απλώς σύμβουλοι και ότι η ανώτατη εξουσία παραμένει σε ανθρώπινα χέρια. Δεν θα διορίσουμε Τ.Ν. στη θέση του καγκελάριου της Γερμανίας ή του διευθύνοντος συμβούλου της Google. Ωστόσο, οι αποφάσεις που θα παίρνει ο καγκελάριος και ο διευθύνων σύμβουλος θα διαμορφώνονται από τεχνητές νοημοσύνες. Ο καγκελάριος θα μπορεί να επιλέξει από διάφορες εναλλακτικές, αλλά οι εναλλακτικές αυτές θα είναι αποτέλεσμα ανάλυσης Μεγάλων Δεδομένων και θα αντανακλούν περισσότερο τον τρόπο με τον οποίο βλέπει η Τ.Ν. τον κόσμο παρά αυτόν με τον οποίον τον βλέπουν οι άνθρωποι.

Για να πάρουμε ένα ανάλογο παράδειγμα, σήμερα οι πολιτικοί σε όλο τον κόσμο μπορούν να επιλέγουν ανάμεσα σε πολλές διαφορετικές οικονομικές πολιτικές, αλλά σε όλες σχεδόν τις περιπτώσεις οι πολιτικές που προσφέρονται αντανακλούν μια καπιταλιστική αντίληψη για την οικονομία. Οι πολιτικοί έχουν την ψευδαίσθηση της επιλογής, αλλά οι πραγματικά σημαντικές αποφάσεις λαμβάνονται από οικονομολόγους, τραπεζίτες και επιχειρηματίες που διαμορφώνουν τον κατάλογο με τις διάφορες επιλογές. Μέσα σε λίγες δεκαετίες, οι πολιτικοί μπορεί να επιλέγουν από έναν κατάλογο γραμμένο από Τ.Ν.

 

 Τεχνητή νοημοσύνη και φυσική βλακεία

Ένα καλό νέο είναι πως τουλάχιστον στις επόμενες δεκαετίες δεν θα χρειαστεί να αντιμετωπίσουμε σε όλη του την έκταση τον εφιάλτη της επιστημονικής φαντασίας, στον οποίο η Τ.Ν. αποκτά συνείδηση και αποφασίζει να υποδουλώσει ή να εξαλείψει την ανθρωπότητα. Θα βασιζόμαστε όλο και περισσότερο σε αλγόριθμους για να παίρνουν αποφάσεις για λογαριασμό μας, αλλά είναι μάλλον απίθανο να αρχίσουν οι αλγόριθμοι να μας χειραγωγούν συνειδητά. Δεν θα διαθέτουν συνείδηση.

 

Η επιστημονική φαντασία συγχέει συνήθως τη νοημοσύνη με τη συνείδηση και υποθέτει ότι, για να φτάσουν ή να ξεπεράσουν οι υπολογιστές την ανθρώπινη νοημοσύνη, θα πρέπει να αναπτύξουν συνείδηση. Η βασική πλοκή όλων σχεδόν των ταινιών και των βιβλίων για την Τ.Ν. περιστρέφεται γύρω από τη μαγική στιγμή που ένας υπολογιστής ή ένα ρομπότ αποκτά συνείδηση. Μόλις συμβεί αυτό, είτε ο άνθρωπος-ήρωας ερωτεύεται το ρομπότ ή το ρομπότ προσπαθεί να σκοτώσει όλους τους ανθρώπους, ή και τα δύο μαζί.

 

Αλλά στην πραγματικότητα δεν υπάρχει κάποιος λόγος να υποθέτουμε ότι η τεχνητή νοημοσύνη θα αποκτήσει συνείδηση, γιατί η νοημοσύνη και η συνείδηση είναι πολύ διαφορετικά πράγματα. Η νοημοσύνη είναι η ικανότητα να λύνει κανείς προβλήματα. Η συνείδηση είναι η ικανότητα να αισθάνεται πράγματα όπως ο πόνος, η χαρά, η αγάπη και ο θυμός. Έχουμε την τάση να μπερδεύουμε αυτά τα δύο γιατί στους ανθρώπους και τα υπόλοιπα θηλαστικά η νοημοσύνη πηγαίνει χέρι χέρι με τη συνείδηση. Τα θηλαστικά λύνουν τα περισσότερα προβλήματα με το να αισθάνονται διάφορα πράγματα. Οι υπολογιστές, ωστόσο, λύνουν τα προβλήματα με εντελώς διαφορετικό τρόπο.

 

Υπάρχουν απλούστατα πολλοί διαφορετικοί δρόμοι που οδηγούν στην υψηλή νοημοσύνη, και μόνο κάποιοι από αυτούς περιλαμβάνουν την απόκτηση συνείδησης. Όπως τα αεροπλάνα πετάνε ταχύτερα από τα πουλιά χωρίς να χρειάζεται να αποκτήσουν πούπουλα, έτσι και οι υπολογιστές μπορεί να φτάσουν να επιλύουν προβλήματα πολύ καλύτερα απ’ ό,τι τα θηλαστικά χωρίς να αποκτήσουν συναισθήματα. Είναι αλήθεια πως η Τ.Ν. θα πρέπει να αναλύσει με ακρίβεια τα ανθρώπινα συναισθήματα για να μπορεί να θεραπεύει ασθένειες, να αναγνωρίζει τρομοκράτες, να προτείνει συντρόφους και να οδηγεί σε δρόμους γεμάτους με πεζούς. Αλλά μπορεί να το κάνει αυτό χωρίς να έχει δικά της συναισθήματα. Ένας αλγόριθμος δεν χρειάζεται να αισθάνεται χαρά, θυμό ή φόβο προκειμένου να αναγνωρίζει τα διαφορετικά βιοχημικά μοτίβα χαρούμενων, θυμωμένων ή τρομαγμένων πιθήκων.

 

Φυσικά, το ενδεχόμενο να αναπτύξει η Τ.Ν. δικά της συναισθήματα δεν είναι εντελώς αδύνατο. Δεν γνωρίζουμε ακόμα αρκετά για τη συνείδηση ώστε να είμαστε σίγουροι. Γενικά, υπάρχουν τρεις δυνατότητες που πρέπει να σκεφτούμε:

1. Η συνείδηση συνδέεται κάπως με την οργανική βιοχημεία, με τέτοιο τρόπο που δεν θα είναι ποτέ δυνατό να δημιουργηθεί συνείδηση σε ανόργανα συστήματα.

2. Η συνείδηση δεν συνδέεται με την οργανική βιοχημεία, αλλά συνδέεται με τη νοημοσύνη με τέτοιο τρόπο, που οι υπολογιστές θα μπορούσαν να αναπτύξουν συνείδηση και θα πρέπει να αναπτύξουν συνείδηση για να περάσουν ένα ορισμένο κατώφλι νοημοσύνης.

3. Δεν υπάρχουν ουσιαστικοί σύνδεσμοι ανάμεσα στη συνείδηση και την οργανική βιομηχεία ή την υψηλή νοημοσύνη. Επομένως, οι υπολογιστές μπορεί να αναπτύξουν συνείδηση - αλλά όχι απαραίτητα. Θα μπορούσαν να γίνουν υπερευφυείς χωρίς να έχουν καθόλου συνείδηση.

Με όσα γνωρίζουμε σήμερα δεν μπορούμε να αποκλείσουμε καμία από αυτές τις εναλλακτικές. Ωστόσο, επειδή ακριβώς γνωρίζουμε τόσο λίγα γι’ αυτήν, το ενδεχόμενο να μπορέσουμε σύντομα να προγραμματίσουμε υπολογιστές που να διαθέτουν συνείδηση φαίνεται μάλλον απίθανο. Γι’ αυτό, παρά την τεράστια ισχύ της τεχνητής νοημοσύνης, στο ορατό μέλλον η χρήση της θα συνεχίσει να εξαρτάται σε κάποιο βαθμό από την ανθρώπινη συνείδηση.

 

Ο κίνδυνος είναι ότι, αν επενδύσουμε υπερβολικά στην ανάπτυξη της Τ.Ν. και ελάχιστα στην ανάπτυξη της ανθρώπινης συνείδησης, η πολύ εκλεπτυσμένη τεχνητή νοημοσύνη των υπολογιστών μπορεί να ενισχύσει μόνο τη φυσική βλακεία των ανθρώπων. Δεν είναι πιθανό να αντιμετωπίσουμε μια εξέγερση των ρομπότ στις επόμενες δεκαετίες, αλλά μπορεί να χρειαστεί να αντιμετωπίσουμε ορδές ρομπότ που θα ξέρουν πώς να πατάνε τα συναισθηματικά μας κουμπιά καλύτερα κι απ’ τη μητέρα μας και θα χρησιμοποιούν την τρομαχτική αυτή ικανότητα για να προσπαθούν να μας πουλήσουν πράγματα - που μπορεί να είναι ένα αυτοκίνητο, κάποιος πολιτικός ή μια ολόκληρη ιδεολογία. Τα ρομπότ θα μπορούν να αναγνωρίσουν τους βαθύτερους φόβους μας, τα μίση και τις επιθυμίες μας και να χρησιμοποιήσουν αυτούς τους εσωτερικούς μοχλούς πίεσης εναντίον μας. Έχουμε ήδη πάρει μια γεύση σε πρόσφατες εκλογές και δημοψηφίσματα σε όλο τον κόσμο, όταν χάκερ έμαθαν πώς να χειραγωγούν τους ψηφοφόρους αναλύοντας τα δεδομένα τους και εκμεταλλευόμενοι τις προκαταλήψεις τους. Ενώ τα θρίλερ επιστημονικής φαντασίας προτιμούν τις δραματικές σκηνές Αποκάλυψης με φωτιές και καπνούς, στην πραγματικότητα μπορεί να αντιμετωπίσουμε μια κοινότοπη Αποκάλυψη με κλικαρίσματα.

 

Για να αποφύγουμε ένα τέτοιο αποτέλεσμα για κάθε δολάριο και κάθε λεπτό του επενδύουμε στη βελτίωση της τεχνητής νοημοσύνης, θα κάναμε καλά αν επενδύαμε άλλο ένα δολάριο κι ένα λεπτό στην προαγωγή της ανθρώπινης συνείδησης. Δυστυχώς, αυτή τη στιγμή δεν κάνουμε και πολλά για να ερευνήσουμε και να αναπτύξουμε την ανθρώπινη συνείδηση. Ερευνούμε και αναπτύσσουμε η ς ανθρώπινες ικανότητες κυρίως σύμφωνα με τις άμεσες ανάγκες του οικονομικού και του πολιτικού συστήματος, και όχι σύμφωνα με τις μακροπρόθεσμες ανάγκες μας ως όντων με συνείδηση. Το αφεντικό μου θέλει να απαντάω όσο πιο γρήγορα γίνεται σε e-mail, αλλά δεν ενδιαφέρεται ιδιαίτερα για την ικανότητά μου να γεύομαι και να εκτιμώ το φαγητό που τρώω. Κατά συνέπεια, κοιτάζω το ηλεκτρονικό μου ταχυδρομείο ακόμα και στη διάρκεια των γευμάτων μου, ενώ χάνω την ικανότητα να προσέχω τις ίδιες μου τις αισθήσεις. Το οικονομικό σύστημα με πιέζει να επεκτείνω και να ανανεώνω το επενδυτικό μου χαρτοφυλάκιο, αλλά δεν μου δίνει το παραμικρό κίνητρο να διευρύνω και να ανανεώνω τη συμπόνια μου. Παλεύω λοιπόν να κατανοήσω τα μυστήρια του χρηματιστηρίου, ενώ κάνω πολύ μικρότερη προσπάθεια να κατανοήσω τις βαθύτερες αιτίες της οδύνης.

 

Σε αυτό οι άνθρωποι μοιάζουν με τα άλλα εξημερωμένα ζώα. Εκτρέφουμε αγελάδες που παράγουν τεράστιες ποσότητες γάλακτος, αλλά κατά τα άλλα είναι κατά πολύ κατώτερες από τους άγριους προγόνους τους. Είναι λιγότερο ευκίνητες, λιγότερο περίεργες και λιγότερο επινοητικές. Δημιουργούμε τώρα εξημερωμένους ανθρώπους που παράγουν τεράστιες ποσότητες δεδομένων και λειτουργούν σαν πολύ αποτελεσματικά τσιπάκια σε έναν τεράστιο μηχανισμό επεξεργασίας δεδομένων, αλλά αυτές οι αγελάδες δεδομένων δεν μεγιστοποιούν τις ανθρώπινες δυνατότητες. Για την ακρίβεια δεν έχουμε την παραμικρή ιδέα ποιες είναι όλες οι ανθρώπινες δυνατότητες, επειδή γνωρίζουμε τόσο λίγα για τον ανθρώπινο νου. Και παρ’ όλα αυτά δεν επενδύουμε σχεδόν καθόλου στη διερεύνηση του νου μας, αλλά προσπαθούμε να αυξήσουμε την ταχύτητα της σύνδεσής μας στο διαδίκτυο και την αποτελεσματικότητα των αλγόριθμων Μεγάλων Δεδομένων. Αν δεν προσέξουμε, θα καταλήξουμε να έχουμε υποβαθμισμένους ανθρώπους που θα χρησιμοποιούν με κακό τρόπο αναβαθμισμένους υπολογιστές για να σπείρουν τον όλεθρο στον εαυτό τους και τον κόσμο.

 

Οι ψηφιακές δικτατορίες δεν είναι ο μοναδικός κίνδυνος που μας περιμένει. Εκτός από την ελευθερία, η φιλελεύθερη τάξη έχει δώσει επίσης μεγάλο βάρος στην αξία της ισότητας. Ο φιλελευθερισμός λάτρευε πάντα την πολιτική ισότητα και συνειδητοποίησε σταδιακά ότι και η οικονομική ισότητα είναι εξίσου σημαντική. Γιατί χωρίς ένα κοινωνικό δίχτυ ασφαλείας και ένα ελάχιστο επίπεδο οικονομικής ισότητας η ελευθερία είναι ανούσια. Όπως όμως οι αλγόριθμοι Μεγάλων Δεδομένων μπορεί να εξαλείψουν την ελευθερία, μπορεί συγχρόνως να δημιουργήσουν και τις πιο ανισότιμες κοινωνίες που υπήρξαν ποτέ. Όλος ο πλούτος και η εξουσία θα είναι συγκεντρωμένα στα χέρια μιας μικροσκοπικής ελίτ, ενώ οι περισσότεροι άνθρωποι θα υποφέρουν όχι από την εκμετάλλευση αλλά από κάτι χειρότερο – δεν θα έχουν κάποια σημασία.

 

Yuval Noah Harari, 21 μαθήματα για τον 21ο αιώνα, Μετάφραση Μιχάλης Λαλιώτης,

Εκδόσεις Αλεξάνδρεια, Αθήνα 2018

 

 

 

Τελευταία Ενημέρωση στις Πέμπτη, 05 Σεπτέμβριος 2024 12:08