Θα ελέγξουμε την τεχνητή νοημοσύνη ή θα μας ελέγξει;

Για ακόμα μια φορά, οι μεγάλες προσωπικότητες στον χώρο της πληροφορικής προειδοποιούν για τους επερχόμενους κινδύνους από την τεχνητή νοημοσύνη (Artificial Intelligence – AI). Ο οραματιστής επιχειρηματίας Elon Musk πιστεύει ότι η AI “θα μπορούσε να είναι πιο επικίνδυνη ακόμα και από τα πυρηνικά όπλα”. Ο διάσημος αστροφυσικός Stephen Hawking προειδοποιεί ότι η AI “θα μπορούσε να σημάνει το τέλος του ανθρώπινου είδους.” Ακόμα και ο Bill Gates, συμβουλεύει προς την “προσεκτική διαχείριση” της τεχνητής νοημοσύνης.

Είναι όντως δικαιολογημένες σήμερα αυτές οι φοβίες, ή μήπως θα γίνουν σενάρια για κωμωδίες επιστημονικής φαντασίας αύριο;

-Χρειαζόμαστε μια σοβαρή συζήτηση σχετικά με τη νέα κανονικότητα και τις πρακτικές που θα διαμορφώσουν και θα διέπουν την τεχνητή νοημοσύνη.

Οι φοβίες του παρελθόντος για την τεχνητή νοημοσύνη, εκ των υστέρων μοιάζουν ανόητες. Στη δεκαετία του 1950, μέσα στον ενθουσιασμό που επικρατούσε για την έλευση των ψηφιακών υπολογιστών, οι επιστήμονες προέβλεπαν μηχανές που θα μεταφράζουν άμεσα τα Ρωσικά σε Αγγλικά. Αντί για 5 χρόνια, χρειάστηκαν πάνω από 50 για την πραγμάτωση της αυτόματης μετάφρασης. “Έξυπνα συστήματα-παντογνώστες” παρομοίως πήραν πολύ καιρό για να να εμφανιστούν και ακόμα βασίζονται σε γνώσεις που παρέχουν εμπειρογνώμονες αντί να είναι πλήρως αυτοματοποιημένα. Εν τω μεταξύ, ο HAL, ο Εξολοθρευτής και η Ava, υπάρχουν μόνο ως ήρωες του Χόλιγουντ.

Τα τελευταία χρόνια, ορισμένοι στόχοι για την τεχνητή νοημοσύνη φαίνεται να έχουν πραγματοποιηθεί. Υπολογιστές πλέον μπορούν -κυριολεκτικά- να εντοπίσουν πρόσωπα μέσα σε ένα πλήθος και να παρέχουν εξυπηρέτηση πελατών μέσω τηλεφώνου, προσομοιώνοντας μια πραγματική συζήτηση. Τα αυτοκίνητα χωρίς οδηγό και η παράδοση προϊόντων με drones, υπόσχονται να φέρουν επανάσταση στη μεταφορά πραγμάτων και ανθρώπων. Θα ακολουθήσουν πύραυλοι που επιλέγουν αυτόνομα στόχους και τα ρομπότ δολοφόνοι.

Η καθημερινή ζωή ήδη φαίνεται αδύνατη χωρίς τις ψηφιακές συσκευές που καταγράφουν, ειδοποιούν και συμβουλεύουν τους ιδιοκτήτες τους. Πλέον η συμβίωση των ανθρώπων με τα ρομπότ είναι πιο κοντά από ποτέ, και ίσως αναπόφευκτη.

Επειδή όμως η προδοσία έχει ουσιαστική σημασία σε μια ρομαντική σχέση συμβίωσης, οι άνθρωποι ανησυχούν για την απώλεια της υπεροχής τους στον κόσμο. Τα “ψηφιακά μυαλά” μπορούν να μιμηθούν, να μισήσουν, και τέλικά να επιτεθούν στους ανθρώπους.

Από τέτοιες σκοτεινές σκέψεις, προκύπτουν αμφιβολίες για την ίδια την ύπαρξή μας όταν δοκιμάσουμε τη συμβίωση με τα ρομπότ. Μια κακόβουλη ιδιοφυΐα θα μπορούσε να κατακτήσει τον κόσμο με τη βοήθεια ενός κακόβουλου στρατού από ρομπότ. Πράκτορες λογισμικού θα μπορούσαν να χτυπήσουν ζωτικά συστήματα, χωρίς τα οποία μια κοινωνία δεν θα μπορεί να ανακάμψει. Για τον Daniel H. Wilson, συγγραφέα του “Πώς να επιζήσετε μια εξέγερση των ρομπότ”, οι άνθρωποι δεν πρέπει να περιμένουν την πρώτη καταστροφή που θα προκληθεί από την τεχνητή νοημοσύνη, προκειμένου να εγκαταστήσουν ένα “δωμάτιο πανικού” στο οποίο θα μπορούν να κρυφτούν από ανυπάκουα ρομπότ υπαλλήλους.

Οι σκοτεινές φαντασιώσεις ωστόσο, αποσπούν την προσοχή από πιο επείγοντα ζητήματα. Πώς θα επηρεάσει η τεχνητή νοημοσύνη την απασχόληση, ιδιαίτερα στις υψηλά αμειβόμενες εργασίες; Πότε θα αλλάξει τον τρόπο που οι άνθρωποι παράγουν και καταναλώνουν περιεχόμενο πνευματικής δουλειάς; Ποιος θα λογοδοτήσει για τα ατυχήματα όταν οι άνθρωποι δεν θα λαμβάνουν πλέον τις αποφάσεις από τις οποίες προκαλούνται;

Αντί να προκαλούν πανικό όπως ο Musk, οι άνθρωποι χρειάζονται μια σοβαρή συζήτηση σχετικά με τη νέα κανονικότητα και τις πρακτικές που θα διαμορφώσουν και θα διέπουν την τεχνητή νοημοσύνη. Εδώ είναι μερικές προτάσεις από τον G. Pascal Zachary, καθηγητή ρομποτικής στο Arizona State University για ένα γόνιμο και άφοβο διάλογο που πρέπει να γίνει σε παγκόσμιο επίπεδο:

  • Η αρχή της προφύλαξης: Οι απαγορεύσεις σπάνια λειτουργούν. Οι προσεκτικές δοκιμές και οι συχνές τεχνικές αναθεωρήσεις όμως, ναι. Χρειαζόμαστε ασφαλείς χώρους για τη διεξαγωγή πειραμάτων με τεχνητή νοημοσύνη. Οι κυβερνήσεις θα πρέπει να ενθαρρύνουν τους ελέγχους και τις δοκιμές από ιδιωτικούς φορείς, υπό την προϋπόθεση ότι τα δεδομένα και οι αναλύσεις τους θα γίνονται ευρέως προσβάσιμα.
  • Συνθήκες ισότητας και διαφορετικότητας: Η σκληρή αλήθεια είναι ότι η πληροφορική και η τεχνολογία κυριαρχούνται από άνδρες που ζουν στη Βόρεια Αμερική, την Ευρώπη, την Ιαπωνία και την Κίνα. Οι δοκιμές στην τεχνητή νοημοσύνη θα πρέπει να αντανακλούν τις προσδοκίες των γυναικών όσο και των ανδρών, αλλά και να μην αποκλείουν τον πολιτισμό και τις αξίες άλλων χωρών.
  • Στήρηξη των αδυνάτων: Η εξάπλωση της τεχνητής νοημοσύνης θα βλάψει κάποιους, ως επί το πλείστον με τη μείωση της ζήτησης για ανθρώπινο εργατικό δυναμικό. Οι λύσεις θα πρέπει να περιλαμβάνουν την επανεκπαίδευση των ανθρώπων, ώστε να διαθέτουν το χρόνο τους σε χρήσιμες και ελκυστικές ασχολίες. Οι κυβερνήσεις θα μπορούσαν επίσης να εξετάσουν το ενδεχόμενο να έχει ο κάθε άνθρωπος, ως νόμιμο δικαίωμα, την κυριότητα επί καθορισμένου αριθμού ρομπότ. Οι πολιτικές αυτές θα προσέδιδαν τουλάχιστον ένα μέτρο ισότητας, γιατί αλλιώς οι πλούσιοι άνθρωποι θα επενδύσουν σε στρατούς από ρομπότ, ενώ έτσι θα έχουν απλά το καλύτερο μοντέλο.