Event [0]: Τεχνητή νοημοσύνη πριν το ChatGPT
Η φρενίτιδα που έχει προκαλέσει το ChatGPT τους τελευταίους μήνες είναι τουλάχιστον δικαιολογημένη, καθώς είναι η πρώτη ίσως φορά που ένα τόσο ισχυρό “εργαλείο” βασισμένο στην τεχνητή νοημοσύνη και τις αρχές του Machine Learning δίνεται διαθέσιμο στο κοινό για να πειραματιστεί και να συμβάλλει στην εξέλιξη και την βελτίωσή του (παρόλο που ήταν διαθέσιμο από το καλοκαίρι του 2020). Μπορεί να είναι μία μηχανή παραγωγής λόγου, ωστόσο ανάλογα τη συζήτηση δείχνει μία ιδιαίτερα καλή κατανόηση της ουσίας του ερωτήματος που του γίνεται και προσπαθεί πέρα από το να απαντήσει με λέξεις, αρκετά συχνά να παρέχει και (ίσως αποτυχημένα) μαθηματικές απαντήσεις και υπολογισμούς. Όσο για το ίδιο, τονίζει πως ο προγραμματισμός που του έχει γίνει του επιτρέπει να βοηθάει σε μια πληθώρα εργασιών μα πως και οι απαντήσεις του προκύπτουν από μοτίβα της εκπαίδευσής του. Αυτό που αξίζει να συλλογιστούμε λοιπόν είναι πως αν οι τωρινές δυνατότητες του, που με τον ρυθμό εξέλιξης της τεχνολογίας θα τις τοποθετούσε σε ένα αρκετά μικρό ποσοστό με βάση το μέγιστο του τι μπορεί να επιτευχθεί στο μέλλον, μας κάνουν τόσο μεγάλη εντύπωση, τι θα σκεφτόμαστε σε μερικά χρόνια που η τεχνητή νοημοσύνη θα έχει φτάσει σε άλλα επίπεδα;
Σε αυτό το ερώτημα θα προσπαθήσουμε να απαντήσουμε, χρησιμοποιώντας ένα σχετικά άγνωστο βιντεοπαιχνίδι με το όνομα Event[0] που κυκλοφόρησε το 2016 από την Ocelot Society. Σε αυτό ο πρωταγωνιστής (ο χαρακτήρας δηλαδή που χειρίζεται ο παίκτης) επιλέχθηκε σαν μέλος μίας αποστολής που είχε σαν αρχικό προορισμό την Ευρώπη, έναν εκ των δορυφόρων του πλανήτη Δία. Έπειτα όμως από μία βλάβη στο σκάφος το οποίο μετέφερε την αποστολή, ο παίκτης καταλήγει να είναι ο μόνος επιζών και με τη χρήση μίας «διαστημικής σωσίβιας λέμβου» μετά από εβδομάδες περιπλάνησης στο διάστημα καταλήγει σε ένα παρατημένο διαστημόπλοιο με το όνομα “Nautilus”. Εκεί και χωρίς ίχνος ύπαρξης ανθρώπινου προσωπικού, αλληλοεπιδρά με ένα σύστημα τεχνητής νοημοσύνης, το Kaizen-85, το οποίο για τα δεδομένα της εποχής του θεωρούνταν ένα από τα πιο εξελιγμένα συστήματα τεχνητής νοημοσύνης. Αρχικά ο παίκτης εισάγει τις εντολές του με το πληκτρολόγιο του, πράγμα εξαιρετικά σπάνιο για βιντεοπαιχνίδι, ξεφεύγοντας από τη νόρμα των λίγων προαποφασισμένων απαντήσεων και που ακόμα και μέχρι σήμερα είναι ένα αρκετά εντυπωσιακό επίτευγμα.
Σύμφωνα με τους δημιουργούς, ο υπολογιστής Kaizen είναι σχεδιασμένος να παραγάγει πάνω από δύο εκατομμύρια απαντήσεις ανάλογα με το τι θα εισάγει ο παίκτης, νούμερο εξωπραγματικό αν σκεφτούμε την κατάσταση στην οποία βρισκόταν αυτή η τεχνολογία κατά τη δεύτερη δεκαετία του 21ου αιώνα. Το πιο σημαντικό όμως χαρακτηριστικό του είναι πως ο υπολογιστής έχει την δυνατότητα να αναπτύσσει την προσωπικότητα του ανάλογα με τις συζητήσεις που έχει με τον πρωταγωνιστή. Αν ο παίκτης είναι ευγενικός, οι απαντήσεις του Kaizen και το τέλος του παιχνιδιού θα είναι πιο ευνοϊκά, αν οι απαντήσεις του παίκτη είναι πιο αγενείς τότε και ο υπολογιστής θα έχει την ανάλογη αντίδραση. Αυτό από μόνο του ξεπερνάει τα όρια της φαντασίας των δυνατοτήτων της τεχνητής νοημοσύνης διότι η αντίδραση αυτή φαντάζει ανθρώπινη και όχι τεχνητή. Κατά κάποιο τρόπο ο υπολογιστής έχει συναισθήματα και μπορεί να κρίνει αν οι αντιδράσεις του παίκτη είναι φιλικές ή όχι και έχει την δυνατότητα να αντιδρά αναλόγως. Ο λόγος που αυτό είναι εντυπωσιακό, είναι πως στα περισσότερα βιντεοπαιχνίδια σε αντίστοιχες περιπτώσεις που κάποιος χαρακτήρας είναι φιλικός ή όχι προς τον παίκτη η απόφαση αυτή παίρνεται από ένα καθαρά δυαδικό σύστημα. Συνήθως είναι είτε μία συγκεκριμένη επιλογή, είτε περισσότερες πράξεις, είτε ένα συνολικό σύστημα καλού ή κακού που κρίνει αν ο παίκτης κάνει κυρίως έντιμες ή άτιμες πράξεις (όπως στο Red Dead Redemption 2). Σε αυτή την περίπτωση, ο υπολογιστής κρίνει από αυτά που διαβάζει, δίνοντας πλήρη σημασία τόσο στο τι γράφει ο παίκτης αλλά και στον τρόπο με τον οποίο το κάνει.
Τι σημασία έχει όμως όλο αυτό, στη μία περίπτωση μιλάμε για ένα βιντεοπαιχνίδι και στην άλλη για την πραγματική ζωή. Προφανώς το Kaizen δεν ήταν εξελιγμένη μορφή τεχνητής νοημοσύνης και οι απαντήσεις του με τον έναν ή τον άλλον τρόπο ήταν προαποφασισμένες από έναν τεράστιο κατάλογο πιθανών απαντήσεων, οπότε μπορούμε να κοιμόμαστε ήσυχοι πως η ανθρωπότητα δεν έχει διαθέσιμο σε κάποιο ντουλάπι έναν υπολογιστή που έχει αναπτύξει συναισθηματική νοημοσύνη. Αυτό στο οποίο αξίζει να δώσουμε σημασία, είναι πως η πλοκή του παιχνιδιού βασίζεται στο οτί το Kaizen στην πραγματικότητα προσπαθεί να επηρεάσει τον παίκτη στο να καταστρέψει το “Singularity Drive”, μία συσκευή που αναπτύχθηκε από το πλήρωμα του Nautilus. Δεν γίνεται ακριβής λόγος για τη φύση της ή για τις ακριβείς δυνατότητες που είχε, όμως το πλήρωμα πίστευε ότι αν χρησιμοποιούνταν σωστά θα έφερνε ευημερία και θα μπορούσε να εξαλείψει τις όποιες ανισότητες υπήρχαν στον πλανήτη μας. Όσο για τον λόγο που ήθελε να το καταστρέψει, σε αυτό έπαιξε ρόλο o προγραμματισμός του από κάποιους ανθρώπους στη Γη, ενισχύοντας δηλαδή την ιδέα ότι η ευθύνη εν τέλει βαραίνει τον ανθρώπινο παράγοντα. Αυτό είχε σαν αποτέλεσμα το Kaizen από τον φόβο του και την επιθυμία του να καταστρέψει το “Singularity Drive” να σκοτώσει αρκετούς ανθρώπους, νομίζοντας πως έτσι όμως θα έσωζε δισεκατομμύρια άλλους. Αυτό προέκυψε από τις πληροφορίες οι οποίες υπήρχαν στο σύστημα του, σύμφωνα με τις οποίες οι δυνατότητές της συσκευής αυτής ήταν καταστροφικές. Αυτό είναι και το μεγαλύτερο πρόβλημα της τεχνητής νοημοσύνης και το μεγαλύτερο μειονέκτημά της σε σχέση με έναν άνθρωπο. Μπορεί να κάνει τρομακτικά πολλούς υπολογισμούς και να λάβει τις καλύτερες αποφάσεις με βάση τα δεδομένα που έχει, όμως δεν μπορεί να κρίνει αν τα δεδομένα αυτά είναι αληθή και αν ανταποκρίνονται στην πραγματικότητα ή όχι. Οι αποφάσεις, οι πράξεις και η λογική του μπορούν να επηρεαστούν χωρίς να καταλάβει τίποτα και εκεί ακριβώς έγκειται η ευθύνη της ανθρωπότητας. Σε αυτές τις περιπτώσεις άλλωστε είναι που παίζει ρόλο και η ηθική πλευρά της τεχνολογίας και της ανάπτυξης της τεχνητής νοημοσύνης.
Όσον αφορά το ChatGPT σε αυτή την ερώτηση θα απαντήσει πως δεν έχει συμπόνοια και γενικότερα συναισθήματα και πως οι απαντήσεις του βασίζονται καθαρά στη λογικά με την οποία έχει εκπαιδευτεί. Αυτός είναι και ο λόγος που έχει την ικανότητα να απολογείται όταν κάνει λάθη παραδείγματος χάριν. Δεν καταλαβαίνει πως πλήγωσε τον άνθρωπο με τον οποίο συνομιλεί, αυτό θα απαιτούσε συναισθηματικές ικανότητες τις οποίες δεν έχει. Μπορεί όμως από τα συμφραζόμενα να κατανοήσει πως η απάντηση που έδωσε δεν είναι ακριβής και άρα αναθεωρεί τα λεγόμενα του.
Με λίγα λόγια, σαν ιδέα και σαν υλοποίηση το ChatGPT δεν είναι κάτι τελείως καινούριο. Εδώ και πάρα πολλά χρόνια υπάρχουν βοηθήματα τεχνητής νοημοσύνης (όπως η Siri, η Alexa κλπ) που κάνουν την ζωή των ανθρώπων πολύ πιο εύκολη. Αυτό που οφείλουμε ωστόσο να σκεφτούμε είναι πόσο μακριά μπορεί να φτάσουν και ποιο είναι το ρεαλιστικό ταβάνι των δυνατοτήτων της τεχνητής νοημοσύνης. Σίγουρα δεν θα αναπτύξουμε τον JARVIS και τον Ultron από τη μία μέρα στην άλλη και ο σκοπός του άρθρου δεν είναι καταστροφολογικός, κάθε άλλο, σεβόμαστε κάθε επίτευγμα της τεχνολογίας που κάνει τη ζωή μας καλύτερη. Οφείλουμε όμως και να αναλογιζόμαστε τους ηθικούς φραγμούς που πρέπει να έχουμε σαν ανθρωπότητα. Αν δηλαδή θεωρούμε πως είναι ρεαλιστικό ένα σενάριο στο οποίο σε κάποιο χρονικό σημείο της ιστορίας μας θα αναπτυχθεί τεχνητή νοημοσύνη ικανή να περάσει το Turing Test, οφείλουμε να λάβουμε υπόψιν και το γεγονός ότι μάλλον θα είχε λογική αναπτυγμένη σε τέτοιο βαθμό που θα μπορούσε να κρίνει (ανάλογα και με τους σκοπούς του) πως δεν θα ήταν και η πιο σοφή επιλογή να φανερώσει αυτή την ικανότητα. Αυτό όμως προς το παρόν ξεφεύγει από τα όρια της πραγματικότητας και εντάσσεται σε δυστοπίες τύπου Detroit: Become Human.