Αναλυτές, περιοδικά και λεξικά ανέδειξαν το 2023 την «Τεχνητή Νοημοσύνη» ως «λέξη της χρονιάς».
Μια αναμενόμενη επιλογή, καθώς η Τεχνητή Νοημοσύνη (ΤΝ) –πέραν των σημαντικών εξελίξεων σε τεχνολογικό επίπεδο– διείσδυσε στην καθημερινότητα εκατοντάδων εκατομμυρίων χρηστών. Το ChatGPT, λίγους μόνο μήνες μετά τη μαζική κυκλοφορία του, χαρακτηρίστηκε ως η ταχύτερα αναπτυσσόμενη καταναλωτική εφαρμογή στην ιστορία. Αναπτυσσόμενα και διαδιδόμενα με ραγδαίους ρυθμούς, τα συστήματα ΤΝ υποστηρίζουν, κατευθύνουν ή υποκαθιστούν την ανθρώπινη απόφαση σε κρίσιμες διαστάσεις της ύπαρξής μας, από τη διάγνωση μιας σοβαρής ασθένειας και το σχεδιασμό του θεραπευτικού πρωτοκόλλου έως τους όρους λήψης (ή μη λήψης) ενός δανείου ή την πρόσκληση σε συνέντευξη για θέση εργασίας.
Ο «παροξυσμός αισιοδοξίας» για την Τεχνητή Νοημοσύνη ή τον «εκδημοκρατισμό» της, όπως χαρακτήρισαν πολλοί τη διάδοση της λεγομένης «παραγωγικής τεχνητής νοημοσύνης» (Generative AI) που απαντά σε ερωτήσεις και συντάσσει κείμενα, επιστολές, εργασίες, συνοδεύεται από –συχνά αντίστοιχα έντονους– προβληματισμούς για τους όρους, τα όρια και τις επιπτώσεις της ανάθεσης ανθρώπινων δραστηριοτήτων σε τέτοια συστήματα. Η Siri και η Alexa είναι πολύτιμοι βοηθοί; Ή, παρέχοντάς μας την υποστήριξή τους, παίρνουν (μοιραία) και τον έλεγχο των πληροφοριών μας άρα και της ζωής μας; Ένα σύστημα αξιολόγησης προσώπων (εργαζομένων, υποψηφίων δανειοληπτών κ.ά.) που βασίζεται σε αλγοριθμικό profiling, κρίνεται περισσότερο αξιόπιστο και αντικειμενικό από τον ανθρώπινο κριτή; Εμπιστευόμαστε τον αλγόριθμο να δικάσει, να αξιολογήσει τις αιτήσεις για ένα επίδομα ή μας ανησυχεί η «έλλειψη ενσυναίσθησης»;
Συνδεόμενη με την προσδοκία να εκτοξεύσει τις δυνατότητες της ανθρώπινης νοημοσύνης και να διευρύνει τα όρια κατανόησης (και τιθάσευσης;) του κόσμου, η ιδέα της υποκατάστασης «από τα ρομπότ» προκαλούσε –και εξακολουθεί να προκαλεί– ταυτόχρονα δέος, αν όχι φόβο. Όταν ο Brad Smith, ο Πρόεδρος της Microsoft, δηλώνει ότι εντός των επόμενων δώδεκα μηνών δεν υπάρχει πιθανότητα ανάπτυξης υπερευφυούς ΤΝ, μιας νοημοσύνης πιο έξυπνης σε –σχεδόν– κάθε τομέα, συμπεριλαμβανομένων των κοινωνικών αλλά και των «ήπιων δεξιοτήτων» (όπως η δημιουργικότητα), πολλοί διαβλέπουν την προοπτική ταχείας υποκατάστασης του ανθρώπου και ένα δυστοπικό μετα-ανθρώπινο μέλλον.
Ταυτόχρονα, τίθεται το ερώτημα αν είμαστε σε θέση να κατανοήσουμε και να ελέγξουμε την Τεχνητή Νοημοσύνη ή μας αποθαρρύνει ήδη το ενδεχόμενο της (αναπόδραστης;) αυτονόμησής της; Η κατανόηση και πρόβλεψη της λειτουργίας των συστημάτων αυτών στον πραγματικό κόσμο μπορεί να είναι ιδιαίτερα δυσχερής ακόμη και για αυτούς που έχουν τεχνογνωσία. Η κλίμακα (του προβλήματος) είναι διαφορετική, καθώς η Τεχνητή Νοημοσύνη συσσωρεύει, επεξεργάζεται και παράγει (νέα) πληροφορία με τρόπο και σε όγκο που οι άνθρωποι δεν μπορούν ούτε να φανταστούν. Aυτό συνοδεύεται από τη δυνατότητα χειραγώγησης των καταναλωτών μέσω της κατάρτισης προφίλ ή την άσκηση πολιτικής επιρροής σε εκατομμύρια ανθρώπους. Σύμφωνα με πρόσφατο δημοσίευμα της Washington Post, η διάδοση του ChatGPT και άλλων συναφών γλωσσικών μοντέλων συνοδεύτηκε από αύξηση κατά 1000 % (και πλέον) των ιστοσελίδων που φιλοξενούν fake news κατά τους τελευταίους 7-8 μήνες, μια διαπίστωση που καταδεικνύει τη σχέση της παραγωγικής ΤΝ με τον κίνδυνο διόγκωσης της παραπληροφόρησης και των πιθανών συνεπειών για τους θεσμούς και τη δημοκρατία.
Η τεχνολογία είναι διαχρονικά μια πηγή αλλαγών αλλά και αβεβαιότητας και κινδύνων. Ο νομοθέτης δεν παράγει τεχνολογία. Παραμένει όμως υπεύθυνος για την ένταξη των νεών τεχνολογιών στην κοινωνία και για τη διαχείριση της έντασης μεταξύ των οικονομικών και κοινωνικών πλεονεκτημάτων και των κινδύνων που συνδέονται με αυτές. Η Ευρωπαϊκή Ένωση με την Πράξη για την Τεχνητή Νοημοσύνη επιχειρεί να ρυθμίσει τη χρήση της και να αποτρέψει τις δυσμενείς επιπτώσεις, φτάνοντας μάλιστα να απαγορεύει ρητά χρήσεις, όπως κοινωνική βαθμολόγηση (social scoring) για δημόσιους και ιδιωτικούς σκοπούς ή «αναγνώριση συναισθημάτων στον χώρο εργασίας».
H νομοθεσία είναι απαραίτητη αλλά δεν αρκεί. Απαιτείται ένας διαρκής αναστοχασμός και διάλογος και εν τέλει μία θεμελιακή επιλογή ως προς τους όρους και τα όρια της καινοτομίας και των χρήσεών της. Με δυο λόγια: σε ποια κοινωνία θέλουμε να ζούμε.
Λίλια Μήτρου – Νομικός:
Καθηγήτρια στο Πανεπιστήμιο Αιγαίου & επισκέπτρια διδάσκουσα στο Οικονομικό Πανεπιστήμιο Αθηνών και στο Πανεπιστήμιο Πειραιά.
Επιμελήτρια και συγγραφέας του τόμου Μπορεί ο Αλγόριθμος; (ΠΕΚ, 2023).