Μπορεί η τεχνητή νοημοσύνη να έχει αλματώδη εξέλιξη και οι δυνατότητές της σε διάφορους επιστημονικούς τομείς να είναι απεριόριστες, ωστόσο μπορεί να οδηγηθεί σε σφάλματα, με τεράστιες συνέπειες, ακόμα και κοινωνικές ανισότητες.
Ένας νεαρός Έλληνας επιστήμονας, ο επίκουρος καθηγητής Διοικητικής Επιστήμης και Τεχνολογίας στο Πανεπιστήμιο Στάνφορντ, Βασίλης Συργκάνης, προσπαθεί μέσα από την έρευνά του να διορθώσει τα σφάλματα αυτά. Για τη δουλειά του τιμήθηκε πρόσφατα με βραβείο από το Ίδρυμα Μποδοσάκη.
«Η τεχνητή νοημοσύνη χρησιμοποιείται πολλές φορές, σε συστήματα αποφάσεων, τελείως μηχανικά και σαν να είναι θέσφατο ότι αυτό που έμαθε το μοντέλο μηχανικής μάθησης είναι η πραγματικότητα. Αυτό είναι ένα κύριο πρόβλημα που κινητοποίησε την έρευνά μου, ότι μαθαίνουμε αυτά τα μοντέλα και μετά πιστεύουμε ότι είναι σαν έτσι να δουλεύει ο κόσμος», εξηγεί ο κ. Συργκάνης στο ΑΠΕ-ΜΠΕ. Αυτό, προσθέτει, «μας οδηγεί σε εσφαλμένα συμπεράσματα, βλέπεις σχέσεις που μαθαίνει το μοντέλο, οι οποίες δεν έχουν καμία σχέση με το πώς λειτουργεί ο κόσμος στην πραγματικότητα».
Εάν τα σφάλματα των συστημάτων τεχνητής νοημοσύνης δεν διορθωθούν, οι κίνδυνοι μακροπρόθεσμα είναι μεγάλοι, ακόμα και για να δημιουργηθούν κοινωνικά προβλήματα ανισότητας. Ο κ. Συργκάνης φέρνει ως παράδειγμα τη χρήση συστημάτων μηχανικής μάθησης στα δάνεια, όπου ακόμα και η τοποθεσία διαμονής του υποψήφιου δανειολήπτη μπορεί να αποτελέσει κριτήριο αποκλεισμού του από το τραπεζικό σύστημα με αποτέλεσμα «να δημιουργείται ένας συστηματικός ρατσισμός μέσα από τέτοια αλγοριθμικά συστήματα αποφάσεων».
Για τις προκαταλήψεις και τα σφάλματα των συστημάτων μηχανικής μάθησης, αλλά και για την επίλυση των προβλημάτων αυτών μέσα από τη μέθοδο της αιτιώδους συναγωγής (causal inference), ο κ. Συργκάνης μίλησε στο πρόσφατο επιστημονικό εργαστήριο για τις εφαρμογές της τεχνητής νοημοσύνης, που διοργάνωσε το Ελληνικό Ινστιτούτο Προηγμένων Σπουδών (HIAS), το ινστιτούτο των Ελλήνων της διασποράς, στην Αθήνα.
Ο Βασίλης Συργκάνης γεννήθηκε στη Θεσσαλονίκη και σπούδασε στη Σχολή Ηλεκτρολόγων Μηχανικών του Εθνικού Μετσόβιου Πολυτεχνείου. Στη συνέχεια μετέβη στις ΗΠΑ, όπου έκανε το διδακτορικό του στο Τμήμα Επιστήμης Υπολογιστών του Πανεπιστημίου Κορνέλ. Το αποτέλεσμα της διδακτορικής του διατριβής ήταν μια νέα μαθηματική θεωρία για τη μελέτη της απόδοσης πολύπλοκων οικονομικών συστημάτων, με κύριες εφαρμογές στις ηλεκτρονικές αγορές.
Για οκτώ χρόνια εργάστηκε στο τμήμα Έρευνας της Microsoft, όπου επικεντρώθηκε στην ανάλυση σχέσεων αιτιότητας με τη χρήση τεχνικών μηχανικής μάθησης. Τον Σεπτέμβριο του 2022 εκλέχθηκε επίκουρος καθηγητής στο Τμήμα Διοικητικής Επιστήμης και Τεχνολογίας του Πανεπιστημίου Στάνφορντ. Εκεί, έχει θέσει στο επίκεντρο την ανακάλυψη σχέσεων αιτιότητας και τη λήψη αποφάσεων χρησιμοποιώντας δεδομένα μεγάλων διαστάσεων, με κύριες εφαρμογές στη βιοιατρική, τη διοίκηση επιχειρήσεων και τις ηλεκτρονικές πλατφόρμες. Η έρευνά του έλαβε το βραβείο Amazon Research Award για το 2023.
Στη συνέντευξή του στο ΑΠΕ-ΜΠΕ ο Βασίλης Συργκάνης αναφέρεται επίσης, στο πόσο κοντά είμαστε στη δημιουργία γενικής τεχνητής νοημοσύνης λέγοντας ότι «είναι πολύ απίθανο οι υπολογιστές από μόνοι τους να έχουν όλο αυτό το υπόβαθρο που έχει ένας ειδικός σε κάποιο τομέα» και συμπληρώνει χαρακτηριστικά: «Αυτό που κάνουν τα γλωσσικά μοντέλα τεχνητής νοημοσύνης μπορεί να δείχνει αρκετά νοήμον», αλλά «υπάρχουν πολλές άλλες διαστάσεις στη νοημοσύνη εκτός από τη γλώσσα που εκφέρουμε».
Ακολουθεί η πλήρης συνέντευξη του Βασίλη Συργκάνη στο ΑΠΕ-ΜΠΕ, στη Μαρία Κουζινοπούλου
Ερ.: Πού εστιάζετε την έρευνά σας;
Απ.: Τελευταία ασχολούμαι με το υποπεδίο, όπου προσπαθείς να μάθεις από δεδομένα κάποιες σχέσεις αιτιότητας, το πώς μια μεταβλητή επηρεάζει κάποια άλλη μεταβλητή. Τέτοια προβλήματα εμφανίζονται πολύ στην Ιατρική, όπου προσπαθείς να μάθεις πώς μια θεραπεία αλλάζει το προσδόκιμο ζωής και πώς αυτή η αλλαγή του προσδόκιμου ζωής εξαρτάται και από άλλα χαρακτηριστικά ενός ασθενούς, για παράδειγμα τις γονιδιακές μεταλλάξεις. Μια άλλη εφαρμογή που έχουμε δουλέψει αρκετά είναι στη λήψη αποφάσεων σε τομείς, όπως η διοίκηση επιχειρήσεων ή οι ηλεκτρονικές πλατφόρμες.
Η βασική μου έρευνα βέβαια, είναι σε πιο μεθοδολογικό επίπεδο. Επικεντρώνεται στην ανάπτυξη στατιστικών μεθόδων που συνδυάζουν τεχνικές μηχανικής μάθησης με τη θεωρία της αιτιώδους συναγωγής (causal inference), ένα αρκετά κλασικό πεδίο που έχει αναπτυχθεί και χρησιμοποιείται αρκετά στις κοινωνικές και ιατρικές επιστήμες. Η αιτιώδης συναγωγή είναι η επιστήμη που δίνει σαφή μαθηματικό ορισμό στην έννοια της αιτιακής σχέσης μεταξύ μεταβλητών και αναπτύσσει τρόπους μέτρησης αυτής της σχέσης από δεδομένα.
Ερ.: Η μηχανική μάθηση μπορεί να μας οδηγήσει σε εσφαλμένα συμπεράσματα;
Απ.: Ακριβώς. Αν χρησιμοποιήσουμε τη μηχανική μάθηση χωρίς αυτές τις τεχνικές της αιτιώδους συναγωγής και απλά λύσουμε ένα πρόβλημα πρόβλεψης, το να μεταφράσουμε αυτά που μαθαίνει αυτό το μοντέλο σε αιτιακές σχέσεις είναι πολύ λάθος. Γι’ αυτό, πρέπει να χρησιμοποιήσουμε τις θεωρίες της αιτιώδους συναγωγής για να κάνουμε σωστή μετάφραση του τι είναι αυτό που θέλουμε να μετρήσουμε στα δεδομένα μας. Αφού το κάνουμε αυτό και πάλι υπάρχουν προβλήματα όταν χρησιμοποιούμε τη μηχανική μάθηση.
Ένα πρόβλημα είναι ότι οι τεχνικές μηχανικής μάθησης συνήθως δεν μπορούν να μας «πουν» πόσο βέβαιες είναι για τις απαντήσεις που δίνουν. Αλλά όταν θέλουμε να απαντήσουμε σε προβλήματα παρέμβασης, μάς ενδιαφέρει όχι μόνο να μας δοθεί μια απάντηση, ότι αυτό το φάρμακο αλλάζει το προσδόκιμο ζωής, αλλά και πόσο σίγουροι είμαστε γι’ αυτό. Τα δεδομένα μας αντικατοπτρίζουν μόνο ένα τυχαίο υποσύνολο ενός πληθυσμού. Όμως, όταν θα εφαρμόσουμε μια απόφαση, μας ενδιαφέρει πώς αυτή θα επηρεάσει το σύνολο του πληθυσμού. Για παράδειγμα, όταν θα εφαρμόσουμε ένα εμβόλιο στην πράξη, μας ενδιαφέρει η αποτελεσματικότητα στο σύνολο του πληθυσμού και όχι στο τυχαίο υποσύνολο που συλλέξαμε στα δεδομένα μας. Η ποσοτικοποίηση αυτής της αβεβαιότητας του αποτελέσματος δεν είναι εύκολη, όταν χρησιμοποιείς τεχνικές μηχανικής μάθησης. Εκεί, είναι ένα μεγάλο κομμάτι της έρευνάς μου, στην ανάπτυξη στατιστικών μεθόδων που μπορούν να υπολογίζουν πόσο βέβαιοι είμαστε ότι το αιτιακό αποτέλεσμα που υπολογίσαμε χρησιμοποιώντας τεχνικές μηχανικής μάθησης σε ένα τυχαίο υποσύνολο που συλλέξαμε στα δεδομένα μας, θα γενικεύεται στον γενικό πληθυσμό.
Ερ.: Στην ομιλία που δώσατε στο επιστημονικό εργαστήριο του HIAS μιλήσατε για προκαταλήψεις των συστημάτων μηχανικής μάθησης. Έχει η τεχνολογία προκαταλήψεις;
Απ.: Υπάρχουν διαφόρων ειδών προκαταλήψεις. Υπάρχει η ανθρώπινη προκατάληψη που τη βλέπουμε και στα προβλήματα με τα οποία ασχολούμαστε. Για παράδειγμα, μπορεί να προέλθει στην πράξη από το ότι πολύ συγκεκριμένα άτομα λαμβάνουν μία θεραπεία και όχι κάποια άλλη, επομένως όταν θα διαχειριστείς ένα μοντέλο πρόβλεψης, θα ξέρεις να προβλέψεις πολύ καλά το προσδόκιμο ζωής γι’ αυτή την κατηγορία ανθρώπων και όχι για άλλους.
Το άλλο είδος προκατάληψης είναι ότι οι τεχνικές μηχανικής μάθησης προσπαθούν να διαλέξουν μεταξύ απλών ή πολύπλοκων μοντέλων αυτόματα. Αυτό το κάνουν με ένα τρόπο που αναμειγνύει τη διακύμανση (variance) με το συστηματικό σφάλμα (bias). Για παράδειγμα, ένας κλασικός αλγόριθμος στη μηχανική μάθηση είναι τα δυαδικά δέντρα, που προσπαθούν να διαιρέσουν το σύνολο σε μικρές ομάδες και σε αυτές μετά να δούνε τι γίνεται. Αν σπάσω τον πληθυσμό των ανθρώπων σε πολλές υποομάδες και σε κάθε μία έχω ένα άτομο, θα έχω μεγάλη διακύμανση, δεν θα μπορώ να βγάλω κάποιο στατιστικό συμπέρασμα και μπορεί αυτό το άτομο που έτυχε να συλλέξω στα δεδομένα από αυτόν τον υποπληθυσμό να έχει μεγάλο προσδόκιμο ζωής, αλλά τα υπόλοιπα άτομα από τον ίδιο υποπληθυσμό που δεν αντικατοπτρίζονται στα δεδομένα μου να έχουν τελείως διαφορετικό προσδόκιμο ζωής. Από την άλλη όμως, αν δεν σπάσω τον υποπληθυσμό σε πολλές μικρότερες ομάδες, μπορεί η πρόβλεψή μου να έχει συστηματικά σφάλματα για πολλές υποομάδες, αφού δεν εξατομικεύει αρκετά το αποτέλεσμα και επιστρέφει συμπεράσματα κοιτώντας μόνο ένα μικρό υποσύνολο των χαρακτηριστικών κάθε ατόμου. Επομένως, προσπαθούμε να κρατήσουμε και το bias και το variance σε σωστά επίπεδα.
Ερ.: Ενέχει κινδύνους το ότι η μηχανική μάθηση έχει τόσο ευρεία χρήση;
Απ.: Τα μοντέλα μηχανικής μάθησης, πολλές φορές στην πράξη, χρησιμοποιούνται σαν να είναι θέσφατο, ότι αυτό που έμαθε το μοντέλο είναι η πραγματικότητα. Αυτό είναι ένα κύριο πρόβλημα, το οποίο κινητοποίησε και την έρευνά μου, ότι δουλεύουμε με αυτά τα μοντέλα και μετά πιστεύουμε ότι είναι σαν έτσι να δουλεύει ο κόσμος. Και αυτό μας οδηγεί σε εσφαλμένα συμπεράσματα, ότι βλέπεις σχέσεις που μαθαίνει το μοντέλο που δεν έχουν καμία σχέση με το πώς λειτουργεί ο κόσμος στην πραγματικότητα. Είναι απλά κάτι που συνέβη λόγω των προκαταλήψεων που υπήρχαν στα δεδομένα, τα οποία είχες ή στον τρόπο συλλογής των δεδομένων.
Υπάρχουν πολλά αλγοριθμικά συστήματα υποστήριξης αποφάσεων, τα οποία βασίζονται σε τέτοια μοντέλα που μπορεί να οδηγήσουν σε κινδύνους που δεν φαίνονται αμέσως, αλλά σε βάθος χρόνου. Για να σας δώσω ένα απλουστευμένο παράδειγμα, στα συστήματα ρίσκου για δάνεια γίνεται ευρεία χρήση συστημάτων μηχανικής μάθησης και υπάρχει μεγάλη πιθανότητα εμφάνισης ρατσισμού. Χρησιμοποιούνται ακόμα και οι τοποθεσίες που διαμένει ένα άτομο, αλλά αυτό δεν σημαίνει ότι επειδή διαμένεις σε μια περιοχή που δεν έχει καλή οικονομική κατάσταση, το ρίσκο σου είναι μεγαλύτερο στην αποπληρωμή του δανείου σου. Όμως, δεν δίνεται δάνειο και έτσι δεν υπάρχει πιθανότητα να αναπτύξεις την οικονομία σου σε αυτή την περιοχή και άρα δημιουργείται ένας συστηματικός ρατσισμός μέσα από τέτοια αλγοριθμικά συστήματα αποφάσεων. Βοηθάει και εκεί η αιτιώδης συναγωγή στο να μάθεις ποιες από τις μεταβλητές όντως οδηγούν κάποιον να μην αποπληρώσει το δάνειο και να βασίσεις την απόφασή σου σε χαρακτηριστικά που έχουν αιτιακή σχέση. Έτσι, είναι λιγότερο πιθανό να δημιουργήσεις τέτοια συστηματική ανισότητα.
Ερ.: Είμαστε σε μια περίοδο ανησυχίας για την επικράτηση της τεχνητής νοημοσύνης και της τεχνολογίας σε βάρος του ανθρώπου. Πιστεύετε ότι θα χρειάζεται πάντα ο ανθρώπινος παράγοντας δίπλα από τις τεχνολογικές εξελίξεις;
Απ.: Είναι μία υποκειμενική απάντηση, αλλά η γνώμη μου είναι ότι ναι. Είναι πολύ απίθανο ότι ο υπολογιστής από μόνος του θα έχει όλο αυτό το υπόβαθρο που έχει ένας ειδικός σε κάποιο τομέα για να μπορέσει να αναλύσει σωστά τα δεδομένα. Τώρα, αν στο μέλλον οδηγηθούμε σε συστήματα γενικής τεχνητής νοημοσύνης που έχουν όλη αυτή τη γνώση συσσωρευμένη, πιθανόν. Αλλά και πάλι είναι τόσο πολλές οι περιοχές γνώσης που δεν έχουμε δεδομένα τόσο μεγάλων διαστάσεων για να μπορέσουμε να αναπτύξουμε συστήματα τεχνητής νοημοσύνης με γνώση σε αυτές τις υποπεριοχές.
Ερ.: Είμαστε όμως, κοντά σε μια γενική τεχνητή νοημοσύνη;
Απ.: Θεωρώ πως ακόμα όχι. Υπάρχουν πολλά προβλήματα. Δεν είμαι σίγουρος ότι ακόμα έχουμε βρει τις τεχνικές, ώστε ο υπολογιστής να μπορεί να φτιάξει για παράδειγμα στρατηγικά πλάνα για να μπορέσει να πετύχει ένα στόχο που χρειάζεται πολλά βήματα και βάθος χρόνου, κάτι το οποίο είναι σημαντικό κομμάτι της ανθρώπινης νοημοσύνης. Προς το παρόν είναι πολύ εντυπωσιακά αυτά που κάνουν, το να ομοιάζουν σαν να μιλάει κάποιος άνθρωπος, αλλά είναι πολύ εύκολο να βγεις έξω από το όριο στο οποίο μπορεί ο υπολογιστής να κάνει σφάλμα. Ίσως περισσότερο αυτά τα συστήματα δείχνουν πόσο προβλέψιμη είναι η ανθρώπινη γλώσσα, παρά το πόσο εύκολο είναι να αντιγράψεις ένα νοήμον όν. Υπάρχουν πολλές άλλες διαστάσεις στη νοημοσύνη εκτός από τη γλώσσα που εκφέρουμε. Βέβαια, αυτά τα συστήματα φέρνουν ξανά στο προσκήνιο το φιλοσοφικό ερώτημα του τι ακριβώς εννοούμε με τον όρο νοημοσύνη.
ΑΠΕ-ΜΠΕ