
Η συζήτηση γύρω από την τεχνητή νοημοσύνη έχει φύγει πια από τα εργαστήρια και τα συνέδρια και έχει περάσει στην καθημερινότητα, συχνά όμως χωρίς να συνοδεύεται από πραγματική κατανόηση του τι είναι, πώς λειτουργεί και ποια είναι τα όριά της.
Ανάμεσα σε εντυπωσιακές δυνατότητες και υπαρκτούς κινδύνους, η ανάγκη για μία πιο καθαρή και νηφάλια εξήγηση γίνεται όλο και πιο επιτακτική. Σε αυτό το πλαίσιο, ο Ευάγγελος Κανούλας επιχειρεί να αποτυπώσει την πραγματική διάσταση της τεχνολογίας μέσα από μια συνέντευξη που εστιάζει στην ουσία.
«Με απλά λόγια, η τεχνητή νοημοσύνη είναι λογισμικό που μπορεί να εκτελεί εργασίες οι οποίες μέχρι πρόσφατα απαιτούσαν ανθρώπινη νοητική ικανότητα: να αναγνωρίζει αντικείμενα σε εικόνες, να μετατρέπει τη φωνή σε κείμενο, να μεταφράζει, να συνοψίζει πληροφορίες ή να εντοπίζει μοτίβα μέσα σε πολύ μεγάλα σύνολα δεδομένων», αναφέρει σε συνέντευξη του στο ΑΠΕ/ΜΠΕ και στο δημοσιογράφο Αλέκο Λιδωρίκη, ο Ευάγγελος Κανούλας, καθηγητής Τεχνητής Νοημοσύνης στο Πανεπιστήμιο του ‘Αμστερνταμ και διευθυντής του μεταπτυχιακού προγράμματος στην Επιστήμη της Τεχνητής Νοημοσύνης. Όπως εξηγεί, αυτά τα συστήματα «εκπαιδεύονται πάνω σε πολύ μεγάλο αριθμό παραδειγμάτων» και μέσα από επανάληψη «μαθαίνουν να συνδέουν ορισμένα μοτίβα στα δεδομένα με ορισμένες σωστές απαντήσεις».
Το κρίσιμο σημείο, ωστόσο, βρίσκεται στα όρια κατανόησης των ίδιων των συστημάτων: «παρότι ξέρουμε πώς τα εκπαιδεύουμε, συχνά δεν είναι εύκολο να εξηγήσουμε με ανθρώπινους όρους γιατί κατέληξαν σε μια συγκεκριμένη απόφαση». Αυτό συνδέεται άμεσα και με τον κίνδυνο μεροληψίας, καθώς «η τεχνητή νοημοσύνη δεν είναι αυτόματα αντικειμενική· πολλές φορές αναπαράγει […] τις αδικίες που υπάρχουν ήδη στην κοινωνία».
Αναφερόμενος στα γλωσσικά μοντέλα και τα chatbots, επισημαίνει ότι πρόκειται για συστήματα που «μαθαίνουν να προβλέπουν ποια λέξη είναι πιο πιθανό να ακολουθεί» και στη συνέχεια «εκπαιδεύονται ώστε να ακολουθούν εντολές και να είναι χρήσιμα στον διάλογο με τον άνθρωπο». Το chatbot, όπως τονίζει, «είναι ουσιαστικά η μορφή με την οποία αλληλοεπιδρούμε με ένα τέτοιο μοντέλο».
Σε ό,τι αφορά τα όρια, η τοποθέτησή του είναι σαφής: «πιστεύω ότι σε ορισμένες περιπτώσεις η χρήση της τεχνητής νοημοσύνης έχει ήδη ξεπεράσει κρίσιμα όρια». Ιδιαίτερη αναφορά κάνει στα κοινωνικά δίκτυα, όπου οι πλατφόρμες «έχουν κίνητρο να προωθούν περιεχόμενο που μας κρατά “κολλημένους”, ακόμη και όταν είναι ακραίο […] ή ψυχολογικά επιβαρυντικό». Παράλληλα, επισημαίνει και τους κινδύνους από τη στρατιωτική χρήση, κάνοντας λόγο για «εξαιρετικά επικίνδυνη περιοχή».
Στο πεδίο της εκπαίδευσης, η σύσταση είναι ξεκάθαρη: «να χρησιμοποιεί την ΤΝ ως βοήθημα, όχι ως υποκατάστατο της σκέψης του». Προειδοποιεί ότι χωρίς προσωπική προσπάθεια «ο μαθητής […] δεν θα μπορεί ούτε να εντοπίσει πότε η ΤΝ κάνει λάθος, ούτε να κρίνει αν η απάντησή της έχει πραγματική αξία».
Για την αξιοπιστία των συστημάτων, υπογραμμίζει: «μπορούμε να εμπιστευτούμε την τεχνητή νοημοσύνη ως πολύ χρήσιμο εργαλείο, αλλά όχι ως αλάνθαστη πηγή αλήθειας», διευκρινίζοντας ότι «το σωστό ερώτημα δεν είναι αν μπορούμε να την εμπιστευτούμε γενικά, αλλά για ποιο σκοπό και υπό ποιες προϋποθέσεις».
Η επίδραση στην εργασία είναι ήδη ορατή: «Το κρίσιμο ερώτημα δεν είναι αν η ΤΝ θα μπει στην εργασία — αυτό έχει ήδη συμβεί». Η συμβουλή προς τους νέους είναι να επενδύσουν σε «πληροφορική, μαθηματικά και προγραμματισμό», αλλά και σε ικανότητα κρίσης και κατανόησης των συνεπειών.
Κοιτάζοντας μπροστά, επισημαίνει ότι η τεχνητή νοημοσύνη «θα επηρεάσει σχεδόν κάθε πτυχή της ζωής μας» και «θα αλλάξει τον τρόπο με τον οποίο εργαζόμαστε με ταχύτητα και έκταση που πιθανόν δεν έχουμε ξαναδεί». Η πρόκληση, όπως τονίζει, είναι βαθιά κοινωνική: «πώς θα αξιοποιήσουμε αυτή τη δύναμη χωρίς να υποβαθμίσουμε την ανθρώπινη κρίση».
Τέλος, σε προσωπικό επίπεδο, παραδέχεται: «Καθημερινά. Μου είναι ιδιαίτερα χρήσιμη όταν θέλω να επιταχύνω ένα πρώτο στάδιο εργασίας ή να αυτοματοποιήσω κάτι επαναλαμβανόμενο. Όχι όμως ως υποκατάστατο της κρίσης μου, αλλά ως εργαλείο που ενισχύει την παραγωγικότητά μου».
Ακολουθεί ολόκληρη η συνέντευξη του καθηγητή Τεχνητής Νοημοσύνης στο Πανεπιστήμιο του ‘Αμστερνταμ, Ευάγγελου Κανούλα στο ΑΠΕ/ΜΠΕ την οποία παραχώρησε με αφορμή το 11ο Οικονομικό Φόρουμ των Δελφών, το οποίο θα διεξαχθεί από τις 22 έως τις 25 Απριλίου 2026, συγκεντρώνοντας προσωπικότητες από την Ελλάδα και το εξωτερικό, όπου θα συζητηθούν οι κρίσιμες εξελίξεις της περιόδου.
Ερώτηση: Η τεχνητή νοημοσύνη βρίσκεται πλέον παντού στην καθημερινότητά μας. Πώς θα την εξηγούσατε με απλά λόγια σε έναν μέσο πολίτη; Τι είναι στην πράξη;
Με απλά λόγια, η τεχνητή νοημοσύνη είναι λογισμικό που μπορεί να εκτελεί εργασίες οι οποίες μέχρι πρόσφατα απαιτούσαν ανθρώπινη νοητική ικανότητα: να αναγνωρίζει αντικείμενα σε εικόνες, να μετατρέπει τη φωνή σε κείμενο, να μεταφράζει, να συνοψίζει πληροφορίες ή να εντοπίζει μοτίβα μέσα σε πολύ μεγάλα σύνολα δεδομένων. Με έναν τρόπο, προσπαθεί να αναπαράγει ορισμένες βασικές λειτουργίες της ανθρώπινης νόησης: να δέχεται ερεθίσματα από το περιβάλλον, να τα επεξεργάζεται, να συγκρατεί χρήσιμη πληροφορία και να μαθαίνει από προηγούμενα παραδείγματα. Πάνω σε αυτές τις βασικές ικανότητες χτίζονται στη συνέχεια πολύ πιο σύνθετες δυνατότητες.
Στην πράξη, αυτά τα συστήματα εκπαιδεύονται πάνω σε πολύ μεγάλο αριθμό παραδειγμάτων. Για παράδειγμα, μπορούμε να δώσουμε σε ένα τέτοιο σύστημα χιλιάδες εικόνες και να του ζητήσουμε να αναγνωρίσει τι υπάρχει σε καθεμία. Στην αρχή θα κάνει πολλά λάθη. Όμως, συγκρίνοντας κάθε φορά την απάντησή του με τη σωστή, προσαρμόζεται σταδιακά και βελτιώνεται. Έτσι, μέσα από την επανάληψη, μαθαίνει να συνδέει ορισμένα μοτίβα στα δεδομένα με ορισμένες σωστές απαντήσεις.
Το πιο ενδιαφέρον όμως —και ταυτόχρονα το πιο ανησυχητικό— είναι ότι, παρότι ξέρουμε πώς τα εκπαιδεύουμε, συχνά δεν είναι εύκολο να εξηγήσουμε με ανθρώπινους όρους γιατί κατέληξαν σε μια συγκεκριμένη απόφαση. Ένας άνθρωπος, αν τον ρωτήσετε γιατί αναγνωρίζει σε μια εικόνα μια γάτα, θα σας μιλήσει για τα αυτιά, τα μάτια, το σχήμα του σώματος. Ένα σύστημα τεχνητής νοημοσύνης μπορεί να δώσει τη σωστή απάντηση χωρίς να είναι πάντα σαφές αν βασίστηκε στα σωστά χαρακτηριστικά ή σε μοτίβα που είναι για εμάς αόρατα ή ακόμη και παραπλανητικά.
Υπάρχει, μάλιστα, ένα πολύ χαρακτηριστικό παράδειγμα από τις προσλήψεις. Η Amazon είχε δοκιμάσει ένα σύστημα τεχνητής νοημοσύνης για την αξιολόγηση βιογραφικών, αλλά διαπιστώθηκε ότι το σύστημα υποβάθμιζε βιογραφικά που περιείχαν ενδείξεις ότι ο υποψήφιος ήταν γυναίκα. Ο λόγος ήταν ότι είχε μάθει από παλιότερα δεδομένα προσλήψεων, τα οποία ήδη κουβαλούσαν μεροληψίες. Αυτό δείχνει ότι η τεχνητή νοημοσύνη δεν είναι αυτόματα αντικειμενική· πολλές φορές αναπαράγει, και μάλιστα σε μεγάλη κλίμακα, τις αδικίες που υπάρχουν ήδη στην κοινωνία.
Γι’ αυτό η τεχνητή νοημοσύνη είναι ένα εξαιρετικά ισχυρό εργαλείο, αλλά όχι ένα εργαλείο που πρέπει να χρησιμοποιούμε τυφλά. Όσο περισσότερο μπαίνει σε κρίσιμους τομείς —όπως η υγεία, η εκπαίδευση, η εργασία ή η δικαιοσύνη— τόσο μεγαλύτερη ανάγκη έχουμε για έλεγχο, διαφάνεια και ανθρώπινη εποπτεία. Το βασικό ζητούμενο, λοιπόν, δεν είναι μόνο αν η τεχνητή νοημοσύνη είναι ισχυρή, αλλά αν είναι αξιόπιστη, ελέγξιμη και δίκαιη.
Ερώτηση: Ολοένα και περισσότερο υπάρχουν αναφορές σε γλωσσικά μοντέλα και εφαρμογές όπως τα chatbots. Τι είναι στην πραγματικότητα αυτά τα συστήματα και πώς λειτουργούν;
Τα γλωσσικά μοντέλα είναι συστήματα τεχνητής νοημοσύνης που έχουν εκπαιδευτεί, σε πολύ γενικές γραμμές, σε δύο βασικά στάδια. Στο πρώτο στάδιο μαθαίνουν να προβλέπουν ποια λέξη είναι πιο πιθανό να ακολουθεί μέσα σε μια φράση, μια πρόταση ή ένα μεγαλύτερο κείμενο. Με απλά λόγια, τους δίνεις την αρχή ενός κειμένου και προσπαθούν να συνεχίσουν με τον πιο πιθανό τρόπο. Αυτό ακούγεται απλό, αλλά στην πραγματικότητα είναι πολύ ισχυρό. Για να προβλέψει σωστά την επόμενη λέξη, το σύστημα πρέπει να έχει μάθει πολλά πράγματα: τη γραμματική, το ύφος, τις σχέσεις ανάμεσα στις λέξεις, αλλά και βασικές συνδέσεις ανάμεσα σε έννοιες και γεγονότα.
Έτσι, μέσα από αυτό το “παιχνίδι πρόβλεψης”, το μοντέλο αποκτά μια πολύ ευρεία στατιστική γνώση της γλώσσας. Στο δεύτερο στάδιο, το μοντέλο εκπαιδεύεται ώστε να ακολουθεί εντολές και να είναι χρήσιμο στον διάλογο με τον άνθρωπο. Δηλαδή δεν αρκεί πια μόνο να συνεχίζει κείμενο· μαθαίνει να απαντά σε ερωτήσεις, να κάνει σύνοψη, να μεταφράζει, να προτείνει ιδέες ή να βοηθά σε ένα πρόβλημα. Αυτό γίνεται με επιπλέον παραδείγματα, όπου βλέπει εντολές και καλές απαντήσεις που έχουν σχεδιαστεί από ανθρώπους.
Το chatbot είναι ουσιαστικά η μορφή με την οποία αλληλοεπιδρούμε με ένα τέτοιο μοντέλο: ένα σύστημα διαλόγου που “χτίζεται” πάνω σε ένα γλωσσικό μοντέλο και το κάνει να συνομιλεί μαζί μας με φυσικό τρόπο. ‘Αρα, πίσω από ένα chatbot δεν υπάρχει μαγεία· υπάρχει ένα σύστημα που έχει μάθει πρώτα από τεράστιες ποσότητες κειμένου και στη συνέχεια έχει εκπαιδευτεί να συνεργάζεται καλύτερα με τον άνθρωπο.
Ερώτηση: Η χρήση της τεχνητής νοημοσύνης αυξάνεται με πολύ γρήγορους ρυθμούς. Πιστεύετε ότι σε κάποιες περιπτώσεις έχει ξεπεράσει τα όρια; Ποια είναι αυτά τα όρια που πρέπει να υπάρχουν για την ορθή χρήση της;
Ναι, πιστεύω ότι σε ορισμένες περιπτώσεις η χρήση της τεχνητής νοημοσύνης έχει ήδη ξεπεράσει κρίσιμα όρια. Το πρόβλημα δεν είναι η τεχνολογία από μόνη της, αλλά το πώς και για ποιο σκοπό χρησιμοποιείται. Το πρώτο παράδειγμα είναι τα κοινωνικά δίκτυα. Πλατφόρμες όπως το TikTok, το Instagram, το X, το Facebook ή το YouTube χρησιμοποιούν συστήματα τεχνητής νοημοσύνης για να προβλέπουν τι είναι πιο πιθανό να τραβήξει την προσοχή μας. Θεωρητικά αυτό γίνεται για να μας δείχνουν περιεχόμενο που μας ενδιαφέρει.
Στην πράξη, όμως, πολύ συχνά βελτιστοποιούν κάτι άλλο: τον χρόνο που μένουμε στην πλατφόρμα, την εμπλοκή μας και τελικά τα διαφημιστικά έσοδα. Αυτό σημαίνει ότι έχουν κίνητρο να προωθούν περιεχόμενο που μας κρατά “κολλημένους”, ακόμη και όταν είναι ακραίο, επιφανειακό, διχαστικό ή ψυχολογικά επιβαρυντικό. Εκεί, κατά τη γνώμη μου, έχει ξεπεραστεί ένα σημαντικό όριο, γιατί η τεχνολογία δεν υπηρετεί πια τον χρήστη, αλλά εκμεταλλεύεται την προσοχή του.
Το δεύτερο παράδειγμα είναι η στρατιωτική χρήση της τεχνητής νοημοσύνης. Όταν τέτοια συστήματα χρησιμοποιούνται στην παρακολούθηση, στην ιεράρχηση στόχων ή ενσωματώνονται σε οπλικά συστήματα, μπαίνουμε σε μια εξαιρετικά επικίνδυνη περιοχή. Και όταν η τεχνητή νοημοσύνη συνδυάζεται με τη μαζική παραγωγή προπαγανδιστικού περιεχομένου, τότε δεν επηρεάζει μόνο το πεδίο της μάχης αλλά και το πεδίο της πληροφόρησης.
Τα όρια, όμως, δεν πρέπει να μπαίνουν μόνο στη χρήση της ΤΝ, αλλά και στον τρόπο με τον οποίο αυτά τα συστήματα εκπαιδεύονται. Συχνά δεν είναι εύκολο να εξηγήσουμε πλήρως γιατί ένα σύστημα κατέληξε σε μια συγκεκριμένη απόφαση. Αυτό που μπορούμε όμως να ελέγξουμε είναι από ποια δεδομένα μαθαίνει, με ποια παραδείγματα εκπαιδεύεται και ποιους στόχους του θέτουμε. Αν ένα σύστημα έχει σχεδιαστεί να μεγιστοποιεί την προσκόλληση, την επιτήρηση ή την επιθετικότητα, τότε δεν πρέπει να μας εκπλήσσει αν παράγει κοινωνικά επικίνδυνα αποτελέσματα.
Γι’ αυτό τα όρια πρέπει να τα θέτει η ίδια η κοινωνία: στο ποια δεδομένα επιτρέπεται να χρησιμοποιούνται, στο ποιες εφαρμογές είναι αποδεκτές και στο πού η ανθρώπινη εποπτεία είναι αδιαπραγμάτευτη. Και επειδή μιλάμε για παγκόσμιες εταιρείες με τεράστια οικονομική και γεωπολιτική επιρροή, αυτά τα όρια είναι πολύ δύσκολο να επιβληθούν αποτελεσματικά από μεμονωμένα κράτη. Σε επίπεδο Ευρωπαϊκής Ένωσης, όμως, υπάρχει πολύ μεγαλύτερη πιθανότητα να υπάρξει πραγματική ρύθμιση και ουσιαστικός έλεγχος.
Ερώτηση: Σε επίπεδο καθημερινότητας και εκπαίδευσης, τι θα συστήνατε σε έναν μαθητή, από το Δημοτικό έως το Λύκειο, για το πώς να χρησιμοποιεί σωστά την τεχνητή νοημοσύνη; Πότε βοηθά και πότε μπορεί να τον παγιδεύσει;
Η χρήση της τεχνητής νοημοσύνης στην εκπαίδευση είναι ένα πολύ σοβαρό ζήτημα και δεν προσφέρεται για εύκολες απαντήσεις. Η συζήτηση έχει ανοίξει διεθνώς, χωρίς ακόμη να υπάρχει συμφωνία για το πώς ακριβώς πρέπει να ενσωματωθεί. Αυτό που είναι βέβαιο, όμως, είναι ότι η εκπαιδευτική κοινότητα δεν μπορεί να αγνοήσει τη νέα πραγματικότητα.
Σε προσωπικό επίπεδο, θα έλεγα σε έναν μαθητή κάτι απλό: να χρησιμοποιεί την ΤΝ ως βοήθημα, όχι ως υποκατάστατο της σκέψης του. Μπορεί η ΤΝ να κάνει γρήγορα και πειστικά πράγματα — να δώσει μια σύνοψη, να εξηγήσει ένα θέμα, να προτείνει μια λύση. Αν όμως ο μαθητής δεν μάθει πρώτα να κατανοεί και να λύνει προβλήματα μόνος του, τότε αργότερα δεν θα μπορεί ούτε να εντοπίσει πότε η ΤΝ κάνει λάθος, ούτε να κρίνει αν η απάντησή της έχει πραγματική αξία, ούτε και να επιλύει προβλήματα που η ΤΝ δεν μπορεί να λύσει. Γι’ αυτό η ΤΝ βοηθά όταν έρχεται μετά την προσωπική προσπάθεια.
Αυτό σημαίνει ότι πρέπει να προσαρμοστεί και το σχολείο. Χρειαζόμαστε μεγαλύτερη έμφαση στη δουλειά μέσα στην τάξη, στην προφορική εξήγηση και στην ικανότητα του μαθητή να αιτιολογεί τι έκανε και γιατί. Τέλος, οι μαθητές πρέπει να μάθουν συστηματικά πώς να χρησιμοποιούν τέτοια εργαλεία: να καταλαβαίνουν σε γενικές γραμμές πώς λειτουργούν, να ελέγχουν τις απαντήσεις τους και να μη γίνονται εξαρτημένοι από αυτά. Η παιδεία γύρω από την τεχνητή νοημοσύνη είναι πλέον μέρος της σύγχρονης γενικής παιδείας.
Ερώτηση: Ένα βασικό θέμα είναι η αξιοπιστία των απαντήσεων που δίνει η τεχνητή νοημοσύνη. Πόσο μπορούμε να την εμπιστευτούμε σήμερα και τι πρέπει να προσέχει ο χρήστης;
Σήμερα μπορούμε να εμπιστευτούμε την τεχνητή νοημοσύνη ως πολύ χρήσιμο εργαλείο, αλλά όχι ως αλάνθαστη πηγή αλήθειας. Η ΤΝ μπορεί να δίνει απαντήσεις που ακούγονται πειστικές, αλλά είναι λανθασμένες ή παραπλανητικές. ‘Αρα το σωστό ερώτημα δεν είναι αν μπορούμε να την εμπιστευτούμε γενικά, αλλά για ποιο σκοπό και υπό ποιες προϋποθέσεις. Σε χρήσεις χαμηλού ρίσκου —για παράδειγμα για να πάρει κανείς ιδέες, να οργανώσει σκέψεις ή να ξαναγράψει ένα κείμενο— μπορεί να είναι πολύ χρήσιμη. Σε χρήσεις όμως που επηρεάζουν δικαιώματα, υγεία, εκπαίδευση ή σοβαρές αποφάσεις, δεν πρέπει να χρησιμοποιείται χωρίς έλεγχο, διασταύρωση και ανθρώπινη εποπτεία.
Βέβαια, το ζήτημα δεν είναι μόνο η ακρίβεια των απαντήσεων. Τα μοντέλα τεχνητής νοημοσύνης δεν είναι ουδέτερα. Εκπαιδεύονται πάνω σε τεράστιο όγκο δεδομένων που κουβαλά ήδη στερεότυπα, ανισότητες και συγκεκριμένες οπτικές για τον κόσμο. Επιπλέον, αναπτύσσονται από πολύ ισχυρές εταιρείες, οι οποίες λαμβάνουν αποφάσεις για το τι θεωρείται αποδεκτό, τι επιτρέπεται να παραχθεί, τι φιλτράρεται και ποια ηθικά ή κοινωνικά όρια ενσωματώνονται στο σύστημα. ‘Αρα, όταν χρησιμοποιούμε την ΤΝ για να κατανοήσουμε τον κόσμο, δεν ερχόμαστε ποτέ σε επαφή με μια “καθαρή” και ουδέτερη γνώση· ερχόμαστε σε επαφή με γνώση που έχει ήδη περάσει μέσα από τα φίλτρα των δεδομένων, του σχεδιασμού και των αξιών εκείνων που δημιούργησαν το σύστημα.
Ερώτηση: Η τεχνητή νοημοσύνη επηρεάζει ήδη την εργασία και τις δεξιότητες. Τι θα συμβουλεύατε έναν νέο που θέλει να ασχοληθεί με τον χώρο; Ποιες σπουδές και ποιες δεξιότητες θεωρείτε πιο σημαντικές για να ασχοληθεί με τον κλάδο της τεχνητής νοημοσύνης;
Η τεχνητή νοημοσύνη πράγματι επηρεάζει ήδη την εργασία, γιατί αλλάζει ριζικά τον καταμερισμό ανάμεσα στον άνθρωπο και τη μηχανή. Για πρώτη φορά, μηχανές μπορούν να εκτελούν όχι μόνο χειρωνακτικές, αλλά και γνωστικές εργασίες που μέχρι πρόσφατα θεωρούσαμε κατεξοχήν ανθρώπινες. To κρίσιμο ερώτημα δεν είναι αν η ΤΝ θα μπει στην εργασία — αυτό έχει ήδη συμβεί. Το κρίσιμο ερώτημα είναι αν θα χρησιμοποιηθεί για να αντικαταστήσει τον άνθρωπο ή για να τον ενισχύσει, κάνοντάς τον πιο παραγωγικό και πιο δημιουργικό.
Σε έναν νέο που θέλει να ασχοληθεί με τον χώρο, θα έλεγα να επενδύσει πρώτα σε γερές βάσεις: πληροφορική, μαθηματικά, και προγραμματισμό. Αλλά δεν αρκεί η τεχνική γνώση. Χρειάζεται και η ικανότητα να συνδέει την ΤΝ με πραγματικά προβλήματα, να καταλαβαίνει πώς αξιολογείται ένα σύστημα, πού αποτυγχάνει, και ποιες κοινωνικές ή ηθικές συνέπειες μπορεί να έχει. Τα εργαλεία αλλάζουν πολύ γρήγορα. Οι βάσεις όμως, η κρίση και η ευθύνη μένουν.
Ερώτηση: Κοιτάζοντας μπροστά, ποια είναι η εξέλιξη στην τεχνητή νοημοσύνη που θεωρείτε ότι θα αλλάξει περισσότερο την καθημερινότητά μας τα επόμενα χρόνια;
Είναι εξαιρετικά δύσκολο να προβλέψει κανείς μέχρι πού μπορεί να φτάσει η τεχνητή νοημοσύνη. Αυτό που μπορούμε όμως να πούμε με βεβαιότητα είναι ότι θα επηρεάσει σχεδόν κάθε πτυχή της ζωής μας και ότι θα αλλάξει τον τρόπο με τον οποίο εργαζόμαστε με ταχύτητα και έκταση που πιθανόν δεν έχουμε ξαναδεί. Γι’ αυτό η κοινωνία δεν έχει την πολυτέλεια να αγνοήσει αυτή τη μετάβαση. Πρέπει έγκαιρα να αποφασίσει πώς θα αξιοποιήσει την τεχνολογία, πώς θα προστατεύσει την ανθρώπινη εργασία και πώς θα διασφαλίσει ότι αυτή η αλλαγή θα γίνει με όρους κοινωνικής δικαιοσύνης.
Αν κοιτάξουμε τα επόμενα χρόνια, θεωρώ ότι η καθημερινότητά μας θα επηρεαστεί από την ολοένα και βαθύτερη ενσωμάτωση της ΤΝ στην εργασία, στην εκπαίδευση, στην ενημέρωση και στην ψυχαγωγία. Η μεγάλη αλλαγή είναι ότι αυτά τα συστήματα θα γίνουν μέρος των ίδιων των περιβαλλόντων μέσα στα οποία ζούμε και δουλεύουμε. Θα γίνονται σταδιακά πιο αξιόπιστα, πιο εξειδικευμένα και πιο ικανά και σε ορισμένες επιμέρους εργασίες θα φτάνουν ή και θα ξεπερνούν την ανθρώπινη απόδοση.
Ταυτόχρονα, η τεχνητή νοημοσύνη δεν θα παραμείνει μόνο στο ψηφιακό πεδίο. Προχωρά όλο και περισσότερο και στον φυσικό κόσμο, μέσα από τη ρομποτική. Αυτό σημαίνει ότι στο μέλλον δεν θα αλλάξει μόνο ο τρόπος με τον οποίο γράφουμε, μαθαίνουμε ή επικοινωνούμε, αλλά και ο τρόπος με τον οποίο οι ίδιες οι μηχανές κινούνται, αντιλαμβάνονται το περιβάλλον και δρουν γύρω μας. Γι’ αυτό και η μεγάλη πρόκληση δεν θα είναι μόνο τεχνολογική. Θα είναι βαθιά κοινωνική: πώς θα αξιοποιήσουμε αυτή τη δύναμη χωρίς να υποβαθμίσουμε την ανθρώπινη κρίση, την ευθύνη και την ποιότητα της εργασίας και της ζωής μας.
Ερώτηση: Πόσο συχνά χρησιμοποιείτε εσείς ο ίδιος την τεχνητή νοημοσύνη στην εργασία σας και σε ποιες περιπτώσεις σας είναι πραγματικά χρήσιμη;
Καθημερινά. Μου είναι ιδιαίτερα χρήσιμη όταν θέλω να επιταχύνω ένα πρώτο στάδιο εργασίας ή να αυτοματοποιήσω κάτι επαναλαμβανόμενο. Όχι όμως ως υποκατάστατο της κρίσης μου, αλλά ως εργαλείο που ενισχύει την παραγωγικότητά μου.
Πηγή φωτογραφίας Delphi Economic Forum
ΑΠΕ-ΜΠΕ











