Μια ιδιαίτερα επίκαιρη και πολυεπίπεδη συζήτηση με θέμα την Τεχνητή Νοημοσύνη και τον ρόλο της στη διαμόρφωση της αλήθειας στην ψηφιακή εποχή, πραγματοποιήθηκε στο πλαίσιο του 11ου Οικονομικού Φόρουμ Δελφών 2026.
Στο επίκεντρο της συζήτησης που είχε θέμα «Τεχνητή Νοημοσύνη και η Μάχη για την Αλήθεια στην Ψηφιακή Εποχή» βρέθηκε το κρίσιμο ερώτημα αν η ραγδαία εξέλιξη των συστημάτων AI λειτουργεί ως εργαλείο ενίσχυσης της γνώσης και της διαφάνειας ή ως πολλαπλασιαστής παραπληροφόρησης και σύγχυσης στον δημόσιο διάλογο.
- Στο πάνελ συμμετείχαν ο υπουργός Ψηφιακής Διακυβέρνησης Δημήτρης Παπαστεργίου, ο υφυπουργός παρά τω πρωθυπουργώ και κυβερνητικός εκπρόσωπος Παύλος Μαρινάκης, ο καθηγητής του Οικονομικού Πανεπιστημίου Αθηνών και εταίρος της EY Χρήστος Ταραντίλης, η δημοσιογράφος του Αθηναϊκού-Μακεδονικού Πρακτορείου Ειδήσεων Αλεξάνδρα Γούτα, καθώς και ο συγγραφέας Χρήστος Χωμενίδης.
Η συζήτηση ανέδειξε κοινή ανησυχία ότι η τεχνητή νοημοσύνη δεν αποτελεί απλώς τεχνολογικό εργαλείο, αλλά έναν καταλύτη που επιταχύνει ήδη υπάρχουσες παθογένειες του ψηφιακού οικοσυστήματος, με κυριότερη την εξάπλωση της παραπληροφόρησης. Οι παρεμβάσεις κινήθηκαν από τη θεσμική διάσταση του προβλήματος -όπως η ανάγκη ενίσχυσης του ευρωπαϊκού πλαισίου ρύθμισης και εφαρμογής του DSA- έως την κοινωνική και παιδευτική του διάσταση, με έμφαση στον ψηφιακό εγγραμματισμό και τη «γνωστική θωράκιση» των πολιτών.
Ιδιαίτερη βαρύτητα δόθηκε από τους ομιλητές στο ζήτημα της ταυτοποίησης των χρηστών στο διαδίκτυο και στη διαφάνεια του περιεχομένου που παράγεται από AI, με χαρακτηριστικές παρεμβάσεις που υπογράμμισαν την ανάγκη για σαφή σήμανση, λογοδοσία των πλατφορμών και θεσμικούς φραγμούς απέναντι στη διάδοση ψευδών ειδήσεων. Παράλληλα, τέθηκε στο τραπέζι και η υπαρξιακή διάσταση του ζητήματος, με προβληματισμούς γύρω από τη σχέση ανθρώπινης κρίσης και αλγοριθμικής «ευκολίας», αλλά και τον κίνδυνο σταδιακής υποκατάστασης της κριτικής σκέψης από έτοιμες ψηφιακές απαντήσεις.
Δημήτρης Παπαστεργίου: Πρέπει να τελειώνουμε με την ανωνυμία στο διαδίκτυο
Εάν η Τεχνητή Νοημοσύνη φέρνει τελικά περισσότερη αλήθεια ή περισσότερη παραπληροφόρηση: Έχουμε θεοποιήσει την τεχνολογία, αλλά θεωρώ πως η απόλυτη αποδοχή των όσων τα μοντέλα τεχνητής νοημοσύνης μας παρέχουν, μας έχει οδηγήσει ήδη σε πολλά λάθος συμπεράσματα. Θα πρέπει, μετά τον ενθουσιασμό και τον εντυπωσιασμό, να προσγειωθούμε και να βάλουμε τα πράγματα σε μια νέα σειρά. Να βοηθήσουμε τους ανθρώπους, και ειδικά τα νέα παιδιά, να ψάξουν την αλήθεια πιο βαθιά πέρα από τις συνόψεις και τις περιγραφές. Η εύκολη και γρήγορη «αλήθεια» της τεχνητής νοημοσύνης δεν είναι πάντα η πραγματική αλήθεια.
Σχετικά με τον ποιον τρόπο μπορεί το κράτος να βάλει φρένο σε κάτι που διαδίδεται ψηφιακά πολύ πιο γρήγορα από τις επίσημες ανακοινώσεις και διαψεύσεις: Το πρώτο που πρέπει να κάνουμε είναι να δούμε πώς οι ψευδείς, κατασκευασμένες ειδήσεις δεν θα περνάνε από τα φίλτρα των πλατφορμών. Μια ψευδής είδηση τρέχει πολύ γρήγορα όταν περνάει μέσα από τα μέσα κοινωνικής δικτύωσης. Οι πλατφόρμες βγάζουν χρήματα από τέτοια περιεχόμενα, γι’ αυτό και τα αφήνουν, ενώ μπορούν να καταλάβουν ότι είναι κατασκευασμένα. Εδώ η Ευρώπη πρέπει να βάλει φραγμούς. Δεν μπορεί να γίνει μόνο σε εθνικό επίπεδο. Στο πλαίσιο της κοινής ευρωπαϊκής αγοράς, η Ευρώπη πρέπει να επιβάλει στις πλατφόρμες να σταματήσουν να διαδίδουν ψευδή βίντεο.
Εάν υπάρχει κάποιος τρόπος αντίδρασης μέσω της νομοθεσίας: Υπάρχει το DSA (Digital Services Act – Πράξη για τις Ψηφιακές Υπηρεσίες), που ορίζει ότι όποιος θίγεται μπορεί να απευθυνθεί στον αρμόδιο φορέα (στην Ελλάδα είναι η ΕΕΤΤ), ο οποίος με τη σειρά του ειδοποιεί την πλατφόρμα. Ωστόσο, αυτή η διαδικασία, παρότι τρέχει σχετικά γρήγορα, παραμένει πιο αργή από τη διάδοση της ίδιας της είδησης.
Για το ζήτημα της ανωνυμίας στο διαδίκτυο: Συμφωνώ απόλυτα με την ανάγκη ταυτοποίησης κάθε χρήστη στο διαδίκτυο. Οι πλατφόρμες πρέπει να αναγκαστούν να ζητούν ταυτοποιητικά στοιχεία. Πλέον αυτό είναι τεχνικά εφικτό. Πρέπει να τελειώνουμε με την ανωνυμία. Ακόμη και αν κάποιος γράφει με ψευδώνυμο, θα πρέπει να είναι δυνατή η ταυτοποίησή του αν προκύψει νομικό ζήτημα.
Για το επόμενο βήμα αναφορικά με τον έλεγχο της παραπληροφόρησης: Πρέπει να πάμε σε ρύθμιση του περιεχομένου που δημιουργείται από τεχνητή νοημοσύνη, ώστε να είναι σαφές στον χρήστη ότι πρόκειται για προϊόν AI. Αν υπήρχαν υπεύθυνες πλατφόρμες, θα υπήρχε και υπεύθυνη ενημέρωση. Επειδή όμως το κέρδος συχνά προηγείται, η παρέμβαση σε ευρωπαϊκό επίπεδο είναι μονόδρομος για την προστασία των δημοκρατιών μας.
Παύλος Μαρινάκης: Η δημοκρατία δεν είναι ασυδοσία – Χρειάζονται κανόνες και ταυτοποίηση χρηστών στο διαδίκτυο
Για τον μεγαλύτερο κίνδυνο από τη χρήση της τεχνητής νοημοσύνης ενόψει εκλογών: Ο κίνδυνος είναι να αλλοιωθεί ένα εκλογικό αποτέλεσμα. Δεν θεωρώ όμως ότι το Deepfake βίντεο αποτελεί τον μεγαλύτερο κίνδυνο. Το πρόβλημα είναι ένα ανυπόγραφο άρθρο σε ένα site ή ένας ανώνυμος λογαριασμός στα social media που μπορεί να ανεβάσει ένα βίντεο και να λέει μια ιστορία η οποία να μην μπορεί να αποδειχθεί πολύ γρήγορα ότι είναι ψευδής για έναν υποψήφιο.
Σχετικά με το πως μπορεί να αντιμετωπιστεί η παραπληροφόρηση και οι «δολοφονίες χαρακτήρων» στο διαδίκτυο: Πρέπει να προσαρμόζουμε το νομοθετικό πλαίσιο και τους ελεγκτικούς μηχανισμούς ούτως ώστε ο κόσμος αυτό που βλέπει να ξέρει τι είναι. Τουλάχιστον να ξέρει ότι είναι προϊόν τεχνητής νοημοσύνης. Επιμένω ξανά και ξανά στην ταυτοποίηση κάθε χρήστη στο διαδίκτυο. Όχι για την άρση της ψευδωνυμίας, αλλά να ξέρει ο καθένας ότι πίσω από κάθε προφίλ κρύβεται ένας συγκεκριμένος άνθρωπος. Όποιος δεν διαπράττει κάποια παρανομία δεν έχει να φοβάται τίποτα.
Για τη διασφάλιση της προστασίας της δημοκρατίας από τις πλατφόρμες κοινωνικής δικτύωσης: Η δημοκρατία δεν είναι ασυδοσία, δεν είναι κάτι το οποίο δεν έχει κανόνες, νόμους και περιορισμούς. Πρέπει να πρωταγωνιστήσουμε σε ευρωπαϊκό επίπεδο και να πούμε ότι αν θέλει να λειτουργεί μια πλατφόρμα σε ένα κράτος, πρέπει να τηρεί κάποιους αυτονόητους κανόνες. Να ταυτοποιεί τους χρήστες της και να ενημερώνει υποχρεωτικά τον χρήστη όταν ένα βίντεο είναι προϊόν τεχνητής νοημοσύνης. Είναι ζήτημα ζωτικής σημασίας.
Για το εάν η τεχνητή νοημοσύνη είναι το κύριο εργαλείο παραγωγής ψευδών ειδήσεων σήμερα: Η βασική μου δουλειά είναι να αποδομώ fake news. Δεν μπορώ να θυμηθώ ένα πολύ μεγάλο από αυτά που προκάλεσε κρίση και να ήταν αποτέλεσμα της τεχνητής νοημοσύνης. Εννέα στα δέκα ήταν αποτέλεσμα προπαγάνδας άλλων κομμάτων και μέσων μαζικής ενημέρωσης που επενδύουν στην παραπληροφόρηση. Αυτή η μάχη κρατάει από τα πολύ παλιά, απλά οφείλουμε να χρησιμοποιήσουμε τα σύγχρονα εργαλεία υπέρ μας.
Χρήστος Ταραντίλης: Η αποπληροφόρηση είναι μεγαλύτερος κίνδυνος από την κλιματική κρίση και τους πολέμους
Εάν η τεχνητή νοημοσύνη είναι πηγή αλήθειας ή παραπληροφόρησης: Δεν είναι δυνατόν μια τόσο ισχυρή τεχνολογία να είναι ή το ένα ή το άλλο· θα είναι σίγουρα και τα δύο. Η τεχνητή νοημοσύνη, επειδή εκπαιδεύεται από τα κείμενα, αν έχει εκπαιδευτεί από εξαιρετικά αληθινά και καινοτόμα κείμενα, θα σου δώσει μια τρομερή ανάλυση και θα γνωρίσεις την αλήθεια που δεν την ήξερες ούτε καν πριν από λίγο καιρό. Από την άλλη, είναι η αιτία που αυτή τη στιγμή έχουμε 1,2 εκατομμύρια deepfake ηχητικά αποσπάσματα και βίντεο για το 2025. Είναι η αιτία που έχει δημιουργήσει κόσμους ψεύτικους τελείως, όπου τα πράγματα φαίνονται τελείως αληθινά ενώ είναι τελείως ψεύτικα.
Σχετικά με το βαθμό κινδύνου της «αποπληροφόρησης» για το άμεσο μέλλον: Η αποπληροφόρηση (disinformation), με βάση πρόσφατη μελέτη του World Economic Forum, θεωρείται ο μεγαλύτερος κίνδυνος για το ’24 και το ’26· μεγαλύτερος από την κλιματική κρίση, από πολέμους, από χάσιμο δουλειών. Είναι τεράστιο ζήτημα.
Για τα θεσμικά μέτρα πρέπει να ληφθούν για τον έλεγχο του περιεχομένου: Θα πρέπει να υπάρχει ψηφιακή σήμανση σε οτιδήποτε παράγεται από την τεχνητή νοημοσύνη. Fact αυτό, πρέπει να γίνει. Ψηφιακή σήμανση, δηλαδή ουσιαστικά υδατογραφήματα ή ενσωματωμένα κρυπτογραφημένα metadata, όπου σε μια φωτογραφία να μπορείς να δεις ποιος την πήρε, πότε την πήρε και ούτω καθεξής.
Για τους τρόπους θωράκισης της κοινωνίας: Χρειάζεται αυτό που λέμε “γνωστική θωράκιση”. Είναι πολύ σημαντικό να εκπαιδευτεί ο κόσμος στο digital literacy. Να βάλουμε από το δημοτικό κιόλας μαθήματα που θα έχουν να κάνουν με το πώς κατασκευάζεται ένα deepfake και πώς αποδομείται. Μόνο τότε θα μπορεί ο πολίτης να αντιληφθεί αν κάτι που δέχεται στο κινητό του είναι ένα ύποπτο αλγοριθμικό προϊόν.
Για την έμφαση που πρέπει να δοθεί στην εκπαίδευση της τρίτης ηλικίας: Στην τρίτη ηλικία παρατηρείται το φαινόμενο να μην νιώθει καθόλου άνετα ο κόσμος όταν βλέπει τελείως διαφορετικές πληροφορίες πάνω στο ίδιο θέμα. Νιώθει πραγματικά ότι δεν μπορεί να ξέρει αν αυτό που ακούει ή βλέπει είναι πραγματικό ή όχι. Και ξέρετε τι προτιμά; Να μην ασχολείται καθόλου με αυτό που λέμε πληροφόρηση. Απέχουν από τον δημόσιο διάλογο, απέχουν από τη δημόσια ζωή και δημιουργείται τεράστιο πρόβλημα στη δημοκρατία.
Σχετικά με το τελικό συμπέρασμα για τη σχέση μας με την τεχνολογία: Ξέρουμε τη μεθοδολογία, ξέρουμε την τεχνολογία, τι μένει; Πολιτική βούληση να γίνουν όλα αυτά αύριο. Αν δεν κάνουμε την προσπάθεια και δεχόμαστε να ψάχνουμε την αλήθεια μέσω των LLMs, θα είναι η χρονιά που εμείς οι άνθρωποι θα ανταλλάξουμε την κρίση μας με την ευκολία.
Αλεξάνδρα Γούτα: Η ταχύτητα του ψεύδους έναντι της δημοσιογραφικής επαλήθευσης
Η κα Γούτα παρομοίασε την Τεχνητή Νοημοσύνη με τον «Ιανό», τονίζοντας τη διπλή της φύση. Από τη μία πλευρά, αποτελεί ένα ισχυρό εργαλείο για τους δημοσιογράφους, επιτρέποντας την έρευνα σε βάθος που ήταν αδιανόητο στο παρελθόν. Από την άλλη, όμως, το 50% του περιεχομένου στο διαδίκτυο είναι πλέον προϊόν AI, με την παραπληροφόρηση να διαδίδεται με ιλιγγιώδεις ταχύτητες.
Σύμφωνα με τα στοιχεία που παρουσίασε, ένα “deepfake” βίντεο μπορεί να δημιουργηθεί σε λίγα λεπτά, αλλά η διάψευσή του απαιτεί ημέρες ή και εβδομάδες, ενώ διαδίδεται έως και 20 φορές ταχύτερα από τις πραγματικές ειδήσεις. Υπογράμμισε ότι οι αλγόριθμοι των social media τείνουν να επιβραβεύουν το ακραίο και το συναισθηματικά φορτισμένο περιεχόμενο, ενισχύοντας τις προκαταλήψεις των χρηστών. Ως λύση, πρότεινε την ενίσχυση της «αργής» και επώνυμης δημοσιογραφίας, καθώς και τη χρήση εργαλείων επαλήθευσης (verification as a service) για την προστασία των πολιτών.
Χρήστος Χωμενίδης: Η ανθρώπινη τάση προς τη «μαγεία» και η υπαρξιακή απειλή της AI
Ο κ. Χωμενίδης προσέγγισε το θέμα από μια πιο φιλοσοφική και υπαρξιακή σκοπιά. Επισήμανε ότι το κοινό συχνά δεν επιδιώκει την αντικειμενική αλήθεια, αλλά προτιμά μια «ωραία ιστορία» ή αυτό που ονομάζει «μαγεία» έναντι του ρεαλισμού. Αυτή η ανθρώπινη αδυναμία καθιστά τα deepfakes ιδιαίτερα επικίνδυνα, καθώς το κοινό είναι έτοιμο να πιστέψει το ψεύδος αν αυτό ταιριάζει στις πεποιθήσεις του.
Παράλληλα, εξέφρασε την ανησυχία του ότι η AI δεν είναι απλώς ένα τεχνολογικό εργαλείο, αλλά μια εν δυνάμει υπαρξιακή απειλή για την κυριαρχία του ανθρώπου. Τόνισε ότι, αν και η AI μπορεί να συνθέτει κείμενα βασισμένη σε στατιστικές πιθανότητες, της λείπει το «βίωμα», το «εγώ» και η «αγωνία του θανάτου», στοιχεία απαραίτητα για την παραγωγή αληθινής τέχνης και λογοτεχνίας. Προειδοποίησε, ωστόσο, ότι αν η εξέλιξή της συνεχιστεί ανεξέλεγκτα, ο άνθρωπος κινδυνεύει να μετατραπεί σε «κατοικίδιο» μιας ανώτερης ψηφιακής νοημοσύνης, χάνοντας την κριτική του ικανότητα προς χάρη της ευκολίας.
Με πληροφορίες από ΑΠΕ – ΜΠΕ
VIA: hellasjournal.com


