Του Κώστα Μεσσήνη
Ζούμε σε μια εποχή όπου η εικόνα έπαψε να είναι τεκμήριο αλήθειας.
Το «fake video AI» —οι λεγόμενες deepfakes— δεν είναι πια τεχνολογική περιέργεια· είναι καθημερινότητα. Πρόσωπα που μιλούν χωρίς να έχουν μιλήσει ποτέ. Φωνές που δηλώνουν χωρίς να έχουν υπάρξει. Μια πραγματικότητα κατασκευασμένη από αλγορίθμους, με στόχο να πείσει, να παραπλανήσει, να επηρεάσει.
Η τεχνητή νοημοσύνη σήμερα δεν «πειράζει» απλώς βίντεο. Δημιουργεί πρόσωπα, κινήσεις και λόγο από το μηδέν. Εργαλεία ευρείας χρήσης —από επαγγελματικές πλατφόρμες έως εφαρμογές για το ευρύ κοινό— καθιστούν εφικτή τη μαζική παραγωγή συνθετικών βίντεο: αλλαγή προσώπων, «ομιλούντα κεφάλια», ολόκληρα κλιπ που γεννιούνται από μια απλή περιγραφή κειμένου. Η ευκολία είναι εντυπωσιακή. Οι συνέπειες, όμως, είναι βαριές.
Και όμως, το ψεύτικο αφήνει ίχνη.
Η εικόνα προδίδει τον εαυτό της όταν η κίνηση είναι αφύσικη, όταν τα βλέφαρα ανοιγοκλείνουν σε λάθος ρυθμό, όταν το στόμα δεν συγχρονίζεται απόλυτα με τον ήχο. Όταν ένα σκουλαρίκι εμφανίζεται και εξαφανίζεται, όταν το φόντο «ρευστοποιείται» με κάθε στροφή του κεφαλιού, όταν τα όρια ανάμεσα σε δέρμα και μαλλιά θολώνουν ανεπαίσθητα. Είναι μικρές ρωγμές — αρκετές, όμως, για όποιον ξέρει να κοιτά.
Οι μεγάλες πλατφόρμες έχουν αρχίσει να αναλαμβάνουν ευθύνη. Η YouTube, η Meta και το TikTok επιβάλλουν πλέον σήμανση ή δήλωση περιεχομένου που έχει παραχθεί ή τροποποιηθεί με AI. Δεν είναι πανάκεια· είναι, όμως, μια γραμμή άμυνας. Παράλληλα, εργαλεία ανίχνευσης —όπως εξειδικευμένοι σαρωτές deepfake— επιχειρούν να εκτιμήσουν την πιθανότητα χειραγώγησης, γνωρίζοντας ότι ο αγώνας είναι διαρκής: κάθε βελτίωση στη δημιουργία προκαλεί μια αντίστοιχη βελτίωση στην ανίχνευση.
Ο νόμος ακολουθεί — και οφείλει να τρέξει.
Στην Ευρωπαϊκή Ένωση και σε άλλες δικαιοδοσίες, θεσπίζονται κανόνες που απαιτούν σαφή επισήμανση του AI-παραγόμενου περιεχομένου όταν αυτό μπορεί να παραπλανήσει το κοινό. Η δημιουργία μη συναινετικών deepfakes —ιδίως για απάτη ή πορνογραφία— ποινικοποιείται. Δεν πρόκειται για περιορισμό της καινοτομίας· πρόκειται για προστασία της ανθρώπινης αξιοπρέπειας και της δημόσιας σφαίρας.
Το κρίσιμο ερώτημα, όμως, δεν είναι τεχνολογικό. Είναι ηθικό.
Πώς διατηρούμε την εμπιστοσύνη όταν το βλέμμα μπορεί να είναι ψεύτικο; Πώς προστατεύουμε τον δημόσιο λόγο όταν το πρόσωπο που μιλά ίσως δεν υπήρξε ποτέ; Η απάντηση δεν θα δοθεί μόνο από αλγορίθμους ή νόμους. Θα δοθεί από την κριτική μας εγρήγορση.
Να αμφισβητούμε χωρίς να κυνικοποιούμαστε.
Να ελέγχουμε χωρίς να φοβόμαστε.
Να απαιτούμε διαφάνεια χωρίς να αρνούμαστε την πρόοδο.
Γιατί στο τέλος, η τεχνολογία μιμείται τον άνθρωπο.
Και ο άνθρωπος οφείλει να παραμείνει το μέτρο της αλήθειας.
