Πρόκειται για AI deepfake clips, που κατασκευάζονται με τη χρήση εξελιγμένων αλγορίθμων και παρουσιάζουν με ρεαλιστικό τρόπο ανθρώπους, εκφράσεις και σκηνές που ουδέποτε συνέβησαν. Η νέα αυτή «μόδα» έχει βρει πρόσφορο έδαφος κυρίως στο TikTok και το Instagram, όπου καθημερινά αναρτώνται εκατοντάδες τέτοια βίντεο. Κάποια φέρουν την ένδειξη «AI generated», ωστόσο τα περισσότερα κυκλοφορούν χωρίς καμία προειδοποίηση, με αποτέλεσμα ένα μεγάλο ποσοστό χρηστών ιδίως μεγαλύτερης ηλικίας να τα θεωρεί απολύτως αληθινά.
@greekaislop Ήθελε ένα φρούτο η γυναίκα #fyp #fy #greek #greekpolice ♬ original sound – Greekaislop
@greekaislop Τι έκανε η γυναίκα πια ; #fyp #greek #greekpolice #yiayia ♬ original sound – Greekaislop
Στα σχόλια κάτω από τα βίντεο διαβάζει κανείς φράσεις όπως «πού φτάσαμε ως κοινωνία» ή «ντροπή να συλλαμβάνουν γιαγιά για ένα μήλο», αποδεικνύοντας πόσο εύκολα μπορεί να χειραγωγηθεί το κοινό στην εποχή της ψηφιακής παραπληροφόρησης καθώς δεν είναι εκπαιδευμένο να αναγνωρίζει προϊόντα τεχνητής νοημοσύνης έστω και αν υπάρχει κάπου ειδική σήμανση.
O Γιώργος Παπαπροδρόμου, αντιστράτηγος ε.α. και πρώην Διοικητής Δίωξης Ηλεκτρονικού Εγκλήματος, μιλώντας το πρωί της Πέμπτης στο Mega είπε ένα τέτοιο βίντεο μπορεί να οδηγήσει από ψευδείς ειδήσεις μέχρι παραπληροφόρηση και χειραγώγηση. «Το πρόβλημα δεν είναι τα προϊόντα της τεχνητής νοημοσύνης αλλά η απουσία της κριτικής σκέψης. Πρέπει να έχουμε μία παιδεία, να διασταυρώνουμε τις πηγές».
«Εγώ βλέπω 4 ποινικά αδικήματα. Διασπορά ψευδών ειδήσεων, παράνομη χρήση εικόνας και φωνής, καθώς τα πρόσωπα που δείχνουν είναι υπαρκτά, η συκοφαντική δυσφήμιση και το αδίκημα της εξύβρισης. Είναι επικίνδυνο όταν διαδίδονται τέτοια βίντεο. Αυτό το βίντεο δημιουργεί και αρνητικές εντυπώσεις για την Αστυνομία. Πρέπει να είμαστε υποψιασμένοι ως πολίτες αλλά πρέπει να γίνουν και βήματα από την Πολιτεία», πρόσθεσε ο Χρήστος Συνδρεβέλης, Αντιπρόεδρος Π.Ο.ΑΣ.Υ.
Τεχνητή νοημοσύνη: Πώς να αναγνωρίσετε τα Deepfake βίντεο σαν έλεγχος δεδομένων
Τα Deepfakes, σύμφωνα με τον εξειδικευμένο ιστότοπο unite.ai είναι συνθετικά μέσα όπου ένα άτομο αντικαθιστά την ομοιότητα ενός ατόμου με κάποιο άλλο. Γίνονται όλο και πιο συνηθισμένοι στο διαδίκτυο, συχνά διαδίδοντας παραπληροφόρηση σε όλο τον κόσμο. Ενώ ορισμένα μπορεί να φαίνονται αβλαβή, άλλα μπορεί να έχουν κακόβουλη πρόθεση, καθιστώντας σημαντικό για τα άτομα να διακρίνουν την αλήθεια από το ψηφιακά κατασκευασμένο ψευδές περιεχόμενο. Δυστυχώς, δεν μπορούν όλοι να έχουν πρόσβαση σε λογισμικό τελευταίας τεχνολογίας για να αναγνωρίζουν τα βαθιά ψεύτικα βίντεο.
1. Εξετάστε το πλαίσιο
Η διεξοδική εξέταση του πλαισίου στο οποίο παρουσιάζεται το βίντεο είναι ζωτικής σημασίας. Αυτό σημαίνει ότι πρέπει να εξετάσετε το ιστορικό, το σκηνικό και το κατά πόσον τα γεγονότα του βίντεο συμφωνούν με αυτό που γνωρίζετε ότι είναι αληθινό. Τα deepfakes συχνά δεν παρουσιάζουν περιεχόμενο που δεν ανταποκρίνεται σε πραγματικά γεγονότα ή χρονοδιαγράμματα μετά από πιο προσεκτική εξέταση. Ένα παράδειγμα περιλαμβάνει ένα deepfake του Ουκρανού προέδρου Volodymyr Zelensky. Τον Μάρτιο του 2022, Ένα deepfake βίντεο εμφανίστηκε στα social media όπου ο Ζελένσκι φαινόταν να προτρέπει τα ουκρανικά στρατεύματα να καταθέσουν τα όπλα και να παραδοθούν στις ρωσικές δυνάμεις. Μετά από πιο προσεκτική εξέταση, αρκετές ενδείξεις που αφορούσαν τα συμφραζόμενα τόνιζαν την αναυθεντικότητα του βίντεο. Τα επίσημα κανάλια της ουκρανικής κυβέρνησης και ο ίδιος ο Ζελένσκι δεν κοινοποίησαν αυτό το μήνυμα. Επίσης, ο χρόνος και οι συνθήκες δεν συμφωνούσαν με τα γνωστά γεγονότα σχετικά με τη στάση και τη στρατιωτική στρατηγική της Ουκρανίας. Η δημιουργία του βίντεο είχε ως στόχο να αποθαρρύνει την ουκρανική αντίσταση και να σπείρει σύγχυση στη διεθνή κοινότητα που υποστηρίζει την Ουκρανία.
2. Ελέγξτε την Πηγή
Όταν συναντήσετε ένα βίντεο στο διαδίκτυο, ελέγξτε την πηγή του. Η κατανόηση της προέλευσης ενός βίντεο είναι ζωτικής σημασίας επειδή οι χάκερ θα μπορούσαν να το χρησιμοποιήσουν εναντίον σας για να αναπτύξουν μια κυβερνοεπίθεση. Πρόσφατα, Το 75% των επαγγελματιών της κυβερνοασφάλειας ανέφερε μια έξαρση στις κυβερνοεπιθέσεις, με το 85% να επισημαίνει τη χρήση γενεσιουργού AI από κακόβουλα άτομα. Αυτό συνδέεται με την άνοδο των deepfake βίντεο και οι επαγγελματίες αντιμετωπίζουν όλο και περισσότερο περιστατικά ασφαλείας που τροφοδοτεί περιεχόμενο που δημιουργείται από AI. Επαληθεύστε την πηγή αναζητώντας την προέλευση του βίντεο. Ένα βίντεο που προέρχεται από μια αμφίβολη πηγή θα μπορούσε να είναι μέρος μιας ευρύτερης στρατηγικής κυβερνοεπίθεσης. Οι αξιόπιστες πηγές είναι λιγότερο πιθανό να διαδώσουν βαθιά ψεύτικα βίντεο, καθιστώντας τα ένα ασφαλέστερο στοίχημα για αξιόπιστες πληροφορίες. Πάντα να ελέγχετε τα βίντεο με αξιόπιστα ειδησεογραφικά πρακτορεία ή επίσημους ιστότοπους για να βεβαιωθείτε ότι αυτό που βλέπετε είναι αυθεντικό.
3. Ψάξτε για ασυνέπειες στις εκφράσεις του προσώπου
Ένα από τα ενδεικτικά σημάδια ενός deepfake είναι η παρουσία ασυνεπειών στις εκφράσεις του προσώπου. Ενώ η τεχνολογία deepfake έχει προχωρήσει, συχνά παλεύει να μιμηθεί με ακρίβεια τις λεπτές και περίπλοκες κινήσεις που συμβαίνουν φυσικά όταν ένα άτομο μιλάει ή εκφράζει συναισθήματα. Μπορείτε να τα εντοπίσετε εξετάζοντας τις ακόλουθες ασυνέπειες:
Αφύσικο αναβοσβήσιμο: Οι άνθρωποι αναβοσβήνουν με κανονικό, φυσικό μοτίβο. Ωστόσο, τα deepfakes μπορεί είτε να υποδηλώνουν το αναβοσβήσιμο είτε να το παρακάνουν. Για παράδειγμα, ένα deepfake θα μπορούσε να δείξει ένα άτομο να μιλάει για μεγάλο χρονικό διάστημα χωρίς να αναβοσβήνει ή να αναβοσβήνει πολύ γρήγορα.
Σφάλματα συγχρονισμού χειλιών: Όταν κάποιος μιλάει σε ένα βίντεο, η κίνηση των χειλιών του μπορεί να είναι απενεργοποιημένη. Παρακολουθήστε προσεκτικά για να δείτε αν τα χείλη ταιριάζουν με τον ήχο. Σε ορισμένα deepfakes, η αναντιστοιχία είναι λεπτή αλλά ανιχνεύσιμη όταν κοιτάξετε προσεκτικά.
Εκφράσεις προσώπου και συναισθήματα: Τα γνήσια ανθρώπινα συναισθήματα είναι πολύπλοκα και αντανακλώνται μέσω των κινήσεων του προσώπου. Τα Deepfakes συχνά αποτυγχάνουν να το αποτυπώσουν, οδηγώντας σε άκαμπτες, υπερβολικές ή μη πλήρως ευθυγραμμισμένες εκφράσεις. Για παράδειγμα, ένα ψεύτικο βίντεο μπορεί να δείχνει ένα άτομο να χαμογελά ή να συνοφρυώνεται με λιγότερη απόχρωση ή η συναισθηματική αντίδραση μπορεί να μην ταιριάζει με το πλαίσιο της συνομιλίας.
4. Αναλύστε τον ήχο
Ο ήχος μπορεί επίσης να σας δώσει στοιχεία για το αν ένα βίντεο είναι πραγματικό ή ψεύτικο. Η τεχνολογία Deepfake επιχειρεί να μιμηθεί φωνές, αλλά οι αποκλίσεις συχνά τις εξαφανίζουν. Για παράδειγμα, δώστε προσοχή στην ποιότητα και τα χαρακτηριστικά της φωνής. Τα Deepfakes μπορεί να ακούγονται ρομποτικά ή επίπεδα στην ομιλία τους, ή μπορεί να μην έχουν τις συναισθηματικές στροφές που θα παρουσίαζε φυσικά ένας πραγματικός άνθρωπος. Ο θόρυβος φόντου και η ποιότητα του ήχου μπορούν επίσης να παρέχουν ενδείξεις. Μια ξαφνική αλλαγή θα μπορούσε να υποδηλώνει ότι ορισμένα μέρη του ήχου έχουν αλλοιωθεί ή ενωθούν μεταξύ τους. Τα αυθεντικά βίντεο συνήθως παραμένουν σταθερά σε όλη τη διάρκεια.
5. Ερευνήστε το Φωτισμό και τις Σκιές
Ο φωτισμός και οι σκιές παίζουν μεγάλο ρόλο στην αποκάλυψη της αυθεντικότητας ενός βίντεο. Η τεχνολογία Deepfake συχνά παλεύει με την ακριβή αναπαραγωγή του τρόπου με τον οποίο το φως αλληλεπιδρά με αντικείμενα του πραγματικού κόσμου, συμπεριλαμβανομένων των ανθρώπων. Η μεγάλη προσοχή στο φωτισμό και τις σκιές μπορεί να σας βοηθήσει να εντοπίσετε διάφορα αντικείμενα που υποδεικνύουν εάν πρόκειται για deepfake. Στα αυθεντικά βίντεο, ο φωτισμός του θέματος και το περιβάλλον θα πρέπει να είναι ομοιόμορφα. Τα βίντεο deepfake ενδέχεται να εμφανίζουν ανωμαλίες, όπως το πρόσωπο να φωτίζεται διαφορετικά από το φόντο. Εάν η κατεύθυνση ή η πηγή φωτός του βίντεο δεν βγάζει νόημα, θα μπορούσε να είναι ένδειξη χειραγώγησης. Δεύτερον, οι σκιές πρέπει να συμπεριφέρονται σύμφωνα με τις πηγές φωτός στη σκηνή. Στα deepfakes, οι σκιές μπορεί να εμφανιστούν σε λάθος γωνίες ή να μην αντιστοιχούν με άλλα αντικείμενα. Οι ανωμαλίες στο μέγεθος της σκιάς, την κατεύθυνση και την παρουσία ή απουσία αναμενόμενων σκιών σας δίνουν μια συνολική ιδέα.
6. Ελέγξτε για συναισθηματική χειραγώγηση
Τα Deepfakes κάνουν περισσότερα από το να δημιουργούν πειστικά ψέματα – οι άνθρωποι συχνά τα σχεδιάζουν για να χειραγωγούν τα συναισθήματα και να προκαλούν αντιδράσεις. Μια βασική πτυχή του προσδιορισμού αυτού του περιεχομένου είναι να αξιολογηθεί εάν στοχεύει να πυροδοτήσει μια συναισθηματική απόκριση που θα μπορούσε να θολώσει την ορθολογική κρίση. Για παράδειγμα, εξετάστε το περιστατικό όπου μια εικόνα βόμβας στο Πεντάγωνο που δημιουργήθηκε από AI κυκλοφόρησε στο Twitter X. Παρά το γεγονός ότι ήταν εντελώς κατασκευασμένη, ο ανησυχητικός χαρακτήρας της εικόνας την έκανε να γίνει viral και να προκαλέσει εκτεταμένο πανικό. Σαν άποτέλεσμα, ζημιά 500 δισεκατομμυρίων δολαρίων στο χρηματιστήριο σημειώθηκε.
Τα Deepfake βίντεο μπορούν να προκαλέσουν τον ίδιο πανικό, ειδικά όταν εμπλέκεται η τεχνητή νοημοσύνη. Κατά την αξιολόγηση αυτών των βίντεο, αναρωτηθείτε:
Προσπαθεί το περιεχόμενο να προκαλέσει μια έντονη συναισθηματική απόκριση, όπως φόβο, θυμό ή σοκ; Οι αυθεντικές πηγές ειδήσεων στοχεύουν στην ενημέρωση και όχι στην υποκίνηση.
Το περιεχόμενο ευθυγραμμίζεται με τρέχοντα γεγονότα ή γνωστά γεγονότα; Η συναισθηματική χειραγώγηση βασίζεται συχνά στην αποσύνδεση του κοινού από την ορθολογική ανάλυση.
Οι αξιόπιστες πηγές αναφέρουν την ίδια ιστορία; Η απουσία επιβεβαίωσης από αξιόπιστα μέσα ενημέρωσης μπορεί να υποδηλώνει την κατασκευή συναισθηματικά φορτισμένου περιεχομένου.
7. Αξιοποιήστε τα Εργαλεία Ανίχνευσης Deepfake
Καθώς τα deepfakes γίνονται πιο εξελιγμένα, το να βασίζεσαι αποκλειστικά στην ανθρώπινη παρατήρηση για τον εντοπισμό τους μπορεί να είναι δύσκολο. Ευτυχώς, είναι διαθέσιμα εργαλεία ανίχνευσης deepfake που χρησιμοποιούν προηγμένη τεχνολογία για τη διάκριση μεταξύ πραγματικού και ψεύτικου. Αυτά τα εργαλεία μπορούν να αναλύσουν βίντεο για ασυνέπειες και ανωμαλίες που μπορεί να μην είναι ορατές με γυμνό μάτι. Αξιοποιούν την τεχνητή νοημοσύνη και τη μηχανική μάθηση χρησιμοποιώντας τη υδατογράφηση ομιλίας ως μία μέθοδο. Αυτές οι τεχνολογίες είναι εκπαιδευμένοι να αναγνωρίζουν την τοποθέτηση του υδατογραφήματος για να προσδιορίσετε εάν ο ήχος έχει παραβιαστεί. Η Microsoft ανέπτυξε ένα εργαλείο που ονομάζεται Video Authenticator, το οποίο παρέχει βαθμολογία εμπιστοσύνης που υποδεικνύει την πιθανότητα ενός deepfake. Ομοίως, οι νεοφυείς επιχειρήσεις και τα ακαδημαϊκά ιδρύματα αναπτύσσουν και βελτιώνουν συνεχώς τεχνολογίες για να συμβαδίζουν με τα εξελισσόμενα deepfakes.
Ανίχνευση Deepfakes με επιτυχία
Η τεχνολογία έχει μια φωτεινή και σκοτεινή πλευρά και εξελίσσεται διαρκώς, επομένως είναι σημαντικό να είστε δύσπιστοι για αυτά που βλέπετε στο διαδίκτυο. Όταν αντιμετωπίζετε ένα ύποπτο deepfake, χρησιμοποιήστε τις αισθήσεις σας και τα διαθέσιμα εργαλεία. Επιπλέον, ελέγχετε πάντα από πού προέρχεται. Εφόσον παραμένετε στην κορυφή των τελευταίων deepfake ειδήσεων, η επιμέλειά σας θα είναι το κλειδί για τη διατήρηση της αλήθειας στην εποχή των ψεύτικων μέσων.

