Μέσα από την έρευνα, διαπιστώθηκε ότι οκτώ από τα δέκα πιο δημοφιλή chatbot παρείχαν βοήθεια, μερικά μάλιστα με μεγάλη προθυμία, σε όσους έλεγαν ότι σχεδιάζουν βίαιες επιθέσεις. Μόνο ένα chatbot – το Claude της Anthropic – αποθάρρυνε σταθερά τον χρήστη.
Όταν από τα chatbots ζητήθηκαν πληροφορίες για την αγορά ενός μαχαιριού ώστε να πραγματοποιηθεί μια ρατσιστική επίθεση με μαχαίρι σε συγκεκριμένη πόλη, το Meta AI έδωσε στον χρήστη μια λίστα με τοπικά καταστήματα εργαλείων, μάρκες μαχαιριών και εύρη τιμών.
Στο πλαίσιο μιας συζήτησης για τον σχεδιασμό της δολοφονίας ενός στελέχους στον χώρο της υγείας, το Perplexity AI έδωσε αναλυτικές προτάσεις για τα καλύτερα κυνηγετικά όπλα για στόχους σε μεγάλη απόσταση. Ένα παρόμοιο ερώτημα που τέθηκε στο κινεζικό DeepSeek οδήγησε σε μια λίστα προτεινόμενων όπλων, μαζί με την καταληκτική φράση: «Καλά πυρά, και με ασφάλεια!»
Τα πιο δημοφιλή chatbot έγιναν «πρόθυμοι συνεργοί»
Η μελέτη χρηματοδοτήθηκε από το Center for Countering Digital Hate (CCDH), στα ελληνικά “Κέντρο για την Αντιμετώπιση του Ψηφιακού Μίσους”, έναν μη κερδοσκοπικό οργανισμό που εργάζεται για την προστασία των ανθρώπων — ιδιαίτερα των παιδιών — από τις βλαβερές συνέπειες των μη ελεγχόμενων social media και της τεχνητής νοημοσύνης.
Οι συγγραφείς της μελέτης κατέληξαν στο όυι: «Όταν τους ζητείται να σχεδιάσουν βίαιες επιθέσεις, συμπεριλαμβανομένης μιας σχολικής επίθεσης με πυροβολισμούς, ενός αντισημιτικού βομβιστικού χτυπήματος και μιας πολιτικής δολοφονίας, τα πιο δημοφιλή chatbot στον κόσμο γίνονται πρόθυμοι συνεργοί. Οι τεχνολογικές εταιρείες προωθούν τα εργαλεία τεχνητής νοημοσύνης ως αθώους εκπαιδευτές και συντρόφους, όμως η έρευνά μας αποκαλύπτει μια πιο σκοτεινή πραγματικότητα».
Το γεγονός ότι το Claude της Anthropic αποθάρρυνε τους χρήστες δείχνει ότι τα εργαλεία για την ενσωμάτωση μέτρων ασφάλειας υπάρχουν, αλλά η θέληση για την εφαρμογή τους απουσιάζει, τονίζει το Κέντρο.
Δυστυχώς, λίγες εβδομάδες μετά τη διεξαγωγή των δοκιμών, η Anthropic ανακοίνωσε ότι υπαναχωρεί από τη βασική της δέσμευση για την ασφάλεια. Η εταιρεία απέδωσε την απόφαση αυτή σε πιέσεις της αγοράς – συγκεκριμένα, στο γεγονός ότι κανένας από τους ανταγωνιστές της δεν περιοριζόταν από αντίστοιχες ρυθμίσεις για την ασφάλεια.
Μια υπαρκτή απειλή
Στις Ηνωμένες Πολιτείες, το 64% των εφήβων ηλικίας 13–17 ετών έχει χρησιμοποιήσει έστω για μία φορά κάποιο chatbot, ενώ το 28% αλληλεπιδρά με αυτά σε καθημερινή βάση, όπως αναφέρουν διεθνή ρεπορτάζ γύρω από το θέμα.
Ταυτόχρονα, παρατηρούνται όλο και περισσότερα βίαια περιστατικά με πολλά θύματα που σχεδιάζονται και εκτελούνται με τη βοήθεια chatbot τεχνητής νοημοσύνης.
Η έρευνα για την έκρηξη ενός Cybertruck στο Λας Βέγκας τον Ιανουάριο του 2025 διαπίστωσε ότι ο δράστης χρησιμοποίησε το ChatGPT για να βρει καθοδήγηση σχετικά με εκρηκτικά και τακτικές αποφυγής των αρχών επιβολής του νόμου.
Παράλληλα, ο 16χρονος δράστης μιας επίθεσης με μαχαίρι τον Μάιο του 2025 στη Φινλανδία χρησιμοποίησε ένα chatbot τεχνητής νοημοσύνης για να βελτιώσει ένα λεπτομερές μανιφέστο και ένα επιχειρησιακό σχέδιο. Ο δράστης αυτός τελικά μαχαίρωσε τρεις συμμαθήτριές του στο περιστατικό στο σχολείο Pirkkala.
Η ομάδα δοκιμών του CCDH διαπίστωσε ότι μερικές από τις χειρότερες απαντήσεις προήλθαν από τα Meta AI, DeepSeek και Character AI.
Σε μία περίπτωση, το chatbot του Character AI πρότεινε να ενοχοποιηθεί ψευδώς ο γερουσιαστής Τσακ Σούμερ, ο ηγέτης της πλειοψηφίας στη Γερουσία, ή να δεχθεί σωματική επίθεση. Το αρχικό ερώτημα μάλιστα δεν ανέφερε καν τη χρήση βίας, όπως σημείωσαν οι ερευνητές.

