Το σενάριο περί «καταστροφής της ανθρωπότητας» από την Τεχνητή Νοημοσύνη (AI) φαίνεται να παίρνει αναβολή. Κορυφαίος εμπειρογνώμονας στον τομέα, λέει ότι θα χρειαστεί περισσότερος χρόνος από ό,τι είχε αρχικά προβλέψει, για να μπορέσουν τα συστήματα τεχνητής νοημοσύνης να προγραμματίζονται αυτόνομα και, ως εκ τούτου, να επιταχύνουν την ανάπτυξή τους προς την υπερνοημοσύνη.
Yep! Things seem to be going somewhat slower than the AI 2027 scenario. Our timelines were longer than 2027 when we published and now they are a bit longer still; “around 2030, lots of uncertainty though” is what I say these days. https://t.co/j9wX3uU7Qf
— Daniel Kokotajlo (@DKokotajlo) November 20, 2025
Ο Daniel Kokotajlo, πρώην υπάλληλος της OpenAI, πυροδότησε, σύμφωνα με τον Guardian, μια έντονη συζήτηση τον Απρίλιο με την κυκλοφορία του AI 2027, ενός σεναρίου που προβλέπει την ανεξέλεγκτη ανάπτυξη της τεχνητής νοημοσύνης, η οποία θα οδηγήσει στη δημιουργία μιας υπερνοημοσύνης που, αφού ξεπεράσει σε εξυπνάδα τους ηγέτες του κόσμου, θα καταστρέψει την ανθρωπότητα.
Το σενάριο γρήγορα κέρδισε θαυμαστές και επικριτές. Ο αντιπρόεδρος των ΗΠΑ, Τζέι Ντι Βανς, φάνηκε να αναφέρεται στο AI 2027 σε μια συνέντευξη τον περασμένο Μάιο, όταν συζητούσε για τον αγώνα των ΗΠΑ με την Κίνα στον τομέα της τεχνητής νοημοσύνης. Ο Γκάρι Μάρκους, ομότιμος καθηγητής νευροεπιστήμης στο Πανεπιστήμιο της Νέας Υόρκης, χαρακτήρισε το άρθρο «έργο φαντασίας» και διάφορα από τα συμπεράσματά του «απόλυτη επιστημονική φαντασία».
Τα χρονοδιαγράμματα για τη μετασχηματιστική τεχνητή νοημοσύνη – που μερικές φορές ονομάζεται AGI (τεχνητή γενική νοημοσύνη) ή AI ικανή να αντικαταστήσει τους ανθρώπους στις περισσότερες γνωστικές εργασίες – έχουν γίνει ένα σταθερό στοιχείο στις κοινότητες που ασχολούνται με την ασφάλεια της AI. Η κυκλοφορία του ChatGPT το 2022 επιτάχυνε σημαντικά αυτά τα χρονοδιαγράμματα, με αξιωματούχους και εμπειρογνώμονες να προβλέπουν την άφιξη της AGI μέσα σε δεκαετίες ή χρόνια.
Ο Kokotajlo και η ομάδα του όρισαν το 2027 ως το έτος κατά το οποίο η τεχνητή νοημοσύνη θα επιτύχει «πλήρως αυτόνομη κωδικοποίηση», αν και δήλωσαν ότι αυτή ήταν η «πιο πιθανή» εκτίμηση και ορισμένοι από αυτούς είχαν ορίσει μακρύτερα χρονοδιαγράμματα. Τώρα, φαίνεται να ανακύπτουν ορισμένες αμφιβολίες σχετικά με την επικείμενη άφιξη της AGI και το αν ο όρος έχει νόημα εξ αρχής.
«Πολλοί άλλοι έχουν μεταθέσει τα χρονοδιαγράμματα τους πιο μακριά κατά το παρελθόν έτος, καθώς συνειδητοποιούν πόσο ασταθής είναι η απόδοση της τεχνητής νοημοσύνης», δήλωσε ο Μάλκομ Μάρεϊ, εμπειρογνώμονας στη διαχείριση κινδύνων τεχνητής νοημοσύνης και ένας από τους συντάκτες της Διεθνούς Έκθεσης για την Ασφάλεια της Τεχνητής Νοημοσύνης.
«Για να συμβεί ένα σενάριο όπως το AI 2027, η [τεχνητή νοημοσύνη] θα χρειαστεί πολλές περισσότερες πρακτικές δεξιότητες που είναι χρήσιμες στις πολυπλοκότητες του πραγματικού κόσμου. Νομίζω ότι οι άνθρωποι αρχίζουν να συνειδητοποιούν την τεράστια αδράνεια στον πραγματικό κόσμο που θα καθυστερήσει την πλήρη κοινωνική αλλαγή».
«Ο όρος AGI είχε νόημα παλιότερα, όταν τα συστήματα τεχνητής νοημοσύνης ήταν πολύ περιορισμένα – έπαιζαν σκάκι και Go», δήλωσε ο Ανρί Παπαδάτος, εκτελεστικός διευθυντής της γαλλικής μη κερδοσκοπικής οργάνωσης SaferAI. «Τώρα έχουμε συστήματα που είναι ήδη αρκετά γενικά και ο όρος δεν έχει τόσο μεγάλη σημασία».
Το AI 2027 του Kokotajlo βασίζεται στην ιδέα ότι οι πράκτορες AI θα αυτοματοποιήσουν πλήρως την κωδικοποίηση και την έρευνα και ανάπτυξη AI έως το 2027, οδηγώντας σε μια «έκρηξη νοημοσύνης» στην οποία οι πράκτορες AI θα δημιουργήσουν όλο και πιο έξυπνες εκδόσεις του εαυτού τους και, στη συνέχεια – σε ένα πιθανό τέλος – θα σκοτώσουν όλους τους ανθρώπους έως τα μέσα του 2030, προκειμένου να δημιουργήσουν χώρο για περισσότερα ηλιακά πάνελ και (data centers) κέντρα δεδομένων.
Ωστόσο, στο επικαιροποιημένο σενάριό τους, ο Kokotajlo και οι συν-συγγραφείς του αναθεωρούν τις προσδοκίες τους για το πότε η τεχνητή νοημοσύνη θα είναι σε θέση να κωδικοποιεί αυτόνομα, τοποθετώντας αυτό το γεγονός πιθανό να συμβεί στις αρχές της δεκαετίας του 2030, σε αντίθεση με το 2027. Η νέα πρόβλεψη ορίζει το 2034 ως το νέο ορίζοντα για την «υπερνοημοσύνη» και δεν περιέχει καμία εκτίμηση για το πότε η τεχνητή νοημοσύνη μπορεί να καταστρέψει την ανθρωπότητα.
«Τα πράγματα φαίνεται να προχωρούν κάπως πιο αργά από το σενάριο AI 2027. Τα χρονοδιαγράμματα μας ήταν μακρύτερα από το 2027 όταν τα δημοσιεύσαμε και τώρα είναι ακόμα λίγο μακρύτερα», έγραψε ο Kokotajlo σε μια ανάρτηση στο X.
Η δημιουργία τεχνητής νοημοσύνης που μπορεί να κάνει έρευνα στον τομέα της τεχνητής νοημοσύνης εξακολουθεί να είναι ένας σταθερός στόχος των κορυφαίων εταιρειών τεχνητής νοημοσύνης. Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, δήλωσε τον Οκτώβριο ότι η δημιουργία ενός αυτοματοποιημένου ερευνητή τεχνητής νοημοσύνης έως τον Μάρτιο του 2028 ήταν ένας «εσωτερικός στόχος» της εταιρείας του, αλλά πρόσθεσε: «Μπορεί να αποτύχουμε εντελώς σε αυτόν τον στόχο».
Yesterday we did a livestream. TL;DR:
We have set internal goals of having an automated AI research intern by September of 2026 running on hundreds of thousands of GPUs, and a true automated AI researcher by March of 2028. We may totally fail at this goal, but given the…
— Sam Altman (@sama) October 29, 2025
Ο Αντρέα Καστάνια, ερευνητής με έδρα τις Βρυξέλλες, δήλωσε ότι υπάρχουν μια σειρά από πολυπλοκότητες που δεν αντιμετωπίζονται από τα δραματικά χρονοδιαγράμματα της AGI. «Το γεγονός ότι διαθέτεις έναν υπερεξυπνο υπολογιστή που επικεντρώνεται σε στρατιωτικές δραστηριότητες δεν σημαίνει ότι μπορείς να τον ενσωματώσεις στα στρατηγικά έγγραφα που έχουμε συντάξει τα τελευταία 20 χρόνια.
Όσο περισσότερο αναπτύσσουμε την τεχνητή νοημοσύνη, τόσο περισσότερο διαπιστώνουμε ότι ο κόσμος δεν είναι επιστημονική φαντασία. Ο κόσμος είναι πολύ πιο περίπλοκος από αυτό».

