Το φαινόμενο που εντείνεται ολοένα και απασχολεί τους ειδικούς ονομάζεται model collapse (κατάρρευση μοντέλου). Όταν αυτό συμβαίνει, τα μοντέλα Τεχνητής Νοημοσύνης αρχίζουν και…«χάνουν» σε ακρίβεια, ορθότητα και ποικιλομορφία.
Ένα chat bot, για παράδειγμα, σαν το ChatGPT, μπορεί να αρχίσει να επαναλαμβάνεται, να μην απαντά εντελώς σωστά και να μη διακρίνει τις «λεπτές αποχρώσεις» στις ερωτήσεις των χρηστών, όπως μπορούσε να τις διακρίνει παλαιότερα. Με λίγα λόγια, το AI γίνεται πιο…χαζό – και ο βασικός λόγος που συμβαίνει αυτό είναι αρκετά απλός.
Το AI είναι καταρχάς έξυπνο, γιατί οι επιστήμονες το «ταΐζουν» με εκατομμύρια δεδομένα (εικόνες, βίντεο, κείμενα, αρχεία, βιβλία..), με βάση τα οποία συνθέτει τις δικές του γνώσεις και απαντήσεις. Ένα τεράστιο ποσοστό των δεδομένων που χρησιμοποιείται ως «τροφή» της Τεχνητής Νοημοσύνης προέρχεται, όμως, από το ίντερνετ. Και το ίντερνετ είναι πια γεμάτο με περιεχόμενο, το οποίο έχει παραχθεί από το ίδιο το AI.
Έτσι, λοιπόν, το AI…κανιβαλίζει, τρεφόμενο με όλο και περισσότερο περιεχόμενο Τεχνητής Νοημοσύνης, με αποτέλεσμα να αποδυναμώνεται. Όσο λιγότερη πρόσβαση έχει σε πρωτογενές υλικό και γνώση, τόσο πιο αναξιόπιστο, μονότονο και ανακριβές γίνεται. Όσο πιο πολύ απομακρύνεται από τις λέξεις και τις εικόνες που έχουν παράξει οι άνθρωποι, τόσο πιο «ρομποτικά» γίνονται τα αποτελέσματα που μας δίνει.
Σε πρόσφατη συνέντευξή του, ο Νταν Χάουζερ, συνιδρυτής της εταιρείας βιντεοπαιχνιδιών Rockstar (με παιχνίδια όπως το GTA και το Red Dead Redemption) παρομοίασε το model collapse με την…νόσο των τρελών αγελάδων. Όταν ερωτήθηκε για το κατά πόσο πιστεύει ότι η Τεχνητή Νοημοσύνη θα αλλάξει τα πράγματα στον τομέα των βιντεοπαιχνιδιών, ο Χάουζερ είπε: «Δεν νομίζω ότι θα παίξει τόσο καθοριστικό ρόλο, όσο νομίζουν κάποιοι. Πιστεύω ότι η Τεχνητή Νοημοσύνη θα ‘φάει’ τον εαυτό της. Απ’όσο καταλαβαίνω, τα μοντέλα AI ψάχνουν στο διαδίκτυο για πληροφορίες, αλλά το διαδίκτυο γεμίζει όλο και περισσότερο με πληροφορίες που δημιουργούνται από τα ίδια μοντέλα. Μοιάζει λίγο με τότε που ταΐζαμε τις αγελάδες με κρέας αγελάδας… και προέκυψε η ασθένεια των τρελών αγελάδων».
«Πονοκέφαλος» για τις μεγάλες εταιρίες η κατάρρευση του AI – Πώς οπλίζονται ενάντια στην πρόκληση
Το φαινόμενο του model collapse δεν επηρεάζει μόνον τον κάθε ιδιώτη χρήστη της Τεχνητής Νοημοσύνης, αλλά έχει τεράστιο αντίκτυπο σε μεγάλες εταιρίες και παγκόσμιους οργανισμούς, που κάνουν επεξεργασία και ανάλυση δεδομένων. Μάλιστα, οι εταιρίες αυτές δεν σκοπεύουν οι ίδιες να απεμπλακούν άμεσα από τη χρήση του AI, αλλά αντιθέτως πρόκειται να την αυξήσουν. Σε έρευνα που πραγματοποίησε η συμβουλευτική εταιρία Gartner, 84% των ερωτηθέντων οργανισμών ανέφεραν πως θα αυξήσουν τις επενδύσεις τους σε παραγωγική τεχνητή νοημοσύνη, μέσα στο 2026.
Αυτό σημαίνει, βέβαια, ακόμα μεγαλύτερη χρήση της τεχνητής νοημοσύνης και ακόμα μεγαλύτερη «ανακύκλωση» των δεδομένων, κάτι που συμβάλλει στην κατάρρευση των μοντέλων AI.
Στην μελέτη της, η Gartner προέβλεψε και πρότεινε τρόπους, με τους οποίους θα διασφαλιστεί η ποιότητα των δεδομένων που χρησιμοποιούν οι εταιρίες. Όπως εκτιμούν οι αναλυτές, οι οργανισμοί θα υιοθετήσουν μία πολιτική «μηδενικής εμπιστοσύνης» όσον αφορά τη διαχείριση των δεδομένων, πράγμα που σημαίνει: α) Δεν εμπιστευόμαστε τυφλά τα δεδομένα, γιατί μπορεί να αποτελούν προϊόν τεχνητής νοημοσύνης, β) Κατηγοριοποιούμε όλα τα δεδομένα με βάση το εάν προέρχονται από το AI, ή όχι και γ) Ελέγχουμε διπλά την εγκυρότητά τους.
Όπως είναι σαφές, ο ανθρώπινος παράγοντας είναι απαραίτητος σε αυτές τις διαδικασίες.
Σύμφωνα με τον Ουάν Φούι Τσαν, αντιπρόεδρο της Gartner, «όλοι οι οργανισμοί θα πρέπει να είναι ικανοί να αναγνωρίζουν και να επισημαίνουν τα δεδομένα που παράγονται από την Τεχνητή Νοημοσύνη. Η επιτυχία τους θα εξαρτηθεί από την ύπαρξη των κατάλληλων εργαλείων και ενός εργατικού δυναμικού με εξειδίκευση στη διαχείριση πληροφοριών και γνώσεων».
Ο Τσαν μάλιστα έκανε συγκεκριμένες προτάσεις για το πώς θα πρέπει να αναδιαρθρωθούν οι εταιρίες που χρησιμοποιούν μεγάλους όγκους δεδομένων.
Ανάμεσα στις προτάσεις του συγκαταλέγεται ο διορισμός ενός ειδικού επικεφαλής Τεχνητής Νοημοσύνης και η δημιουργία διατμηματικών ομάδων, με μέλη από το τμήμα κυβερνοασφάλειας του εκάστοτε οργανισμού, το τμήμα ανάλυσης δεδομένων, κτλ. Οι ομάδες αυτές θα εντοπίζουν και θα αξιολογούν τους πιθανούς επιχειρηματικούς κινδύνους που σχετίζονται με τα δεδομένα που παράγει το AI.
Ο Τσαν πρότεινε, επίσης, όλα τα δεδομένα να φέρουν «ταμπέλες» (metadata) οι οποίες θα ειδοποιούν σε πραγματικό χρόνο τους εργαζομένους όταν τα δεδομένα είναι παλιά ή γενικά απαιτούν έλεγχο, για τον οποιοδήποτε λόγο.
Αναγκαία η ανθρώπινη…λογοκρισία
Πέρα από τις μεγάλες εταιρίες που χρησιμοποιούν το AI, οι ίδιες οι εταιρίες που το αναπτύσσουν σκέφτονται επίσης να αυξήσουν την ανθρώπινη συμμετοχή στη δημιουργία νέων μοντέλων. Όταν, δηλαδή, μία εταιρία AI θα επιχειρεί να εκπαιδεύσει ένα νέο μοντέλο, άνθρωποι θα ελέγχουν εάν τα δεδομένα που τροφοδοτούν το μοντέλο είναι ποιοτικά, έγκυρα και φτιαγμένα από ανθρώπους – ή παραγμένα από άλλο AI και άρα, κακής ποιότητας.
Η μέθοδος αυτή ονομάζεται Human-in-the-Loop και χρησιμοποιείται ήδη σε ορισμένα πολύ σημαντικά πρότζεκτ, όπως στην ανάπτυξη Τεχνητής Νοημοσύνης για ιατρικούς σκοπούς, στην τεχνολογία αυτόνομης οδήγησης (αυτόματος πιλότος), σε υποθέσεις πιθανής οικονομικής απάτης κ.ά.

