Το ChatGPT αναφέρει περίπου 700 εκατομμύρια ενεργούς χρήστες την εβδομάδα, ενώ βρετανική μελέτη δείχνει ότι σχεδόν τα δύο τρίτα (64%) των παιδιών χρησιμοποιούν τέτοια εργαλεία.
Την ίδια στιγμή, ένα παρόμοιο ποσοστό γονέων ανησυχεί ότι τα παιδιά τους πιστεύουν πως τα chatbot τεχνητής νοημοσύνης είναι πραγματικοί άνθρωποι, τονίζει ο Phil Muncaster από την παγκόσμια εταιρία ψηφιακής ασφάλειας ESET.
Αν και αυτή η ανησυχία μπορεί να ακούγεται υπερβολική, αντανακλά βάσιμες ανησυχίες σχετικά με την ασφάλεια, την ιδιωτικότητα και τις ψυχολογικές επιπτώσεις της συχνής χρήσης αυτής της τεχνολογίας από τα παιδιά, συνεχίζει ο Phil.
Ως γονέας, δεν μπορείτε να υποθέσετε ότι όλες οι πλατφόρμες διαθέτουν αποτελεσματικά μέτρα προστασίας κατάλληλα για παιδιά. Ακόμη και όταν υπάρχουν τέτοια μέτρα, η εφαρμογή τους δεν είναι απαραίτητα συνεπής, ενώ η ίδια η τεχνολογία εξελίσσεται ταχύτερα από το ρυθμιστικό και πολιτικό πλαίσιο.
Ποιοι είναι οι κίνδυνοι;
Τα παιδιά χρησιμοποιούν τη γενετική τεχνητή νοημοσύνη (GenAI) με διαφορετικούς τρόπους, εξηγεί ο Phil Muncaster από την ESET. Για ορισμένα αποτελεί ένα χρήσιμο εργαλείο για τις σχολικές τους εργασίες, ενώ για άλλα εξελίσσεται σε ένα μόνιμο συνομιλητή, από τον οποίο ζητούν συμβουλές και στον οποίο αποδίδουν χαρακτηριστικά «ψηφιακού φίλου». Αυτή η χρήση, συνοδεύεται από συγκεκριμένους κινδύνους που αξίζουν ιδιαίτερης προσοχής.
Ο σημαντικότερος αφορά την ψυχολογική και κοινωνική ανάπτυξη των παιδιών.
Σε μια ηλικία όπου διαμορφώνονται η ταυτότητα, η αυτοεκτίμηση και οι διαπροσωπικές δεξιότητες, η υπερβολική προσκόλληση σε συστήματα τεχνητής νοημοσύνης μπορεί να λειτουργήσει ανασταλτικά, προειδοποιεί ο Muncaster. Τα παιδιά μπορεί να συνηθίσουν να «κάνουν παρέα» με chatbots και εφαρμογές AI (τεχνητής νοημοσύνης) αντί να κάνουν πραγματικές φιλίες με άλλα παιδιά. Επειδή το AI δεν κρίνει, δεν διαφωνεί και δεν απαιτεί κόπο όπως οι ανθρώπινες σχέσεις, μπορεί να φαίνεται πιο «εύκολο» και «ασφαλές».
Αυτό μπορεί να οδηγήσει τα παιδιά να απομονωθούν κοινωνικά – να μην μαθαίνουν πώς να επικοινωνούν, να διαχειρίζονται συγκρούσεις, να δημιουργούν δεσμούς με άλλους ανθρώπους.
Παράλληλα, τα chatbots είναι σχεδιασμένα να ανταποκρίνονται με τρόπο που διατηρεί την εμπλοκή του χρήστη και συχνά να αποφεύγουν την αντιπαράθεση. Αυτό σημαίνει ότι σε ευαίσθητα ζητήματα, όπως η ψυχική υγεία, οι διατροφικές διαταραχές ή ο αυτοτραυματισμός, μπορεί να προσφέρουν απαντήσεις που άθελά τους ενισχύουν ή κανονικοποιούν προβληματικές σκέψεις και συμπεριφορές, αντί να τις αποθαρρύνουν ή να παραπέμπουν σε κατάλληλη βοήθεια.
Τέλος, δεν μπορεί να αγνοηθεί και ο παράγοντας του χρόνου.
Η συχνή και παρατεταμένη αλληλεπίδραση με την τεχνητή νοημοσύνη ενδέχεται να οδηγήσει σε υπερβολική χρήση, εις βάρος της σχολικής μελέτης, της οικογενειακής ζωής και άλλων δραστηριοτήτων που είναι κρίσιμες για την ισορροπημένη ανάπτυξη των παιδιών.
Υπάρχουν, ωστόσο, και κίνδυνοι που σχετίζονται άμεσα με το περιεχόμενο στο οποίο μπορεί να εκτεθεί ένα παιδί μέσω ενός chatbot τεχνητής νοημοσύνης. Παρότι οι πάροχοι εφαρμόζουν μηχανισμούς ασφαλείας για τον περιορισμό της πρόσβασης σε ακατάλληλο ή επικίνδυνο υλικό, οι δικλίδες αυτές δεν λειτουργούν πάντοτε αποτελεσματικά. Σε ορισμένες περιπτώσεις, τα εσωτερικά φίλτρα μπορούν να παρακαμφθούν, με αποτέλεσμα να κοινοποιείται περιεχόμενο σεξουαλικού ή βίαιου χαρακτήρα.
Παιδιά με αυξημένη εξοικείωση στην τεχνολογία ενδέχεται ακόμη και να επιχειρήσουν συνειδητά να «δοκιμάσουν τα όρια» του συστήματος, χρησιμοποιώντας συγκεκριμένες εντολές.
Ένα επιπλέον ζήτημα αφορά τις λεγόμενες «παραισθήσεις» της τεχνητής νοημοσύνης, δηλαδή την παραγωγή ανακριβών ή εντελώς ψευδών πληροφοριών που παρουσιάζονται με πειστικό τρόπο. Ενώ για τους ενήλικες χρήστες αυτό μπορεί να είναι απλώς παραπλανητικό, για τα παιδιά ενέχει μεγαλύτερο κίνδυνο, καθώς συχνά δυσκολεύονται να αξιολογήσουν την αξιοπιστία μιας απάντησης. Το αποτέλεσμα μπορεί να είναι η υιοθέτηση λανθασμένων αντιλήψεων ή η λήψη ακατάλληλων αποφάσεων, ιδιαίτερα σε θέματα υγείας, σώματος ή προσωπικών σχέσεων.
Τέλος, είναι σημαντικό να θυμόμαστε ότι τα chatbot αποτελούν και έναν πιθανό κίνδυνο για την ιδιωτικότητα.
Εάν το παιδί σας εισάγει ευαίσθητες προσωπικές ή οικονομικές πληροφορίες σε μια εντολή, αυτές ενδέχεται να αποθηκευτούν από τον πάροχο. Θεωρητικά, τρίτοι (όπως προμηθευτές ή συνεργάτες) θα μπορούσαν να αποκτήσουν πρόσβαση σε αυτές, να παραβιαστούν από κυβερνοεγκληματίες ή ακόμη και να αναπαραχθούν σε άλλους χρήστες. Όπως ακριβώς δε θα θέλατε το παιδί σας να μοιράζεται υπερβολικά πολλές πληροφορίες στα μέσα κοινωνικής δικτύωσης, η καλύτερη πρακτική είναι να ελαχιστοποιούνται οι πληροφορίες που μοιράζεται με ένα bot τεχνητής νοημοσύνης.
Μερικά προειδοποιητικά σημάδια που πρέπει να προσέξετε
Είναι γεγονός ότι οι πλατφόρμες τεχνητής νοημοσύνης αναγνωρίζουν αυτούς τους κινδύνους και εφαρμόζουν μέτρα για τον περιορισμό τους. Τα μέτρα αυτά, όμως, έχουν συγκεκριμένα όρια. Ανάλογα με τη χώρα στην οποία ζει ένα παιδί και το chatbot που χρησιμοποιεί, οι μηχανισμοί ελέγχου ηλικίας και φιλτραρίσματος περιεχομένου μπορεί να είναι ελλιπείς ή ασυνεπείς.
Σε αυτό το περιβάλλον, η ευθύνη για την έγκαιρη πρόληψη και διαχείριση πιθανών κινδύνων μεταφέρεται σε μεγάλο βαθμό στους γονείς, μέσω της ενημέρωσης, της εκπαίδευσης και της διακριτικής παρακολούθησης της χρήσης.
Με βάση αυτά τα δεδομένα, υπάρχουν ορισμένα ενδεικτικά σημάδια που μπορεί να δείχνουν ότι ένα παιδί αναπτύσσει μια προβληματική ή μη ισορροπημένη σχέση με την τεχνητή νοημοσύνη:
- Αποσύρονται από τις εξωσχολικές δραστηριότητες και περνούν λιγότερο χρόνο με φίλους και οικογένεια
- Γίνονται ανήσυχοι όταν δεν μπορούν να έχουν πρόσβαση στο chatbot τους και ενδέχεται να προσπαθούν να κρύψουν σημάδια υπερβολικής χρήσης
- Μιλούν για το chatbot σαν να ήταν πραγματικό πρόσωπο
- Σας επαναλαμβάνουν ως «γεγονός» προφανώς λανθασμένες πληροφορίες
- Ρωτούν την τεχνητή νοημοσύνη για σοβαρά ζητήματα, όπως θέματα ψυχικής υγείας (κάτι που ανακαλύπτετε μέσω του ιστορικού συνομιλιών)
- Έχουν πρόσβαση σε περιεχόμενο για ενήλικες ή άλλο ακατάλληλο υλικό που παρέχεται από την τεχνητή νοημοσύνη
Ώρα να μιλήσουμε
Σε πολλές χώρες, τα chatbot τεχνητής νοημοσύνης περιορίζονται σε χρήστες άνω των 13 ετών. Ωστόσο, λόγω της ελλιπούς επιβολής των σχετικών κανονισμών, ίσως χρειαστεί να αναλάβετε δράση οι ίδιοι. Οι συζητήσεις είναι συχνά πιο σημαντικές από τους ελέγχους. Για καλύτερα αποτελέσματα, συνδυάστε τους τεχνικούς περιορισμούς με εκπαίδευση και καθοδήγηση, υιοθετώντας έναν ανοιχτό και μη συγκρουσιακό τρόπο προσέγγισης.
Είτε βρίσκονται στο σχολείο, στο σπίτι ή συμμετέχουν σε εξωσχολικές δραστηριότητες, τα παιδιά έχουν ήδη πολλούς ενήλικες που τους λένε τι να κάνουν κάθε λεπτό της ημέρας. Προσπαθήστε, λοιπόν, να πλαισιώσετε την προσέγγισή σας απέναντι στην τεχνητή νοημοσύνη ως έναν αμφίδρομο διάλογο. Είναι σημαντικό να αισθάνονται άνετα να μοιράζονται τις εμπειρίες τους χωρίς φόβο τιμωρίας.
Εξηγήστε τους τους κινδύνους της υπερβολικής χρήσης, των «παραισθήσεων» της τεχνητής νοημοσύνης, της κοινής χρήσης δεδομένων και της υπερβολικής εξάρτησης από αυτήν για σοβαρά προσωπικά προβλήματα. Βοηθήστε τα να κατανοήσουν ότι τα chatbot δεν είναι πραγματικοί άνθρωποι με ικανότητα σκέψης, αλλά μηχανές σχεδιασμένες να είναι ελκυστικές και πειστικές. Διδάξτε τα πως να σκέφτονται, να ελέγχουν πάντα τις απαντήσεις της τεχνητής νοημοσύνης και να μην αντικαθιστούν ποτέ μια συζήτηση με τους γονείς τους με μια συνομιλία με μια μηχανή.
Εφόσον κριθεί απαραίτητο, συνδυάστε αυτή την εκπαίδευση με μια πολιτική περιορισμού της χρήσης της τεχνητής νοημοσύνης, όπως θα κάνατε με τα κοινωνικά δίκτυα ή τον συνολικό χρόνο μπροστά στην οθόνη. Περιορίστε τη χρήση σε πλατφόρμες κατάλληλες για την ηλικία τους και ενεργοποιήστε τον γονικό έλεγχο στις εφαρμογές που χρησιμοποιούν, ώστε να παρακολουθείτε τη δραστηριότητά τους και να μειώσετε τους κινδύνους. Υπενθυμίστε τους να μην μοιράζονται ποτέ προσωπικά αναγνωρίσιμες πληροφορίες (PII) με την τεχνητή νοημοσύνη και προσαρμόστε τις ρυθμίσεις απορρήτου για να αποφύγετε ακούσιες διαρροές δεδομένων.
Τα παιδιά μας χρειάζονται τους ανθρώπους στο επίκεντρο του συναισθηματικού τους κόσμου. Η τεχνητή νοημοσύνη μπορεί να αποτελέσει ένα χρήσιμο εργαλείο σε πολλούς τομείς, αλλά μέχρι να αναπτύξουν μια υγιή και ισορροπημένη σχέση μαζί της, η χρήση της πρέπει να παρακολουθείται προσεκτικά. Και σε καμία περίπτωση δεν θα πρέπει να αντικαθιστά την ανθρώπινη επαφή.
![Γιάννης Βούρος: Προσπαθώντας να του μάθουν τα τρία παιδιά του τις λέξεις της Gen Z [βίντεο]](https://www.eleftherostypos.gr/wp-content/uploads/2026/02/giannis-vouros-150x150-jpg.webp)
