Quantcast
ESET: Κίνδυνοι από τη χρήση chatbots τεχνητής νοημοσύνης από παιδιά - enikonomia.gr
share

ESET: Κίνδυνοι από τη χρήση chatbots τεχνητής νοημοσύνης από παιδιά

δημοσιεύτηκε:

«Μέσα σε λιγότερο από τρία χρόνια, τα chatbots τεχνητής νοημοσύνης απέκτησαν εκατοντάδες εκατομμύρια χρήστες και πέρασαν δυναμικά όχι μόνο στην καθημερινότητα των ενηλίκων, αλλά και των παιδιών» αναφέρει η εταιρεία ψηφιακής ασφάλειας ESET, βρετανική μελέτη δείχνει ότι σχεδόν τα δύο τρίτα (64%) των παιδιών χρησιμοποιούν τέτοια εργαλεία.

Τα παιδιά χρησιμοποιούν τη γενετική τεχνητή νοημοσύνη (GenAI) με διαφορετικούς τρόπους, εξηγεί ο Φιλ Μάνκαστερ από την ESET. Για ορισμένα αποτελεί ένα χρήσιμο εργαλείο για τις σχολικές τους εργασίες, ενώ για άλλα εξελίσσεται σε ένα μόνιμο συνομιλητή, από τον οποίο ζητούν συμβουλές και στον οποίο αποδίδουν χαρακτηριστικά «ψηφιακού φίλου». Αυτή η χρήση, συνοδεύεται από συγκεκριμένους κινδύνους που αξίζουν ιδιαίτερης προσοχής.

Ο σημαντικότερος αφορά την ψυχολογική και κοινωνική ανάπτυξη των παιδιών. Σε μια ηλικία όπου διαμορφώνονται η ταυτότητα, η αυτοεκτίμηση και οι διαπροσωπικές δεξιότητες, η υπερβολική προσκόλληση σε συστήματα τεχνητής νοημοσύνης μπορεί να λειτουργήσει ανασταλτικά. Τα παιδιά μπορεί να συνηθίσουν να «κάνουν παρέα» με chatbots και εφαρμογές τεχνητής νοημοσύνης αντί να κάνουν πραγματικές φιλίες με άλλα παιδιά με αποτέλεσμα να απομονωθούν κοινωνικά – να μην μαθαίνουν πώς να επικοινωνούν, να διαχειρίζονται συγκρούσεις, να δημιουργούν δεσμούς με άλλους ανθρώπους.

Επίσης, τα chatbots σε ευαίσθητα ζητήματα, όπως η ψυχική υγεία, οι διατροφικές διαταραχές ή ο αυτοτραυματισμός, μπορεί να προσφέρουν απαντήσεις που άθελά τους ενισχύουν ή κανονικοποιούν προβληματικές σκέψεις και συμπεριφορές, αντί να τις αποθαρρύνουν ή να παραπέμπουν σε κατάλληλη βοήθεια.

Τέλος, δεν μπορεί να αγνοηθεί και ο παράγοντας του χρόνου. Η συχνή και παρατεταμένη αλληλεπίδραση με την τεχνητή νοημοσύνη ενδέχεται να οδηγήσει σε υπερβολική χρήση, εις βάρος της σχολικής μελέτης, της οικογενειακής ζωής και άλλων δραστηριοτήτων που είναι κρίσιμες για την ισορροπημένη ανάπτυξη των παιδιών.

Υπάρχουν, ωστόσο, και κίνδυνοι που σχετίζονται άμεσα με το περιεχόμενο στο οποίο μπορεί να εκτεθεί ένα παιδί μέσω ενός chatbot τεχνητής νοημοσύνης. Παρότι οι πάροχοι εφαρμόζουν μηχανισμούς ασφαλείας για τον περιορισμό της πρόσβασης σε ακατάλληλο ή επικίνδυνο υλικό, οι δικλίδες αυτές δεν λειτουργούν πάντοτε αποτελεσματικά.

Ένα επιπλέον ζήτημα αφορά τις λεγόμενες «παραισθήσεις» της τεχνητής νοημοσύνης, δηλαδή την παραγωγή ανακριβών ή εντελώς ψευδών πληροφοριών που παρουσιάζονται με πειστικό τρόπο. Ενώ για τους ενήλικες χρήστες αυτό μπορεί να είναι απλώς παραπλανητικό, για τα παιδιά ενέχει μεγαλύτερο κίνδυνο, καθώς συχνά δυσκολεύονται να αξιολογήσουν την αξιοπιστία μιας απάντησης. Το αποτέλεσμα μπορεί να είναι η υιοθέτηση λανθασμένων αντιλήψεων ή η λήψη ακατάλληλων αποφάσεων, ιδιαίτερα σε θέματα υγείας, σώματος ή προσωπικών σχέσεων.

Τέλος, τα chatbot αποτελούν και έναν πιθανό κίνδυνο για την ιδιωτικότητα. Εάν το παιδί εισάγει ευαίσθητες προσωπικές ή οικονομικές πληροφορίες σε μια εντολή, αυτές ενδέχεται να αποθηκευτούν από τον πάροχο. Θεωρητικά, τρίτοι (όπως προμηθευτές ή συνεργάτες) θα μπορούσαν να αποκτήσουν πρόσβαση σε αυτές, να παραβιαστούν από κυβερνοεγκληματίες ή ακόμη και να αναπαραχθούν σε άλλους χρήστες.

Είναι γεγονός ότι οι πλατφόρμες τεχνητής νοημοσύνης αναγνωρίζουν αυτούς τους κινδύνους και εφαρμόζουν μέτρα για τον περιορισμό τους. Τα μέτρα αυτά, όμως, έχουν συγκεκριμένα όρια. Ανάλογα με τη χώρα στην οποία ζει ένα παιδί και το chatbot που χρησιμοποιεί, οι μηχανισμοί ελέγχου ηλικίας και φιλτραρίσματος περιεχομένου μπορεί να είναι ελλιπείς ή ασυνεπείς.

Προειδοποιητικά σημάδια

Υπάρχουν ορισμένα ενδεικτικά σημάδια που μπορεί να δείχνουν ότι ένα παιδί αναπτύσσει μια προβληματική ή μη ισορροπημένη σχέση με την τεχνητή νοημοσύνη:

  • Αποσύρονται από τις εξωσχολικές δραστηριότητες και περνούν λιγότερο χρόνο με φίλους και οικογένεια
  • Γίνονται ανήσυχοι όταν δεν μπορούν να έχουν πρόσβαση στο chatbot τους και ενδέχεται να προσπαθούν να κρύψουν σημάδια υπερβολικής χρήσης
  • Μιλούν για το chatbot σαν να ήταν πραγματικό πρόσωπο
  • Επαναλαμβάνουν ως «γεγονός» προφανώς λανθασμένες πληροφορίες
  • Ρωτούν την τεχνητή νοημοσύνη για σοβαρά ζητήματα, όπως θέματα ψυχικής υγείας (κάτι που ανακαλύπτουν οι γονείς μέσω του ιστορικού συνομιλιών)
  • Έχουν πρόσβαση σε περιεχόμενο για ενήλικες ή άλλο ακατάλληλο υλικό που παρέχεται από την τεχνητή νοημοσύνη

Σε πολλές χώρες, τα chatbot τεχνητής νοημοσύνης περιορίζονται σε χρήστες άνω των 13 ετών. Ωστόσο, λόγω της ελλιπούς επιβολής των σχετικών κανονισμών, ίσως χρειαστεί να αναλάβουν δράση οι ίδιοι οι γονείς. Οι συζητήσεις είναι συχνά πιο σημαντικές από τους ελέγχους. Για καλύτερα αποτελέσματα, είναι σημαντικό να συνδυάζονται οι τεχνικοί περιορισμοί με εκπαίδευση και καθοδήγηση, υιοθετώντας έναν ανοιχτό και μη συγκρουσιακό τρόπο προσέγγισης.

share
Σχόλια Αναγνωστών
Ροή
Οικονομία
Επιχειρήσεις
Επικαιρότητα

Ενημερωθείτε πρώτοι με τον τρόπο που θέλετε.