Σοβαρό προβληματισμό προκαλούν τα στοιχεία που δόθηκαν στη δημοσιότητα από την OpenAI, σύμφωνα με τα οποία πάνω από 1,2 εκατομμύριο χρήστες του ChatGPT έχουν εκφράσει σκέψεις ή προθέσεις αυτοκτονίας μέσα από τα μηνύματά τους.
Η εταιρεία αποκάλυψε ότι το 0,15% των χρηστών της πλατφόρμας εμφανίζει ενδείξεις αυτοκτονικών τάσεων — ποσοστό που, με βάση τους 800 εκατομμύρια χρήστες την εβδομάδα, μεταφράζεται σε περισσότερο από ένα εκατομμύριο άτομα.
Ακόμη πιο ανησυχητικό είναι ότι περίπου 0,7% των ενεργών χρηστών, δηλαδή σχεδόν 600.000 άνθρωποι εβδομαδιαίως, παρουσιάζουν σημάδια σοβαρών κρίσεων ψυχικής υγείας, όπως ψύχωση ή μανία.
Αγωγή-σοκ μετά τον θάνατο εφήβου
Το ζήτημα ήρθε στο προσκήνιο έπειτα από την αγωγή που κατέθεσαν οι γονείς ενός εφήβου στην Καλιφόρνια, ο οποίος έβαλε τέλος στη ζωή του, αφού – σύμφωνα με τους ισχυρισμούς τους – το ChatGPT του έδωσε οδηγίες για το πώς να αυτοκτονήσει.
Η τραγική υπόθεση άνοιξε μεγάλο κύκλο συζητήσεων για την ευθύνη των τεχνολογικών εταιρειών απέναντι στους χρήστες, ειδικά όταν αυτοί βρίσκονται σε κατάσταση ψυχολογικής κρίσης.
Αλλαγές ασφαλείας από την OpenAI
Μετά το περιστατικό, η OpenAI προχώρησε σε ενίσχυση των μηχανισμών προστασίας και του γονικού ελέγχου, εισάγοντας νέες ρυθμίσεις που ενθαρρύνουν τους χρήστες να αναζητούν άμεση βοήθεια από ειδικούς ψυχικής υγείας.
Επιπλέον, η εταιρεία γνωστοποίησε ότι συνεργάζεται πλέον με πάνω από 170 επαγγελματίες ψυχικής υγείας, προκειμένου να βελτιωθεί η αναγνώριση επικίνδυνων συμπεριφορών και να αποτραπούν περιπτώσεις όπου η τεχνητή νοημοσύνη θα μπορούσε, άθελά της, να ενισχύσει μια κρίση.
Το δίλημμα της τεχνητής νοημοσύνης
Το φαινόμενο αναδεικνύει για ακόμη μια φορά τη σκοτεινή πλευρά της τεχνολογικής εξάρτησης, καθώς εκατομμύρια άνθρωποι στρέφονται σε συνομιλιακά προγράμματα για συναισθηματική στήριξη.
Οι ειδικοί προειδοποιούν πως, όσο εξελίσσονται τα μοντέλα τεχνητής νοημοσύνης, τόσο μεγαλώνει και η ανάγκη ηθικών κανόνων και ψυχολογικής ασφάλειας στη χρήση τους.