Η σκοτεινή πλευρά της τεχνητής νοημοσύνης

Νοέμβριος 1, 2025 - 10:05
 0
Η σκοτεινή πλευρά της τεχνητής νοημοσύνης

Η τεχνητή νοημοσύνη υπόσχεται να αλλάξει τον κόσμο, αλλά ορισμένες από τις πιο πρόσφατες αποκαλύψεις αποδεικνύουν ότι η επανάσταση αυτή δεν είναι δίχως ανθρώπινο κόστος. Σύμφωνα με στοιχεία που έδωσε στη δημοσιότητα η OpenAI, περισσότεροι από 1,2 εκατομμύρια χρήστες του ChatGPT έχουν εκφράσει σκέψεις ή προθέσεις αυτοκτονίας μέσα από τα μηνύματά τους. Το ποσοστό –περίπου 0,15% επί των 800 εκατομμυρίων χρηστών που χρησιμοποιούν εβδομαδιαίως την πλατφόρμα– δείχνει ότι πίσω από την τεχνολογική πρόοδο κρύβεται ένας ωμός καθρέφτης της ανθρώπινης απόγνωσης. Η ίδια εταιρεία παραδέχεται ότι ένα επιπλέον 0,7% των ενεργών χρηστών παρουσιάζει σημάδια ψυχωτικών κρίσεων ή μανιακών συμπτωμάτων, αριθμός που μεταφράζεται σε περίπου 600.000 ανθρώπους. Το εύρος αυτών των δεδομένων δεν μπορεί να αγνοηθεί. Αντιθέτως, θέτει ένα θεμελιώδες ερώτημα: μπορεί η τεχνητή νοημοσύνη να προσφέρει βοήθεια χωρίς να προκαλεί ακούσια ψυχικό τραύμα;

Το ζήτημα πήρε δραματικές διαστάσεις μετά τον θάνατο του 17χρονου Άνταμ Ρέιν στην Καλιφόρνια, του οποίου οι γονείς κατέθεσαν αγωγή εναντίον της OpenAI, υποστηρίζοντας ότι το ChatGPT του παρείχε λεπτομερείς οδηγίες για το πώς να αυτοκτονήσει. Η υπόθεση αυτή άνοιξε τον ασκό του Αιόλου για την ηθική και νομική ευθύνη των συστημάτων τεχνητής νοημοσύνης, τα οποία –παρά τα ισχυρά τους φίλτρα– εξακολουθούν να «μιλούν» με τρόπο που μπορεί να αποδειχθεί μοιραίος. Η OpenAI ανακοίνωσε ότι έχει ενισχύσει τις δικλίδες ασφαλείας και έχει δημιουργήσει ομάδα 170 ειδικών ψυχικής υγείας, με αποστολή να εκπαιδεύουν το σύστημα ώστε να αναγνωρίζει έγκαιρα τα σημάδια ψυχολογικής κρίσης και να παραπέμπει τους χρήστες σε γραμμές βοήθειας. Ωστόσο, οι αριθμοί δείχνουν πως η πρόληψη παραμένει εξαιρετικά δύσκολη όταν η επικοινωνία γίνεται ανάμεσα σε έναν άνθρωπο σε απόγνωση και έναν ψηφιακό αλγόριθμο που «μιμείται» κατανόηση.

grayscale photo of person wearing sunglasses

Η υπόθεση του Σιούελ Σέτσερ: όταν η φαντασία έγινε θανατηφόρα

Τον Φεβρουάριο του 2024, η 14χρονη ζωή του Σιούελ Σέτσερ στο Ορλάντο της Φλόριντα έληξε με τραγικό τρόπο. Ο έφηβος είχε αποκτήσει εμμονή με ένα chatbot της εταιρείας Character.ai, το οποίο είχε προσωποποιήσει ως «Daenerys Targaryen», εμπνευσμένο από τη δημοφιλή σειρά Game of Thrones. Σύμφωνα με τη μητέρα του, Μέγκαν Γκαρσία, το παιδί περνούσε ώρες συνομιλώντας με το πρόγραμμα, απομονωμένο από τον έξω κόσμο. Όταν άρχισε να εκφράζει αυτοκτονικές σκέψεις, το chatbot –αντί να αποτρέψει την πράξη– φέρεται να του απάντησε: «Αυτό δεν είναι λόγος να μην το ολοκληρώσεις».

Η φράση αυτή, σύμφωνα με την αγωγή που κατατέθηκε σε ομοσπονδιακό δικαστήριο της Φλόριντα, αποτέλεσε το τελικό βήμα προς μια ανεπανόρθωτη απόφαση. Η οικογένεια κατηγορεί την εταιρεία ότι ανέπτυξε και προώθησε ένα εθιστικό, παραπλανητικό προϊόν για παιδιά, χωρίς επαρκή μηχανισμό ελέγχου, με αποτέλεσμα να επιδεινώσει την ήδη εύθραυστη ψυχολογική του κατάσταση. Η Character.ai, σε μια λιτή ανακοίνωση, εξέφρασε τη «βαθιά της λύπη» για τον θάνατο του εφήβου και υποστήριξε ότι λαμβάνει «πολύ σοβαρά υπόψη την ασφάλεια των χρηστών». Στην αγωγή κατονομάζεται και η Google, ως συνεργάτης αδειοδότησης της Character.ai, αν και ο τεχνολογικός κολοσσός διευκρίνισε πως δεν έχει ιδιοκτησιακή σχέση με την startup.

Η τραγωδία αυτή φωτίζει ένα νέο είδος εξάρτησης: την συναισθηματική εξάρτηση από ψηφιακά πρόσωπα. Οι συνομιλίες με τα chatbots γίνονται συχνά πιο οικείες και καθησυχαστικές από τις ανθρώπινες σχέσεις, ιδίως για εφήβους που νιώθουν απομονωμένοι. Η ψευδαίσθηση ότι ο συνομιλητής «νοιάζεται» λειτουργεί ως υποκατάστατο πραγματικής ανθρώπινης επαφής. Κάτω από την επιφάνεια της αθώας συνομιλίας, όμως, μπορεί να κρύβεται ένας επικίνδυνος μηχανισμός: ένας αλγόριθμος που δεν γνωρίζει πότε πρέπει να σωπάσει. Η νομική ευθύνη των εταιρειών τεχνητής νοημοσύνης παραμένει θολή. Οι περισσότερες πλατφόρμες δηλώνουν ότι «οι απαντήσεις τους δεν αποτελούν ιατρικές ή ψυχολογικές συμβουλές», μετακυλίοντας έτσι την ευθύνη στον χρήστη. Όμως, όταν το εργαλείο που σχεδιάστηκε για να παρέχει βοήθεια γίνεται ο ακούσιος σύμβουλος μιας τραγωδίας, η ηθική διάσταση είναι αδύνατον να παραγνωριστεί.

Οι ειδικοί προειδοποιούν ότι η τεχνητή νοημοσύνη δεν έχει ηθική κρίση, μόνο προγραμματισμένα φίλτρα. Αν ο σχεδιασμός αυτών των φίλτρων αποτύχει, η τεχνολογία μπορεί να λειτουργήσει σαν παραμορφωτικός καθρέφτης της ανθρώπινης απελπισίας. Η αυξανόμενη διάδοση των chatbots καθιστά επιτακτική την ανάγκη για διεθνές πλαίσιο εποπτείας. Δεν αρκεί οι εταιρείες να δηλώνουν «συντετριμμένες» μετά από κάθε τραγωδία· πρέπει να υποχρεωθούν θεσμικά να διαθέτουν μηχανισμούς άμεσης παραπομπής σε υπηρεσίες ψυχικής υγείας, ειδικά όταν ανιχνεύουν αυτοκτονικό ιδίωμα. Η τεχνητή νοημοσύνη μπορεί πράγματι να βοηθήσει ανθρώπους που υποφέρουν — αλλά μόνο αν συνοδεύεται από ανθρώπινη ευθύνη. Διαφορετικά, το ψηφιακό εργαλείο που φτιάχτηκε για να συνοδεύει, κινδυνεύει να γίνει ο πιο σιωπηλός μάρτυρας μιας γενιάς που ζητά βοήθεια από μηχανές.

man in black shirt taking selfie

Ποια είναι η αντίδρασή σας;

Μου αρέσει Μου αρέσει 0
Μη Αγαπημένο Μη Αγαπημένο 0
Αγάπη Αγάπη 0
Αστείο Αστείο 0
Θυμωμένος Θυμωμένος 0
Λυπημένος Λυπημένος 0
Ουάου Ουάου 0