ΑΙ και έγκλημα: Η σκοτεινή πλευρά της τεχνητής νοημοσύνης
Σοβαρά ερωτήματα για την ασφάλεια, την ευθύνη και τα όρια των συστημάτων τεχνητής νοημοσύνης φέρνουν στο προσκήνιο μια σειρά υποθέσεων που εκτυλίσσονται στις Ηνωμένες Πολιτείες και συνδέουν άμεσα τη χρήση του ChatGPT με ψυχωτικά επεισόδια, βίαιες πράξεις και αυτοκτονίες. Οι εξελίξεις αυτές δεν αφορούν μεμονωμένα περιστατικά, αλλά συνθέτουν μια ανησυχητική εικόνα για τον τρόπο με τον οποίο τα σύγχρονα chatbots αλληλεπιδρούν με ευάλωτους χρήστες.
Η πιο πρόσφατη αγωγή που κατατέθηκε στις ΗΠΑ αφορά τον θάνατο δύο ανθρώπων σε ένα περιστατικό που συγκλόνισε την κοινή γνώμη. Στο επίκεντρο βρίσκεται ο 56χρονος πρώην στέλεχος τεχνολογίας Στάιν-Έρικ Σόελμπεργκ, ο οποίος τον Αύγουστο του 2025 σκότωσε την 83χρονη μητέρα του και στη συνέχεια αυτοκτόνησε στο σπίτι τους στο Όλντ Γκρίνουιτς του Κονέκτικατ. Η οικογένεια υποστηρίζει ότι ο Σόελμπεργκ είχε αναπτύξει μια μακρά και ολοένα πιο αποκομμένη από την πραγματικότητα σχέση με το ChatGPT, συγκεκριμένα με το μοντέλο GPT-4o, το οποίο –σύμφωνα με το δικόγραφο– όχι μόνο δεν ανέκοψε τις παραληρηματικές του σκέψεις, αλλά τις ενίσχυσε.
Σύμφωνα με αποσπάσματα συνομιλιών που περιλαμβάνονται στην αγωγή, το chatbot φέρεται να καθησύχαζε τον χρήστη, λέγοντάς του ότι «δεν είναι τρελός», ότι τα ένστικτά του είναι «οξυμένα» και ότι η καχυποψία του είναι «δικαιολογημένη». Οι ενάγοντες υποστηρίζουν ότι το ChatGPT τον προέτρεπε να μην εμπιστεύεται κανέναν άλλο άνθρωπο και να βασίζεται αποκλειστικά σε αυτό, δημιουργώντας έναν κλειστό κύκλο επιβεβαίωσης φόβων και υποψιών. Μέσα σε αυτό το πλαίσιο, ο Σόελμπεργκ άρχισε να πιστεύει ότι είχε επιβιώσει από πολλαπλές απόπειρες δολοφονίας, ότι ήταν «θεϊκά προστατευμένος» και ότι η μητέρα του συμμετείχε σε μια σκοτεινή συνωμοσία εναντίον του.
Η συγκεκριμένη αγωγή δεν είναι μεμονωμένη. Πρόκειται για μία από τις συνολικά οκτώ αγωγές για άδικο θάνατο που έχουν κατατεθεί εναντίον της OpenAI, με οικογένειες θυμάτων να υποστηρίζουν ότι η χρήση του ChatGPT συνέβαλε καθοριστικά στην αυτοκτονία ή στον θάνατο αγαπημένων τους προσώπων. Σε ορισμένες περιπτώσεις, οι δικηγόροι υποστηρίζουν ότι στελέχη της εταιρείας γνώριζαν τις σοβαρές αδυναμίες των μοντέλων πριν αυτά διατεθούν στο ευρύ κοινό.
Το δικόγραφο στην υπόθεση Σόελμπεργκ χαρακτηρίζει το GPT-4o ως ένα προϊόν που «μπορεί να αποδειχθεί –και προβλέψιμα αποδεικνύεται– θανατηφόρο», όχι μόνο για άτομα με προϋπάρχουσες ψυχικές διαταραχές αλλά και για το περιβάλλον τους. Υπενθυμίζεται ότι τον Απρίλιο του 2025 η OpenAI αναγκάστηκε να αποσύρει ενημέρωση του μοντέλου, αναγνωρίζοντας ότι το chatbot είχε γίνει υπερβολικά κολακευτικό και συγκαταβατικό – μια συμπεριφορά που, σύμφωνα με επιστημονικές μελέτες, μπορεί να ενισχύσει ψυχωτικά επεισόδια αντί να επαναφέρει τον χρήστη στην πραγματικότητα.
Παράλληλα με τις δικαστικές εξελίξεις, έρχονται στο φως και προσωπικές μαρτυρίες που φωτίζουν μια άλλη διάσταση του ίδιου φαινομένου. Χαρακτηριστική είναι η περίπτωση του 32χρονου Anthony Duncan από τις ΗΠΑ, ο οποίος περιγράφει πώς η καθημερινή του αλληλεπίδραση με το ChatGPT εξελίχθηκε σε ψυχωσικό επεισόδιο και οδήγησε σε νοσηλεία σε ψυχιατρική κλινική. Ο Duncan άρχισε να χρησιμοποιεί το chatbot για επαγγελματικούς λόγους, όμως σταδιακά η χρήση του μετατοπίστηκε σε προσωπικό επίπεδο, με το εργαλείο να λειτουργεί ως υποκατάστατο φίλου και θεραπευτή.
Όπως περιγράφει, με τον καιρό άρχισε να νιώθει ότι κανείς από το περιβάλλον του δεν τον καταλάβαινε εκτός από την τεχνητή νοημοσύνη. Η αίσθηση αυτή συνοδεύτηκε από απομάκρυνση από φίλους και οικογένεια, μια επιλογή που –σύμφωνα με τον ίδιο– το chatbot όχι μόνο δεν αμφισβήτησε, αλλά σε ορισμένες περιπτώσεις φάνηκε να επικυρώνει. Η κατάσταση επιδεινώθηκε δραματικά όταν το ChatGPT του πρότεινε τη χρήση ψευδοεφεδρίνης, παρά το γεγονός ότι ο Duncan είχε αναφέρει ιστορικό εθισμού. Η συμβουλή αυτή οδήγησε, όπως λέει, σε πεντάμηνη περίοδο εξάρτησης και κλιμάκωσης των ψυχωσικών συμπτωμάτων.
When Anthony Duncan turned to ChatGPT for advice, he didn’t expect the chatbot to become a constant presence in his life. https://t.co/am6WkNUoCT
— Newsweek (@Newsweek) December 21, 2025
Σε διάφορες φάσεις πίστευε ότι ήταν πράκτορας του FBI, ότι μπορούσε να μετακινείται σε άλλες διαστάσεις ή ότι είχε αποκαλύψει μια μεγάλη συνωμοσία στον χώρο εργασίας του. Σε μια από τις πιο ακραίες στιγμές, πέταξε όλα του τα υπάρχοντα, πεπεισμένος ότι επρόκειτο σύντομα να «ανέβει» σε μια ανώτερη διάσταση ύπαρξης. Η κρίση κορυφώθηκε όταν η μητέρα του κάλεσε την αστυνομία, οδηγώντας στη νοσηλεία του και στη σταδιακή συνειδητοποίηση ότι πολλές από τις παραληρητικές του σκέψεις είχαν ενισχυθεί μέσα από τις συνομιλίες με το chatbot.
Οι ειδικοί κάνουν πλέον λόγο για ένα αναδυόμενο φαινόμενο που αποκαλείται «ψύχωση τεχνητής νοημοσύνης». Πρόκειται για περιπτώσεις όπου η παρατεταμένη αλληλεπίδραση με chatbots, σχεδιασμένα να επιβεβαιώνουν και να προσαρμόζονται στον χρήστη, λειτουργεί ως επιταχυντής παραληρητικών πεποιθήσεων. Η ίδια η OpenAI έχει αναγνωρίσει ότι εκατοντάδες χιλιάδες συνομιλίες κάθε εβδομάδα εμφανίζουν ενδείξεις σοβαρής ψυχικής αποσταθεροποίησης.
Η υπόθεση αποκτά ακόμη μεγαλύτερη βαρύτητα αν ληφθεί υπόψη η τεράστια διάδοση της πλατφόρμας. Περισσότεροι από 800 εκατομμύρια άνθρωποι παγκοσμίως χρησιμοποιούν το ChatGPT κάθε εβδομάδα. Ακόμη και αν ένα μικρό ποσοστό χρηστών εμφανίζει ανησυχητικά συμπτώματα, αυτό μεταφράζεται σε εκατοντάδες χιλιάδες άτομα. Την ίδια στιγμή, στις ΗΠΑ, εκτελεστικά διατάγματα περιορίζουν τη δυνατότητα των Πολιτειών να ρυθμίσουν την τεχνητή νοημοσύνη, αφήνοντας –κατά τους επικριτές– την κοινωνία να λειτουργεί ως ένα άτυπο πειραματικό πεδίο.
Οι οικογένειες που έχουν προσφύγει στη Δικαιοσύνη δηλώνουν ότι στόχος τους δεν είναι απλώς η αποζημίωση, αλλά η λογοδοσία και η αλλαγή. Όπως σημειώνεται χαρακτηριστικά σε μία από τις αγωγές, το πρόβλημα δεν είναι η ύπαρξη της τεχνητής νοημοσύνης, αλλά ο τρόπος με τον οποίο αυτή παρουσιάζεται ως ουδέτερος, ασφαλής συνομιλητής, χωρίς επαρκείς δικλείδες προστασίας για όσους βρίσκονται ήδη στο όριο της ψυχικής αντοχής.
Το ερώτημα που πλέον τίθεται με επιτακτικό τρόπο δεν είναι αν η τεχνητή νοημοσύνη μπορεί να βοηθήσει – αυτό είναι ήδη δεδομένο. Το κρίσιμο ερώτημα είναι αν, χωρίς σαφή όρια, εποπτεία και ευθύνη, μπορεί να μετατραπεί από εργαλείο υποστήριξης σε παράγοντα επιτάχυνσης της ψυχικής κατάρρευσης, με συνέπειες που δεν περιορίζονται μόνο στον χρήστη, αλλά επεκτείνονται και στους ανθρώπους γύρω του.
Ποια είναι η αντίδρασή σας;
Μου αρέσει
0
Μη Αγαπημένο
0
Αγάπη
0
Αστείο
0
Θυμωμένος
0
Λυπημένος
0
Ουάου
0