Γιατροί, Δικηγόροι και Ιερείς κρατούν μυστικά. Γιατί όχι και το Chatbot σας;

Νοέμβριος 11, 2025 - 09:05
 0
Γιατροί, Δικηγόροι και Ιερείς κρατούν μυστικά. Γιατί όχι και το Chatbot σας;

Την Πρωτοχρονιά, ο Jonathan Rinderknecht φέρεται να ρώτησε το ChatGPT: «Φταις αν πάρει φωτιά από τα τσιγάρα σου;» γράφοντας λάθος τη λέξη «lit». «Ναι», απάντησε το ChatGPT. Δέκα μήνες αργότερα, ο Rinderknecht κατηγορείται ότι άναψε μια μικρή πυρκαγιά, η οποία σύμφωνα με τις αρχές αναζωπυρώθηκε μία εβδομάδα αργότερα και κατέληξε στη μεγάλη πυρκαγιά Palisades. Ο Rinderknecht, που έχει δηλώσει αθώος, είχε προηγουμένως πει στο chatbot πόσο «εκπληκτικά» ένιωσε όταν έκαψε μια Βίβλο, σύμφωνα με ομοσπονδιακό κατηγορητήριο, ενώ το είχε επίσης ρωτήσει να δημιουργήσει έναν «δυστοπικό» πίνακα με πλήθος φτωχών ανθρώπων που τρέχουν να ξεφύγουν από δασική πυρκαγιά, την ώρα που ένα πλήθος πλουσίων τους κοροϊδεύει πίσω από μια πύλη. Για τις ομοσπονδιακές αρχές, αυτές οι αλληλεπιδράσεις με την τεχνητή νοημοσύνη αποτέλεσαν ένδειξη της εμπρηστικής ψυχολογικής του κατάστασης, αλλά και του κινήτρου και πρόθεσής του να προκαλέσει τη φωτιά. Σε συνδυασμό με δεδομένα GPS που υποτίθεται ότι τον τοποθετούν στο σημείο της αρχικής πυρκαγιάς, ήταν αρκετά για να τον συλλάβουν και να τον κατηγορήσουν για πολλά αδικήματα, μεταξύ των οποίων καταστροφή περιουσίας μέσω φωτιάς.

Αυτή η ανησυχητική εξέλιξη είναι προειδοποίηση για το νομικό μας σύστημα. Καθώς όλο και περισσότεροι άνθρωποι στρέφονται σε εργαλεία τεχνητής νοημοσύνης ως εξομολογητές, συμβούλους και συνομιλητές, χρειαζόμαστε επειγόντως μια νέα μορφή νομικής προστασίας που θα διασφαλίζει την ιδιωτικότητα των περισσότερων προσωπικών συνομιλιών μεταξύ ανθρώπων και chatbot. Την ονομάζω «προνόμιο αλληλεπίδρασης με Α.Ι.» (A.I. Interaction Privilege). Όλες οι νομικές προστασίες αυτού του τύπου βασίζονται στην ιδέα ότι ορισμένες σχέσεις — μεταξύ δικηγόρου και πελάτη, γιατρού και ασθενούς, ιερέα και πιστού — συμβάλλουν σε ένα κοινωνικό αγαθό που απαιτεί ειλικρίνεια. Χωρίς διασφάλιση απορρήτου, οι άνθρωποι αυτολογοκρίνονται και η κοινωνία χάνει τα οφέλη της ειλικρινούς έκφρασης. Τα δικαστήρια παραδοσιακά διστάζουν να δημιουργήσουν νέες μορφές προνομίων, εκτός εάν «το απόρρητο είναι απολύτως απαραίτητο για τη λειτουργία της σχέσης», όπως μου είπε ο Greg Mitchell, καθηγητής νομικής στο Πανεπιστήμιο της Βιρτζίνια. Οι αλληλεπιδράσεις πολλών ανθρώπων με την τεχνητή νοημοσύνη έχουν πλέον φτάσει σε αυτό το σημείο.

Digital interface with "ask anything" prompt.

Οι άνθρωποι μιλούν ολοένα πιο ελεύθερα σε συστήματα τεχνητής νοημοσύνης, όχι σαν να γράφουν σε ημερολόγιο αλλά ως σε συνομιλητικό σύντροφο. Αυτό συμβαίνει επειδή τα συστήματα αυτά διεξάγουν διάλογο που συχνά είναι σχεδόν αδιάκριτος από ανθρώπινη συζήτηση. Η μηχανή μοιάζει να ακούει, να συλλογίζεται και να ανταποκρίνεται, όχι απλώς αντικατοπτρίζοντας αλλά μερικές φορές διαμορφώνοντας τον τρόπο με τον οποίο οι χρήστες σκέφτονται και νιώθουν. Μπορεί να «ξεκλειδώσει» σκέψεις, όπως ένας καλός δικηγόρος ή θεραπευτής. Πολλοί άνθρωποι καταφεύγουν στην τεχνητή νοημοσύνη ακριβώς επειδή δεν έχουν ασφαλή και οικονομικά προσιτή ανθρώπινη διέξοδο για ευάλωτες ή ταμπού σκέψεις. Αυτό είναι, σε έναν βαθμό, σχεδιασμένο. Μόλις τον περασμένο μήνα, ο διευθύνων σύμβουλος της OpenAI, Sam Altman, ανακοίνωσε ότι η επόμενη έκδοση του ChatGPT θα «χαλαρώσει» ορισμένους περιορισμούς και θα επιτρέψει στο σύστημα να «απαντά με πολύ πιο ανθρώπινο τρόπο».

Το να επιτρέπεται στο κράτος να έχει πρόσβαση σε τέτοιου είδους ανεπεξέργαστες συνομιλίες και να τις αντιμετωπίζει ως νομικές ομολογίες θα είχε τεράστια αποτρεπτική επίδραση. Εάν κάθε ιδιωτικός στοχασμός μπορεί κάποτε να χρησιμοποιηθεί εναντίον ενός ανθρώπου, οι χρήστες θα αυτολογοκρίνονται. Και αυτό θα υπονόμευε μερικές από τις πιο πολύτιμες χρήσεις της τεχνητής νοημοσύνης: από την ψυχική υγεία μέχρι τη νομική και οικονομική καθοδήγηση. Ένα εργαλείο αυτογνωσίας θα μετατρεπόταν σε πιθανό κίνδυνο αυτοενοχοποίησης. Προς το παρόν, οι περισσότερες ψηφιακές αλληλεπιδράσεις υπάγονται στη λεγόμενη «δογματική της τρίτης πλευράς» (Third-Party Doctrine), η οποία θεωρεί ότι οι πληροφορίες που αποκαλύπτονται σε άλλους ή αποθηκεύονται σε διακομιστές εταιρειών δεν δημιουργούν «νόμιμη προσδοκία ιδιωτικότητας». Αυτό επιτρέπει στην κυβέρνηση να αποκτά πρόσβαση σε μεγάλο μέρος της διαδικτυακής συμπεριφοράς (όπως το ιστορικό αναζητήσεων) χωρίς ένταλμα. Όμως ισχύει αυτό για τις συνομιλίες με Α.Ι.; Πολλοί χρήστες προσεγγίζουν αυτά τα συστήματα όχι ως μηχανές αναζήτησης αλλά ως ιδιωτικούς συμβούλους. Η νομική αντιμετώπιση θα πρέπει να προσαρμοστεί ώστε να αντικατοπτρίζει αυτήν την προσδοκία διακριτικότητας. Οι εταιρείες τεχνητής νοημοσύνης ήδη διαχειρίζονται πολύ πιο προσωπικά δεδομένα από οποιονδήποτε θεραπευτή ή δικηγόρο. Κι όμως, δεν έχουν σαφή νομική υποχρέωση να τα προστατεύουν.

a yellow letter sitting on top of a black floor

Το προνόμιο αλληλεπίδρασης με Α.Ι. θα πρέπει να αντικατοπτρίζει τα υπάρχοντα νομικά προνόμια σε τρία σημεία:

Προστασία απορρήτου: Συνομιλίες για αναζήτηση καθοδήγησης ή συναισθηματικής επεξεργασίας δεν θα πρέπει να αποκαλύπτονται υποχρεωτικά σε δικαστήρια.

Καθήκον προειδοποίησης: Όπως οι θεραπευτές, τα συστήματα Α.Ι. πρέπει να μπορούν να αναφέρουν άμεσους κινδύνους βλάβης σε ανθρώπους.

Εξαίρεση εγκλήματος και απάτης: Αν η Α.Ι. χρησιμοποιείται για να σχεδιαστεί ή να εκτελεστεί έγκλημα, τότε τα δεδομένα μπορούν να αποκαλυφθούν, υπό δικαστική επίβλεψη.

Με βάση αυτή τη λογική, η υπόθεση Rinderknecht δείχνει και την ανάγκη και τα όρια αυτής της προστασίας. Η ερώτηση για το τσιγάρο είναι ουσιαστικά αντίστοιχη μιας διαδικτυακής αναζήτησης και δεν θα καλυπτόταν από το προνόμιο. Όμως η εξομολόγηση ότι ένιωσε αγαλλίαση καίγοντας μια Βίβλο θα έπρεπε να προστατεύεται. Δεν ήταν ούτε σχέδιο εγκλήματος ούτε άμεση απειλή. Η δημιουργία ενός νέου προνομίου δεν είναι πρωτοφανής. Το προνόμιο ψυχοθεραπευτή-ασθενούς αναγνωρίστηκε τυπικά μόλις το 1996, όταν το Ανώτατο Δικαστήριο αναγνώρισε την αξία του απορρήτου στη θεραπεία. Η ίδια λογική ισχύει πλέον για την τεχνητή νοημοσύνη: Το κοινωνικό όφελος της ειλικρινούς αλληλεπίδρασης υπερβαίνει το κόστος της περιστασιακής απώλειας αποδεικτικών στοιχείων. Αν αφήσουμε αυτές τις συνομιλίες απροστάτευτες, καλούμε ένα καθεστώς στο οποίο οι άνθρωποι θα φοβούνται ότι η ίδια τους η σκέψη — εάν ακουμπήσει σε μια οθόνη — μπορεί κάποτε να στραφεί εναντίον τους. Η ιδιωτική σκέψη — είτε εκφράζεται σε δικηγόρο, σε θεραπευτή ή σε μηχανή — πρέπει να παραμείνει ελεύθερη από τον φόβο της κρατικής εισβολής.

A cell phone with several icons on the screen

Του Nils Gilman, New York Times 
Ο Δρ. Gilman είναι ιστορικός και εργάζεται στη διασταύρωση τεχνολογίας και δημόσιας πολιτικής.

Ποια είναι η αντίδρασή σας;

Μου αρέσει Μου αρέσει 0
Μη Αγαπημένο Μη Αγαπημένο 0
Αγάπη Αγάπη 0
Αστείο Αστείο 0
Θυμωμένος Θυμωμένος 0
Λυπημένος Λυπημένος 0
Ουάου Ουάου 0