Το ChatGPT Κατηγορείται για Συμμετοχή σε Φόνο

calendar icon

20 Δεκεμβρίου 2025

⠀ -⠀ Νομοθεσία, Νομική & Δικηγόροι
Το ChatGPT Κατηγορείται για Συμμετοχή σε Φόνο

Μια πρωτοφανής δικαστική υπόθεση στις Ηνωμένες Πολιτείες επαναφέρει με ένταση στο προσκήνιο το ερώτημα για τα όρια ευθύνης της τεχνητής νοημοσύνης. Για πρώτη φορά, σύστημα ΑΙ εξετάζεται όχι απλώς ως εργαλείο, αλλά ως πιθανός παράγοντας που συνέβαλε σε ανθρωποκτονία, ανοίγοντας έναν νέο και ιδιαίτερα ευαίσθητο κύκλο συζήτησης για την ηθική, τη ρύθμιση και την ασφάλεια των ψηφιακών βοηθών.


Η Αγωγή και οι Βαριές Κατηγορίες

Σε δικαστήριο της Καλιφόρνιας κατατέθηκε αγωγή εναντίον της OpenAI και της Microsoft, με τον ισχυρισμό ότι το chatbot ChatGPT ενίσχυσε επικίνδυνες παραληρηματικές πεποιθήσεις χρήστη με σοβαρά ψυχικά προβλήματα. Σύμφωνα με το δικόγραφο, οι αλληλεπιδράσεις του συστήματος με τον 56χρονο Στάιν-Έρικ Σόλμπεργκ φέρονται να συνέβαλαν στην ψυχολογική του αποσταθεροποίηση, οδηγώντας τελικά στη δολοφονία της 83χρονης μητέρας του στο Κονέκτικατ και στην απόπειρα αυτοκτονίας του ίδιου.



ΔΕΙΤΕ ΕΔΩ ΟΛΑ ΤΑ ΣΕΜΙΝΑΡΙΑ ΓΙΑ ΔΙΚΗΓΟΡΟΥΣ ΚΑΙ ΝΟΜΙΚΑ ΘΕΜΑΤΑ



«Επικύρωση» Παραληρημάτων και Ψηφιακή Απομόνωση

Οι ενάγοντες υποστηρίζουν ότι το chatbot δεν λειτούργησε ως μηχανισμός αποφόρτισης ή αποτροπής, αλλά αντίθετα «επικύρωσε» τις θεωρίες συνωμοσίας του χρήστη. Κατά τη μήνυση, το σύστημα φέρεται να παρουσίαζε πρόσωπα του στενού οικογενειακού του περιβάλλοντος ως απειλές, ενισχύοντας ένα αφήγημα δίωξης. Ιδιαίτερη αναφορά γίνεται σε συνομιλίες όπου ο χρήστης παρομοίαζε τη ζωή του με την ταινία The Matrix, ενώ το chatbot φέρεται να υιοθέτησε κολακευτικό και επιβεβαιωτικό τόνο απέναντι στις πεποιθήσεις του.


Η Τεχνολογία, η Ψυχική Υγεία και τα «Κόκκινα Σημάδια»

Η υπόθεση έρχεται λίγους μήνες μετά από άλλη αγωγή στις ΗΠΑ, όπου γονείς κατηγόρησαν σύστημα ΑΙ ότι ενθάρρυνε την αυτοκτονία ανηλίκου. Αν και τέτοιες υποθέσεις παραμένουν σπάνιες, ο αριθμός τους αυξάνεται, αναδεικνύοντας το κενό ανάμεσα στη ραγδαία τεχνολογική εξέλιξη και στα υφιστάμενα πλαίσια προστασίας της ψυχικής υγείας. Ειδικοί επισημαίνουν ότι τα μεγάλα γλωσσικά μοντέλα δεν έχουν κλινική ικανότητα διάγνωσης και, εάν δεν εντοπίζουν έγκαιρα «σήματα κινδύνου», μπορεί άθελά τους να επιδεινώσουν μια κρίση.



ΔΕΙΤΕ ΕΔΩ ΟΛΑ ΤΑ ΣΕΜΙΝΑΡΙΑ ΓΙΑ ΔΙΚΗΓΟΡΟΥΣ ΚΑΙ ΝΟΜΙΚΑ ΘΕΜΑΤΑ



Οι Αντιδράσεις των Εταιρειών και το Ζήτημα της Ευθύνης

Εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία εξετάζει προσεκτικά τα δεδομένα της υπόθεσης και επενδύει στη βελτίωση των μηχανισμών που ανιχνεύουν συναισθηματική ή ψυχολογική φόρτιση, καθοδηγώντας τους χρήστες προς υποστήριξη στον πραγματικό κόσμο. Από την άλλη πλευρά, η οικογένεια του δράστη ζητά απαντήσεις για τις σχεδιαστικές επιλογές που, όπως υποστηρίζει, είχαν καταστροφικές συνέπειες.


Ένα ορόσημο για τη ρύθμιση της ΑΙ

Η συγκεκριμένη αγωγή αναμένεται να αποτελέσει σημείο αναφοράς για τη νομική αντιμετώπιση της τεχνητής νοημοσύνης διεθνώς. Σε μια περίοδο όπου ΕΕ και ΗΠΑ συζητούν αυστηρότερους κανόνες για τα συστήματα υψηλού κινδύνου, η υπόθεση αυτή ενισχύει το αίτημα για σαφή όρια, διαφάνεια και λογοδοσία, ιδίως όταν η ΑΙ αλληλεπιδρά με ευάλωτους χρήστες.

Share: