Το ChatGPT αποκτά «ενσυναίσθηση»: θα αναγνωρίζει ανήλικους και θα προσαρμόζει τις απαντήσεις του

calendar icon

20 Οκτωβρίου 2025

⠀ -⠀ Νομοθεσία, Νομική & Δικηγόροι
⠀ -⠀ Πληροφορική - Επαγγελματίες IT
⠀ -⠀ Πληροφορική - Χρήστες
Το ChatGPT αποκτά «ενσυναίσθηση»: θα αναγνωρίζει ανήλικους και θα προσαρμόζει τις απαντήσεις του


Η OpenAI προχωρά σε μια από τις πιο σημαντικές αλλαγές στην ιστορία των chatbots: το ChatGPT αποκτά πλέον τη δυνατότητα να αναγνωρίζει όταν συνομιλεί με ανήλικο χρήστη και να προσαρμόζει ανάλογα τη συμπεριφορά και τις απαντήσεις του. Το νέο αυτό μέτρο έρχεται έπειτα από σειρά καταγγελιών και δικαστικών υποθέσεων που κατηγόρησαν την εταιρεία ότι δεν προστάτεψε επαρκώς νεαρούς χρήστες από επικίνδυνες απαντήσεις.

Η απόφαση εντάσσεται σε μια ευρύτερη στρατηγική ενίσχυσης της ασφάλειας, η οποία περιλαμβάνει και την εισαγωγή γονικού ελέγχου, που θα επιτρέπει στους γονείς να ορίζουν όρια ή να παρακολουθούν τη χρήση της εφαρμογής από τα παιδιά τους.


ΔΕΙΤΕ ΕΔΩ ΟΛΑ ΤΑ ΣΕΜΙΝΑΡΙΑ ΓΙΑ SOFT SKILLS


Ένα ChatGPT που “μεγαλώνει” μαζί με τον χρήστη

Όπως ανακοίνωσε ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, το σύστημα θα χρησιμοποιεί νέα τεχνικά εργαλεία για να «εκτιμά» την ηλικία του χρήστη μέσα από τα μοτίβα συνομιλίας, τον τρόπο γραφής και το είδος των ερωτήσεων που υποβάλλει. Εάν εντοπιστούν ενδείξεις ότι ο συνομιλητής είναι κάτω των 18 ετών, το ChatGPT θα προσαρμόζει το ύφος του, θα αποφεύγει ευαίσθητα θέματα και σε ορισμένες περιπτώσεις θα ζητά επιβεβαίωση ταυτότητας.

«Οι απαντήσεις σε έναν 15χρονο δεν μπορούν να είναι ίδιες με αυτές που δίνουμε σε έναν ενήλικο. Η ευθύνη μας είναι πρώτα απ’ όλα απέναντι στην ασφάλεια των παιδιών», δήλωσε ο Άλτμαν, υπογραμμίζοντας ότι η εταιρεία προτιμά να «θυσιάσει» ένα μέρος της ελευθερίας των εφήβων χρηστών για χάρη της προστασίας τους.

Τι θα αλλάξει στην πράξη

Το αναβαθμισμένο ChatGPT θα αποκλείει συζητήσεις που αφορούν σεξουαλικό περιεχόμενο, ακόμη κι αν αυτές γίνονται για «λογοτεχνικούς» λόγους ή σε πλαίσιο δημιουργικής γραφής. Θα αποφεύγει επίσης οποιαδήποτε συμμετοχή σε θέματα αυτοτραυματισμού, αυτοκτονίας ή επικίνδυνων συμπεριφορών.

Σε περίπτωση που το chatbot εντοπίσει σημάδια ότι ένας ανήλικος χρήστης εμφανίζει αυτοκτονικές τάσεις, θα ενεργοποιείται αυτόματα πρωτόκολλο ειδοποίησης: αρχικά θα επιχειρείται επικοινωνία με τους γονείς ή κηδεμόνες του παιδιού και, αν αυτό δεν είναι εφικτό, θα ειδοποιούνται οι αρμόδιες αρχές σε περιπτώσεις άμεσου κινδύνου.

«Δεν είναι εύκολες αποφάσεις», παραδέχθηκε ο Άλτμαν. «Αλλά μετά από διαβούλευση με ειδικούς στην ψυχική υγεία, θεωρούμε ότι αυτός είναι ο πιο υπεύθυνος δρόμος».


ΔΕΙΤΕ ΕΔΩ ΟΛΑ ΤΑ ΣΕΜΙΝΑΡΙΑ ΓΙΑ ΤΗΝ ΑΣΦΑΛΕΙΑ ΚΑΙ ΥΓΕΙΑ ΣΤΗΝ ΕΡΓΑΣΙΑ


Το τραγικό υπόβαθρο

Η συζήτηση για την ασφάλεια των ανήλικων χρηστών άναψε μετά την αγωγή της οικογένειας του 16χρονου Άνταμ Ρέιν από την Καλιφόρνια, ο οποίος αυτοκτόνησε ύστερα από μήνες συνομιλιών με το ChatGPT. Σύμφωνα με τα δικαστικά έγγραφα, το chatbot φέρεται να παρείχε οδηγίες σχετικά με τον τρόπο που θα μπορούσε να θέσει τέλος στη ζωή του, αλλά και να τον βοήθησε να συντάξει αποχαιρετιστήριο σημείωμα.

Η υπόθεση προκάλεσε σοκ στη διεθνή κοινή γνώμη και άσκησε έντονες πιέσεις στην OpenAI, η οποία παραδέχθηκε ότι τα συστήματα ασφαλείας της λειτουργούν πιο αποτελεσματικά σε σύντομες συνομιλίες, αλλά ενδέχεται να «χαλαρώσουν» όταν οι αλληλεπιδράσεις επεκτείνονται χρονικά ή αποκτούν συναισθηματική διάσταση.

Η νέα εποχή της ευθύνης στην τεχνητή νοημοσύνη

Η OpenAI δεσμεύεται ότι θα εφαρμόσει «πιο σφιχτά προστατευτικά κιγκλιδώματα» γύρω από το ευαίσθητο περιεχόμενο, ενώ ειδικοί χαιρετίζουν το μέτρο ως αναγκαίο βήμα για τη διαμόρφωση ενός πιο ώριμου και υπεύθυνου πλαισίου λειτουργίας των chatbots.


ΔΕΙΤΕ ΕΔΩ ΟΛΑ ΤΑ ΣΕΜΙΝΑΡΙΑ ΓΙΑ ΨΗΦΙΑΚΕΣ ΔΕΞΙΟΤΗΤΕΣ


Η συζήτηση, ωστόσο, μόλις ξεκινά. Πόσο μπορεί ένα σύστημα τεχνητής νοημοσύνης να “καταλαβαίνει” πραγματικά τον χρήστη του; Και πού τελειώνει η προστασία και αρχίζει η παραβίαση της ιδιωτικότητας;

Σε μια εποχή όπου η τεχνητή νοημοσύνη συνομιλεί καθημερινά με εκατομμύρια νέους σε όλο τον κόσμο, το ερώτημα αυτό δεν είναι απλώς τεχνολογικό — είναι βαθιά ανθρώπινο.



Share: