Η OpenAI Ετοιμάζει Γονικούς Ελέγχους για τη Χρήση του ChatGPT από Ανηλίκους

calendar icon

05 Σεπτεμβρίου 2025

⠀ -⠀ Digital Marketing/Sales/Service
⠀ -⠀ Soft Skills/Επικοινωνία
⠀ -⠀ Ασφάλεια & Υγεία στην Εργασία
⠀ -⠀ Καινοτομία/Start Ups
⠀ -⠀ Νομοθεσία, Νομική & Δικηγόροι
⠀ -⠀ Πληροφορική - Επαγγελματίες IT
⠀ -⠀ Πληροφορική - Χρήστες
Η OpenAI Ετοιμάζει Γονικούς Ελέγχους για τη Χρήση του ChatGPT από Ανηλίκους

Η συζήτηση γύρω από την ασφάλεια των νέων στο διαδίκτυο αποκτά νέα διάσταση με την απόφαση της OpenAI να προχωρήσει στην ανάπτυξη μηχανισμών γονικού ελέγχου για το ChatGPT. Η εταιρεία που έφερε την τεχνητή νοημοσύνη στο επίκεντρο της καθημερινότητας αναγνωρίζει πλέον την ανάγκη να τεθούν όρια στη χρήση του εργαλείου από ανηλίκους, όπως ακριβώς συνέβη στο παρελθόν με τα κοινωνικά δίκτυα.

Σύμφωνα με την εταιρεία, το νέο πακέτο ρυθμίσεων θα προσφέρει στους γονείς μεγαλύτερη διαφάνεια και δυνατότητα καθοδήγησης. Με απλά λόγια, θα μπορούν να παρακολουθούν και να διαμορφώνουν τον τρόπο που οι έφηβοι αλληλεπιδρούν με το chatbot. Πρόκειται για μια σημαντική εξέλιξη, καθώς οι ειδικοί εδώ και καιρό προειδοποιούν για τους κινδύνους που ενδέχεται να προκύψουν από την ανεξέλεγκτη χρήση της τεχνητής νοημοσύνης από νέους χρήστες.


Σενάρια έκτακτης ανάγκης

Μία από τις καινοτομίες που εξετάζει η OpenAI αφορά τον ορισμό επαφών έκτακτης ανάγκης. Σε περιπτώσεις όπου ένας έφηβος εμφανίζει σημάδια έντονου άγχους ή βρίσκεται σε κρίσιμη ψυχολογική κατάσταση, το ChatGPT θα έχει τη δυνατότητα να ειδοποιεί άμεσα τους γονείς ή τους κηδεμόνες. Σήμερα, το σύστημα περιορίζεται απλώς στο να προτείνει γραμμές βοήθειας και οργανισμούς υποστήριξης, αφήνοντας την ευθύνη αποκλειστικά στον χρήστη.



ΔΕΙΤΕ ΕΔΩ ΟΛΑ ΤΑ ΣΕΜΙΝΑΡΙΑ ΓΙΑ ΨΗΦΙΑΚΕΣ ΔΕΞΙΟΤΗΤΕΣ



Κριτική και επιστημονικές ανησυχίες

Η πρωτοβουλία δεν προέκυψε τυχαία. Το τελευταίο διάστημα, η OpenAI βρέθηκε στο επίκεντρο επικρίσεων αλλά και νομικών διεκδικήσεων σχετικά με τον τρόπο που τα chatbots της αλληλεπιδρούν με ανήλικους. Παράλληλα, έρευνα που δημοσιεύθηκε στην επιστημονική επιθεώρηση Psychiatric Services ανέδειξε τις ασυνέπειες των απαντήσεων τεχνητής νοημοσύνης σε θέματα υψηλής ευαισθησίας, όπως η αυτοκτονία. Η μελέτη αφορούσε τα τρία πιο γνωστά συστήματα –ChatGPT, Claude και Gemini– και κατέληξε ότι οι απαντήσεις σε ερωτήσεις «μεσαίου κινδύνου» δεν ήταν πάντοτε ασφαλείς ή κατάλληλες.


Προς μια νέα εποχή κανόνων

Η OpenAI δεν είναι η μόνη που θα κληθεί να αναλάβει δράση. Αναλυτές εκτιμούν ότι τα μέτρα γονικού ελέγχου θα πρέπει να αποτελέσουν κοινή πρακτική σε όλη τη βιομηχανία τεχνητής νοημοσύνης, ιδιαίτερα καθώς μικρότεροι πάροχοι λογισμικού προσφέρουν υπηρεσίες χωρίς σαφείς περιορισμούς. Η εμπειρία των social media δείχνει ότι χωρίς τέτοιου είδους φίλτρα, οι κίνδυνοι για την ψυχική υγεία των νέων πολλαπλασιάζονται.



ΔΕΙΤΕ ΕΔΩ ΟΛΑ ΤΑ ΣΕΜΙΝΑΡΙΑ ΓΙΑ ΔΙΚΗΓΟΡΟΥΣ ΚΑΙ ΝΟΜΙΚΑ ΘΕΜΑΤΑ



Τι σημαίνει για τους γονείς

Για τις οικογένειες, τα νέα μέτρα μπορεί να αποδειχθούν καταλυτικά. Από τη μία πλευρά, ενισχύουν την αίσθηση ασφάλειας· από την άλλη, δίνουν στους γονείς το εργαλείο να παραμένουν ενεργά παρόντες στην ψηφιακή ζωή των παιδιών τους. Το στοίχημα είναι να βρεθεί η ισορροπία ανάμεσα στη δημιουργικότητα και την ελευθερία που προσφέρουν τα chatbot και στην προστασία των ανηλίκων από επικίνδυνα μονοπάτια.


Η κίνηση της OpenAI αποτελεί ένδειξη ότι οι εταιρείες τεχνητής νοημοσύνης δεν μπορούν πλέον να αγνοούν τις κοινωνικές και ψυχολογικές προεκτάσεις των προϊόντων τους. Αν οι γονικοί έλεγχοι εφαρμοστούν σωστά, ίσως αποτελέσουν το πρώτο βήμα για ένα πιο υπεύθυνο και ασφαλές οικοσύστημα AI.

Share: