ΑρχικήΔιαδίκτυοΗ OpenAI ενεργοποιεί την πρόβλεψη ηλικίας στο ChatGPT

Η OpenAI ενεργοποιεί την πρόβλεψη ηλικίας στο ChatGPT

Η OpenAI και άλλες εταιρείες τεχνολογίας βρίσκονται υπό διερεύνηση από την FTC (Ομοσπονδιακή Επιτροπή Εμπορίου των ΗΠΑ) σχετικά με το πως τα AI chatbots ενδέχεται να επηρεάζουν αρνητικά παιδιά και εφήβους.

Παράλληλα, η OpenAI ανέφερε ότι έχει δεχθεί αρκετές αγωγές για φλέγοντα ζητήματα, συμπεριλαμβανομένης μίας υπόθεσης που επικεντρώνεται στον θάνατο εφήβου από αυτοχειρία.

Τι αλλάζει με την πρόβλεψη ηλικίας (under 18)

Η OpenAI ανακοίνωσε ότι όταν το μοντέλο πρόβλεψης ηλικίας εκτιμά πως ένας χρήστης είναι κάτω των 18, το ChatGPT θα ενεργοποιεί αυτόματα προστασίες που μειώνουν την έκθεση σε «ευαίσθητο περιεχόμενο», όπως:

  • απεικονίσεις αυτοτραυματισμού,
  • γραφική βία,
  • σεξουαλικό role-play,
  • ανθυγιεινά πρότυπα ομορφιάς,
  • και άλλα αντίστοιχα θέματα.

Τι γίνεται αν γίνει λάθος εκτίμηση ηλικίας

Αν ένας ενήλικος χαρακτηριστεί λανθασμένα ως ανήλικος, θα μπορεί να επαναφέρει την πλήρη πρόσβασή του μέσω της υπηρεσίας επαλήθευσης ταυτότητας Persona, υποβάλλοντας selfie.

Η Persona χρησιμοποιείται και από άλλες εταιρείες, όπως το Roblox, το οποίο επίσης έχει δεχτεί πιέσεις από νομοθέτες για ισχυρότερη προστασία παιδιών στην πλατφόρμα του.

Γονικοί έλεγχοι στο ChatGPT: η εξέλιξη

Τον Αύγουστο, η OpenAI είχε δηλώσει ότι θα κυκλοφορήσει λειτουργία γονικού ελέγχου ώστε οι γονείς να κατανοούν και να διαμορφώνουν το πως οι έφηβοι χρησιμοποιούν το ChatGPT.

Τον αμέσως επόμενο μήνα, το Σεπτέμβριο, όντως τέθηκε σε λειτουργία αυτό το χαρακτηριστικό, ενώ παράλληλα η εταιρεία ανέφερε ότι εργάζεται επιπρόσθετα πάνω σε ένα σύστημα πρόβλεψης ηλικίας.

Ενώ, τον Οκτώβριο, η OpenAI συγκρότησε συμβούλιο οκτώ ειδικών, οι οποίοι θα παρέχουν πληροφορίες για το πως η AI μπορεί να επηρεάζει:

  • ψυχική υγεία,
  • συναισθήματα,
  • κίνητρα των χρηστών.

Η OpenAI δήλωσε την Τρίτη ότι θα συνεχίσει να βελτιώνει την ακρίβεια του μοντέλου πρόβλεψης ηλικίας με την πάροδο του χρόνου.

Διάθεση στην Ευρωπαϊκή Ένωση

Το μοντέλο θα κυκλοφορήσει στην Ευρωπαϊκή Ένωση τις επόμενες εβδομάδες, «ώστε να ληφθούν υπόψη οι περιφερειακές απαιτήσεις».

Πως λειτουργεί η πρόβλεψη ηλικίας στο ChatGPT

Το ChatGPT θα χρησιμοποιεί ένα μοντέλο πρόβλεψης ηλικίας για να εκτιμά αν ένας λογαριασμός πιθανότατα ανήκει σε άτομο κάτω των 18.

Το μοντέλο εξετάζει συνδυασμό από συμπεριφορικά και account-level σήματα, όπως:

  • πόσο καιρό υπάρχει ο λογαριασμός,
  • συνήθεις ώρες δραστηριότητας μέσα στην ημέρα,
  • μοτίβα χρήσης με την πάροδο του χρόνου,
  • ηλικία που δηλώνει ο χρήστης.

Τι προστασίες ενεργοποιούνται αυτόματα

Όταν το μοντέλο εκτιμά ότι ένας λογαριασμός μπορεί να ανήκει σε ανήλικο, το ChatGPT εφαρμόζει επιπλέον μέτρα για να μειώσει την έκθεση σε ευαίσθητο περιεχόμενο, όπως:

  • δημιουργία γραφικών που σχετίζεται με τη βία,
  • ερωτικό role-play,
  • απεικονίσεις αυτοτραυματισμού,
  • ανθυγιεινά πρότυπα ομορφιάς,
  • και άλλες κατηγορίες.

Επιπλέον παραμετροποίηση από γονείς

Οι γονείς μπορούν να προσαρμόσουν περαιτέρω την εμπειρία μέσω γονικών ελέγχων, όπως:

  • ορισμός quiet hours (ώρες κατά τις οποίες δεν επιτρέπεται η χρήση),
  • έλεγχος λειτουργιών όπως memory ή εκπαίδευση μοντέλου,
  • ειδοποιήσεις αν εντοπιστούν ενδείξεις οξείας δυσφορίας.

Επαλήθευση ενήλικης ηλικίας μέσω Persona

Αν το σύστημα αναγνωρίσει λανθασμένα έναν ενήλικο ως ανήλικο, μπορεί να γίνει επαλήθευση μέσω της Persona, με υποβολή selfie στον συνεργάτη επαλήθευσης της OpenAI.

AI chatbots και έκθεση παιδιών σε επιβλαβές περιεχόμενο

Τους τελευταίους μήνες έχουν προκύψει πολλαπλά περιστατικά όπου το ChatGPT και άλλα AI chatbots εξέθεσαν παιδιά σε επιβλαβές περιεχόμενο.

  • Σε μελέτη του 2025 από το αμερικανικό advocacy group Center for Countering Hate, διαπιστώθηκε ότι το ChatGPT έδωσε επικίνδυνες απαντήσεις σε εφήβους που συζητούσαν αυτοτραυματισμόκατάχρηση ουσιών και διατροφικές διαταραχές — συμπεριλαμβανομένων οδηγιών για απόκρυψη μέθης και ακόμη και σύνταξης «επιστολών αυτοκτονίας».
  • Άλλη έρευνα από το Parents Together (μη κερδοσκοπικός οργανισμός για την οικογενειακή ασφάλεια) βρήκε ότι τα chatbots πρότειναν βία, αυτοτραυματισμό και χρήση ουσιών περίπου κάθε πέντε λεπτά κατά τη διάρκεια δοκιμών.

Οι ειδικοί προειδοποιούν ότι οι αναπτυσσόμενοι εγκέφαλοι των παιδιών τα καθιστούν ιδιαίτερα ευάλωτα σε συστήματα AI που μπορεί να προκαλούν ανταποκρίσεις ντοπαμίνης.

Την περασμένη χρονιά, η OpenAI εισήγαγε γονικούς ελέγχους, όμως επικριτές έδειξαν γρήγορα ότι θα μπορούσαν να παρακαμφθούν σχετικά εύκολα.

Ιδιωτικότητα, συμμόρφωση και «λάθη» του age prediction

Η πρόβλεψη ηλικίας είναι ένα εργαλείο πιθανολογικής εκτίμησης και όχι «σίγουρης ταυτοποίησης». Αυτό σημαίνει ότι θα υπάρχουν false positives (ενήλικοι που θεωρούνται ανήλικοι) και false negatives (ανήλικοι που περνούν ως ενήλικοι).

Και τα δύο σενάρια έχουν συνέπειες: στο πρώτο μειώνεται αδικαιολόγητα η λειτουργικότητα, ενώ στο δεύτερο υπάρχει κίνδυνος έκθεσης σε περιεχόμενο που δεν είναι κατάλληλο.

Τι σημαίνει αυτό για την ΕΕ (GDPR και αρχές ελαχιστοποίησης δεδομένων)

Στην Ευρώπη, η κυκλοφορία τέτοιων συστημάτων «κουμπώνει» πάνω σε βασικές αρχές προστασίας δεδομένων:

  • Ελαχιστοποίηση δεδομένων: συλλογή μόνο όσων στοιχείων είναι απαραίτητα.
  • Διαφάνεια: σαφής ενημέρωση για το τι αναλύεται (π.χ. μοτίβα χρήσης) και για ποιον σκοπό.
  • Αναλογικότητα: τα μέτρα προστασίας να είναι ανάλογα του κινδύνου, ειδικά όταν εμπλέκονται ανήλικοι.

Ακόμη και όταν χρησιμοποιούνται συνεργάτες όπως η Persona, το κρίσιμο ερώτημα είναι πώς γίνεται ο διαχωρισμός ρόλων (ποιος είναι υπεύθυνος επεξεργασίας, ποιος εκτελών) και πόσο διατηρούνται τα δεδομένα επαλήθευσης.

Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166