Σύνοψη:
- Ο διευθυντής της CISA, Madhu Gottumukkala, κατηγορείται ότι ανέβασε έγγραφα με μη δημοσιεύσιμες πληροφορίες στο ChatGPT.
- Παρόλο που η χρήση του εργαλείου απαγορεύεται γενικά στην υπηρεσία, ο ίδιος είχε εξασφαλίσει ειδική εξαίρεση για τον εαυτό του.
- Ο Gottumukkala βρίσκεται σε άδεια από τον Δεκέμβριο του 2025, μετά από ασυμφωνίες που προέκυψαν σε έλεγχο με πολύγραφο.
Σκάνδαλο στην CISA: Επικεφαλής ανέβασε απόρρητα έγγραφα στο ChatGPT
Η χρήση του ChatGPT κανονικά δεν επιτρέπεται στην αμερικανική υπηρεσία κυβερνοασφάλειας.
Ωστόσο, ο επικεφαλής της φαίνεται πως είχε εξασφαλίσει μια άδεια εξαίρεσης για προσωπική χρήση.
Σύμφωνα με αναφορές, ο διευθυντής της Υπηρεσίας Κυβερνοασφάλειας και Ασφάλειας Υποδομών των ΗΠΑ (CISA), Madhu Gottumukkala, ανέβασε έγγραφα που περιείχαν μη αποχαρακτηρισμένες πληροφορίες σε μια δημόσια έκδοση του ChatGPT.
Όπως μεταδίδει το Politico, οι μεταφορτώσεις αυτές πραγματοποιήθηκαν λίγο μετά την ανάληψη των καθηκόντων του Gottumukkala τον Μάιο του 2025.
Ενεργοποίηση συναγερμών ασφαλείας
Σύμφωνα με τα στοιχεία, η μεταφόρτωση των αρχείων ενεργοποίησε πολλαπλές εσωτερικές προειδοποιήσεις κυβερνοασφάλειας, οι οποίες έχουν σχεδιαστεί για να αποτρέπουν την κλοπή ή την ακούσια κοινοποίηση εμπιστευτικών πληροφοριών από τα ομοσπονδιακά δίκτυα.
Επιπλέον, σημειώνεται ότι οι υπάλληλοι της CISA κανονικά δεν έχουν πρόσβαση σε εξωτερικά εργαλεία Τεχνητής Νοημοσύνης (AI).
Info Box — Πληροφορία
Τα συστήματα DLP (Data Loss Prevention) στις κυβερνητικές υπηρεσίες παρακολουθούν τη ροή δεδομένων και σημαίνουν συναγερμό όταν εντοπίσουν ευαίσθητες λέξεις-κλειδιά ή τύπους εγγράφων που εξέρχονται του δικτύου.
Ο Gottumukkala, ωστόσο, είχε αιτηθεί και λάβει μια άδεια εξαίρεσης για τον εαυτό του, χωρίς να αναφερθούν συγκεκριμένοι λόγοι για αυτήν την προνομιακή μεταχείριση.
Το Υπουργείο Εσωτερικής Ασφάλειας των ΗΠΑ (DHS) διερευνά το περιστατικό και υπάρχει έντονη ανησυχία ότι τα δεδομένα, τα οποία προορίζονταν μόνο για εσωτερική χρήση, ενδέχεται να χρησιμοποιηθούν πλέον για την απάντηση ερωτημάτων των περίπου 700 εκατομμυρίων ενεργών χρηστών του ChatGPT.
Πίνακας: Χρονοδιάγραμμα των Γεγονότων
| Ημερομηνία | Γεγονός |
|---|---|
| Μάιος 2025 | Ο Madhu Gottumukkala αναλαμβάνει καθήκοντα και ανεβάζει έγγραφα στο ChatGPT. |
| Δεκέμβριος 2025 | Ο διευθυντής τίθεται σε άδεια λόγω αποτυχίας σε τεστ πολυγράφου. |
| Σήμερα | Το DHS διεξάγει έρευνα για πιθανή διαρροή εμπιστευτικών δεδομένων. |
Απειλή ανάκλησης εξουσιοδοτήσεων ασφαλείας
Ανάλογα με τον βαθμό κινδύνου για την κυβερνητική ασφάλεια που θα διαπιστώσει το DHS κατά τη διάρκεια της έρευνας, ενδέχεται να επιβληθούν διοικητικά ή πειθαρχικά μέτρα εις βάρος του Gottumukkala.
Αυτά μπορεί να κυμαίνονται από μια επίσημη επίπληξη και υποχρεωτική επανεκπαίδευση, έως την αναστολή ή την πλήρη ανάκληση των εξουσιοδοτήσεων ασφαλείας του.
Η υπεύθυνη δημοσίων σχέσεων της CISA, Marci McCarthy, δήλωσε κατόπιν ερωτήματος ότι η πρόσβαση του Gottumukkala στο ChatGPT ήταν μόνο προσωρινή και ότι ήταν σύμφωνη με την εντολή του Προέδρου των ΗΠΑ, Ντόναλντ Τραμπ, για την εισαγωγή της Τεχνητής Νοημοσύνης σε όλο το φάσμα της κυβέρνησης.
Info Box — Στατιστικό
Το ChatGPT διαθέτει περίπου 700 εκατομμύρια ενεργούς χρήστες. Οποιαδήποτε πληροφορία τροφοδοτείται στο δημόσιο μοντέλο μπορεί θεωρητικά να επηρεάσει τις απαντήσεις που λαμβάνουν αυτοί οι χρήστες.
Αξίζει να σημειωθεί ότι ο Gottumukkala είχε τεθεί σε άδεια τον Δεκέμβριο του 2025, αφού προέκυψαν ασυμφωνίες κατά τη διάρκεια ενός τεστ ανιχνευτή ψεύδους.
Το τεστ αυτό αποτελούσε απαραίτητη προϋπόθεση για την ανανέωση του ελέγχου ασφαλείας του, προκειμένου να έχει πρόσβαση σε άκρως απόρρητες πληροφορίες.
Γιατί η χρήση δημόσιων AI εργαλείων είναι «εφιάλτης» για την ασφάλεια
Το περιστατικό με τον επικεφαλής της CISA φέρνει στην επιφάνεια ένα τεράστιο ζήτημα που απασχολεί όχι μόνο τις κυβερνήσεις, αλλά και τις επιχειρήσεις παγκοσμίως: το φαινόμενο του Shadow AI (Σκιώδης Τεχνητή Νοημοσύνη) και τους κινδύνους της χρήσης δημόσιων μοντέλων γλώσσας (LLMs) για επαγγελματικούς σκοπούς.
Όταν ένας χρήστης ανεβάζει δεδομένα στη δωρεάν ή τη standard έκδοση εργαλείων όπως το ChatGPT, το Claude ή το Gemini, ουσιαστικά παραχωρεί αυτές τις πληροφορίες στον πάροχο της υπηρεσίας.
Στις περισσότερες περιπτώσεις, οι όροι χρήσης επιτρέπουν στην εταιρεία (π.χ. OpenAI) να χρησιμοποιήσει τα δεδομένα των συνομιλιών για την περαιτέρω εκπαίδευση του μοντέλου.
Ο κίνδυνος της «Παλινδρόμησης Δεδομένων»
Το μεγαλύτερο ρίσκο δεν είναι απλώς ότι η OpenAI θα δει τα αρχεία. Ο κίνδυνος είναι ότι το μοντέλο AI μπορεί να «απομνημονεύσει» τμήματα των δεδομένων και να τα εμφανίσει αργότερα ως απάντηση σε έναν άλλον, τυχαίο χρήστη.
- Παράδειγμα: Αν ανεβάσετε τον κώδικα μιας νέας εφαρμογής ή τη στρατηγική μάρκετινγκ της εταιρείας σας για να ζητήσετε βελτιώσεις, ένας ανταγωνιστής θα μπορούσε μελλοντικά να ρωτήσει το AI κάτι σχετικό και να λάβει ως απάντηση τμήματα της δικής σας πνευματικής ιδιοκτησίας.
Info Box — Προειδοποίηση
Ποτέ μην εισάγετε προσωπικά δεδομένα πελατών (GDPR), κωδικούς πρόσβασης, εταιρικά μυστικά ή οικονομικά στοιχεία σε δημόσια εργαλεία AI. Μόλις πατήσετε “Send”, χάνετε τον έλεγχο της πληροφορίας.
Enterprise vs Public: Οι κρίσιμες διαφορές
Για να αντιμετωπίσουν αυτό το πρόβλημα, οι εταιρείες πρέπει να διακρίνουν τις εκδόσεις των εργαλείων.
Πίνακας: Δημόσιο ChatGPT vs ChatGPT Enterprise/API
| Χαρακτηριστικό | Δημόσια Έκδοση (Free/Plus) | Εταιρική Έκδοση (Enterprise/Team/API) |
|---|---|---|
| Εκπαίδευση Μοντέλου | Τα δεδομένα χρησιμοποιούνται για εκπαίδευση (από προεπιλογή). | Τα δεδομένα ΔΕΝ χρησιμοποιούνται για εκπαίδευση. |
| Απόρρητο Δεδομένων | Χαμηλό. Θεωρείται δημόσια είσοδος. | Υψηλό. Κρυπτογράφηση SOC2, συμμόρφωση HIPAA/GDPR. |
| Διατήρηση Ιστορικού | Αποθηκεύεται στους servers για μεγάλο διάστημα. | Πολιτικές διαγραφής που ορίζει η εταιρεία. |
| Έλεγχος Πρόσβασης | Ατομικοί λογαριασμοί. | Κεντρική διαχείριση (SSO), ρόλοι χρηστών. |
Πρακτικές συμβουλές για επιχειρήσεις
Το περιστατικό της CISA διδάσκει ότι ακόμη και οι ηγέτες μπορούν να υποπέσουν σε σφάλματα. Για να προστατεύσετε τον οργανισμό σας:
- Δημιουργήστε Πολιτική AI: Μην απαγορεύετε απλώς τη χρήση (γιατί οι υπάλληλοι θα βρουν τρόπο να το κάνουν κρυφά). Ορίστε ποια εργαλεία επιτρέπονται και για ποια δεδομένα.
- Αγοράστε Εταιρικές Άδειες: Επενδύστε σε Enterprise εκδόσεις που εγγυώνται (συμβατικά) ότι τα δεδομένα σας δεν θα γίνουν υλικό εκπαίδευσης.
- Εκπαίδευση Προσωπικού: Εξηγήστε στους εργαζόμενους ότι το AI δεν είναι μια “μαύρη τρύπα” που εξαφανίζει ό,τι γράφουν, αλλά μια βάση δεδομένων που μαθαίνει συνεχώς.
