ΑρχικήΕιδήσειςΣκάνδαλο στην CISA: Επικεφαλής ανέβασε απόρρητα έγγραφα στο ChatGPT — Κίνδυνοι και...

Σκάνδαλο στην CISA: Επικεφαλής ανέβασε απόρρητα έγγραφα στο ChatGPT — Κίνδυνοι και αντιδράσεις

Σύνοψη:

  • Ο διευθυντής της CISA, Madhu Gottumukkala, κατηγορείται ότι ανέβασε έγγραφα με μη δημοσιεύσιμες πληροφορίες στο ChatGPT.
  • Παρόλο που η χρήση του εργαλείου απαγορεύεται γενικά στην υπηρεσία, ο ίδιος είχε εξασφαλίσει ειδική εξαίρεση για τον εαυτό του.
  • Ο Gottumukkala βρίσκεται σε άδεια από τον Δεκέμβριο του 2025, μετά από ασυμφωνίες που προέκυψαν σε έλεγχο με πολύγραφο.

Σκάνδαλο στην CISA: Επικεφαλής ανέβασε απόρρητα έγγραφα στο ChatGPT

Η χρήση του ChatGPT κανονικά δεν επιτρέπεται στην αμερικανική υπηρεσία κυβερνοασφάλειας.

Ωστόσο, ο επικεφαλής της φαίνεται πως είχε εξασφαλίσει μια άδεια εξαίρεσης για προσωπική χρήση.

Σύμφωνα με αναφορές, ο διευθυντής της Υπηρεσίας Κυβερνοασφάλειας και Ασφάλειας Υποδομών των ΗΠΑ (CISA), Madhu Gottumukkala, ανέβασε έγγραφα που περιείχαν μη αποχαρακτηρισμένες πληροφορίες σε μια δημόσια έκδοση του ChatGPT.

Όπως μεταδίδει το Politico, οι μεταφορτώσεις αυτές πραγματοποιήθηκαν λίγο μετά την ανάληψη των καθηκόντων του Gottumukkala τον Μάιο του 2025.

Ενεργοποίηση συναγερμών ασφαλείας

Σύμφωνα με τα στοιχεία, η μεταφόρτωση των αρχείων ενεργοποίησε πολλαπλές εσωτερικές προειδοποιήσεις κυβερνοασφάλειας, οι οποίες έχουν σχεδιαστεί για να αποτρέπουν την κλοπή ή την ακούσια κοινοποίηση εμπιστευτικών πληροφοριών από τα ομοσπονδιακά δίκτυα.

Επιπλέον, σημειώνεται ότι οι υπάλληλοι της CISA κανονικά δεν έχουν πρόσβαση σε εξωτερικά εργαλεία Τεχνητής Νοημοσύνης (AI).

Ο Gottumukkala, ωστόσο, είχε αιτηθεί και λάβει μια άδεια εξαίρεσης για τον εαυτό του, χωρίς να αναφερθούν συγκεκριμένοι λόγοι για αυτήν την προνομιακή μεταχείριση.

Το Υπουργείο Εσωτερικής Ασφάλειας των ΗΠΑ (DHS) διερευνά το περιστατικό και υπάρχει έντονη ανησυχία ότι τα δεδομένα, τα οποία προορίζονταν μόνο για εσωτερική χρήση, ενδέχεται να χρησιμοποιηθούν πλέον για την απάντηση ερωτημάτων των περίπου 700 εκατομμυρίων ενεργών χρηστών του ChatGPT.

Πίνακας: Χρονοδιάγραμμα των Γεγονότων

ΗμερομηνίαΓεγονός
Μάιος 2025Ο Madhu Gottumukkala αναλαμβάνει καθήκοντα και ανεβάζει έγγραφα στο ChatGPT.
Δεκέμβριος 2025Ο διευθυντής τίθεται σε άδεια λόγω αποτυχίας σε τεστ πολυγράφου.
ΣήμεραΤο DHS διεξάγει έρευνα για πιθανή διαρροή εμπιστευτικών δεδομένων.

Απειλή ανάκλησης εξουσιοδοτήσεων ασφαλείας

Ανάλογα με τον βαθμό κινδύνου για την κυβερνητική ασφάλεια που θα διαπιστώσει το DHS κατά τη διάρκεια της έρευνας, ενδέχεται να επιβληθούν διοικητικά ή πειθαρχικά μέτρα εις βάρος του Gottumukkala.

Αυτά μπορεί να κυμαίνονται από μια επίσημη επίπληξη και υποχρεωτική επανεκπαίδευση, έως την αναστολή ή την πλήρη ανάκληση των εξουσιοδοτήσεων ασφαλείας του.

Η υπεύθυνη δημοσίων σχέσεων της CISA, Marci McCarthy, δήλωσε κατόπιν ερωτήματος ότι η πρόσβαση του Gottumukkala στο ChatGPT ήταν μόνο προσωρινή και ότι ήταν σύμφωνη με την εντολή του Προέδρου των ΗΠΑ, Ντόναλντ Τραμπ, για την εισαγωγή της Τεχνητής Νοημοσύνης σε όλο το φάσμα της κυβέρνησης.

Αξίζει να σημειωθεί ότι ο Gottumukkala είχε τεθεί σε άδεια τον Δεκέμβριο του 2025, αφού προέκυψαν ασυμφωνίες κατά τη διάρκεια ενός τεστ ανιχνευτή ψεύδους.

Το τεστ αυτό αποτελούσε απαραίτητη προϋπόθεση για την ανανέωση του ελέγχου ασφαλείας του, προκειμένου να έχει πρόσβαση σε άκρως απόρρητες πληροφορίες.


Γιατί η χρήση δημόσιων AI εργαλείων είναι «εφιάλτης» για την ασφάλεια

Το περιστατικό με τον επικεφαλής της CISA φέρνει στην επιφάνεια ένα τεράστιο ζήτημα που απασχολεί όχι μόνο τις κυβερνήσεις, αλλά και τις επιχειρήσεις παγκοσμίως: το φαινόμενο του Shadow AI (Σκιώδης Τεχνητή Νοημοσύνη) και τους κινδύνους της χρήσης δημόσιων μοντέλων γλώσσας (LLMs) για επαγγελματικούς σκοπούς.

Όταν ένας χρήστης ανεβάζει δεδομένα στη δωρεάν ή τη standard έκδοση εργαλείων όπως το ChatGPT, το Claude ή το Gemini, ουσιαστικά παραχωρεί αυτές τις πληροφορίες στον πάροχο της υπηρεσίας.

Στις περισσότερες περιπτώσεις, οι όροι χρήσης επιτρέπουν στην εταιρεία (π.χ. OpenAI) να χρησιμοποιήσει τα δεδομένα των συνομιλιών για την περαιτέρω εκπαίδευση του μοντέλου.

Ο κίνδυνος της «Παλινδρόμησης Δεδομένων»

Το μεγαλύτερο ρίσκο δεν είναι απλώς ότι η OpenAI θα δει τα αρχεία. Ο κίνδυνος είναι ότι το μοντέλο AI μπορεί να «απομνημονεύσει» τμήματα των δεδομένων και να τα εμφανίσει αργότερα ως απάντηση σε έναν άλλον, τυχαίο χρήστη.

  • Παράδειγμα: Αν ανεβάσετε τον κώδικα μιας νέας εφαρμογής ή τη στρατηγική μάρκετινγκ της εταιρείας σας για να ζητήσετε βελτιώσεις, ένας ανταγωνιστής θα μπορούσε μελλοντικά να ρωτήσει το AI κάτι σχετικό και να λάβει ως απάντηση τμήματα της δικής σας πνευματικής ιδιοκτησίας.

Enterprise vs Public: Οι κρίσιμες διαφορές

Για να αντιμετωπίσουν αυτό το πρόβλημα, οι εταιρείες πρέπει να διακρίνουν τις εκδόσεις των εργαλείων.

Πίνακας: Δημόσιο ChatGPT vs ChatGPT Enterprise/API

ΧαρακτηριστικόΔημόσια Έκδοση (Free/Plus)Εταιρική Έκδοση (Enterprise/Team/API)
Εκπαίδευση ΜοντέλουΤα δεδομένα χρησιμοποιούνται για εκπαίδευση (από προεπιλογή).Τα δεδομένα ΔΕΝ χρησιμοποιούνται για εκπαίδευση.
Απόρρητο ΔεδομένωνΧαμηλό. Θεωρείται δημόσια είσοδος.Υψηλό. Κρυπτογράφηση SOC2, συμμόρφωση HIPAA/GDPR.
Διατήρηση ΙστορικούΑποθηκεύεται στους servers για μεγάλο διάστημα.Πολιτικές διαγραφής που ορίζει η εταιρεία.
Έλεγχος ΠρόσβασηςΑτομικοί λογαριασμοί.Κεντρική διαχείριση (SSO), ρόλοι χρηστών.

Πρακτικές συμβουλές για επιχειρήσεις

Το περιστατικό της CISA διδάσκει ότι ακόμη και οι ηγέτες μπορούν να υποπέσουν σε σφάλματα. Για να προστατεύσετε τον οργανισμό σας:

  1. Δημιουργήστε Πολιτική AI: Μην απαγορεύετε απλώς τη χρήση (γιατί οι υπάλληλοι θα βρουν τρόπο να το κάνουν κρυφά). Ορίστε ποια εργαλεία επιτρέπονται και για ποια δεδομένα.
  2. Αγοράστε Εταιρικές Άδειες: Επενδύστε σε Enterprise εκδόσεις που εγγυώνται (συμβατικά) ότι τα δεδομένα σας δεν θα γίνουν υλικό εκπαίδευσης.
  3. Εκπαίδευση Προσωπικού: Εξηγήστε στους εργαζόμενους ότι το AI δεν είναι μια “μαύρη τρύπα” που εξαφανίζει ό,τι γράφουν, αλλά μια βάση δεδομένων που μαθαίνει συνεχώς.
Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166