ΑρχικήΕιδήσειςΗ υπηρεσία κυβερνοασφάλειας της ΕΕ χρησιμοποιεί κρυφά AI για αναφορές – και...

Η υπηρεσία κυβερνοασφάλειας της ΕΕ χρησιμοποιεί κρυφά AI για αναφορές – και αποκαλύφθηκε

Οι υπεύθυνοι της υπηρεσίας κυβερνοασφάλειας της ΕΕ, ENISA, παραδέχονται ότι δύο από τις αναφορές τους περιείχαν πολυάριθμες πηγές που αποτελούσαν προϊόν «παραισθήσεων» της Τεχνητής Νοημοσύνης.

Δύο εκθέσεις της υπηρεσίας κυβερνοασφάλειας της Ευρωπαϊκής Ένωσης, ENISA, προκάλεσαν αίσθηση: Τα έγγραφα ήταν γεμάτα με πολυάριθμες επινοημένες πηγές.

Επιστήμονες εξέτασαν το θέμα προσεκτικότερα και βρήκαν ισχυρές ενδείξεις ότι οι ψευδείς πηγές ήταν «παραισθήσεις» (hallucinations) κάποιου συστήματος Τεχνητής Νοημοσύνης (AI).

Το πρόβλημα εντοπίζεται σε δύο εκθέσεις που δημοσιεύθηκαν τον περασμένο Οκτώβριο και Νοέμβριο. Όταν ερευνητές από το Πανεπιστήμιο Εφαρμοσμένων Επιστημών της Βεστφαλίας διάβασαν τις δημοσιεύσεις, παραξενεύτηκαν.

Αφενός, πολλά αποσπάσματα κειμένου τους φάνηκαν ασυνάρτητα. Αφετέρου, όταν έκαναν κλικ στους συνδέσμους (links) των πηγών που αναφέρονταν, αυτοί δεν λειτουργούσαν καθόλου.

Και αυτό συνέβη σε μεγάλη κλίμακα: Σύμφωνα με το περιοδικό Spiegel, σε μία από τις εκθέσεις, 26 από τις 492 υποσημειώσεις ήταν λανθασμένες.

«Θα έπρεπε απλώς να είχαν κάνει ένα κλικ»

Βέβαια, ένας σύνδεσμος μπορεί να μην λειτουργεί για πολλούς λόγους, όπως π.χ. επειδή άλλαξε η δομή της ιστοσελίδας στην οποία παραπέμπει.

Ωστόσο, αυτό που ήταν αξιοσημείωτο στους λανθασμένους συνδέσμους ήταν τα τυπικά σφάλματα που κάνουν τα Μεγάλα Γλωσσικά Μοντέλα (LLMs).

Για παράδειγμα, ένας σύνδεσμος προς μια σελίδα της Microsoft σχετικά με τη ρωσική ομάδα χάκερ APT29 περιείχε αυτό το όνομα στο URL – η Microsoft όμως αποκαλεί την ομάδα αυτή Midnight Blizzard.

«Αυτό που με ενοχλεί ουσιαστικά είναι ότι μια δημόσια αρχή, η οποία κατά τη γνώμη μου έχει το πολύ σημαντικό καθήκον να εκδίδει αξιόπιστες και τεκμηριωμένες εκθέσεις, δεν το έπραξε σε αυτή την περίπτωση», επικρίνει ο Christian Dietrich, ένας εκ των ερευνητών και καθηγητής στο Πανεπιστήμιο της Βεστφαλίας. «Θα έπρεπε απλώς να είχαν κάνει ένα κλικ».

Η ENISA κάνει λόγο για «ανθρώπινα λάθη»

Η ENISA, η οποία διαθέτει ετήσιο προϋπολογισμό περίπου 27 εκατομμυρίων ευρώ, παραδέχθηκε τα σφάλματα μετά από ερώτηση του περιοδικού Spiegel, κάνοντας λόγο για «ελλείψεις» για τις οποίες αναλαμβάνει την ευθύνη.

Υποστήριξε ότι σημειώθηκαν «ανθρώπινα λάθη» και ότι είχε επιτρέψει στην Τεχνητή Νοημοσύνη να προβεί σε «μικρές συντακτικές αναθεωρήσεις».

Κριτική ασκήθηκε και από το Chaos Computer Club (CCC). Ο εκπρόσωπος Linus Neumann χαρακτήρισε τη διαδικασία «ντροπιαστική».

«Η ENISA υποτίθεται ότι είναι το κεντρικό σημείο επαφής για ανεξάρτητη τεχνογνωσία, κατευθυντήριες γραμμές και πρότυπα στην Ευρώπη», αναφέρει το Spiegel παραθέτοντας τα λόγια του Neumann. «Εάν ακόμη και σε αυτές τις πολύ επιφανειακές αναφορές απειλών γίνεται τόσο πρόχειρη δουλειά, αυτό ρίχνει πολύ κακό φως στο θεσμικό όργανο».

Η «ειρωνεία» της ασφάλειας και οι κίνδυνοι των LLMs

Το περιστατικό με την ENISA δεν είναι απλώς μια γραφειοκρατική γκάφα, αλλά αναδεικνύει ένα βαθύτερο, συστημικό πρόβλημα στην εποχή της γενετικής τεχνητής νοημοσύνης (Generative AI).

Η ειρωνεία είναι προφανής: Ο οργανισμός που είναι εντεταλμένος να θωρακίζει την ψηφιακή ασφάλεια της Ευρώπης και να εκδίδει οδηγίες για την ασφαλή χρήση νέων τεχνολογιών, έπεσε θύμα της ίδιας της τεχνολογίας που καλείται να εποπτεύει.

Τι είναι οι «Παραισθήσεις» (Hallucinations) των AI;

Τα Μεγάλα Γλωσσικά Μοντέλα (όπως το ChatGPT, το Copilot κ.ά.) δεν είναι μηχανές αναζήτησης με την παραδοσιακή έννοια. Λειτουργούν ως “στοχαστικοί παπαγάλοι”, προβλέποντας την επόμενη πιθανή λέξη σε μια πρόταση βασισμένα σε στατιστικές πιθανότητες.

Όταν ένα μοντέλο δεν γνωρίζει μια πηγή, συχνά την κατασκευάζει. Δημιουργεί ένα URL που μοιάζει αληθινό (π.χ. χρησιμοποιώντας το domain της Microsoft και σχετικές λέξεις-κλειδιά), αλλά το οποίο στην πραγματικότητα δεν υφίσταται.

Στην περίπτωση της ENISA, το AI δημιούργησε URL για την ομάδα APT29, αγνοώντας ότι η Microsoft είχε αλλάξει την ορολογία της σε “Midnight Blizzard”, αποκαλύπτοντας έτσι ότι το κείμενο δεν προήλθε από έρευνα σε πραγματικό χρόνο αλλά από παλαιότερα δεδομένα εκπαίδευσης.

Το ζήτημα της Αξιοπιστίας και της Διαφάνειας

Η δικαιολογία της ENISA περί «μικρών συντακτικών αναθεωρήσεων» φαντάζει αδύναμη όταν 26 υποσημειώσεις είναι ανύπαρκτες.

Αυτό υποδηλώνει ότι το AI χρησιμοποιήθηκε για τη συγγραφή ή τη συμπλήρωση ουσιωδών τμημάτων του κειμένου και όχι απλώς για διόρθωση ύφους.

Το γεγονός αυτό πλήττει την αξιοπιστία των ευρωπαϊκών θεσμών.

Οι εκθέσεις της ENISA χρησιμοποιούνται από κυβερνήσεις και εταιρείες για τη χάραξη στρατηγικής ασφαλείας. Αν τα δεδομένα και οι πηγές είναι φανταστικά, τότε και τα συμπεράσματα καθίστανται επισφαλή.

Human-in-the-Loop

Το περιστατικό υπογραμμίζει την απόλυτη ανάγκη για την ύπαρξη του κανόνα “Human-in-the-Loop” (Άνθρωπος στον Βρόχο).

Η αυτοματοποίηση μπορεί να επιταχύνει τη γραφειοκρατία, αλλά η επαλήθευση των γεγονότων (fact-checking) πρέπει να παραμένει αποκλειστικά ανθρώπινη αρμοδιότητα, ειδικά όταν πρόκειται για οργανισμούς που χρηματοδοτούνται από τους φορολογούμενους.

Η αποκάλυψη αυτή αναμένεται να επιταχύνει τη θεσμοθέτηση αυστηρότερων εσωτερικών κανονισμών στην ΕΕ σχετικά με το πότε και πώς επιτρέπεται η χρήση εργαλείων AI στην παραγωγή επίσημων εγγράφων.

Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166