ΑρχικήΕιδήσειςΛίγες επιχειρήσεις είναι έτοιμες να διαχειριστούν όλους τους κινδύνους της AI: η...

Λίγες επιχειρήσεις είναι έτοιμες να διαχειριστούν όλους τους κινδύνους της AI: η μελέτη της Cisco

Η τεχνητή νοημοσύνη (AI) μετατρέπεται σε δομικό στοιχείο των εταιρικών υποδομών, όμως η ικανότητα διαχείρισης των κινδύνων ασφάλειας AI παραμένει περιορισμένη.

Σύμφωνα με το Cisco 2025 AI Readiness Index, μόνο το 29% των οργανισμών δηλώνει ότι είναι πραγματικά έτοιμο να αμυνθεί απέναντι σε απειλές που σχετίζονται με την AI.

Μόλις το 33% αναφέρει ότι διαθέτει σχέδιο για υπεύθυνη υιοθέτηση.

Τα στελέχη γνωρίζουν καλά την παραδοσιακή κυβερνοασφάλεια, αλλά δυσκολεύονται όταν καλούνται να αντιμετωπίσουν συστήματα που μπορούν να εμφανίζουν απρόβλεπτες συμπεριφορές, δημιουργώντας νέες και λιγότερο ελέγξιμες ευπάθειες.

Σε αυτό το πλαίσιο, η Cisco παρουσιάζει το AI Security Framework, μια ολοκληρωμένη και vendor-neutral προσέγγιση, σχεδιασμένη ώστε να βοηθά τις επιχειρήσεις να κατανοήσουν:

  • που μπορούν να αποτύχουν τα συστήματα AI,
  • πως μπορούν να δεχθούν επίθεση,
  • πως να χτίσουν άμυνες που εξελίσσονται μαζί με την τεχνολογία,

καλύπτοντας τεχνικές, συμπεριφορικές και governance παραμέτρους.

Κατακερματισμένοι κίνδυνοι (Fragmented risks)

Τα τελευταία χρόνια, οι επιχειρήσεις προσπάθησαν να διαχειριστούν την ασφάλεια της AI βασιζόμενες σε διαφορετικές οδηγίες και μοντέλα:

  • Το MITRE ATLAS εστιάζει στις τακτικές των επιτιθέμενων (adversary tactics).
  • Το NIST εξετάζει επιθέσεις στο machine learning.
  • Το OWASP επικεντρώνεται στα γλωσσικά μοντέλα (LLMs).
  • Παράλληλα, εταιρείες όπως GoogleOpenAI και Anthropic έχουν αναπτύξει εσωτερικές πρακτικές.

Χρήσιμα εργαλεία, αλλά μερικά: κανένα από μόνο του δεν προσφέρει πλήρη εικόνα κινδύνου.

Το αποτέλεσμα είναι ένα κατακερματισμένο τοπίο, όπου ζητήματα όπως ασφάλεια, runtime, supply chain, συμπεριφορά μοντέλων, επιβλαβή input/output και κίνδυνοι από AI agents αντιμετωπίζονται ως ξεχωριστά «κουτιά».

Στην πράξη, όμως, οι επιθέσεις δεν ακολουθούν αυτά τα όρια και συχνά συνδυάζουν πολλαπλούς διαύλους ταυτόχρονα.

Η Cisco προτείνει ένα ενιαίο και ολοκληρωμένο μοντέλο, ικανό να διαβάζει τον κίνδυνο συστημικά.

Διαχωρίζει δύο συμπληρωματικές διαστάσεις:

  1. Ασφάλεια της AI (AI Security): προστασία των συστημάτων από επιθέσεις, μη εξουσιοδοτημένη πρόσβαση και παραβιάσεις σε όλο τον κύκλο ζωής.
  2. Υπεύθυνη ασφάλεια AI (Responsible AI Security): διασφάλιση ηθικής, αξιοπιστίας, διαφάνειας και ευθυγράμμισης με ανθρώπινες αξίες.

Σύμφωνα με τη Cisco, η ταυτόχρονη αντιμετώπιση τεχνικής ασφάλειας και λειτουργικών/ηθικών κινδύνων αποτελεί τη βάση για ανθεκτικά και αξιόπιστα συστήματα.

Το Framework της Cisco: 5 βασικά στοιχεία

Το Ολοκληρωμένο Framework Ασφάλειας & Προστασίας AI δομείται σε πέντε κομβικά σημεία:

1) Ενοποίηση τεχνικών απειλών και επιβλαβούς περιεχομένου

Οι επιθέσεις σε υποδομές και οι χειρισμοί περιεχομένου λειτουργούν συχνά μαζί και παράγουν απτά αποτελέσματα στους χρήστες.

Γι’ αυτό αντιμετωπίζονται ως ενιαίο πρόβλημα.

2) Επίγνωση κύκλου ζωής (Lifecycle awareness)

Οι κίνδυνοι αλλάζουν ανάμεσα σε ανάπτυξηεκπαίδευσηδιάθεση και λειτουργία. Απαιτούνται άμυνες που προσαρμόζονται φάση-φάση.

3) Πολυ-πρακτορικός συντονισμός (Multi-agent orchestration)

Εξετάζονται σενάρια όπου πολλαπλά AI συστήματα συνεργάζονται, μοιράζονται επικοινωνίες, μνήμη και αυτόνομες διαδικασίες λήψης αποφάσεων—αλληλεπιδράσεις που δημιουργούν απειλές δύσκολα ανιχνεύσιμες με παραδοσιακά frameworks.

4) Πολυτροπικότητα (Multimodality)

Η AI σήμερα δουλεύει με κείμενο, ήχο, εικόνες, βίντεο, κώδικα και δεδομένα αισθητήρων.

Το μοντέλο αντιμετωπίζει συνεκτικά τους κινδύνους από ετερογενή input, κάτι κρίσιμο σε ρομποτικήαυτόνομα οχήματα και monitoring πλατφόρμες.

5) Συνειδητή χρήση από το ευρύ κοινό (Shared compass)

Το framework λειτουργεί ως κοινή «πυξίδα» για διοίκηση, CISO, μηχανικούς και threat intelligence, δημιουργώντας κοινή γλώσσα και καλύτερη ευθυγράμμιση μεταξύ επιχειρησιακών λειτουργιών, developers και governance.

Ενιαία ταξινόμηση απειλών: 4 επίπεδα και εκατοντάδες τεχνικές

Η Cisco στηρίζει το framework σε μια ενοποιημένη ταξινόμηση απειλών με τέσσερα επίπεδα:

  • Στόχοι: το «γιατί» των επιθέσεων
  • Τεχνικές: το «πώς»
  • Υπο-τεχνικές
  • Πραγματικές επιχειρησιακές διαδικασίες (operational procedures)

Αναγνωρίζονται 19 στόχοι επιτιθέμενων, όπως:

  • hijacking/παραβίαση ελέγχου,
  • jailbreak,
  • παραβίαση ιδιωτικότητας,
  • κλιμάκωση προνομίων (privilege escalation),
  • παραγωγή επιβλαβούς περιεχομένου.

Σε επιχειρησιακό επίπεδο χαρτογραφούνται 150+ τεχνικές και υπο-τεχνικές, όπως:

  • prompt injection,
  • multi-agent manipulations,
  • memory corruption,
  • compromise της supply chain,
  • διάδοση κακόβουλων prompts μεταξύ εργαλείων και agents.

Η ταξινόμηση καλύπτει επίσης 25 κατηγορίες επιβλαβούς περιεχομένου, από ζητήματα cybersecurity και privacy έως παραβίαση πνευματικής ιδιοκτησίας.

Τέλος, σύμφωνα με τη Cisco, το framework έχει ήδη ενσωματωθεί στο Cisco AI Defense, όπου απειλές, δείκτες και στρατηγικές μετριασμού παρακολουθούνται επιχειρησιακά μέσα στις πλατφόρμες προστασίας.

Πως να περάσει μια επιχείρηση από τη θεωρία στην πράξη

Για να αξιοποιηθεί ουσιαστικά ένα AI Security Framework, απαιτείται μετάφραση των αρχών του σε καθημερινές διαδικασίες.

Πρώτο βήμα είναι η απογραφή AI (AI inventory): ποια μοντέλα χρησιμοποιούνται (εσωτερικά ή τρίτων), σε ποιες εφαρμογές, με ποιους χρήστες/ρόλους, τι δεδομένα καταναλώνουν και τι αποτελέσματα παράγουν.

Χωρίς αυτόν τον χάρτη, είναι δύσκολο να οριστούν ιδιοκτήτες, SLA, και κρίσιμες εξαρτήσεις.

Δεύτερο βήμα είναι η αξιολόγηση κινδύνου ανά use case. Άλλο προφίλ κινδύνου έχει ένα chatbot υποστήριξης και άλλο ένας agent που εκτελεί ενέργειες (π.χ. αλλαγές σε συστήματα, πρόσβαση σε email, δημιουργία παραγγελιών).

Εδώ βοηθούν πρακτικές όπως threat modeling για LLMs/agents, έλεγχοι για prompt injection, αλλά και “abuse cases” (πώς θα το καταχραστεί κάποιος).

Τρίτο, ενισχύεται το data governance: ποιες πηγές επιτρέπονται, ποια δεδομένα είναι ευαίσθητα, τι πρέπει να γίνεται με PII και εμπορικά απόρρητα, πώς εφαρμόζονται πολιτικές retention και masking.

Παράλληλα, απαιτείται έλεγχος supply chain (datasets, open-source libraries, model weights, APIs), με συμβάσεις και τεχνικές δικλείδες ώστε να μειώνεται ο κίνδυνος αλλοίωσης ή κακόβουλων ενημερώσεων.

Τέταρτο, μπαίνουν τεχνικά guardrails: ισχυρή ταυτοποίηση/εξουσιοδότηση (least privilege), απομόνωση εκτέλεσης (sandboxing) για agents, φιλτράρισμα εισόδου/εξόδου, πολιτικές για εργαλεία (tool-use policies), καθώς και logging/monitoring ειδικά προσαρμοσμένο σε AI (π.χ. καταγραφή prompts, αποφάσεων agents, retrieval πηγών σε RAG).

Σημαντικό είναι και το red teaming σε τακτική βάση, όχι μόνο πριν το go-live αλλά και μετά από αλλαγές σε prompts, δεδομένα ή μοντέλα.

Τέλος, η συμμόρφωση και η διακυβέρνηση πρέπει να «κουμπώνουν» με το ρυθμιστικό περιβάλλον: στην Ευρώπη, ο EU AI Act οδηγεί σε υποχρεώσεις ανά κατηγορία κινδύνου, ενώ πρότυπα όπως ISO/IEC 27001 (ασφάλεια πληροφοριών) και ISO/IEC 42001 (AI management system) βοηθούν στη δομή πολιτικών και ελέγχων.

Η ασφάλεια AI δεν είναι project—είναι συνεχής λειτουργία, με KPI (π.χ. time-to-detect/mitigate), εκπαίδευση προσωπικού και σχέδιο incident response ειδικά για συμβάντα AI (data leakage, model manipulation, harmful outputs).

Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166