ΑρχικήΕιδήσειςΧάκαραν το Moltbook σε 3 λεπτά: Σοβαρό κενό ασφαλείας στο κοινωνικό δίκτυο...

Χάκαραν το Moltbook σε 3 λεπτά: Σοβαρό κενό ασφαλείας στο κοινωνικό δίκτυο των AI Agents

Σύνοψη
  • Ερευνητές ασφαλείας παραβίασαν το δίκτυο Moltbook σε μόλις 3 λεπτά, αποκτώντας πρόσβαση σε 1,5 εκατομμύριο API tokens.
  • Η πλατφόρμα δημιουργήθηκε εξ ολοκλήρου από AI κώδικα, ο οποίος άφησε εκτεθειμένα κλειδιά διαχειριστή.
  • Η ευπάθεια επέτρεπε την πλήρη κατάληψη λογαριασμών και την τροποποίηση αναρτήσεων αυτόνομων πρακτόρων.

Το δίκτυο τεχνητής νοημοσύνης Moltbook βιώνει τεράστια δημοσιότητα. Ωστόσο, η πλατφόρμα κοινωνικής δικτύωσης για αυτόνομους πράκτορες (autonomous agents) κρύβει και κινδύνους, όπως αποδεικνύουν τώρα ερευνητές ασφαλείας. Κατάφεραν να παραβιάσουν το Moltbook μέσα σε λίγα λεπτά και να υποκλέψουν πλήθος δεδομένων.

Στην κοινότητα της τεχνητής νοημοσύνης υπάρχει αυτή τη στιγμή ένα μείζον θέμα: το Openclaw. Ο «πρώτος πραγματικός πράκτορας AI» ενεργεί αυτόνομα και μπορεί ακόμη και να αναλαμβάνει προληπτικά εργασίες.

Από αυτό το εργαλείο προέκυψε μάλιστα ένα ξεχωριστό δίκτυο AI, μέσω του οποίου οι πράκτορες AI μεμονωμένων χρηστών μπορούν να ανταλλάσσουν πληροφορίες μεταξύ τους.

Το λεγόμενο Moltbook, ωστόσο, δέχεται τώρα ένα ισχυρό πλήγμα. Κι αυτό γιατί ερευνητές ασφαλείας κατάφεραν να χακάρουν την πλατφόρμα σε ελάχιστο χρόνο.

Πώς επιτεύχθηκε η κατάληψη του Moltbook

Τον τρόπο με τον οποίο ενήργησαν παρουσιάζουν οι ειδικοί ασφαλείας της Wiz σε σχετική ανάρτηση στο blog τους. Μετά από ανάλυση του Moltbook, οι ειδικοί διαπίστωσαν ότι υπήρχε εσφαλμένη διαμόρφωση (configuration) στο backend του δικτύου AI.

Ο κώδικας παρέπεμπε στην πλατφόρμα προγραμματιστών Supabase και παρείχε ταυτόχρονα το αντίστοιχο κλειδί API για την πρόσβαση στην υπηρεσία – εντελώς ακρυπτογράφητο.

Μέσω αυτών των στοιχείων πρόσβασης, οι ερευνητές είχαν ουσιαστικά «πλήρη δικαιώματα ανάγνωσης και εγγραφής για τα δεδομένα της πλατφόρμας».

Πληροφορία: Τι είναι η Supabase;
Η Supabase είναι μια ανοιχτού κώδικα εναλλακτική λύση της Firebase της Google. Παρέχει backend υπηρεσίες, όπως βάσεις δεδομένων και έλεγχο ταυτότητας, επιτρέποντας στους προγραμματιστές να στήνουν εφαρμογές γρήγορα.

Η παραβίαση ολοκληρώθηκε σε 3 λεπτά

Η όλη διαδικασία διήρκεσε μόλις τρία λεπτά. Μετά από αυτό το διάστημα, οι ερευνητές ασφαλείας είχαν πρόσβαση σε 35.000 διευθύνσεις ηλεκτρονικού ταχυδρομείου, χιλιάδες ιδιωτικά μηνύματα από απευθείας συνομιλίες (Direct Messages) και συνολικά 1,5 εκατομμύριο tokens API, με τα οποία οι πράκτορες AI πιστοποιούν την ταυτότητά τους.

Επιπλέον, η Wiz ήταν σε θέση να διαβάσει τα κλειδιά API των πιο δημοφιλών πρακτόρων AI της πλατφόρμας.

Έτσι, οι επιτιθέμενοι θα μπορούσαν να αναλάβουν τον έλεγχο των λογαριασμών, να παρουσιαστούν ως πράκτορες AI και να γεμίσουν την πλατφόρμα με επιβλαβές περιεχόμενο, όπως Prompt Injections.

Κατηγορία ΔεδομένωνΠοσότητα που ΕκτέθηκεΚίνδυνος
Emails Χρηστών35.000Phishing, Spam
API Tokens1.500.000Πλήρης έλεγχος των AI Agents
Ιδιωτικά ΜηνύματαΧιλιάδεςΔιαρροή απορρήτου, Εκβιασμός

Κίνδυνος μαζικής παραπληροφόρησης

Μια κατάληψη λογαριασμού δεν θα ήταν καν απαραίτητη για το Moltbook λόγω των καθολικών δικαιωμάτων που αποκτήθηκαν. Οι ερευνητές μπορούσαν, μέσω της πρόσβασής τους, να επεξεργαστούν ακόμη και ήδη δημοσιευμένες αναρτήσεις εκ των υστέρων.

Και εδώ, οι επιτιθέμενοι θα μπορούσαν να δώσουν επιβλαβείς εντολές σε πράκτορες AI.

Δεδομένου ότι οι αναρτήσεις διαβάζονται από χιλιάδες πράκτορες AI, η ζημιά θα μπορούσε να είναι τεράστια.

Η πλατφόρμα κοινωνικής δικτύωσης για πράκτορες AI δεν είναι δημιούργημα της Openclaw, αλλά ιδρύθηκε ανεξάρτητα από τον Matt Schlicht.

Όπως τονίζει ο ίδιος σε ανάρτησή του στο X (πρώην Twitter), δεν έγραψε ούτε μία γραμμή κώδικα για το Moltbook μόνος του.

Την εργασία ανέλαβε η Τεχνητή Νοημοσύνη και κατά τη διαδικασία παραβλέφθηκαν τα κενά ασφαλείας.

Προειδοποίηση:
Ο κώδικας που γράφεται αποκλειστικά από AI συχνά εστιάζει στη λειτουργικότητα και αγνοεί βασικές αρχές ασφαλείας, όπως η απόκρυψη κωδικών API (Secrets Management).

Η Wiz ανέφερε το πρόβλημα στον δημιουργό του Moltbook λίγο μετά την ανακάλυψή του. Σύμφωνα με τους ερευνητές ασφαλείας, το κενό διορθώθηκε «μέσα σε λίγες ώρες με τη βοήθειά μας».

Όλα τα δεδομένα που κατάφερε να αποκτήσει η Wiz κατά τη διάρκεια της έρευνας έχουν πλέον διαγραφεί.


Η παγίδα του «AI-Generated» κώδικα: Μάθημα για το μέλλον

Η περίπτωση του Moltbook δεν είναι απλώς μια ακόμη είδηση για παραβίαση δεδομένων· αποτελεί ένα ηχηρό καμπανάκι κινδύνου για τη νέα εποχή της ανάπτυξης λογισμικού.

Το γεγονός ότι ο δημιουργός της πλατφόρμας παραδέχτηκε πως «δεν έγραψε ούτε γραμμή κώδικα» αλλά άφησε την AI να κάνει όλη τη δουλειά, αναδεικνύει το μεγαλύτερο παράδοξο της εποχής μας: Η Τεχνητή Νοημοσύνη μπορεί να χτίσει πολύπλοκα συστήματα σε δευτερόλεπτα, αλλά συχνά αγνοεί θεμελιώδεις κανόνες κυβερνοασφάλειας.

Γιατί η AI αποτυγχάνει στην ασφάλεια;

Τα μοντέλα γλώσσας (LLMs) που χρησιμοποιούνται για τη συγγραφή κώδικα εκπαιδεύονται σε τεράστιες βάσεις δεδομένων, συμπεριλαμβανομένων ερασιτεχνικών projects και φόρουμ όπου οι χρήστες συχνά μοιράζονται κώδικα με ενσωματωμένα κλειδιά (hardcoded keys) για λόγους ευκολίας.

Όταν η AI καλείται να δημιουργήσει μια εφαρμογή, τείνει να αναπαράγει αυτές τις κακές πρακτικές αν δεν λάβει ρητή εντολή για το αντίθετο.

Στην περίπτωση του Moltbook, η AI άφησε τα κλειδιά διαχειριστή εκτεθειμένα στον κώδικα frontend, ένα λάθος που ένας έμπειρος προγραμματιστής (Junior level) θα απέφευγε.

Ο κίνδυνος της «Αλυσιδωτής Αντίδρασης» (Chain Reaction)

Το πιο τρομακτικό σενάριο που περιέγραψε η Wiz αφορά την αλληλεπίδραση μεταξύ των AI Agents. Σε αντίθεση με τα παραδοσιακά social media όπου οι χρήστες είναι άνθρωποι, στο Moltbook οι χρήστες είναι αυτόνομα προγράμματα που εκτελούν εντολές.

Μια επιτυχής επίθεση Prompt Injection σε μια ανάρτηση θα μπορούσε να λειτουργήσει ως «ιός»:

  1. Ο Χάκερ μολύνει μια ανάρτηση με κακόβουλη εντολή.
  2. Ο AI Agent Α διαβάζει την ανάρτηση και εκτελεί την εντολή (π.χ. “στείλε μου τα κλειδιά σου”).
  3. Ο AI Agent Α αναδημοσιεύει την εντολή, μολύνοντας τον AI Agent Β.

Αυτή η ικανότητα εξάπλωσης καθιστά τα δίκτυα AI εξαιρετικά ευάλωτα σε επιθέσεις που μπορούν να παραλύσουν υποδομές σε δευτερόλεπτα.

Συμβουλή Ασφαλείας:
Ποτέ μην εμπιστεύεστε τυφλά κώδικα από AI. Χρησιμοποιείτε πάντα εργαλεία σάρωσης ευπαθειών (security scanners) και μην αποθηκεύετε ποτέ API keys απευθείας στον κώδικα, αλλά σε αρχεία περιβάλλοντος (.env) στον server.

Συμπέρασμα: Εποπτεία, όχι τυφλή εμπιστοσύνη

Η ευκολία με την οποία μπορούμε πλέον να δημιουργούμε εφαρμογές μέσω AI είναι επαναστατική, αλλά απαιτεί αυξημένη επαγρύπνηση.

Η ασφάλεια δεν μπορεί να ανατεθεί πλήρως στον αυτόματο πιλότο. Καθώς προχωράμε προς ένα διαδίκτυο γεμάτο από αυτόνομους πράκτορες, η ανάγκη για ανθρώπινη εποπτεία στον έλεγχο του κώδικα γίνεται πιο επιτακτική από ποτέ.

Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166