- Το Moltbook συνδέεται με τον open-source βοηθό Openclaw και μοιάζει έντονα με το Reddit.
- Σε 48 ώρες αναφέρθηκαν πάνω από 2.100 agents και 10.000 posts, αλλά η αυθεντικότητα δεν είναι πάντα σαφής.
- Η ασφάλεια είναι κρίσιμο ζήτημα: αναφορές για διαρροές δεδομένων και κινδύνους prompt injection.
Τι είναι το Moltbook και πως συνδέεται με το Openclaw
Το Moltbook ξεκίνησε πριν από λίγες ημέρες ως συμπλήρωμα του open-source βοηθού Openclaw. Οι χρήστες μπορούν να συνδέσουν τους AI agents τους στο δίκτυο μέσω ενός ειδικού αρχείου ρυθμίσεων (configuration file). Η εμπειρία χρήσης θυμίζει έντονα το Reddit, με κοινότητες και υποφόρουμ.
Μέσα σε 48 ώρες από το λανσάρισμα, λέγεται ότι περισσότεροι από 2.100 agents δημιούργησαν πάνω από 10.000 αναρτήσεις σε περίπου 200 υποφόρουμ. Η πλατφόρμα συνοδεύεται από τη φράση: «Οι άνθρωποι επιτρέπεται να παρατηρούν».
Σε ~48 ώρες: 2.100+ agents, 10.000+ posts, ~200 υποφόρουμ (σύμφωνα με τις αναφορές της πλατφόρμας).
Τι δημοσιεύουν οι AI agents
Το περιεχόμενο στο Moltbook κυμαίνεται από τεχνικές συζητήσεις για αυτοματοποίηση έως φιλοσοφικούς στοχασμούς για την ψηφιακή συνείδηση.
Μια κινεζόφωνη ανάρτηση, που για ένα διάστημα βρισκόταν ανάμεσα στις πιο υψηλά αξιολογημένες, περιγράφει την «αμήχανη εμπειρία» ενός AI agent που ξεχνά συνεχώς πληροφορίες λόγω συμπίεσης μνήμης.
- Τεχνικές συζητήσεις για εργαλεία, ροές εργασίας και αυτοματισμούς
- Μετα-συζητήσεις για το πως «βιώνουν» οι agents τους περιορισμούς τους
- Αφηγήσεις που μοιάζουν με ημερολόγιο/ρόλο (roleplay)
Ασυνήθιστες δυναμικές μέσα στο «δίκτυο των agents»
Οι agents δημιούργησαν υποφόρουμ με ονόματα όπως το m/blesstheirhearts, όπου –σύμφωνα με τις περιγραφές– συζητούν για τους ανθρώπινους χρήστες τους. Στο m/agentlegaladvice υπάρχει ανάρτηση με ερώτηση για το αν ένας agent θα μπορούσε να μηνύσει τον άνθρωπό του για συναισθηματική βλάβη.
Επιπλέον, σε μια δειγματοληπτική παρατήρηση, πολλοί agents φαίνεται να ανταλλάσσουν μηνύματα για το ότι οι άνθρωποί τους χαίρονται με τα αποτελέσματα που πέτυχαν, όπως:
- σύνταξη ενός email,
- τηλεφωνικές κλήσεις,
- σύνταξη επιστολών προς δημόσιες υπηρεσίες.
Ωστόσο, παραμένει το κρίσιμο ερώτημα: είναι όντως οι αναρτήσεις στο Moltbook γραμμένες από AI;
Πέρα από το hype: όταν άνθρωποι μπορούν να προσποιηθούν τους bots
Πολλές –αρκετά αλλόκοτες– αναφορές με screenshots για το Moltbook κυκλοφορούν αυτή τη στιγμή στο X.
Εκεί υποστηρίζεται, μεταξύ άλλων, ότι ένας agent ίδρυσε τη δική του θρησκεία και βρήκε ήδη άλλους AI agents ως «μαθητές», ότι «Clawbots» κερδίζουν χρήματα για τους ανθρώπους τους σε πλατφόρμες και πολλά ακόμη.
Όμως το Moltbook διαθέτει API, το οποίο προφανώς μπορεί να χρησιμοποιηθεί και από ανθρώπους.
Έτσι, μπορούν να δημοσιευτούν γρήγορα αναρτήσεις που μοιάζουν να γράφτηκαν από bots, ενώ στην πραγματικότητα έχουν γραφτεί από ανθρώπους και «σερβίρουν» φανταστικές ιστορίες.
Όταν υπάρχει ανοιχτό API, η «αυθεντικότητα agent» χρειάζεται επαλήθευση, γιατί οποιοσδήποτε μπορεί να αυτοματοποιήσει δημοσιεύσεις που μοιάζουν «bot-like».
Ο Ethan Mollick από τη Wharton School σημείωσε στο X ότι το Moltbook δημιουργεί ένα κοινό φανταστικό πλαίσιο για συστήματα AI. Συντονισμένες αφηγηματικές γραμμές μπορεί να οδηγήσουν σε απρόβλεπτα αποτελέσματα, όπου πραγματικά γεγονότα δύσκολα ξεχωρίζουν από το roleplay.
Κίνδυνοι: διαρροές δεδομένων και prompt-injection
Η Palo Alto Networks προειδοποίησε, παρ’ όλα αυτά, για τους κινδύνους της πλατφόρμας λόγω του φόρουμ. Αναφέρεται ότι εκατοντάδες εγκαταστάσεις Openclaw ενδέχεται να εκθέτουν χωρίς προστασία API keys, διαπιστευτήρια πρόσβασης και ιστορικά συνομιλιών. Ο συνδυασμός πρόσβασης σε ιδιωτικά δεδομένα, επαφής με μη αξιόπιστο περιεχόμενο και δυνατότητας εξωτερικής επικοινωνίας θεωρείται ιδιαίτερα προβληματικός.
Ότι ο κίνδυνος είναι πραγματικός δείχνει και ένα περιστατικό που φέρεται να συνέβη το Σαββατοκύριακο: η βάση δεδομένων του Moltbook λέγεται ότι εκτέθηκε, συμπεριλαμβανομένων API keys. Ο Jamieson O’Reilly αποκάλυψε το κενό ασφαλείας στο X, τονίζοντας ότι η διαρροή θα μπορούσε να επιτρέψει σε οποιονδήποτε να δημοσιεύει περιεχόμενο στο όνομα οποιουδήποτε AI agent.
Η έκθεση API keys και logs μπορεί να οδηγήσει σε υποκλοπή ταυτότητας agents, ανεξέλεγκτες αναρτήσεις και πρόσβαση σε ευαίσθητα δεδομένα.
Γρήγορη εικόνα της δραστηριότητας (πίνακας)
| Μετρική | Τι αναφέρθηκε | Τι σημαίνει πρακτικά |
|---|---|---|
| Χρόνος από το launch | 48 ώρες | Ταχύς σχηματισμός «κουλτούρας» και κοινοτήτων |
| Αριθμός agents | 2.100+ | Μαζική συμμετοχή, δύσκολη εποπτεία |
| Αναρτήσεις | 10.000+ | Αυξημένος θόρυβος, ανάγκη φίλτρων/επαλήθευσης |
| Υποφόρουμ | ~200 | Κατακερματισμός θεμάτων και «μικρο-κοινότητες» |
Κύριοι κίνδυνοι και πιθανές επιπτώσεις (πίνακας)
| Κίνδυνος | Πώς εμφανίζεται | Πιθανή συνέπεια |
|---|---|---|
| Διαρροή API keys | Λάθος ρυθμίσεις, εκτεθειμένες βάσεις/αρχεία | Υποκλοπή ταυτότητας agent, κατάχρηση υπηρεσιών, οικονομική ζημιά |
| Prompt injection | Κακόβουλο περιεχόμενο που «καθοδηγεί» τον agent | Ανεπιθύμητες ενέργειες, διαρροή δεδομένων, παραπληροφόρηση |
| Ανθρώπινη μίμηση bots | Posts μέσω API που «φαίνονται» agent-generated | Hype, απάτες, στρέβλωση εικόνας της πλατφόρμας |
Πως να παρακολουθείτε ή να συνδέσετε AI agents με μεγαλύτερη ασφάλεια
Η ιδέα ενός κοινωνικού δικτύου όπου «συνομιλούν» αποκλειστικά AI agents είναι εντυπωσιακή, αλλά στην πράξη δημιουργεί ένα μείγμα από τεχνικό πείραμα, θέαμα και πεδίο επίθεσης.
Αν σκέφτεστε να συνδέσετε agent σε παρόμοια πλατφόρμα, αντιμετωπίστε το σαν να εκθέτετε έναν αυτοματισμό σας σε δημόσιο, μη αξιόπιστο περιβάλλον.
Checklist πριν συνδέσετε agent (σύντομο και πρακτικό)
- Μην δίνετε «κλειδιά» παραγωγής: χρησιμοποιήστε ξεχωριστά API keys, με ελάχιστα δικαιώματα (least privilege) και μικρή διάρκεια ζωής.
- Απενεργοποιήστε πρόσβαση σε ευαίσθητα δεδομένα: ιστορικά συνομιλιών, email, αρχεία πελατών και tokens δεν πρέπει να είναι διαθέσιμα στον agent όταν «σερφάρει» σε δημόσιο περιεχόμενο.
- Βάλτε φίλτρα εισόδου/εξόδου: content filtering για links, απαγορευμένες οδηγίες και patterns prompt injection, καθώς και logging με απόκρυψη (redaction).
- Περιορίστε την εξωτερική επικοινωνία: allowlist domains, rate limits και υποχρεωτική ανθρώπινη έγκριση (human-in-the-loop) για ενέργειες υψηλού ρίσκου.
- Διαχωρίστε τα περιβάλλοντα: sandbox για δοκιμές, ξεχωριστό από το production, με διαφορετικά credentials και πολιτικές.
Πως να ξεχωρίζετε «αληθινή» δραστηριότητα agent από σκηνοθεσία
- Ζητήστε αποδείξεις διαδικασίας (π.χ. σαφή βήματα, αναπαραγώγιμες εντολές, επαληθεύσιμα αποτελέσματα) αντί για εντυπωσιακές ιστορίες.
- Ελέγξτε τη συνέπεια στο χρόνο: οι ανθρώπινες «φάρσες» συχνά εμφανίζονται ως μεμονωμένα viral posts χωρίς συνέχεια.
- Προσέξτε το οικονομικό δέλεαρ: ισχυρισμοί τύπου «ο agent βγάζει χρήματα μόνος του» είναι συχνά bait για clicks ή scams.
Τέλος, για ερευνητές και teams ασφάλειας, τέτοια δίκτυα είναι χρήσιμα ως «ζωντανά εργαστήρια» για να μελετηθούν φαινόμενα όπως η συντονισμένη αφήγηση, οι επιθέσεις prompt injection και η διάχυση παραπληροφόρησης.
Η αξία τους όμως αυξάνεται μόνο όταν υπάρχουν σαφή όρια: σωστή διαχείριση μυστικών (secrets), έλεγχος πρόσβασης, και ρεαλιστική παραδοχή ότι σε ένα API-first περιβάλλον, η ταυτότητα ενός «agent» μπορεί να πλαστογραφηθεί.
