ΑρχικήΔιαδίκτυοChatGPT και Grokipedia: Γιατί το GPT-5.2 παραπέμπει στην AI-εγκυκλοπαίδεια του Elon Musk...

ChatGPT και Grokipedia: Γιατί το GPT-5.2 παραπέμπει στην AI-εγκυκλοπαίδεια του Elon Musk και τι σημαίνει για την αξιοπιστία

Το νεότερο γλωσσικό μοντέλο της OpenAI, GPT-5.2, αντλεί πληροφορίες από την AI-παραγόμενη εγκυκλοπαίδεια του Elon Musk.

Δοκιμές της εφημερίδας The Guardian δείχνουν ότι το GPT-5.2 ανέφερε τη Grokipedia ως πηγή σε διάφορα ερωτήματα εννέα φορές. Τα θέματα κυμαίνονταν από τις δομές εξουσίας στο Ιράν έως βιογραφικές λεπτομέρειες για μάρτυρες σε δίκες που αφορούσαν το Ολοκαύτωμα. Το μοτίβο υποδηλώνει ότι η OpenAI ενσωματώνει πηγές χωρίς εξαντλητικό έλεγχο.

Τι είναι η Grokipedia και πώς λειτουργεί

Η Grokipedia βγήκε online τον Οκτώβριο του 2025 ως εναλλακτική της Wikipedia. Η πλατφόρμα χρησιμοποιεί τεχνητή νοημοσύνη για τη δημιουργία και την ενημέρωση περιεχομένου αντί για ανθρώπινους συντάκτες.

Σε αντίθεση με τις κλασικές εγκυκλοπαίδειες, οι χρήστες δεν μπορούν να επεξεργαστούν απευθείας τα λήμματα.

Πότε το ChatGPT δεν την επικαλέστηκε (και πως «τρυπώνουν» οι πληροφορίες)

Σε άμεσες ερωτήσεις για αμφιλεγόμενα θέματα, όπως η εισβολή στο Καπιτώλιο στην Ουάσινγκτον ή ισχυρισμοί περί «στησίματος» από τα μέσα, το ChatGPT δεν κατέφυγε στη Grokipedia. Οι πληροφορίες φαίνεται να «διείσδυσαν» κυρίως μέσω πολύ συγκεκριμένων ερωτήσεων λεπτομέρειας.

Έτσι, το ChatGPT—επικαλούμενο τη Grokipedia—επανέλαβε ισχυρισμούς για σχέσεις μεταξύ της ιρανικής κυβέρνησης και της εταιρείας τηλεπικοινωνιών MTN-Irancell.

Ανησυχίες από ερευνητές παραπληροφόρησης

Επικριτές κατηγορούν τη Grokipedia ότι προωθεί δεξιόστροφες αφηγήσεις σε ορισμένα θέματα. Η πλατφόρμα λειτουργεί από την xAI, εταιρεία που ανήκει στο ευρύτερο επιχειρηματικό οικοσύστημα του Musk.

Η Nina Jankowicz, ερευνήτρια στον χώρο της παραπληροφόρησης, εξέφρασε στον Guardian ανησυχία για την εξέλιξη. Παραπέμπει στο φαινόμενο LLM grooming, όπου διασπείρονται σκόπιμα μεγάλες ποσότητες παραπλανητικών πληροφοριών με στόχο να επηρεαστούν μοντέλα τεχνητής νοημοσύνης.

Ειδικοί ασφάλειας είχαν προειδοποιήσει ότι και ρωσικά δίκτυα προπαγάνδας θα μπορούσαν να αξιοποιήσουν τέτοιες μεθόδους.

Δεν είναι μόνο το ChatGPT

Δεν φαίνεται να είναι το μόνο μοντέλο που αξιοποιεί τη Grokipedia. Σύμφωνα με ορισμένες αναφορές, και το Claude της Anthropic παραπέμπει επίσης στη Grokipedia σε διάφορα θέματα.

Τι σημαίνει αυτό για την αξιοπιστία των LLMs και τι μπορείς να κάνεις στην πράξη

Η χρήση μιας AI-παραγόμενης εγκυκλοπαίδειας ως πηγής από ένα LLM δημιουργεί ένα δύσκολο ερώτημα: όταν «η AI παραπέμπει σε AI», πώς διασφαλίζεται ότι η πληροφορία δεν είναι απλώς ένας κύκλος αναπαραγωγής ισχυρισμών;

Ακόμη κι αν μια πηγή δεν είναι κατ’ ανάγκη λάθος, η απουσία ανθρώπινης επιμέλειας και διαφανούς διαδικασίας διόρθωσης μπορεί να αυξάνει το ρίσκο ανακριβειών—ιδίως σε πολιτικά φορτισμένα ή ιστορικά ευαίσθητα θέματα.

Γιατί η παραπομπή σε Grokipedia είναι ποιοτικό ζήτημα

Σε παραδοσιακές εγκυκλοπαίδειες, η αξιοπιστία βασίζεται σε:

  • σαφή παραπομπή σε πρωτογενείς/δευτερογενείς πηγές,
  • διαδικασίες επιμέλειας (review, διορθώσεις, ιστορικό αλλαγών),
  • δυνατότητα κοινοτικής διόρθωσης.

Όταν αυτά αντικαθίστανται από αυτοματοποιημένη παραγωγή περιεχομένου, υπάρχει ο κίνδυνος να ενσωματώνονται:

  • ατεκμηρίωτες συνδέσεις,
  • διατυπώσεις που μοιάζουν «ουδέτερες» αλλά είναι πλαισιωμένες,
  • ισχυρισμοί που διαδίδονται επειδή είναι δημοφιλείς, όχι επειδή είναι αληθείς.

Πως να ελέγχεις τις απαντήσεις που παραπέμπουν σε AI-πηγές

Αν δεις παραπομπή τύπου Grokipedia (ή παρόμοια), κάνε τα εξής:

  1. Ζήτα πρωτογενείς πηγές
    Ρώτα: «Δώσε μου 3 πρωτογενείς πηγές (έγγραφα/δηλώσεις/επίσημα στοιχεία) για αυτόν τον ισχυρισμό».
  2. Διπλός έλεγχος με ανεξάρτητες πηγές
    Αναζήτησε επιβεβαίωση σε διεθνή ΜΜΕ, ακαδημαϊκές βάσεις ή επίσημους οργανισμούς.
  3. Έλεγξε τη γλώσσα για “σήματα” αβεβαιότητας
    Προτάσεις όπως «φέρεται», «υποστηρίζεται», «λέγεται» χωρίς παραπομπές είναι κόκκινη σημαία.
  4. Πρόσεξε τις “λεπτομέρειες”
    Τα μοντέλα μπορεί να είναι σωστά στο γενικό πλαίσιο αλλά να «γλιστρούν» σε συγκεκριμένα ονόματα, ημερομηνίες ή αιτιακές σχέσεις.

Τι θα βοηθούσε από πλευράς πλατφορμών

Για να μειωθεί ο κίνδυνος, οι πάροχοι LLM μπορούν να εφαρμόσουν:

  • κατάταξη πηγών (source quality tiers),
  • εμφανή σήμανση «AI-generated reference»,
  • πολιτικές αποκλεισμού/περιορισμού για πηγές χωρίς διαφάνεια επιμέλειας.

Κύρια Συμπεράσματα

  • Η παραπομπή του GPT-5.2 στη Grokipedia αναδεικνύει το πρόβλημα της ποιότητας πηγών στα LLMs.
  • Οι ερευνητές φοβούνται LLM grooming και οργανωμένη επιρροή μέσω μαζικής παραπληροφόρησης.
  • Οι χρήστες χρειάζεται να εφαρμόζουν πρακτικό fact-checking και να ζητούν πρωτογενείς πηγές για κρίσιμους ισχυρισμούς.
Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166