ΑρχικήΕιδήσειςΗ βρετανική αστυνομία κοινοποίησε εσφαλμένη αναφορά για ποδοσφαιρικό αγώνα που δεν διεξήχθη...

Η βρετανική αστυνομία κοινοποίησε εσφαλμένη αναφορά για ποδοσφαιρικό αγώνα που δεν διεξήχθη ποτέ, λόγω τεχνητής νοημοσύνης

Ο αρχηγός της αστυνομίας Craig Guildford στην αγγλική περιοχή West Midlands ζήτησε συγγνώμη για ένα λάθος σε αναφορά που οδήγησε σε απόφαση να αποκλειστούν οι οπαδοί της Maccabi Tel Aviv από αγώνα απέναντι στην Aston Villa.

Στην αναφορά υπήρχε, συγκεκριμένα, ένας αγώνας που… δεν διεξήχθη ποτέ, το οποίο ήταν αποτέλεσμα «παραισθήσεων» της τεχνητής νοημοσύνης.

Τι ακριβώς συνέβη στην αναφορά

Στο έγγραφο αναφερόταν ένας αγώνας μεταξύ Maccabi Tel Aviv και της λονδρέζικης ομάδας West Ham United, ο οποίος ποτέ δεν διεξήχθη.

Ο Guildford είπε τη Δευτέρα στην κοινοβουλευτική επιτροπή εσωτερικών υποθέσεων ότι η συμπερίληψη αυτού του «γεγονότος» στις πληροφορίες προέκυψε από τη χρήση του Microsoft Copilot, όπως μεταδίδει μεταξύ άλλων το BBC.

Γιατί το λάθος ήταν εύκολο να εντοπιστεί (και ακόμη πιο αμήχανο)

Για έναν φίλαθλο, ένα τέτοιο σφάλμα είναι δύσκολο να περάσει απαρατήρητο. Όμως έγινε ακόμη πιο «επώδυνο», επειδή η West Ham την ημέρα του υποτιθέμενου αγώνα με τη Maccabi έπαιζε ήδη άλλη αναμέτρηση.

  • Στις 9 Νοεμβρίου 2023, η West Ham έπαιξε στο Europa League με τον Ολυμπιακό και κέρδισε 1-0.
  • Η Maccabi Tel Aviv την ίδια ημέρα έπαιξε στο Europa Conference League με την ουκρανική Zorya Luhansk και κέρδισε 1-3.

Αντικρουόμενες εξηγήσεις: από «δεν χρησιμοποιήσαμε AI» σε παραδοχή Copilot

Ο Guildford είχε αρνηθεί τον Δεκέμβριο ότι η αστυνομία των West Midlands χρησιμοποίησε AI για τη σύνταξη της αναφοράς. Τότε είχε αποδώσει τον «επινοημένο» αγώνα σε scraping από social media.

Νωρίτερα αυτόν τον μήνα, επανέλαβε ότι η αστυνομία των West Midlands δεν χρησιμοποιεί AI και απέδωσε τον φανταστικό αγώνα σε αναζήτηση στο Google.

Ωστόσο, στην πιο πρόσφατη κατάθεσή του στην επιτροπή, συνέδεσε το λάθος με το Microsoft Copilot.

AI σε δημόσιες υπηρεσίες: όταν ένα «λάθος κειμένου» γίνεται επιχειρησιακή απόφαση

Η υπόθεση δείχνει πώς μια AI-παραγόμενη ανακρίβεια μπορεί να ξεφύγει από το επίπεδο του «ατυχούς σφάλματος» και να επηρεάσει πραγματικές αποφάσεις (π.χ. περιορισμούς μετακίνησης φιλάθλων, κατανομή δυνάμεων, αξιολόγηση κινδύνου).

Τι πρέπει να αλλάξει στις διαδικασίες

Για να μειωθεί ο κίνδυνος, οργανισμοί όπως η αστυνομία χρειάζονται:

  • Υποχρεωτικό human-in-the-loop: κανένα AI output να μη μπαίνει σε τελικό report χωρίς έλεγχο.
  • Επαλήθευση με πρωτογενείς πηγές (επίσημα fixtures, βάσεις δεδομένων διοργανώσεων).
  • Audit trail: καταγραφή πότε/πώς χρησιμοποιήθηκε το εργαλείο (Copilot κ.λπ.) και ποιος ενέκρινε το κείμενο.
  • Εκπαίδευση προσωπικού στο φαινόμενο “hallucinations” και στους περιορισμούς των εργαλείων.
Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166