Η ΕΕ προειδοποιεί ότι χρήση AI σε προγνωστική αστυνόμευση και ιατρικές διαγνώσεις δεν είναι ακίνδυνη

Η ΕΕ προειδοποιεί ότι χρήση AI σε προγνωστική αστυνόμευση και ιατρικές διαγνώσεις δεν είναι ακίνδυνη

Το παρατηρητήριο για τα ανθρώπινα δικαιώματα της Ευρωπαϊκής Ένωσης προειδοποίησε για τους κινδύνους από τη χρήση της τεχνητής νοημοσύνης (AI) στην προγνωστική αστυνόμευση, τις ιατρικές διαγνώσεις και τη στοχευμένη διαφήμιση. Επίσης επισήμανε ότι η αρμόδια Ευρωπαϊκή Επιτροπή εξετάζει το βέλτιστο νομοθετικό πλαίσιο που θα θεσμοθετηθεί κατά το επόμενο έτος για την αντιμετώπιση των προκλήσεων που θέτει η συγκεκριμένη τεχνολογία.

Ενώ η τεχνητή νοημοσύνη χρησιμοποιείται ευρέως από τις υπηρεσίες επιβολής του νόμου για ορθότερη παρακολούθηση των ύποπτων ενεργειών και κατ’ επέκταση, για την καλύτερη προστασία της κοινωνίας, εν τούτοις αρκετές ακτιβιστικές ομάδες που είναι υπέρμαχοι των ανθρωπίνων δικαιωμάτων λένε ότι ενδεχομένως να χρησιμοποιηθεί για κακό σκοπό από τα αυταρχικά καθεστώτα για μαζική παρακολούθηση των πολιτών, χωρίς την άδεια τους. Οι σκεπτικιστές επί του θέματος ανησυχούν επίσης για την παραβίαση των θεμελιωδών δικαιωμάτων και των κανόνων που σχετίζονται με την προστασία του απορρήτου.

Σε μια έκθεση που εκδόθηκε σήμερα τη Δευτέρα (14/12/2020), ο Οργανισμός Θεμελιωδών Δικαιωμάτων της ΕΕ (FRA) με έδρα τη Βιέννη προέτρεψε τους υπεύθυνους χάραξης πολιτικής να παρέχουν περισσότερες οδηγίες σχετικά με τον τρόπο με τον οποίο ισχύουν οι υφιστάμενοι κανόνες για την τεχνητή νοημοσύνη και ότι πρέπει να διασφαλίσουν ότι οι μελλοντικοί νόμοι θα προστατεύουν τεκμηριωμένα τα θεμελιώδη δικαιώματα των πολιτών τους.

«Η τεχνητή νοημοσύνη δεν είναι αλάνθαστη, κατασκευάζεται και εποπτεύεται από ανθρώπους – και οι άνθρωποι μπορούν να κάνουν λάθη. Αυτός είναι ο λόγος για τον οποίο οι πολίτες πρέπει να γνωρίζουν πότε χρησιμοποιείται η τεχνητή νοημοσύνη, πως λειτουργεί και πως παίρνονται οι αποφάσεις από τα αρμόδια όργανα όταν χρησιμοποιούνται αυτά τα συστήματα», δήλωσε ο διευθυντής του FRA, ο Michael O’Flaherty.

Η έκθεση του FRA έρχεται καθώς η Ευρωπαϊκή Επιτροπή και η εκτελεστική αρχή της ΕΕ, εξετάζουν το νέο νομοθετικό πλαίσιο που θα εφαρμοστεί την επόμενη χρονιά για την κάλυψη «τομέων υψηλού κινδύνου» όπως η υγειονομική περίθαλψη, η ενέργεια, οι μεταφορές και τμήματα που άπτονται στη δημόσια τάξη.

Η Ευρωπαϊκή Επιτροπή είπε ότι οι κανόνες που περικλείουν την τεχνητή νοημοσύνη πρέπει να σέβονται όλα τα θεμελιώδη δικαιώματα, με διασφαλίσεις. Για αυτό είναι απαραίτητο να δοθεί η δυνατότητα στους πολίτες να μπορούν να αμφισβητήσουν τις αποφάσεις που λαμβάνονται από το AI, και ότι οι οργανισμοί πρέπει να είναι σε θέση να εξηγήσουν πως αυτά τα συστήματα παίρνουν την τελική απόφαση για το εκάστοτε συμβάν.

Ανέφερε επίσης ότι πρέπει να υπάρξει περισσότερη έρευνα σχετικά με τις δυνητικά αρνητικές επιπτώσεις της τεχνητής νοημοσύνης, ώστε η Ευρώπη να μπορέσει να τις αποφύγει, ενώ όλα τα κράτη μέλη της Ευρωπαϊκής Ένωσης πρέπει να διευκρινίσουν περαιτέρω πως εφαρμόζονται οι κανόνες προστασίας δεδομένων από αυτήν την τεχνολογία.

Η έκθεση του FRA βασίζεται σε περισσότερες από 100 συνεντεύξεις με δημόσιους και ιδιωτικούς οργανισμούς που χρησιμοποιούν ήδη AI, ενώ η ανάλυση βασίζεται σε χρήσεις AI στην Εσθονία, τη Φινλανδία, τη Γαλλία, την Ολλανδία και την Ισπανία.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Παρακαλώ εισάγετε το σχόλιο σας!
Παρακαλώ εισάγετε το όνομά σας