Η Ύπατη Αρμοστής των Ηνωμένων Εθνών για τα Ανθρώπινα Δικαιώματα Michelle Bachelet ζήτησε να θεσπιστεί ένα αυστηρό μορατόριουμ για την πώληση και τη χρήση συστημάτων τεχνητής νοημοσύνης (ΑΙ) που απειλούν τα ανθρώπινα δικαιώματα, έως ότου υπάρξουν επαρκείς εγγυήσεις που θα διασφαλίζουν ότι τα συγκεκριμένα συστήματα δεν θα υπονομεύουν την ανθρώπινη υπόσταση και δεν θα γίνεται κατάχρηση από εκείνους που τα διαχειρίζονται.
«Δεν έχουμε την πολυτέλεια να συνεχίσουμε να παίζουμε με την τεχνητή νοημοσύνη – επιτρέποντας την ανήθικη χρήση, γιατί είναι σχεδόν, κάτι παραπάνω από βέβαιο πως κάποια στιγμή θα έρθουν αρνητικά αποτελέσματα που θα είναι εις βάρος κάποιων ανθρώπων», δήλωσε η Bachelet.
Το τμήμα του ΟΗΕ για τα ανθρώπινα δικαιώματα δημοσίευσε μια έκθεση την Τετάρτη (15 Σεπτεμβρίου 2021) προειδοποιώντας για τους κινδύνους των τεχνολογιών τεχνητής νοημοσύνης, τονίζοντας ότι ενώ αυτά τα λογισμικά και οι εφαρμογές έχουν τα εχέγγυα να προσφέρουν πολλά θετικά πράγματα στην κοινωνία και γενικότερα πολλά οφέλη στην ανθρωπότητα, εν τούτοις μπορεί επίσης να επιφέρουν καταστροφικές επιπτώσεις εάν χρησιμοποιηθούν ανεύθυνα.
«Η πολυπλοκότητα της διαχείρισης δεδομένων, οι αλγόριθμοι και τα μοντέλα που βασίζονται στην ανάπτυξη και τη λειτουργία των συστημάτων τεχνητής νοημοσύνης, καθώς και το ιδιωτικό απόρρητο είναι παράγοντες που μπορούν να υπονομευθούν με πάμπολλους τρόπους, και όλα αυτά, χωρίς να το γνωρίζει καν ο ενδιαφερόμενος χρήστης.», Αναφέρεται στην έκθεση.
Η Bachelet, ο οποία είναι επικεφαλής του ΟΗΕ για τα ανθρώπινα δικαιώματα, τόνισε ότι οι εφαρμογές τεχνητής νοημοσύνης που δεν θα συμμορφώνονται με το διεθνές δίκαιο θα πρέπει να απαγορευτούν. Ειδάλλως, εάν κάνουμε τα στραβά μάτια, το πρόβλημα ενδεχομένως να μεγεθυνθεί σε μερικά χρόνια, σε τέτοιο βαθμό που θα είναι αδύνατο πλέον να μπει μία τάξη. Και το χειρότερο όλων είναι πως οι άνθρωποι θα χάσουν την εμπιστοσύνη τους σε αυτές τις πολύτιμες τεχνολογίες που βοηθούν να εξελιχθεί περαιτέρω η ανθρωπότητα (πάντα προς τη θετική πλευρά).
«Είναι γεγονός πως η τεχνητή νοημοσύνη έχει την δύναμη και την ικανότητα να εξυπηρετεί τους πολίτες, αλλά παράλληλα μπορεί να χρησιμοποιηθεί με κακόβουλο τρόπο, είτε από ιδιώτες, είτε από κυβερνήσεις, παραβιάζοντας τα θεμελιώδη δικαιώματα των ανθρώπων σε τεράστια κλίμακα, χωρίς να γίνεται αντιληπτό από όσους δεν έχουν την τεχνογνωσία να κατανοήσουν τι συμβαίνει. Χρειάζεται δράση τώρα, ώστε να εφαρμοστούν άμεσα όλα εκείνα τα προστατευτικά μέτρα πριν να είναι αργά», τόνισε η Michelle Bachelet.
Οι ικανότητες της τεχνητής νοημοσύνης να σκιαγραφεί με απόλυτη ακρίβεια το προφίλ των πολιτών (των χρηστών και των πελατών) και να αυτοματοποιεί τη λήψη αποφάσεων, απειλούν τα κεκτημένα που έχουν κερδηθεί με βαρύ τίμημα κατά τις τελευταίες δεκαετίες. Φερειπείν, μπορεί να επηρεάσει το ιδιωτικό απόρρητο και τα δικαιώματα στην υγεία, την εκπαίδευση, την ελευθερία κινήσεων, την ελευθερία της ειρηνικής συγκέντρωσης και του συνεταιρίζεσθαι, όπως και την ελευθερία της έκφρασης», προειδοποίησε το γραφείο του ΟΗΕ για τα ανθρώπινα δικαιώματα.
Η ύπατος αρμοστής δήλωσε: Στην παρούσα φάση, στα θετικά στοιχεία στις συγκαταλέγεται το γεγονός ότι τα συστήματα τεχνητής νοημοσύνης χρησιμοποιούνται για να γίνει κατανοητό σε πραγματικό χρόνο ποια άτομα χρησιμοποιούν δημόσιες και ιδιωτικές υπηρεσίες και με ποιον τρόπο, προκειμένου να μη χάνεται χρόνος και να αυτοματοποιούνται οι διαδικασίες, ώστε να αποφευχθεί οποιαδήποτε είδους γραφειοκρατία και καθυστέρηση. Ενώ στα αρνητικά στοιχεία συγκαταλέγεται, ότι αποφασίζουν αυτοβούλως ποιος θα προσληφθεί σε μια δουλειά, όπως και ότι μπορούν να παρακολουθούν ταυτόχρονα εκατομμύρια άτομα εν άγνοιά τους στο διαδίκτυο, όπως και στον πραγματικό κόσμο μέσω καμερών παρακολούθησης.
Σε τούτη την έκθεση εκφράζονται βαθιές ανησυχίες για ορισμένες χώρες που εκεί τα πράγματα συνήθως είναι ανεξέλεγκτα και μπορούν γίνονται παρατυπίες ελαφρά τη καρδία. Όπως και στον ιδιωτικό τομέα που υιοθετούν όλο και περισσότερο διάφορα λογισμικά και εφαρμογές τεχνητής νοημοσύνης, χωρίς πρώτα να μελετήσουν τους κινδύνους. Όμως το βασικότερο από όλα είναι πως οι ιθύνοντες και οι διαχειριστές αυτών των συστημάτων δεν γνωρίζουν ποια είναι η ενδεικνυόμενη μεθοδολογία χρήσης τους για την αποφυγή παραβιάσεων των νόμων.
Υπήρξαν ήδη κάποιες επικίνδυνες γκάφες, ανέφερε το γραφείο του ΟΗΕ, επισημαίνοντας περιπτώσεις όπου κάποια άτομα τους απαγορεύτηκε να κάνουν χρήση της κοινωνικής ασφάλισης τους, ή συνελήφθησαν λόγω εσφαλμένης αναγνώρισης προσώπου.
Τα συστήματα τεχνητής νοημοσύνης συχνά συλλέγουν, μοιράζονται, συγχωνεύουν και αναλύουν δεδομένα με αδιαφανείς τρόπους. Οι ευαίσθητες πληροφορίες που συλλέγονται μέσω αυτής της οδού μπορούν να παραβιαστούν, να είναι παρωχημένες ή ακόμη και να κάνουν διακρίσεις.
«Ο κίνδυνος κατάφωρων διακρίσεων που σχετίζεται με αποφάσεις που παίρνονται μέσω τεχνητής νοημοσύνης, μπορούν να αλλάξουν, να καθορίσουν ή να βλάψουν ανθρώπινες ζωές, και κάτι τέτοιο μπορεί να συμβεί ανά πάσα στιγμή», δήλωσε ο Bachelet. «Αυτός είναι ο λόγος για τον οποίο πρέπει να υπάρχει συστηματική αξιολόγηση και παρακολούθηση των επιπτώσεων των συστημάτων τεχνητής νοημοσύνης για τον εντοπισμό και τον μετριασμό των κινδύνων για τα ανθρώπινα δικαιώματα».
Η τεχνητή νοημοσύνη σε λάθος χέρια
Σε αυτό το σημείο θεωρώ υποχρέωση μου να επισημάνω ότι οποιοδήποτε λογισμικό, υλικολογισμικό και εφαρμογή που λειτουργεί μέσω τεχνητής νοημοσύνης, μηχανικής μάθησης και νευρωνικών δικτύων δεν συνεπάγεται απαραίτητα πως είναι εν δυνάμει επικίνδυνο για την κοινωνία.
Ωστόσο η βασική αιτία που πιθανόν να μετατραπούν σε καταχρηστικά εργαλεία έγκειται στο γεγονός πως οι προγραμματιστές και οι διαχειριστές αυτών των συστημάτων δεν φροντίζουν να εξαλείψουν οποιαδήποτε αστοχία χρήσης, ενώ το χειρότερο από όλα είναι πως τα περισσότερα λάθη λαμβάνουν χώρα, λόγω αμέλειας, αβλεψίας, ελλιπών ελέγχων κ.λπ. Όμως το πιο κρίσιμο στοιχείο που κάνει τη διαφορά είναι πως οι προγραμματιστές δεν εκπαιδεύουν σωστά τους αλγόριθμους, ούτε τους επαναεκπαιδεύουν ορθά όταν προκύπτουν λάθη, με αρνητικό πρόσημο να στιγματίζονται ανεπανόρθωτα αυτές οι τεχνολογίες.
