Η Microsoft αναπτύσσει ένα εργαλείο για να βοηθήσει τους μηχανικούς να εξαλείψουν τις προκαταλήψεις από τους αλγόριθμους

Η Microsoft αναπτύσσει ένα εργαλείο για να βοηθήσει τους μηχανικούς να εξαλείψουν τις προκαταλήψεις από τους αλγόριθμους

Η Microsoft αναπτύσσει ένα εργαλείο για να βοηθήσει τους μηχανικούς να εξαλείψουν τις προκαταλήψεις από τους αλγόριθμους.

Η Microsoft αναπτύσσει ένα ειδικά προσαρμοσμένο εργαλείο το οποίο μπορεί να ανιχνεύσει την προκατάληψη στους αλγόριθμους της τεχνητής νοημοσύνης με στόχο να βοηθήσουν τις επιχειρήσεις να χρησιμοποιούν το AI χωρίς να κινδυνεύουν να κάνουν διακρίσεις εναντίον συγκεκριμένων ατόμων.

Ο Rich Caruana, ερευνητής ανάπτυξης του συγκεκριμένου εργαλείου της Microsoft, το χαρακτήρισε ως ένα «πολυδύναμο μέσο» που οι μηχανικοί θα μπορούν να το εφαρμόσουν σε εξειδικευμένα μοντέλα AI. «Πράγματα όπως η διαφάνεια, η κατανόηση και η εξήγηση είναι αρκετά καινούργια στοιχεία στο πεδίο της τεχνητής νοημοσύνης, όπου δυστυχώς λίγοι από εμάς έχουμε αρκετή εμπειρία για να μάθουμε όλα όσα πρέπει να εφαρμόσουμε. Η προκατάληψη είναι ένα από τα χειρότερα σημεία που μπορούν να καταστρέψουν μία τεχνολογία, οπότε είναι επιτακτική ανάγκη να εξαλειφθεί από τα μοντέλα μας», δήλωσε ο προαναφερόμενος στο MIT Technology Review.

Οι ελαττωματικοί αλγόριθμοι που είναι επιρρεπείς στην προκατάληψη είναι ένα θέμα που βρίσκεται όλο και περισσότερο στο προσκήνιο. Στη συνάντηση κορυφής Deep Learning στη Βοστώνη αυτή τη βδομάδα, ο Gabriele Fariello, εκπαιδευτής στο τμήμα μηχανικής μάθησης του Χάρβαρντ, δήλωσε ότι σήμερα υπάρχουν σημαντικά προβλήματα αναφορικά με τη δεοντολογία και τη μεροληψία στο συγκεκριμένο τομέα. Οι σημαντικές αποφάσεις που λαμβάνονται μέσω της τεχνητής νοημοσύνης στην υγειονομική περίθαλψη, στο δικαστικό σύστημα και άλλες παρόμοιες κρίσιμες υπηρεσίες επηρεάζουν άμεσα τη ζωή μας.

Το λογισμικό Compas της Northpointe, το οποίο χρησιμοποιεί τη μηχανική μάθηση για να προβλέψει εάν ένας κατηγορούμενος θα διαπράξει μελλοντικά εγκλήματα, βρέθηκε να κρίνει τους μαύρους κατηγορούμενους σκληρότερα από τους λευκούς ανθρώπους.

Μία έρευνα από το Πανεπιστήμιο της Βοστώνης σε συνεργασία με την Microsoft δείχνει ότι τα σύνολα δεδομένων που χρησιμοποιούνται για να διδάξουν τα προγράμματα AI περιέχουν σεξιστικά σημασιολογικές συνδέσεις.

Επίσης μια μελέτη που διεξήχθη από το Media Lab του MIT δείχνει ότι οι αλγόριθμοι αναγνώρισης προσώπου έχουν έως και 12% περισσότερες πιθανότητες να εντοπίσουν εσφαλμένα του σκουρόχρωμους άνδρες από ότι εκείνους που έχουν πιο ανοιχτό χρώμα στο δέρμα.

«Το πιο σημαντικό πράγμα που μπορούν να κάνουν οι εταιρείες αυτή τη στιγμή είναι να εκπαιδεύσουν το εργατικό τους δυναμικό έτσι ώστε να γνωρίζουν τους μυριάδες τρόπους με τους οποίους μπορεί να προκύψει προκατάληψη, οπότε με την βοήθεια των εξειδικευμένων εργαλείων αυτό το ζήτημα θα μπορεί να αντιμετωπιστεί αποτελεσματικότερα», ανέφερε ο Caruana.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Παρακαλώ εισάγετε το σχόλιο σας!
Παρακαλώ εισάγετε το όνομά σας