ΑρχικήΕιδήσειςΑπώλεια γνώσης στις επιχειρήσεις από την AI: γιατί τα μοντέλα γίνονται παγίδες...

Απώλεια γνώσης στις επιχειρήσεις από την AI: γιατί τα μοντέλα γίνονται παγίδες και πως να το αποτρέψετε

Σύνοψη
  • Η εκτεταμένη χρήση AI μπορεί να «σβήσει» σταδιακά την ανθρώπινη τεχνογνωσία, ενώ η απώλεια αυτή υποβαθμίζει αργότερα και τα ίδια τα μοντέλα.
  • Η μελέτη περιγράφει έναν κύκλο «χρήση και επισκευή», όπου τα μοντέλα γερνούν και απαιτούν ενημερώσεις που χρειάζονται ειδικούς, οι οποίοι όμως λιγοστεύουν.
  • Η βιώσιμη αξιοποίηση της AI απαιτεί ταυτόχρονη διατήρηση ανθρώπινης γνώσης με διαδικασίες, εκπαίδευση και ελέγχους.

Με την πάροδο του χρόνου, η απώλεια ανθρώπινης εξειδίκευσης που προκαλείται από τη χρήση της τεχνητής νοημοσύνης μπορεί να υπονομεύσει την ποιότητα της ίδιας της AI.

Στη χειρότερη περίπτωση, αυτή η υποβάθμιση μπορεί να συμβεί ύπουλα και χωρίς να γίνει άμεσα αντιληπτή.

Αυτό είναι το συμπέρασμα μιας νέας μελέτης ερευνητών από το Πανεπιστήμιο του Passau και το Arizona State University.

Η μελέτη δημοσιεύθηκε πρόσφατα στο Academy of Management Review.

Πληροφορία:
Η δημοσίευση είναι εννοιολογική μελέτη θεωρίας, και δεν βασίζεται σε νέα εμπειρικά δεδομένα.

Γιατί οι περικοπές προσωπικού λόγω AI μπορεί να είναι κοντόφθαλμες

Τεχνολογικές εταιρείες σε όλο τον κόσμο γίνονται πρωτοσέλιδα με περικοπές θέσεων εργασίας.

Συχνά επικαλούνται την αυξημένη χρήση τεχνητής νοημοσύνης (AI) ως βασικό λόγο.

Η νέα μελέτη δείχνει ότι τέτοιες αποφάσεις μπορεί να είναι κοντόφθαλμες, ειδικά όταν υποτιμούν την αξία της ανθρώπινης τεχνογνωσίας.

Πως η «γνώση των μηχανών» βοηθά, αλλά και πού δημιουργεί ρίσκο

Η γνώση που «μαθαίνουν» οι μηχανές μπορεί να βοηθήσει έναν οργανισμό να συσσωρεύει εμπειρία.

Αυτό είναι χρήσιμο, για παράδειγμα, όταν έμπειροι εργαζόμενοι συνταξιοδοτούνται και χάνεται ιστορική μνήμη.

Όμως, τα μοντέλα μηχανικής μάθησης βασίζονται σε ιστορικά δεδομένα εκπαίδευσης.

Όταν αλλάζει η πραγματικότητα που τα μοντέλα περιγράφουν, τα μοντέλα γίνονται σταδιακά παρωχημένα.

Η ανάγκη ενημέρωσης των μοντέλων, και ο κύκλος «χρήση και επισκευή» που προκύπτει, δημιουργεί συγκεκριμένους κινδύνους για τις εταιρείες.

Προειδοποίηση:
Όσο πιο πολύ βασίζεται μια ομάδα σε προβλέψεις μοντέλου, τόσο πιο εύκολα μειώνεται η ικανότητα να εντοπίσει πότε το μοντέλο «ξέφυγε» από την πραγματικότητα.

Ο κύκλος που οδηγεί σε απώλεια οργανωσιακής γνώσης

Στη μελέτη με τίτλο «Fading Memories: The Role of Machine Learning in Organizational Knowledge Depreciation», ο καθηγητής Jin Gerlach από το Πανεπιστήμιο του Passau και ο καθηγητής Don Lange από το Arizona State University εξηγούν πώς οι εταιρείες μπορεί να παγιδευτούν σε έναν κύκλο.

Τα στάδια του φαινομένου, όπως περιγράφονται στη μελέτη

  • Η AI αναλαμβάνει: Καθώς τα συστήματα AI εκτελούν εργασίες, όπως ποιοτικό έλεγχο στην παραγωγή, οι εργαζόμενοι χρησιμοποιούν την αντίστοιχη γνώση πιο σπάνια.
  • Εμφανίζεται απώλεια γνώσης: Η ανθρώπινη εξειδίκευση μειώνεται, ενώ οι νέες προσλήψεις αποκτούν λιγότερη πρακτική εμπειρία όταν οι εργασίες περνούν στην AI.
  • Τα μοντέλα γερνούν: Τα παλαιωμένα μοντέλα χρειάζονται ενημέρωση με νέα δεδομένα, έλεγχο μεταβλητών και αξιολόγηση λανθασμένων προβλέψεων από ειδικούς.
ΣτάδιοΤι συμβαίνειΤι ρίσκο δημιουργεί
Ανάθεση σε AIΜείωση χρήσης ανθρώπινης δεξιότητας στην πράξηΑτροφία κρίσιμων ικανοτήτων και εξάρτηση από το μοντέλο
Απώλεια τεχνογνωσίαςΑποχωρήσεις, λήθη, χαμηλότερη μάθηση νέωνΛιγότεροι ειδικοί για έλεγχο και επιτήρηση της AI
Γήρανση μοντέλουDrift και ανάγκη επανεκπαίδευσης ή ανασχεδιασμούΚαθυστέρηση ενημερώσεων και αύξηση λαθών παραγωγής

Όταν τα μοντέλα γίνονται «παγίδες γνώσης»

Αυτό σημαίνει ότι, καθώς γερνούν, τα μοντέλα AI μπορεί να γίνουν παγίδες γνώσης.

«Η χαμένη ανθρώπινη εξειδίκευση μπορεί να υπονομεύσει την ποιότητα των μοντέλων AI με την πάροδο του χρόνου, δυνητικά με τρόπο σταδιακό και απαρατήρητο», προειδοποιεί ο καθηγητής Gerlach.

«Αν οι εργαζόμενοι εσωτερικεύουν άκριτα τις προβλέψεις και τις αποφάσεις ενός παρωχημένου μοντέλου AI, αυτό μπορεί να διαφθείρει περαιτέρω την ανθρώπινη γνώση», συμπληρώνει.

Οι συγγραφείς τονίζουν ότι η μακροπρόθεσμα επιτυχημένη χρήση της AI επιτυγχάνεται μόνο αν οι εταιρείες διατηρούν παράλληλα την ανθρώπινη τεχνογνωσία.

Πληροφορία:
Η «διάβρωση» γνώσης μπορεί να είναι σταδιακή, γιατί η καθημερινή επιτυχία της AI κρύβει τις πρώτες αποκλίσεις της.

Η αποτελεσματική χρήση AI απαιτεί ανθρώπινη εξειδίκευση

«Τα ευρήματά μας δείχνουν μακροπρόθεσμες και ακούσιες συνέπειες από τη χρήση AI στους οργανισμούς», λέει ο καθηγητής Gerlach.

Τα ευρήματα τονίζουν την ανάγκη διατήρησης ανθρώπινης τεχνογνωσίας, γιατί η απώλειά της μπορεί να θέσει σε κίνδυνο την αποτελεσματική χρήση των συστημάτων AI με την πάροδο του χρόνου.

Σύμφωνα με τους ερευνητές, οι εταιρικές αποφάσεις για μείωση ανθρώπινου know-how φαίνονται διαφορετικές υπό αυτό το πρίσμα.

Και αυτό συμβαίνει επειδή παραμελούν την ανθρώπινη γνώση, και έτσι αποδυναμώνουν μακροπρόθεσμα την AI.

Τι είδους μελέτη είναι και τι εξηγεί

Η δημοσιευμένη μελέτη είναι εννοιολογική θεωρητική εργασία.

Δεν βασίζεται σε νέα εμπειρικά δεδομένα, αλλά συνδυάζει υπάρχοντα ευρήματα από οργανωσιακή έρευνα και επιστήμη υπολογιστών.

Με αυτόν τον τρόπο διαμορφώνει ένα νέο μοντέλο που περιγράφει πώς και γιατί εμφανίζεται το φαινόμενο, δηλαδή η απώλεια οργανωσιακής γνώσης λόγω AI.


Πως να αποφύγετε την «αμνησία» του οργανισμού όταν υιοθετείτε AI

Αν η AI αναλάβει κρίσιμες εργασίες, το βασικό ζητούμενο δεν είναι να την περιορίσετε.

Το ζητούμενο είναι να σχεδιάσετε ροές εργασίας που κρατούν ζωντανή την ανθρώπινη κρίση και τη μετατρέπουν σε μετρήσιμη αξία.

Μια πρακτική προσέγγιση είναι να ορίσετε ποιες δεξιότητες πρέπει να παραμένουν «ενεργές», ακόμη και αν δεν εκτελούνται καθημερινά.

Πλαίσιο 4 βημάτων για διατήρηση τεχνογνωσίας

  1. Καταγραφή: Τεκμηριώστε κανόνες, εξαιρέσεις και «κόκκινες σημαίες» που χρησιμοποιούν οι έμπειροι εργαζόμενοι.
  2. Εξάσκηση: Προγραμματίστε περιοδικά σενάρια χωρίς υποβοήθηση AI, ώστε η ομάδα να μην χάνει δεξιότητες.
  3. Έλεγχος: Εισάγετε δειγματοληπτικό human review σε αποφάσεις υψηλού ρίσκου, ακόμη και όταν το μοντέλο «πάει καλά».
  4. Ανανέωση: Συνδέστε την επανεκπαίδευση μοντέλων με ρόλους και χρόνο ανθρώπων που έχουν πραγματική γνώση πεδίου.

Ρόλοι που αξίζει να προστατεύσετε από υπερβολική αυτοματοποίηση

  • Subject-matter experts που μπορούν να εξηγήσουν γιατί μια πρόβλεψη είναι λάθος, όχι μόνο ότι είναι λάθος.
  • Data stewards που γνωρίζουν την προέλευση, τις προκαταλήψεις και τα κενά των δεδομένων.
  • Model validators που ορίζουν αποδεκτά όρια απόκλισης και στήνουν δοκιμές πριν από αλλαγές παραγωγής.
Δείκτης που να παρακολουθείτεΤι δείχνειΠώς να τον χρησιμοποιήσετε
Ποσοστό «τυφλής αποδοχής» αποφάσεωνΥπερεμπιστοσύνη στο μοντέλοΟρίστε υποχρεωτικές αιτιολογήσεις σε κρίσιμα βήματα
Χρόνος μέχρι εντοπισμό driftΤαχύτητα αντίδρασης του οργανισμούΣτήστε alarms και περιοδικές αναφορές απόδοσης
Κάλυψη δεξιοτήτων ανά ομάδαΠόσο «αραιώνει» η τεχνογνωσίαΣχεδιάστε εκπαίδευση και rotation ρόλων
Προειδοποίηση:
Αν οι ειδικοί φύγουν, η επανεκπαίδευση μοντέλων γίνεται πιο αργή και πιο ακριβή, ακόμη και αν τα δεδομένα υπάρχουν.

Τέλος, έχει αξία να ορίσετε από την αρχή ότι η AI είναι «σύστημα που εξελίσσεται» και όχι εργαλείο που εγκαθίσταται μία φορά.

Με σαφείς ρόλους, μετρήσιμους δείκτες και προγράμματα εξάσκησης, μειώνετε την πιθανότητα το μοντέλο να μετατραπεί σε παγίδα γνώσης.

Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166