- Η εκτεταμένη χρήση AI μπορεί να «σβήσει» σταδιακά την ανθρώπινη τεχνογνωσία, ενώ η απώλεια αυτή υποβαθμίζει αργότερα και τα ίδια τα μοντέλα.
- Η μελέτη περιγράφει έναν κύκλο «χρήση και επισκευή», όπου τα μοντέλα γερνούν και απαιτούν ενημερώσεις που χρειάζονται ειδικούς, οι οποίοι όμως λιγοστεύουν.
- Η βιώσιμη αξιοποίηση της AI απαιτεί ταυτόχρονη διατήρηση ανθρώπινης γνώσης με διαδικασίες, εκπαίδευση και ελέγχους.
Με την πάροδο του χρόνου, η απώλεια ανθρώπινης εξειδίκευσης που προκαλείται από τη χρήση της τεχνητής νοημοσύνης μπορεί να υπονομεύσει την ποιότητα της ίδιας της AI.
Στη χειρότερη περίπτωση, αυτή η υποβάθμιση μπορεί να συμβεί ύπουλα και χωρίς να γίνει άμεσα αντιληπτή.
Αυτό είναι το συμπέρασμα μιας νέας μελέτης ερευνητών από το Πανεπιστήμιο του Passau και το Arizona State University.
Η μελέτη δημοσιεύθηκε πρόσφατα στο Academy of Management Review.
Η δημοσίευση είναι εννοιολογική μελέτη θεωρίας, και δεν βασίζεται σε νέα εμπειρικά δεδομένα.
Γιατί οι περικοπές προσωπικού λόγω AI μπορεί να είναι κοντόφθαλμες
Τεχνολογικές εταιρείες σε όλο τον κόσμο γίνονται πρωτοσέλιδα με περικοπές θέσεων εργασίας.
Συχνά επικαλούνται την αυξημένη χρήση τεχνητής νοημοσύνης (AI) ως βασικό λόγο.
Η νέα μελέτη δείχνει ότι τέτοιες αποφάσεις μπορεί να είναι κοντόφθαλμες, ειδικά όταν υποτιμούν την αξία της ανθρώπινης τεχνογνωσίας.
Πως η «γνώση των μηχανών» βοηθά, αλλά και πού δημιουργεί ρίσκο
Η γνώση που «μαθαίνουν» οι μηχανές μπορεί να βοηθήσει έναν οργανισμό να συσσωρεύει εμπειρία.
Αυτό είναι χρήσιμο, για παράδειγμα, όταν έμπειροι εργαζόμενοι συνταξιοδοτούνται και χάνεται ιστορική μνήμη.
Όμως, τα μοντέλα μηχανικής μάθησης βασίζονται σε ιστορικά δεδομένα εκπαίδευσης.
Όταν αλλάζει η πραγματικότητα που τα μοντέλα περιγράφουν, τα μοντέλα γίνονται σταδιακά παρωχημένα.
Η ανάγκη ενημέρωσης των μοντέλων, και ο κύκλος «χρήση και επισκευή» που προκύπτει, δημιουργεί συγκεκριμένους κινδύνους για τις εταιρείες.
Όσο πιο πολύ βασίζεται μια ομάδα σε προβλέψεις μοντέλου, τόσο πιο εύκολα μειώνεται η ικανότητα να εντοπίσει πότε το μοντέλο «ξέφυγε» από την πραγματικότητα.
Ο κύκλος που οδηγεί σε απώλεια οργανωσιακής γνώσης
Στη μελέτη με τίτλο «Fading Memories: The Role of Machine Learning in Organizational Knowledge Depreciation», ο καθηγητής Jin Gerlach από το Πανεπιστήμιο του Passau και ο καθηγητής Don Lange από το Arizona State University εξηγούν πώς οι εταιρείες μπορεί να παγιδευτούν σε έναν κύκλο.
Τα στάδια του φαινομένου, όπως περιγράφονται στη μελέτη
- Η AI αναλαμβάνει: Καθώς τα συστήματα AI εκτελούν εργασίες, όπως ποιοτικό έλεγχο στην παραγωγή, οι εργαζόμενοι χρησιμοποιούν την αντίστοιχη γνώση πιο σπάνια.
- Εμφανίζεται απώλεια γνώσης: Η ανθρώπινη εξειδίκευση μειώνεται, ενώ οι νέες προσλήψεις αποκτούν λιγότερη πρακτική εμπειρία όταν οι εργασίες περνούν στην AI.
- Τα μοντέλα γερνούν: Τα παλαιωμένα μοντέλα χρειάζονται ενημέρωση με νέα δεδομένα, έλεγχο μεταβλητών και αξιολόγηση λανθασμένων προβλέψεων από ειδικούς.
| Στάδιο | Τι συμβαίνει | Τι ρίσκο δημιουργεί |
|---|---|---|
| Ανάθεση σε AI | Μείωση χρήσης ανθρώπινης δεξιότητας στην πράξη | Ατροφία κρίσιμων ικανοτήτων και εξάρτηση από το μοντέλο |
| Απώλεια τεχνογνωσίας | Αποχωρήσεις, λήθη, χαμηλότερη μάθηση νέων | Λιγότεροι ειδικοί για έλεγχο και επιτήρηση της AI |
| Γήρανση μοντέλου | Drift και ανάγκη επανεκπαίδευσης ή ανασχεδιασμού | Καθυστέρηση ενημερώσεων και αύξηση λαθών παραγωγής |
Όταν τα μοντέλα γίνονται «παγίδες γνώσης»
Αυτό σημαίνει ότι, καθώς γερνούν, τα μοντέλα AI μπορεί να γίνουν παγίδες γνώσης.
«Η χαμένη ανθρώπινη εξειδίκευση μπορεί να υπονομεύσει την ποιότητα των μοντέλων AI με την πάροδο του χρόνου, δυνητικά με τρόπο σταδιακό και απαρατήρητο», προειδοποιεί ο καθηγητής Gerlach.
«Αν οι εργαζόμενοι εσωτερικεύουν άκριτα τις προβλέψεις και τις αποφάσεις ενός παρωχημένου μοντέλου AI, αυτό μπορεί να διαφθείρει περαιτέρω την ανθρώπινη γνώση», συμπληρώνει.
Οι συγγραφείς τονίζουν ότι η μακροπρόθεσμα επιτυχημένη χρήση της AI επιτυγχάνεται μόνο αν οι εταιρείες διατηρούν παράλληλα την ανθρώπινη τεχνογνωσία.
Η «διάβρωση» γνώσης μπορεί να είναι σταδιακή, γιατί η καθημερινή επιτυχία της AI κρύβει τις πρώτες αποκλίσεις της.
Η αποτελεσματική χρήση AI απαιτεί ανθρώπινη εξειδίκευση
«Τα ευρήματά μας δείχνουν μακροπρόθεσμες και ακούσιες συνέπειες από τη χρήση AI στους οργανισμούς», λέει ο καθηγητής Gerlach.
Τα ευρήματα τονίζουν την ανάγκη διατήρησης ανθρώπινης τεχνογνωσίας, γιατί η απώλειά της μπορεί να θέσει σε κίνδυνο την αποτελεσματική χρήση των συστημάτων AI με την πάροδο του χρόνου.
Σύμφωνα με τους ερευνητές, οι εταιρικές αποφάσεις για μείωση ανθρώπινου know-how φαίνονται διαφορετικές υπό αυτό το πρίσμα.
Και αυτό συμβαίνει επειδή παραμελούν την ανθρώπινη γνώση, και έτσι αποδυναμώνουν μακροπρόθεσμα την AI.
Τι είδους μελέτη είναι και τι εξηγεί
Η δημοσιευμένη μελέτη είναι εννοιολογική θεωρητική εργασία.
Δεν βασίζεται σε νέα εμπειρικά δεδομένα, αλλά συνδυάζει υπάρχοντα ευρήματα από οργανωσιακή έρευνα και επιστήμη υπολογιστών.
Με αυτόν τον τρόπο διαμορφώνει ένα νέο μοντέλο που περιγράφει πώς και γιατί εμφανίζεται το φαινόμενο, δηλαδή η απώλεια οργανωσιακής γνώσης λόγω AI.
Πως να αποφύγετε την «αμνησία» του οργανισμού όταν υιοθετείτε AI
Αν η AI αναλάβει κρίσιμες εργασίες, το βασικό ζητούμενο δεν είναι να την περιορίσετε.
Το ζητούμενο είναι να σχεδιάσετε ροές εργασίας που κρατούν ζωντανή την ανθρώπινη κρίση και τη μετατρέπουν σε μετρήσιμη αξία.
Μια πρακτική προσέγγιση είναι να ορίσετε ποιες δεξιότητες πρέπει να παραμένουν «ενεργές», ακόμη και αν δεν εκτελούνται καθημερινά.
Πλαίσιο 4 βημάτων για διατήρηση τεχνογνωσίας
- Καταγραφή: Τεκμηριώστε κανόνες, εξαιρέσεις και «κόκκινες σημαίες» που χρησιμοποιούν οι έμπειροι εργαζόμενοι.
- Εξάσκηση: Προγραμματίστε περιοδικά σενάρια χωρίς υποβοήθηση AI, ώστε η ομάδα να μην χάνει δεξιότητες.
- Έλεγχος: Εισάγετε δειγματοληπτικό human review σε αποφάσεις υψηλού ρίσκου, ακόμη και όταν το μοντέλο «πάει καλά».
- Ανανέωση: Συνδέστε την επανεκπαίδευση μοντέλων με ρόλους και χρόνο ανθρώπων που έχουν πραγματική γνώση πεδίου.
Ρόλοι που αξίζει να προστατεύσετε από υπερβολική αυτοματοποίηση
- Subject-matter experts που μπορούν να εξηγήσουν γιατί μια πρόβλεψη είναι λάθος, όχι μόνο ότι είναι λάθος.
- Data stewards που γνωρίζουν την προέλευση, τις προκαταλήψεις και τα κενά των δεδομένων.
- Model validators που ορίζουν αποδεκτά όρια απόκλισης και στήνουν δοκιμές πριν από αλλαγές παραγωγής.
| Δείκτης που να παρακολουθείτε | Τι δείχνει | Πώς να τον χρησιμοποιήσετε |
|---|---|---|
| Ποσοστό «τυφλής αποδοχής» αποφάσεων | Υπερεμπιστοσύνη στο μοντέλο | Ορίστε υποχρεωτικές αιτιολογήσεις σε κρίσιμα βήματα |
| Χρόνος μέχρι εντοπισμό drift | Ταχύτητα αντίδρασης του οργανισμού | Στήστε alarms και περιοδικές αναφορές απόδοσης |
| Κάλυψη δεξιοτήτων ανά ομάδα | Πόσο «αραιώνει» η τεχνογνωσία | Σχεδιάστε εκπαίδευση και rotation ρόλων |
Αν οι ειδικοί φύγουν, η επανεκπαίδευση μοντέλων γίνεται πιο αργή και πιο ακριβή, ακόμη και αν τα δεδομένα υπάρχουν.
Τέλος, έχει αξία να ορίσετε από την αρχή ότι η AI είναι «σύστημα που εξελίσσεται» και όχι εργαλείο που εγκαθίσταται μία φορά.
Με σαφείς ρόλους, μετρήσιμους δείκτες και προγράμματα εξάσκησης, μειώνετε την πιθανότητα το μοντέλο να μετατραπεί σε παγίδα γνώσης.
