Οι αλληλεπιδράσεις μεταξύ ανθρώπων και chatbots έχουν γίνει αναπόσπαστο κομμάτι της καθημερινότητας μας, είτε μέσω της ιστοσελίδας της τράπεζας μας, είτε μέσω της γραμμής υποστήριξης του παρόχου τηλεφωνίας. Ωστόσο, πόσο τα εμπιστευόμαστε πραγματικά; Και ποιοι παράγοντες διαμορφώνουν την εμπιστοσύνη μας σε αυτά; Ερευνητές στο Πανεπιστήμιο της Βασιλείας επιχείρησαν να απαντήσουν σε αυτά τα ερωτήματα.
Η επικοινωνία με τα Chatbots
Φράσεις όπως «Γεια σου ChatGPT, μπορείς να με βοηθήσεις στο τάδε ζήτημα;» και «Φυσικά, πως μπορώ να σε βοηθήσω;» καταδεικνύουν πόσο γρήγορες είναι οι συνομιλίες με τα chatbots, που βασίζονται στην τεχνητή νοημοσύνη (AI), και επί της ουσίας μοιάζουν μοιάζουν σαν να συζητάμε με έναν κανονικά άνθρωπο. Η Δρ. Fanny Lalot και η Anna-Marie Betram, από τη Σχολή Ψυχολογίας του Πανεπιστημίου της Βασιλείας, θέλησαν να διερευνήσουν σε ποιο βαθμό οι άνθρωποι εμπιστεύονται τα chatbots τεχνητής νοημοσύνης και από τι εξαρτάται αυτή η εμπιστοσύνη.
Η έρευνα τους επικεντρώθηκε σε συστήματα που βασίζονται σε κείμενο, όπως με το ChatGPT, και όχι σε φωνητικούς βοηθούς, όπως η Siri ή η Alexa.
Στο πλαίσιο της έρευνας, οι συμμετέχοντες ήρθαν σε επαφή με παραδείγματα αλληλεπιδράσεων μεταξύ χρηστών και ενός chatbot με το όνομα Conversea, το οποίο είχε σχεδιαστεί ειδικά για τις ανάγκες της μελέτης. Στη συνέχεια, τους ζητήθηκε να φανταστούν ότι αλληλεπιδρούν οι ίδιοι με το Conversea. Τα αποτελέσματα της έρευνας δημοσιεύτηκαν στο Journal of Experimental Psychology: General.
Η αντίληψη του Chatbot ως αυτόνομη οντότητα
Η εμπιστοσύνη που δείχνουμε στους άλλους ανθρώπους επηρεάζεται από διάφορους παράγοντες, όπως η προσωπικότητά μας, η συμπεριφορά του άλλου ατόμου και η εκάστοτε κατάσταση. «Οι εμπειρίες από την παιδική ηλικία διαμορφώνουν σε μεγάλο βαθμό την ικανότητά μας να εμπιστευόμαστε τους άλλους, αλλά απαιτείται επίσης η ειλικρινής πρόθεση να εμπιστευτούμε», εξηγεί η κοινωνική ψυχολόγος Lalot. Στοιχεία που ενισχύουν την εμπιστοσύνη είναι η ακεραιότητα, η ικανότητα και η καλοσύνη.
Η νέα μελέτη αποκαλύπτει ότι οι ίδιοι παράγοντες που επηρεάζουν τις διαπροσωπικές σχέσεις ισχύουν και για τα συστήματα τεχνητής νοημοσύνης. Συγκεκριμένα, η ικανότητα και η ακεραιότητα αποτελούν σημαντικά κριτήρια που οδηγούν τους ανθρώπους να θεωρούν ένα chatbot AI ως αξιόπιστο. Η καλοσύνη, αντίθετα, φαίνεται να παίζει μικρότερο ρόλο, εφόσον υπάρχουν οι δύο προηγούμενες ιδιότητες. «Η έρευνά μας δείχνει ότι οι συμμετέχοντες αποδίδουν αυτά τα χαρακτηριστικά απευθείας στην τεχνητή νοημοσύνη και όχι μόνο στην εταιρεία που την αναπτύσσει. Αντιμετωπίζουν την τεχνητή νοημοσύνη σαν να ήταν μια αυτόνομη οντότητα», σημειώνει η Lalot.
Η επίδραση της εξατομίκευσης
Επιπλέον, η μελέτη ανέδειξε διαφορές μεταξύ εξατομικευμένων και απρόσωπων chatbots. Όταν ένα chatbot απευθύνεται σε εμάς με το όνομά μας και αναφέρεται σε προηγούμενες συνομιλίες, οι συμμετέχοντες το αξιολόγησαν ως πιο καλοπροαίρετο και ικανό. «Ανθρωπομορφοποιούν το εξατομικευμένο chatbot. Αυτό αυξάνει την προθυμία χρήσης του εργαλείου και την παροχή προσωπικών πληροφοριών», εξηγεί η Lalot. Ωστόσο, δεν παρατηρήθηκε σημαντική αύξηση στην αντίληψη της ακεραιότητας για το εξατομικευμένο chatbot, ούτε και σημαντικά υψηλότερη συνολική εμπιστοσύνη σε σύγκριση με το απρόσωπο chatbot.
Η εξέλιξη της τεχνολογίας και η εμπιστοσύνη
Η συνεχής εξέλιξη της τεχνολογίας των chatbots και η ενσωμάτωση όλο και πιο εξελιγμένων αλγορίθμων τεχνητής νοημοσύνης αναμένεται να επηρεάσει περαιτέρω την εμπιστοσύνη που δείχνουμε σε αυτά τα συστήματα. Η ικανότητα των chatbots να μαθαίνουν από τις αλληλεπιδράσεις τους με τους χρήστες και να προσαρμόζονται στις ανάγκες τους μπορεί να οδηγήσει σε ακόμα πιο εξατομικευμένες και αποτελεσματικές επικοινωνίες, ενισχύοντας έτσι την εμπιστοσύνη.
Η σημασία της διαφάνειας και της ηθικής
Παράλληλα με την τεχνολογική πρόοδο, είναι σημαντικό να δοθεί έμφαση στη διαφάνεια σχετικά με τον τρόπο λειτουργίας των chatbots και στην τήρηση ηθικών αρχών κατά τον σχεδιασμό και την ανάπτυξή τους. Η διασφάλιση της προστασίας των προσωπικών δεδομένων και η αποφυγή της χρήσης των chatbots για παραπλανητικούς σκοπούς είναι κρίσιμες για τη διατήρηση και την ενίσχυση της εμπιστοσύνης του κοινού.
Με αυτόν τον τρόπο, η αλληλεπίδραση με τα chatbots μπορεί να εξελιχθεί σε μια θετική και παραγωγική εμπειρία, προσφέροντας αποτελεσματικές λύσεις και υποστήριξη σε διάφορους τομείς της καθημερινότητας.
Η ακεραιότητα πάνω από την καλοσύνη στην εμπιστοσύνη στα Chatbots
Η μελέτη κατέδειξε ότι η ακεραιότητα αποτελεί κρισιμότερο παράγοντα για την εμπιστοσύνη στα chatbots σε σχέση με την καλοσύνη. Αυτό υπογραμμίζει την ανάγκη για ανάπτυξη τεχνολογιών που δίνουν προτεραιότητα στην ακεραιότητα. Οι σχεδιαστές οφείλουν να λάβουν υπόψη ότι η εξατομικευμένη τεχνητή νοημοσύνη γίνεται αντιληπτή ως πιο καλοπροαίρετη, ικανή και ανθρώπινη, προκειμένου να διασφαλιστεί η ορθή χρήση των εργαλείων. Επιπλέον, έρευνες έχουν δείξει ότι ιδιαίτερα τα μοναχικά και ευάλωτα άτομα κινδυνεύουν να εξαρτηθούν από εφαρμογές φιλίας που βασίζονται στην τεχνητή νοημοσύνη.
«Η μελέτη μας δεν αποφαίνεται για το αν είναι θετικό ή αρνητικό να εμπιστεύεται κανείς ένα chatbot», τονίζει η Lalot. Αντιλαμβάνεται την τεχνητή νοημοσύνη των chatbots ως ένα εργαλείο στο οποίο πρέπει να μάθουμε να πλοηγούμαστε, όπως ακριβώς και με τις ευκαιρίες και τους κινδύνους των μέσων κοινωνικής δικτύωσης.
Η σημασία της αξιοπιστίας και της κριτικής σκέψης
Ωστόσο, τα αποτελέσματα της έρευνας οδηγούν σε ορισμένες συστάσεις. «Αποδίδουμε περισσότερα στα συστήματα τεχνητής νοημοσύνης από όσα πραγματικά είναι», σημειώνει η Lalot. Αυτό καθιστά ακόμη πιο σημαντικό τα συστήματα τεχνητής νοημοσύνης να είναι αξιόπιστα. Ένα chatbot δεν πρέπει ούτε να λέει ψέματα ούτε να επιδοκιμάζει άνευ όρων οτιδήποτε λέμε.
Εάν ένα chatbot τεχνητής νοημοσύνης είναι υπερβολικά συγκαταβατικό και δεκτικό, και απλώς συμφωνεί με όλα όσα λέει ένας χρήστης, τότε αποτυγχάνει να παρέχει σωστό έλεγχο της κατάστασης και ενέχει τον κίνδυνο να δημιουργήσει τη χειρότερη δυνατή εμπειρία για το χρήστη.
Η προδοσία από την Τεχνητή Νοημοσύνη και οι συνέπειες
Στις ανθρώπινες σχέσεις, η παραβίαση της εμπιστοσύνης μπορεί να έχει σοβαρές επιπτώσεις στις μελλοντικές αλληλεπιδράσεις. Μπορεί άραγε το ίδιο να συμβεί και με τα chatbots; «Αυτό είναι ένα ενδιαφέρον ερώτημα που απαιτεί περαιτέρω έρευνα», απαντά η Δρ. Lalot. «Σίγουρα μπορώ να φανταστώ ότι κάποιος μπορεί να αισθανθεί προδομένος εάν οι συμβουλές από ένα chatbot τεχνητής νοημοσύνης έχουν αρνητικές συνέπειες».
Η ανάγκη για νομοθετικό πλαίσιο και διαφάνεια
Είναι απαραίτητο να θεσπιστούν νόμοι που θα καθιστούν υπεύθυνους τους προγραμματιστές. Για παράδειγμα, μια πλατφόρμα τεχνητής νοημοσύνης θα μπορούσε να αποκαλύπτει τις πηγές που χρησιμοποίησε για να καταλήξει σε ένα συμπέρασμα και να δηλώνει πότε δεν γνωρίζει κάτι αντί να επινοεί μια απάντηση, ενισχύοντας έτσι τη διαφάνεια και την αξιοπιστία.