Η αγορά των χειραγωγημένων μοντέλων τεχνητής νοημοσύνης (AI), τα οποία μπορούν να χρησιμοποιηθούν μεταξύ άλλων για κυβερνοεγκλήματα, γνωρίζει άνθηση.
Μια μελέτη εξέτασε την αγορά των μοντέλων AI που έχουν επεξεργαστεί ώστε να χρησιμοποιούνται για εγκληματικές δραστηριότητες. Η μελέτη, που πραγματοποιήθηκε από τέσσερις επιστήμονες του Πανεπιστημίου της Ιντιάνα στο Μπλούμινγκτον, καταλήγει στο συμπέρασμα ότι η αγορά αυτών των λεγόμενων Mallas (κακόβουλα AI) γνωρίζει αυτή τη στιγμή άνοδο και ότι οι διαχειριστές των λογισμικών κερδίζουν αρκετά χρήματα.
Τα Mallas χωρίζονται γενικά σε δύο κατηγορίες: Η μία αποτελείται από μοντέλα που βασίζονται σε ανοιχτού κώδικα υλικό και έχουν προγραμματιστεί να λειτουργούν χωρίς περιορισμούς. Η άλλη ομάδα αποτελείται από εμπορικά διαθέσιμα LLMs (Large Language Model) άλλων εταιρειών, τα οποία έχουν επεξεργαστεί ώστε να εκτελούν και αιτήματα που συνήθως απαγορεύονται, όμως αυτά συνήθως συνοδεύονται με κάποιους περιορισμούς, αλλά προφανώς είναι καλύτερης ποιότητας.
Τέτοια Mallas χρησιμοποιούνται μεταξύ άλλων από κυβερνοεγκληματίες για να συντάσσουν phishing emails που δεν εντοπίζονται αμέσως από τα φίλτρα ανεπιθύμητης αλληλογραφίας, όπως γράφει η ιστοσελίδα Fast Company. Υπάρχουν επίσης Mallas που μπορούν να γράφουν κώδικα για επιθέσεις κακόβουλου λογισμικού.
Η χρήση της τεχνητής νοημοσύνης για εγκληματικές δραστηριότητες είναι “αναπόφευκτη”
“Είναι σχεδόν αναπόφευκτο οι κυβερνοεγκληματίες να χρησιμοποιούν την τεχνητή νοημοσύνη για δόλιους σκοπούς”, λέει ένας από τους συγγραφείς της μελέτης, ο Wang Xiaofeng. “Κάθε τεχνολογία έχει πάντα δύο όψεις”. Η αγορά των Mallas αναμένεται να συνεχίσει να αναπτύσσεται, καθώς οι διαχειριστές των μοντέλων κερδίζουν αρκετά χρήματα από αυτά.
Το μη λογοκριμένο LLM DarkGPt, για παράδειγμα, κοστίζει στους χρήστες 0,78 δολάρια για κάθε 50 μηνύματα που στέλνονται. Το Malla Escape GPT κοστίζει 65 δολάρια μηνιαίως και μπορεί να δημιουργήσει κώδικα για κακόβουλο λογισμικό. Το WolfGPT κοστίζει μια εφάπαξ πληρωμή 150 δολαρίων και δημιουργεί phishing emails.
Η μελέτη έχει δημοσιευθεί για αξιολόγηση από ομοτίμους στον διακομιστή προδημοσίευσης του Πανεπιστημίου Cornell. Ο Wang πιστεύει ότι ακόμη και τα στοχευμένα μέτρα από την πλευρά των κυβερνήσεων δεν θα αποτρέψουν την κακή χρήση της τεχνολογίας AI. “Δεν μπορούμε να κάνουμε τίποτα για να σταματήσουμε εντελώς αυτά τα πράγματα, γιατί δεν έχουμε τα μέσα.”
Η αντιμετώπιση αυτού του φαινομένου είναι περίπλοκη
Η εκθετική ανάπτυξη της τεχνητής νοημοσύνης και η ευρεία διαθεσιμότητα προηγμένων μοντέλων AI στο ευρύ κοινό που αν μη τι άλλο θεωρείται επικίνδυνη: από τη μία, προσφέρουν τεράστιες δυνατότητες σε διάφορους τομείς, όπως την ιατρική, την επιστήμη και την οικονομία. Από την άλλη, όμως, αποτελούν ένα ισχυρό εργαλείο στα χέρια των κυβερνοεγκληματιών. Η ευκολία με την οποία μπορούν να προσαρμοστούν και να εκπαιδευτούν τα μοντέλα AI για κακόβουλους σκοπούς αποτελεί μια σοβαρή πρόκληση για την κυβερνοασφάλεια.
Η αντιμετώπιση αυτού του φαινομένου απαιτεί μια πολυεπίπεδη προσέγγιση. Εκτός από την ανάπτυξη πιο ισχυρών μέτρων ασφαλείας, είναι απαραίτητη η συνεργασία μεταξύ κυβερνήσεων, εταιρειών τεχνολογίας και ερευνητών. Επιπλέον, η εκπαίδευση του κοινού σχετικά με τους κινδύνους της κυβερνοεγκληματικότητας και την ανάγκη για συνεχή επιφυλακή είναι κρίσιμης σημασίας. Η ανάπτυξη ηθικών κατευθυντήριων γραμμών για την ανάπτυξη και χρήση της τεχνητής νοημοσύνης θα μπορούσε επίσης να συμβάλει στην αποτροπή της κακοποίησής της.
