Η ανάπτυξη του AI μπορεί να ενισχύσει την εγκληματικότητα στον κυβερνοχώρο

Η ανάπτυξη του AI μπορεί να ενισχύσει την εγκληματικότητα στον κυβερνοχώρο

Η ανάπτυξη του AI μπορεί να ενισχύσει την εγκληματικότητα στον κυβερνοχώρο, προειδοποιεί νέα ερευνητική έκθεση.

Η διάδοση των τεχνολογιών τεχνητής νοημοσύνης θα μπορούσε να επιτρέψει νέες μορφές εγκλήματος στον κυβερνοχώρο, πολιτικές διαταραχές, ακόμη και την προτροπή φυσικών επιθέσεων μέσα στα επόμενα πέντε χρόνια, ανέφερε μια ομάδα 26 εμπειρογνωμόνων από όλο τον κόσμο.

Σε μια νέα έκθεση , οι εμπειρογνώμονες από διάφορα πανεπιστήμια περιγράφουν το AI ως “τεχνολογία διπλής χρήσης” με πιθανές στρατιωτικές και πολιτικές χρήσεις, όπως η πυρηνική ενέργεια, τα εκρηκτικά και τα εργαλεία χακαρίσματος ενάντια κυβερνητικών οργανισμών και πολιτών.

«Καθώς οι δυνατότητες του AI γίνονται πιο ισχυρές και ευρέως διαδεδομένες, αναμένουμε ότι η αυξανόμενη χρήση των συστημάτων AI θα οδηγήσει στην επέκταση των υφιστάμενων απειλών, και μάλιστα θα εισάγει νέες που είναι πρωτόγνωρες για τα σημερινά δεδομένα, αλλάζοντας ουσιαστικά τον χαρακτήρα των απειλών», υπογραμμίζει η έκθεση.

Οι ερευνητές υποστηρίζουν ότι πρέπει να εξεταστεί προσεκτικά από όλες τις κυβερνήσεις του κόσμου το ενδεχόμενο κατάχρησης του AI πολύ τώρα που είναι νωρίς, και να εργαστούν για τη δημιουργία κατάλληλων κανονιστικών πλαισίων για την πρόληψη κακόβουλων χρήσεων της τεχνητής νοημοσύνης AI.

Αν η συμβουλή δεν ακολουθηθεί, η έκθεση προειδοποιεί ότι το AI είναι πιθανό να επιφέρει επανάσταση στο δυναμικό των χάκερς. Στην ψηφιακή ζωή, λένε, ότι το AI θα μπορούσε να χρησιμοποιηθεί με δόλιο τρόπο για να προκαλέσει ανυπολόγιστες ζημιές σε όλα τα συστήματα που βασίζονται στο διαδίκτυο. Η τεχνολογία θα μπορούσε να αυτοματοποιήσει την ανακάλυψη κρίσιμων σφαλμάτων στα λογισμικά ή να επιλέξει γρήγορα πιθανά θύματα για κερδοφόρο οικονομικό έγκλημα.

Μπορεί, ακόμη να χρησιμοποιηθεί για την κατάχρηση των αλγόριθμων στο Facebook για να δημιουργήσει επιθέσεις στα κοινωνικά μέσα δικτύωσης που χρησιμοποιούνται κατά κόρον από όλο τον κόσμο που έχουν σχεδιαστεί για να μεγιστοποιήσουν την πιθανότητα ένας χρήστης να κάνει κλικ σε έναν κακόβουλο σύνδεσμο ή να κατεβάσει ένα μολυσμένο συνημμένο αρχείο.

Η αυξανόμενη επιρροή του AI στον φυσικό κόσμο σημαίνει ότι είναι επίσης ευάλωτη στην κακή χρήση του AI. Το πιο ευρέως διαδεδομένο παράδειγμα περιλαμβάνει τον έλεγχο των στρατιωτικών συστημάτων που πλέον θα είναι υπό την εξουσία των χάκερς , αφού θα έχουν τη δυνατότητα να ενεργοποιήσουν επικίνδυνα όπλα που κατέχει ο στρατός.

Η πολιτική αναστάτωση είναι εξίσου αναμενόμενη, υποστηρίζει η έκθεση. Τα κράτη μέλη ενδέχεται να αποφασίσουν να χρησιμοποιήσουν αυτοματοποιημένες πλατφόρμες επιτήρησης για την καταστολή των διαδηλώσεων- όπως συμβαίνει ήδη στην Κίνα, ιδίως για τους κατοίκους του Ουιγούρου στο βορειοδυτικό μέρος της χώρας. Ωστόσο μπορεί να δημιουργήσουν “αυτοματοποιημένες, υπερ-εξατομικευμένες εκστρατείες παραπληροφόρησης”, στοχεύοντας σε κάθε μεμονωμένο ψηφοφόρο με ένα ξεχωριστό σύνολο ψεμάτων σχεδιασμένο να επηρεάζει τη συμπεριφορά τους, δηλαδή μέσω της τεχνητής νοημοσύνης θα μπορούσε να να εκτελεστούν μαζικές επιθέσεις παραπληροφόρησης που θα περιλαμβάνουν ψεύτικες ειδήσεις, αναμειγμένο με νόμιμες πληροφορίες οι οποίες θα καθίστανται σχεδόν αδύνατο να διακριθούν, ακόμη και από εξειδικευμένα άτομα.

Ο Seán Ó hÉigeartaigh από το πανεπιστήμιο του Κέμπριτζ ο οποίος ασχολείται με τη μελέτη του υπαρξιακού κινδύνου, και είναι ένας από τους συγγραφείς της έκθεσης, δήλωσε: Ζούμε σε έναν κόσμο που θα μπορούσε να γεμίσει με καθημερινούς κινδύνους από την κακή χρήση του AI και πρέπει όλα τα σοβαρά κράτη να αναλάβουν την ευθύνη των ενδεχόμενων προβλημάτων που θα προκύψουν- επειδή οι κίνδυνοι θα είναι πραγματικοί. Υπάρχουν διαθέσιμες επιλογές που πρέπει να γίνουν από τώρα, για να αποτραπεί η ενδεχόμενη εγκληματικότητα στον κυβερνοχώρο, και η έκθεσή μας αποτελεί πρόσκληση αφύπνισης για τις κυβερνήσεις, τους θεσμούς και τους μεμονωμένους πολίτες ανά τον κόσμο.

Αρκετοί εμπειρογνώμονες δεν είναι ακόμα πεπεισμένοι αν το η AI ενέχει έναν τέτοιο κίνδυνο. Ο Ντμίτρι Αλπερόβιτς, ο συνιδρυτής της εταιρείας ασφάλειας πληροφοριών CrowdStrike, δήλωσε: Δεν είμαι της άποψης ότι η γη θα καταστραφεί εξαιτίας των συνεπειών που θα επιφέρει η τεχνητή νοημοσύνη.

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

Παρακαλώ εισάγετε το σχόλιο σας!
Παρακαλώ εισάγετε το όνομά σας