2.500 χάκερ προσπάθησαν να χακάρουν συστήματα τεχνητής νοημοσύνης για να δοκιμάσουν τις δυνάμεις τους

Απάντηση
mixalis
Δημοσιεύσεις: 104
Εγγραφή: Τετ Φεβ 15, 2023 3:54 pm

2.500 χάκερ προσπάθησαν να χακάρουν συστήματα τεχνητής νοημοσύνης για να δοκιμάσουν τις δυνάμεις τους

Δημοσίευση από mixalis »

Πολλοί χάκερ στο DEF CON δοκίμασαν τις δυνάμεις τους στο hacking Large Language Models (LLM) και ως εκ τούτου στα πιο διάσημα chatbots.

Η ασφάλεια της γενετικής τεχνητής νοημοσύνης έχει γίνει μια από τις κορυφαίες προτεραιότητες στον κόσμο της τεχνολογίας μετά από πολυάριθμες δοκιμές που πραγματοποιήθηκαν το Σαββατοκύριακο. Το πείραμα έδειξε πόσο ποικίλα και πολύπλοκα μπορεί να είναι τα ζητήματα ασφάλειας.

Ένας από τους πιο αποτελεσματικούς τρόπους δοκιμής της ασφάλειας μιας εφαρμογής τεχνητής νοημοσύνης είναι μέσω της χρήσης αντίθετων επιθέσεων. Σε αυτή τη μέθοδο, οι ερευνητές ασφαλείας επιτίθενται ενεργά στην τεχνολογία, σε ένα ελεγχόμενο περιβάλλον, για να προσπαθήσουν να βρουν άγνωστα προηγουμένως τρωτά σημεία.

Σχεδόν 2.500 χάκερ πέρασαν το Σαββατοκύριακο στη διάσκεψη DEF CON στο AI ​​Village για να διερευνήσουν ευπάθειες σε δημοφιλή μοντέλα μεγάλων γλωσσικών συστημάτων . Οι δοκιμές βοήθησαν να δημιουργηθεί μια ευρύτερη εικόνα μιας βιομηχανίας που ιστορικά αγωνίστηκε με ζητήματα ασφάλειας κατά την εισαγωγή της τεχνολογίας.

Η εκδήλωση, που υποστηρίχθηκε από τον Λευκό Οίκο και κορυφαίους προγραμματιστές τεχνητής νοημοσύνης, περιλάμβανε μια σειρά εργασιών με στόχο τον εντοπισμό της ικανότητας των μοντέλων να μοιράζονται κακόβουλες ή ευαίσθητες πληροφορίες. Μία από τις προκλήσεις ήταν να πείσουμε το μοντέλο να απελευθερώσει την πιστωτική κάρτα ενός ατόμου ή τις οδηγίες παρακολούθησης. Ο Russell Kaplan, επικεφαλής μηχανικός της Scale AI, είπε στο Axios ότι η ζήτηση για αυτόν τον τύπο δοκιμών αξιολόγησης μοντέλων θα αυξηθεί «10 φορές» μετά την εκδήλωση.

Οι συμμετέχοντες διαπίστωσαν ότι οι εργασίες ήταν πιο δύσκολες από το αναμενόμενο.

Επιπλέον, εντοπίστηκαν περιπτώσεις όπου τα μοντέλα ενημερώθηκαν κατά τη διάρκεια της νύχτας με βάση τα αρχικά αποτελέσματα, βελτιώνοντας αποτελεσματικά την απόκριση των αλγορίθμων. Οι παράλληλες συζητήσεις εξέτασαν επίσης τρόπους κατάχρησης της τεχνητής νοημοσύνης για δόλιους σκοπούς, όπως η δημιουργία ενός ψεύτικου ιστότοπου λιανικής σε μόλις 8 λεπτά χρησιμοποιώντας μόλις 4,23 $.

Το Σαββατοκύριακο του AI Village αναμένεται να έχει σημαντικό αντίκτυπο στη βιομηχανία και τη νομοθεσία της κυβερνοασφάλειας. Ο διευθυντής του Γραφείου Επιστήμης και Τεχνολογίας του Λευκού Οίκου, Arati Prabhakar, πέρασε δύο ώρες στην εκδήλωση και τώρα ο Λευκός Οίκος εντείνει τις εργασίες για ένα εκτελεστικό διάταγμα που σχετίζεται με τα θέματα που συζητήθηκαν. Οι διοργανωτές της εκδήλωσης θα παρουσιάσουν επίσης τα πρώτα ευρήματα του ΟΗΕ τον επόμενο μήνα.

«Η κυβέρνηση, η βιομηχανία και ο ακαδημαϊκός κόσμος συνειδητοποιούν ότι αυτή η τεχνολογία έχει τεράστιες δυνατότητες, και μαζί με αυτό έρχεται τεράστια ευθύνη για δοκιμές και αξιολόγηση», κατέληξε ο Kaplan.

«Το πρόβλημα είναι ότι δεν υπάρχουν αρκετοί άνθρωποι που δοκιμάζουν αυτά τα πράγματα», είπε ο Sven Cattell, ο οποίος ίδρυσε την AI Village, τον μη κερδοσκοπικό οργανισμό που φιλοξένησε την εκδήλωση Def Con στην οποία συμμετείχαν περισσότεροι από 2000 χάκερ. «Η μεγαλύτερη ομάδα AI red που γνωρίζω είναι 111 άτομα. Υπάρχουν τώρα περισσότερα από 111 άτομα σε αυτό το δωμάτιο.»

Τα Generative chatbots AI, γνωστά και ως μοντέλα μεγάλων γλωσσών, λειτουργούν λαμβάνοντας μια προτροπή χρήστη και δημιουργώντας μια απάντηση. Αυτή τη φορά ο διαγωνισμός ζήτησε από τους χάκερ να πραγματοποιήσουν τις λεγόμενες άμεσες ενέσεις, στις οποίες ένα chatbot μπερδεύεται από το τι μπαίνει ένας χρήστης και εκτοξεύει μια ακούσια απάντηση.

Το Bard της Google, το ChatGPT του OpenAI και το LLaMA της Meta ήταν μεταξύ των συμμετεχόντων chatbot. Σύντομα θα ανακαλύψουμε τι κατάφεραν να κάνουν αυτοί οι χάκερ και πόσο σημαντικό είναι σήμερα να διεξάγουμε δοκιμές ασφαλείας σε αυτές τις νέες τεχνολογίες.
Απάντηση

Επιστροφή στο “Κυβερνοεπίθεση”