- Το Πεντάγωνο ζητά πρόσβαση σε μοντέλα AI για «όλους τους νόμιμους σκοπούς», με σαφή στρατιωτική χρήση.
- Η Anthropic αρνείται να άρει τους περιορισμούς του Claude για βία, όπλα και επιτήρηση.
- Η συνεργασία απειλείται, ενώ παραμένουν ερωτήματα για προηγούμενη χρήση του Claude σε επιχειρήσεις.
Το αμερικανικό Υπουργείο Άμυνας εξετάζει το ενδεχόμενο να διακόψει τη συνεργασία του με την Anthropic.
Η αιτία είναι ότι η εταιρεία αρνείται να διαθέσει την τεχνητή νοημοσύνη της για στρατιωτικούς σκοπούς.
Το Πεντάγωνο ζητά από τέσσερις μεγάλες εταιρείες τεχνητής νοημοσύνης (AI) απεριόριστη πρόσβαση στην τεχνολογία τους.
Οι OpenAI, Google, xAI και Anthropic καλούνται να διαθέτουν τα μοντέλα τους για «όλους τους νόμιμους σκοπούς».
Κατά την άποψη του Πενταγώνου, σε αυτούς περιλαμβάνονται η ανάπτυξη όπλων, οι μυστικές επιχειρήσεις πληροφοριών και οι πολεμικές αποστολές.
Σύμφωνα με ρεπορτάζ του Axios, τρεις από τις εταιρείες φέρονται να συμφώνησαν.
Η Anthropic, όμως, αντιδρά και επιμένει σε περιορισμούς στη στρατιωτική χρήση του μοντέλου της, του Claude.
Οι οδηγίες χρήσης της εταιρείας απαγορεύουν ρητά τη βία, την ανάπτυξη όπλων και την επιτήρηση.
Ο όρος «όλοι οι νόμιμοι σκοποί» αφήνει μεγάλο περιθώριο ερμηνείας, ειδικά όταν αφορά στρατιωτικές συμβάσεις και εξαιρέσεις εθνικής ασφάλειας.
Κυβερνητικός αξιωματούχος επιβεβαίωσε στο ίδιο μέσο ότι το Πεντάγωνο εξετάζει τη διακοπή της συνεργασίας.
Οι διαπραγματεύσεις συνεχίζονται εδώ και μήνες, χωρίς μέχρι στιγμής να υπάρξει συμφωνία.
Η υπόθεση της Βενεζουέλας και ο ρόλος της Palantir
Το θέμα γίνεται πιο ευαίσθητο λόγω αναφοράς της Wall Street Journal για προηγούμενη χρήση του Claude.
Το δημοσίευμα υποστηρίζει ότι το Claude χρησιμοποιήθηκε σε επιχείρηση που σχετιζόταν με τη Βενεζουέλα.
Μέσω της συνεργάτιδας εταιρείας Palantir, η AI φέρεται να αξιοποιήθηκε σε αποστολή που στόχευε στη σύλληψη του Νικολάς Μαδούρο.
Το Axios είχε αναφερθεί στο παρελθόν σε αυτή τη σύνδεση, σε προηγούμενο άρθρο του.
Τεχνικά ερωτήματα που παραμένουν ανοιχτά
Εκπρόσωπος της Anthropic αμφισβήτησε εν μέρει αυτή την παρουσίαση των γεγονότων.
Ανέφερε ότι η χρήση του Claude για «συγκεκριμένες επιχειρήσεις» δεν συζητήθηκε με το Πεντάγωνο.
Σύμφωνα με την εταιρεία, οι συνομιλίες επικεντρώθηκαν σε γενικά ζητήματα των πολιτικών χρήσης.
Πιο συγκεκριμένα, το επίδικο αφορά δύο «κόκκινες γραμμές».
- Πλήρως αυτόνομα οπλικά συστήματα.
- Μαζική επιτήρηση στο εσωτερικό.
Η Anthropic θέλει να αποτρέψει τη χρήση του Claude για όπλα που μπορούν να σκοτώνουν χωρίς ανθρώπινο έλεγχο.
Τέτοια συστήματα επιλέγουν στόχους αυτόνομα και προχωρούν στην εξουδετέρωσή τους.
Η μετάβαση σε «human-out-of-the-loop» αποφάσεις αυξάνει τον κίνδυνο λαθών και μειώνει τη λογοδοσία σε κρίσιμες στιγμές.
Το πως ακριβώς χρησιμοποιήθηκε το Claude στην υπόθεση της Βενεζουέλας παραμένει ασαφές.
Η AI μπορεί να αναλύει έγγραφα και να συνοψίζει πληροφορίες, με τρόπο παρόμοιο με το ChatGPT.
Δεν διευκρινίστηκε αν επρόκειτο μόνο για ανάλυση δεδομένων ή για πιο άμεση υποστήριξη.
Η Anthropic δεν θέλησε να σχολιάσει περαιτέρω τις λεπτομέρειες.
Η εταιρεία τόνισε ότι κάθε χρήση, ιδιωτική ή κρατική, πρέπει να συμμορφώνεται με τις δικές της οδηγίες.
Πρόσθεσε ότι συνεργάζεται με εταίρους ώστε να διασφαλίζεται η τήρηση των κανόνων.
Πως η AI αλλάζει τη βιομηχανία εξοπλισμών
Ο υπουργός Άμυνας Pete Hegseth ξεκαθάρισε τον Ιανουάριο τι επιδιώκει το Πεντάγωνο.
Θέλει μοντέλα AI χωρίς περιορισμούς, όπως φέρεται να δήλωσε.
«Δεν χρησιμοποιούμε μοντέλα που δεν επιτρέπουν να διεξάγεις πολέμους», είπε χαρακτηριστικά.
Παράλληλα, το Υπουργείο υπέγραψε σύμβαση με την xAI του Elon Musk.
Η σύγκρουση δείχνει τις διαφορετικές προσεγγίσεις στον χώρο της τεχνητής νοημοσύνης.
Ο επικεφαλής της Anthropic, Dario Amodei, είναι από τους λίγους που ζητούν αυστηρότερη ρύθμιση.
Αυτό τον έφερε ήδη σε σύγκρουση με τον David Sacks, τον αρμόδιο του Λευκού Οίκου για την AI.
Την ίδια στιγμή, η AI μετατοπίζει δραματικά τις ισορροπίες ισχύος στην αμυντική βιομηχανία.
Αναλυτές εκτιμούν, σύμφωνα με ρεπορτάζ του Spiegel, ότι συστήματα με υποστήριξη AI μπορεί να ξεπεράσουν σύντομα τη συμβατική ανάπτυξη όπλων.
Η αλλαγή αυτή θα μπορούσε να γίνει ορατή μέσα σε λίγα χρόνια.
Οι αμυντικές δαπάνες των ΗΠΑ κινούνται σταθερά πάνω από τα 800 δισ. δολάρια ετησίως, κάτι που κάνει το Πεντάγωνο κορυφαίο πελάτη για tech συμβάσεις.
Για την Anthropic, το διακύβευμα είναι μεγάλο.
Το Πεντάγωνο θεωρείται από τους πιο ισχυρούς και υψηλής δαπάνης πελάτες της τεχνολογικής αγοράς.
Ένας αποκλεισμός δεν θα κόστιζε μόνο έσοδα.
Θα μείωνε και τη στρατηγική επιρροή της εταιρείας σε ένα πεδίο με ισχυρές διασυνδέσεις.
Πού διαφωνούν πρακτικά οι δύο πλευρές
| Θέμα | Θέση Πενταγώνου | Θέση Anthropic (Claude) |
|---|---|---|
| Πεδίο χρήσης | Πρόσβαση για «όλους τους νόμιμους σκοπούς» | Χρήση μόνο εντός αυστηρών οδηγιών ασφάλειας |
| Ανάπτυξη όπλων | Επιτρεπτή ως νόμιμη δραστηριότητα | Ρητή απαγόρευση ανάπτυξης και διευκόλυνσης όπλων |
| Αυτόνομα συστήματα | Χωρίς περιορισμούς στο μοντέλο | «Κόκκινη γραμμή» για πλήρως αυτόνομη θανάτωση |
| Επιτήρηση στο εσωτερικό | Νόμιμη όπου προβλέπεται | «Κόκκινη γραμμή» για μαζική επιτήρηση |
Τι έχει αναφερθεί για τη στάση των εταιρειών
| Εταιρεία | Τι ζητά το Πεντάγωνο | Τι αναφέρεται ότι απάντησε |
|---|---|---|
| OpenAI | Πρόσβαση για όλους τους νόμιμους σκοπούς | Φέρεται να συμφώνησε, βάσει του Axios |
| Πρόσβαση για όλους τους νόμιμους σκοπούς | Φέρεται να συμφώνησε, βάσει του Axios | |
| xAI | Πρόσβαση για όλους τους νόμιμους σκοπούς | Υπάρχει και σύμβαση με το Υπουργείο Άμυνας |
| Anthropic | Πλήρης άρση περιορισμών | Αρνείται και επιμένει σε περιορισμούς χρήσης |
Τι να περιμένουμε στη συνέχεια και πως επηρεάζει την αγορά
Η σύγκρουση δεν είναι μόνο πολιτική, αλλά και βαθιά τεχνική.
Στην πράξη, «χωρίς περιορισμούς» σημαίνει πρόσβαση στο μοντέλο, στα εργαλεία, και στη ροή εργασιών.
Αν μια εταιρεία δεχθεί πλήρη στρατιωτική χρήση, χρειάζεται μηχανισμούς λογοδοσίας.
Αυτό περιλαμβάνει καταγραφή ενεργειών, διατήρηση audit logs και σαφή όρια σε ευαίσθητα prompts.
Από την άλλη πλευρά, μια απόλυτη απαγόρευση είναι δύσκολο να εφαρμοστεί τεχνικά σε περιβάλλον συνεργατών.
Ειδικά όταν ενδιάμεσοι πάροχοι ενσωματώνουν την AI σε μεγαλύτερες πλατφόρμες.
Πρακτικές κινήσεις που μειώνουν τον κίνδυνο κατάχρησης
Για εταιρείες AI που θέλουν να κρατήσουν «κόκκινες γραμμές», υπάρχουν ρεαλιστικά μέτρα συμμόρφωσης.
Τα μέτρα αυτά δεν λύνουν όλα τα προβλήματα, αλλά ανεβάζουν σημαντικά το κόστος κατάχρησης.
- Συμβατικές ρήτρες χρήσης με σαφείς ορισμούς για «όπλο», «επιτήρηση» και «στόχευση».
- Τεχνικά guardrails που μπλοκάρουν γνωστές κατηγορίες αιτημάτων και ροών εργασίας.
- Ανεξάρτητοι έλεγχοι και red-teaming, με αναφορές που μπορούν να αξιολογηθούν εκ των υστέρων.
- Διαβαθμισμένη πρόσβαση σε εργαλεία, ώστε τα πιο κρίσιμα capabilities να μην είναι «default».
Για κρατικούς πελάτες, η πρόκληση είναι διαφορετική.
Χρειάζονται προμήθειες που να συνδυάζουν επιχειρησιακή αξία με κανόνες ανθρώπινου ελέγχου.
Ένα πρακτικό σημείο είναι το «human-in-the-loop» σε κρίσιμες αποφάσεις.
Αυτό μπορεί να μπει ως απαίτηση σε συμβόλαια, και ως ελέγξιμο KPI σε δοκιμές.
Πιθανά σενάρια έκβασης και επιπτώσεις
| Σενάριο | Τι σημαίνει για την Anthropic | Τι σημαίνει για την αγορά AI |
|---|---|---|
| Συμβιβασμός με εξαιρέσεις | Διατηρεί έσοδα, αλλά πιέζεται να «χαλαρώσει» πολιτικές | Δημιουργεί προηγούμενο για ειδικούς όρους άμυνας |
| Διακοπή συνεργασίας | Απώλεια ισχύος και στρατηγικής πρόσβασης σε έργα άμυνας | Ενισχύει ανταγωνιστές που δέχονται πλήρη χρήση |
| Κλιμάκωση ρύθμισης | Πιθανή δικαίωση «κόκκινων γραμμών» με νέο πλαίσιο | Περισσότεροι κανόνες για αυτόνομα όπλα και επιτήρηση |
Για τους αναγνώστες και τους επαγγελματίες, αξίζει να παρακολουθούν δύο δείκτες.
Ο πρώτος είναι αν αλλάξουν οι όροι χρήσης του Claude με εξαιρέσεις για κυβερνητικούς πελάτες.
Ο δεύτερος είναι αν οι συμβάσεις θα απαιτούν αποδείξεις συμμόρφωσης και μετρήσιμα τεστ ασφάλειας.
Όσο πιο «μετρήσιμη» γίνεται η συμμόρφωση, τόσο λιγότερο θα βασίζεται σε δηλώσεις προθέσεων.
Τελικά, η υπόθεση δείχνει ότι η μάχη για την AI δεν είναι μόνο θέμα καινοτομίας.
Είναι και θέμα ορίων, ευθύνης και του ποιος αποφασίζει πότε μια τεχνολογία γίνεται εργαλείο πολέμου.
