Τέλος δεν έχει η διαμάχη Πενταγώνου και Open AI-Anthropic. Τα γράφαμε την περασμένη εβδομάδα: η αντιπαράθεση ξεκίνησε ως μια δημόσια σύγκρουση μεταξύ των δύο εταιρειών για το μοντέλο χρηματοδότησης της παραγωγικής τεχνητής νοημοσύνης (διαφημίσεις ή όχι) και γρήγορα μετατράπηκε σε πολιτική κρίση. Η Anthropic αρνήθηκε να επιτρέψει τη χρήση των μοντέλων της για μαζική επιτήρηση Αμερικανών πολιτών και πλήρως αυτόνομα οπλικά συστήματα. Η κυβέρνηση Τραμπ διέταξε τις ομοσπονδιακές υπηρεσίες να διακόψουν τη χρήση της τεχνολογίας της.
Η σύγκρουση κορυφώθηκε στα τέλη Φεβρουαρίου όταν ο υπουργός Άμυνας, Πιτ Χέγκσεθ, έδωσε τελεσίγραφο στην εταιρεία του Ντάριο Αμοντέι. Η Anthropic αρνήθηκε να αποδεχθεί ότι τα μοντέλα της θα μπορούσαν να χρησιμοποιηθούν χωρίς συγκεκριμένους περιορισμούς και το Πεντάγωνο προχώρησε στον χαρακτηρισμό «supply chain risk» (κίνδυνο για την εφοδιαστική αλυσσίδα), έναν χαρακτηρισμό που μέχρι σήμερα χρησιμοποιοείτο κυρίως για εταιρείες με δεσμούς με την Κίνα. Παρά την απόφαση, ο αμερικανικός στρατός συνεχίζει προσωρινά να χρησιμοποιεί τα εργαλεία της εταιρείας για διάστημα έως έξι μηνών, μέχρι να αντικατασταθούν.
Την ίδια στιγμή η OpenAI κινήθηκε γρήγορα. Λίγες ώρες μετά τη ρήξη με την Anthropic, ο Σαμ Άλτμαν ανακοίνωσε συμφωνία με το Υπουργείο Άμυνας για χρήση των μοντέλων της εταιρείας σε διαβαθμισμένα συστήματα. Η OpenAI αποδέχθηκε την αρχή της χρήσης για κάθε νόμιμο σκοπό, αλλά ανακοίνωσε ότι θα ενσωματώσει τεχνικούς περιορισμούς ώστε να αποτρέπεται η μαζική επιτήρηση πολιτών και η πλήρης αυτονομία οπλικών συστημάτων. Λίγες ημέρες αργότερα ο Άλτμαν δήλωσε ότι βιάστηκε και το συμβόλαιο τροποποιήθηκε ώστε να προστεθεί ρητά ότι τα συστήματα δεν θα χρησιμοποιούνται σκόπιμα για εσωτερική παρακολούθηση Αμερικανών πολιτών.
Από την πλευρά της, η Anthropic προσέφυγε στη δικαιοσύνη. Κατέθεσε αγωγή κατά του Υπουργείου Άμυνας ζητώντας να ακυρωθεί ο χαρακτηρισμός της ως κινδύνου για την εφοδιαστική αλυσίδα. Σύμφωνα με στελέχη της, η απόφαση αποτελεί αυθαίρετη κυβερνητική τιμωρία που απειλεί να προκαλέσει οικονομική ζημιά έως και πέντε δισεκατομμύρια δολάρια. Στην αγωγή της, η διοίκηση διευκρίνισε ότι ήδη αρκετοί συνεργάτες έχουν παγώσει συμβόλαια ή ζητούν ρήτρες αποχώρησης φοβούμενοι τις συνέπειες της κυβερνητικής απόφασης.
Η εξέλιξη προκάλεσε αντιδράσεις ακόμη και μέσα στην ίδια την OpenAI. Η Κέιτλιν Καλινόφσκι, επικεφαλής της ομάδας ρομποτικής της εταιρείας, παραιτήθηκε δηλώνοντας ότι η συμφωνία με το Πεντάγωνο ανακοινώθηκε χωρίς να έχουν καθοριστεί επαρκείς εγγυήσεις. Επίσης, περισσότεροι από τριάντα ερευνητές από την OpenAI και την Google DeepMind υπέγραψαν κοινό ψήφισμα υπέρ της Anthropic στο οποίο υποστηρίζουν ότι η απόφαση του Πενταγώνου μπορεί να πλήξει τη συνολική ανταγωνιστικότητα της αμερικανικής βιομηχανίας τεχνητής νοημοσύνης. Οι υπογράφοντες σημειώνουν ότι, ελλείψει σαφούς νομοθεσίας για τη στρατιωτική χρήση της τεχνητής νοημοσύνης, οι περιορισμοί που θέτουν οι ίδιες οι εταιρείες αποτελούν σήμερα μία από τις λίγες δικλίδες ασφαλείας.
Ταυτόχρονα η σύγκρουση προκαλεί τεχνικές και επιχειρησιακές συνέπειες. Το στρατιωτικό λογισμικό Maven της Palantir, που χρησιμοποιείται για ανάλυση πληροφοριών και εντοπισμό στόχων σε στρατιωτικές επιχειρήσεις, βασίζεται σε μεγάλο βαθμό σε μοντέλα της Anthropic. Μετά την κυβερνητική απόφαση οι εργολάβοι του Πενταγώνου εξετάζουν πώς θα αντικαταστήσουν τα συστήματα αυτά με άλλα μοντέλα τεχνητής νοημοσύνης, διαδικασία που μπορεί να αποδειχθεί τεχνικά δύσκολη και χρονοβόρα.
Στο παρασκήνιο γίνονται επίσης νέες διαπραγματεύσεις. Ο Ντάριο Αμοντέι φέρεται να έχει αρκετές επαφές με τον υφυπουργό Άμυνας, Έμιλ Μάικλ, προκειμένου να βρεθεί συμβιβαστική λύση για το συμβόλαιο. Παρά τις δημόσιες συγκρούσεις, το Πεντάγωνο εξακολουθεί να χρειάζεται και μάλιστα άμεσα τις δυνατότητες των μεγάλων μοντέλων τεχνητής νοημοσύνης, ιδίως για ανάλυση πληροφοριών και επιχειρήσεις σε «καυτές» περιοχές όπως η Μέση Ανατολή.
Έτσι, η σύγκρουση που ξεκίνησε ως εμπορικός ανταγωνισμός εξελίσσεται πλέον σε κάτι πολύ μεγαλύτερο. Την πρώτη μεγάλη πολιτική μάχη γύρω από το αν θα υπάρχουν κανόνες και έλεγχος για την χρήση της τεχνητής νοημοσύνης, ιδίως για στρατιωτικούς σκοπούς. Οι νομοθέτες θα έπρεπε να μπορούν να επέμβουν αλλά οι διάφοροι χαρακτηρισμοί «εθνικής ασφάλειας» περιορίζουν σαφώς τη λειτουργία της δημοκρατίας.
