Administracja prezydenta Donalda Trumpa wprowadziła natychmiastowy zakaz korzystania przez agencje federalne z technologii AI firmy Anthropic, jednak – jak ustalił "Wall Street Journal" – już kilka godzin później wojsko USA użyło jej w operacji przeciwko celom w Iranie, informuje serwis Gazeta.pl. Wcześniej Trump określił twórców Anthropic jako „lewicowych wariatów”.
Amerykańskie władze miały wykorzystać - Claude'a, zaawansowanego chatbota działającego w oparciu o duże modele językowe (LLM). "Oferuje współpracę na poziomie eksperckim nad zadaniami, które musisz wykonać - od kodowania produktu po analizę kluczowych danych" - czytamy na stronie. I właśnie to wykorzystali Amerykanie. "WSJ" opisuje, że Claude był używany przez Centralne Dowództwo USA na Bliskim Wschodzie do oceny danych wywiadowczych, identyfikacji celów i symulacji scenariuszy bitewnych. Podobne wykorzystanie technologii zaobserwowano podczas schwytania Nicolasa Maduro w Wenezueli.
Konflikt między Anthropic a Departamentem Obrony dotyczy warunków wykorzystania modeli AI przez wojsko. Prezes firmy Dario Amodei domaga się zapisów zakazujących użycia Claude’a do masowej inwigilacji obywateli USA oraz w systemach w pełni autonomicznej broni. „Technologia AI nie jest obecnie wystarczająco rozwinięta, by taka broń była bezpieczna” – argumentował Amodei.
Pentagon odpowiada, że nie planuje takich zastosowań, ale nie zaakceptuje sytuacji, w której prywatna firma narzuca rządowi ograniczenia dotyczące wykorzystania technologii w celach obronnych. Resort miał postawić ultimatum, grożąc uznaniem Anthropic za „zagrożenie dla łańcucha dostaw”.
Sekretarz obrony Pete Hegseth zapowiedział, że administracja może sięgnąć po ustawę o produkcji obronnej (Defense Production Act). Pozwala ona prezydentowi USA uznać firmę lub jej produkt za kluczowy dla bezpieczeństwa narodowego, co umożliwia wymuszenie dostępu do technologii – niezależnie od stanowiska producenta.
Więcej w: Dziwny ruch Trumpa. Zakazał AI od tej firmy, a później użył jej w Iranie. Po co? (dostęp płatny)