Een AI-lab trekt voor het eerst een harde juridische grens bij militair gebruik van zijn modellen.
Anthropic dient twee rechtszaken in tegen het Amerikaanse Ministerie van Defensie na te zijn bestempeld als supply chain risk.
Anthropic stapt vandaag naar de rechter. Het bedrijf dient twee aanklachten in: één bij de federale rechtbank in San Francisco, één bij het hof van beroep in Washington. De aanleiding is een reeks escalaties die de afgelopen weken steeds sneller zijn gegaan.
Het conflict draait om twee grenzen die Anthropic stelt aan het gebruik van Claude door het Pentagon. Anthropic weigert dat zijn AI-model wordt ingezet voor massasurveillance van Amerikaanse burgers of voor volledig autonome wapensystemen zonder menselijk toezicht. Minister van Defensie Pete Hegseth eist onbeperkte toegang voor “elk wettig doel” en stelt dat een privébedrijf niet bepaalt hoe de overheid militaire technologie inzet.
Op 4 maart bestempelde het Pentagon Anthropic als supply chain risk. Dat is een kwalificatie die normaal gesproken is voorbehouden aan buitenlandse tegenstanders. President Trump gaf vervolgens opdracht aan alle federale instanties om direct te stoppen met Anthropic-technologie. De General Services Administration beëindigde het overheidscontract.
In de aanklacht stelt Anthropic dat de overheid het Eerste Amendement schendt. Het bedrijf wordt bestraft voor het uitspreken van opvattingen over AI-veiligheid, niet voor het leveren van een slecht product.
Dit is de eerste keer dat een AI-bedrijf via de rechter grenzen stelt aan overheidsmacht over zijn eigen technologie. De vraag die hier wordt voorgelegd is scherp: mag een ontwikkelaar bepalen waarvoor zijn model niet geschikt is, ook als de klant de Amerikaanse overheid is? De uitkomst van deze zaak is onzeker. Maar de vraag zelf dwingt elke andere AI-ontwikkelaar om een positie in te nemen.