Es scheint, als bereite sich der Westen auf einen großen Krieg vor. Doch dieser Krieg hat längst begonnen und er ist gleichzeitig auch ein Krieg gegen die eigene Bevölkerung. Sie glauben nicht, dass auch die eigene Bevölkerung längst zu einem Feindbild verkommen ist? Dann werfen Sie einen Blick auf das US-Verteidigungsministerium und sehen Sie sich genau an, wie es in diesen Tagen mit Anthropic umgeht.
Anthropic ist das Unternehmen hinter Claude.ai. Es ist eines der größten Unternehmen in den USA und wird an der Börse aktuell mit 380 Milliarden US-Dollar bewertet. Das sieht unzweifelhaft nach einer Erfolgsgeschichte aus. Diese könnte aber schon bald zu Ende sein, denn das Pentagon droht gerade, Anthropic auf die schwarze Liste zu setzen. Sollte dies geschehen, ist das Unternehmen in der Tat in seiner Existenz bedroht.
Der Grund für den Angriff des US-Kriegsministeriums ist aufschlussreich und er sagt viel aus über die Zukunft, die man für uns im Sinn hat. Seit einigen Monaten drängt das Pentagon die großen KI-Entwickler dazu, eine unbeschränkte Zusammenarbeit mit ihm einzugehen. Unbeschränkt heißt dabei wirklich unbeschränkt. Es soll alles erlaubt sein, was technisch möglich und legal ist, also die Entwicklung von neuen Waffen, die Informationsbeschaffung, KI-gestützte Kampfeinsätze und die Massenüberwachung der amerikanischen Bürger.
Ethik fängt da an, wo es weh tut. Alles andere ist für die Galerie
Eingeladen, an dieser unbegrenzten Kooperation teilzunehmen, wurden wurden die großen KI-Konzerne und sie stimmten alle zu: OperAI, Google, xAI, nur Anthropic lehnte ab. Es verweigerte sich der Zusammenarbeit nicht generell, sondern war verhandlungsbereit. In diesen Verhandlungen machte Anthropic jedoch aus Sicht des Pentagon den unverzeihlichen Fehler, auf zwei ihm wichtige Beschränkungen zu bestehen:
Anthropic wollte auf keinen Fall, dass Claude.ai zum Bau von vollständig autonomen Waffen verwendet wird, also Waffen, die feuern und töten, ohne dass zuvor ein menschliches Eingreifen erforderlich ist. Die zweite Grenze, die Anthropic sich zu ziehen erlaubte, war, dass Claude.ai nicht zur Massenüberwachung amerikanischer Bürger eingesetzt wird.
Das genügte, um das Pentagon zu erzürnen und Reaktionen auszulösen, die aus der aktuellen US-Außen- und Handelspolitik nur zu gut bekannt sind. Kriegsminister Pete Hegseth antwortete auf die Weigerung zur vollständigen uneingeschränkten Kooperation mit der Drohung, Anthropic als ein „Lieferkettenrisiko“ einzustufen. Das klingt im ersten Moment als nicht sehr gefährlich, ist aber existenzbedrohend. Denn:
Und bist du nicht willig, so brauch ich Gewalt
Stuft das Pentagon Anthropic tatsächlich als ein Lieferkettenrisiko ein, muss jedes Unternehmen, das mit dem US-Militär Geschäfte machen will, bestätigen, dass Claude.ai in keiner seiner Produktionsanlagen und Produkte verwendet wird. Das wird viele Unternehmen, die heute noch Kunden von Anthropic sind, dazu veranlassen, diese Geschäftsbeziehungen über kurz oder lang zu beenden.
Damit droht das US-Kriegsministerium einem amerikanischen Unternehmen damit, es in den finanziellen Ruin zu treiben, weil dieses Unternehmen nicht bereit ist, seine Software zur Spionage gegen die amerikanische Bevölkerung einzusetzen. Na, wenn das mal keine überzeugende Werbung für den selbsternannten Werte-Westen und seine ehrenwerten Prinzipien ist.