Google und Anthropic zeigen einmal mehr, wie eng der KI-Markt inzwischen verflochten ist. Wenn ein direkter Konkurrent zugleich strategischer Partner ist, wird klar: Im Rennen um leistungsfähige KI zählt nicht nur das beste Modell, sondern auch der Zugang zu Rechenleistung.
Der Internetkonzern Google investiert zunächst zehn Milliarden US-Dollar in Anthropic. Weitere 30 Milliarden US-Dollar können folgen, wenn das Unternehmen hinter dem KI-Chatbot Claude bestimmte Ziele erreicht. Damit baut Google seine bereits bestehende Verbindung zu Anthropic deutlich aus.
Interessant ist dabei die Doppelrolle: Google entwickelt mit Gemini eigene KI-Systeme und konkurriert damit direkt mit Claude. Gleichzeitig gehört Anthropic zu den wichtigen OpenAI-Herausforderern und ist für große Tech-Konzerne ein strategisch wertvoller Partner. Google liefert dem Unternehmen bereits spezialisierte KI-Chips und stärkt nun zusätzlich die finanzielle Basis.
Auch Amazon setzt weiter auf Anthropic. Erst kurz zuvor investierte der Konzern fünf Milliarden US-Dollar, mit Aussicht auf weitere 20 Milliarden US-Dollar. Solche Deals zeigen, wie stark die KI-Branche von sogenannten Kreislaufgeschäften geprägt ist: Geld fließt in KI-Unternehmen, kommt aber teilweise über Cloud-Dienste, Chips und Rechenleistung wieder zu den Investoren zurück.
Für Anthropic geht es dabei um mehr als Wachstum. Moderne KI-Modelle benötigen enorme Infrastruktur. Ohne massive Rechenkapazitäten lassen sich Systeme wie Claude kaum weiterentwickeln, betreiben und skalieren. Ähnlich steht auch OpenAI unter Druck, immer größere Ressourcen für seine KI-Produkte bereitzustellen.
Gleichzeitig bewegt sich Anthropic in einem politisch sensiblen Umfeld. Das Unternehmen will seine Modelle nicht für autonome Waffensysteme oder Massenüberwachung eingesetzt sehen und geriet dadurch in Konflikt mit der US-Regierung. Besonders brisant ist zudem Claude Mythos Preview, ein Modell, das bislang unentdeckte Software-Schwachstellen finden kann. Das macht es für Cybersicherheit wertvoll, in falschen Händen aber auch gefährlich.
