Code Velocity
Unternehmens-KI

Anthropic, Google, Broadcom: Partnerschaft für Gigawatt an KI-Rechenleistung

·7 Min. Lesezeit·Anthropic, Google, Broadcom·Originalquelle
Teilen
Anthropic geht Partnerschaft mit Google und Broadcom ein, um Gigawatt an KI-Rechenleistung zu sichern

title: "Anthropic, Google, Broadcom: Partnerschaft für Gigawatt an KI-Rechenleistung" slug: "google-broadcom-partnership-compute" date: "2026-04-07" lang: "de" source: "https://www.anthropic.com/news/google-broadcom-partnership-compute" category: "Unternehmens-KI" keywords:

  • Anthropic
  • Google
  • Broadcom
  • KI-Rechenleistung
  • Claude-Modelle
  • TPU-Kapazität
  • KI-Infrastruktur
  • Unternehmens-KI
  • Cloud-Plattformen
  • KI-Partnerschaft
  • generative KI
  • maschinelles Lernen meta_description: "Anthropic erweitert seine KI-Rechenkapazität durch eine neue Partnerschaft mit Google und Broadcom drastisch und sichert sich mehrere Gigawatt an Next-Gen TPU-Kapazität für Claude-Modelle." image: "/images/articles/google-broadcom-partnership-compute.png" image_alt: "Anthropic geht Partnerschaft mit Google und Broadcom ein, um Gigawatt an KI-Rechenleistung zu sichern" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • Anthropic
  • Google
  • Broadcom schema_type: "NewsArticle" reading_time: 7 faq:
  • question: 'Was ist das Hauptziel der erweiterten Partnerschaft von Anthropic mit Google und Broadcom bezüglich der KI-Rechenleistung?' answer: 'Das Hauptziel der neu angekündigten Partnerschaft von Anthropic mit Google und Broadcom ist die Sicherstellung einer massiven Erweiterung seiner KI-Recheninfrastruktur, insbesondere mehrerer Gigawatt an Next-Generation Tensor Processing Unit (TPU)-Kapazität. Dieses bedeutende Engagement, das ab 2027 in Betrieb gehen soll, dient der Weiterentwicklung und Bereitstellung von Anthropic’s führenden Claude-Modellen. Es adressiert direkt das exponentielle Wachstum der Nachfrage seiner globalen Kundenbasis und stellt sicher, dass Anthropic über die notwendigen Rechenressourcen verfügt, um seine Führungsposition in der KI-Innovation zu behaupten und leistungsstarke, zuverlässige Dienste für Unternehmen bereitzustellen, die seine fortschrittlichen KI-Lösungen einsetzen.'
  • question: 'Wie haben sich Anthropic’s Kundenbasis und Umsatz entwickelt und diese Infrastrukturinvestition beeinflusst?' answer: 'Anthropic hat einen beispiellosen Anstieg der Kundennachfrage und des finanziellen Wachstums erlebt, der diese erhebliche Infrastrukturinvestition direkt notwendig macht. Anfang 2026 hat der annualisierte Umsatz des Unternehmens die Marke von 30 Milliarden US-Dollar überschritten, ein signifikanter Sprung von rund 9 Milliarden US-Dollar zum Ende des Jahres 2025. Darüber hinaus hat sich die Anzahl der Geschäftskunden, die jährlich über 1 Million US-Dollar bei Anthropic ausgeben, in weniger als zwei Monaten verdoppelt und liegt nun bei über 1.000. Dieses schnelle, anhaltende Wachstum seiner Unternehmenskundenbasis unterstreicht den kritischen Bedarf an einer massiven Erweiterung der Rechenleistung, um sowohl bestehende Nutzer zu unterstützen als auch zukünftige Fortschritte seiner Claude-Modelle zu ermöglichen.'
  • question: 'Welche Rolle spielt diese Partnerschaft bei Anthropic’s Engagement zur Stärkung der amerikanischen KI-Infrastruktur?' answer: 'Diese Partnerschaft stellt eine wichtige Säule in Anthropic’s breiterem strategischen Engagement zur Stärkung der amerikanischen KI-Infrastruktur dar. Der Großteil der neu gesicherten Rechenkapazität von Google und Broadcom wird in den Vereinigten Staaten angesiedelt sein. Dieser Schritt erweitert Anthropic’s bereits im November 2025 angekündigte Investitionsinitiative von 50 Milliarden US-Dollar erheblich, die darauf abzielt, die nationalen Rechenkapazitäten zu stärken. Indem Anthropic eine solch kritische KI-Infrastruktur auf US-Boden beherbergt, adressiert es nicht nur seine eigenen betrieblichen Bedürfnisse, sondern trägt auch zur nationalen technologischen Resilienz und zur Schaffung von Arbeitsplätzen im sich schnell entwickelnden KI-Sektor bei und fördert ein robustes heimisches KI-Ökosystem.'
  • question: 'Wie verbessert Anthropic’s Multi-Plattform-Strategie die Leistung und Resilienz der Claude-Modelle?' answer: 'Anthropic verfolgt eine bewusste Multi-Plattform-Strategie, um die Leistung und Resilienz seiner Claude-Modelle zu verbessern. Dies beinhaltet das Training und den Betrieb von Claude auf einer Vielzahl von KI-Hardware, einschließlich AWS Trainium, Google TPUs und NVIDIA GPUs. Dieser Ansatz ermöglicht es Anthropic, spezifische Workloads strategisch den am besten geeigneten Chips zuzuordnen und so Effizienz und spezialisierte Verarbeitung zu optimieren. Indem Anthropic nicht von einem einzigen Hardware-Anbieter oder Cloud-Provider abhängig ist, gewinnt es erhebliche Flexibilität, reduziert Abhängigkeitsrisiken und stellt sicher, dass Kunden optimale Leistung und erhöhte Betriebsresilienz für ihre kritischen KI-gesteuerten Aufgaben erhalten – ein Schlüsselfaktor für die Akzeptanz und das Vertrauen von Unternehmen in führende KI.'
  • question: 'Welche großen Cloud-Plattformen bieten Anthropic’s Claude-Modelle ihren Kunden an?' answer: 'Anthropic’s Claude-Modelle sind einzigartig auf allen drei der weltweit größten Cloud-Plattformen verfügbar und bieten Unternehmenskunden eine beispiellose Zugänglichkeit und Auswahl. Insbesondere wird Claude über Amazon Web Services (AWS) via dessen Bedrock-Dienst, auf Google Cloud über Vertex AI und innerhalb von Microsoft Azure über dessen Foundry-Programm angeboten. Diese breite Verfügbarkeit stellt sicher, dass Organisationen, unabhängig von ihrer bestehenden Cloud-Infrastruktur oder strategischen Partnerschaften, die fortschrittlichen KI-Funktionen von Anthropic nahtlos integrieren und nutzen können, was Claude zu einer äußerst vielseitigen und zugänglichen Option auf dem wettbewerbsintensiven KI-Markt macht.'
  • question: 'Wann wird die neue Rechenkapazität voraussichtlich in Betrieb genommen?' answer: 'Die neue Rechenkapazität, die durch die erweiterte Partnerschaft mit Google und Broadcom gesichert wurde, wird voraussichtlich relativ bald in Betrieb genommen. Anthropic erwartet, dass diese signifikante Erweiterung der Next-Generation TPU-Kapazität ab 2027 online gehen wird. Dieser gestaffelte Rollout gewährleistet eine stetige Erhöhung der Rechenleistung, strategisch abgestimmt auf das prognostizierte Wachstum der Nachfrage nach Anthropic’s Claude-Modellen und die kontinuierliche Weiterentwicklung seiner KI-Forschungs- und Entwicklungsbemühungen, wodurch ein klarer Fahrplan für die Skalierung seiner Infrastruktur zur Bewältigung zukünftiger Herausforderungen und Chancen in der KI-Landschaft bereitgestellt wird.'

Anthropic sichert Gigawatt an Next-Gen KI-Rechenleistung mit Google und Broadcom

San Francisco, CA – 7. April 2026 – Anthropic, ein führendes Unternehmen im Bereich KI-Sicherheit und -Forschung, gab heute eine wegweisende Erweiterung seiner Partnerschaft mit den Tech-Giganten Google und Broadcom bekannt. Diese neue Vereinbarung verpflichtet Anthropic zu mehreren Gigawatt an Next-Generation Tensor Processing Unit (TPU)-Kapazität, die ab 2027 in Betrieb gehen soll. Diese monumentale Investition unterstreicht Anthropic’s aggressive Strategie zur Skalierung seiner Recheninfrastruktur, die seine führenden Claude-Modelle antreibt und die stark wachsende globale Nachfrage seiner Unternehmenskundenbasis bedient.

Die Zusammenarbeit stellt einen entscheidenden Moment für Anthropic dar, da sie die notwendigen Ressourcen sichert, um sein rasantes Innovationstempo beizubehalten. "Diese bahnbrechende Partnerschaft mit Google und Broadcom ist eine Fortsetzung unseres disziplinierten Ansatzes zur Skalierung der Infrastruktur", erklärte Krishna Rao, CFO von Anthropic. "Wir tätigen unser bisher größtes Rechen-Commitment, um mit unserem beispiellosen Wachstum Schritt zu halten und Claude zu ermöglichen, die Spitze der KI-Entwicklung zu definieren." Dieser strategische Schritt festigt Anthropic’s Position an der Spitze der KI und bildet das Rückgrat für zunehmend komplexe und leistungsfähige Modelle.

Beispielloses Wachstum treibt massive Infrastrukturinvestitionen an

Die Entscheidung zur drastischen Erweiterung der Rechenkapazität spiegelt Anthropic's explosiven kommerziellen Erfolg und die Akzeptanz direkt wider. Die Nachfrage nach Claude-Modellen hat sich im Jahr 2026 rasant beschleunigt. Anthropic’s annualisierter Umsatz hat nun beeindruckende 30 Milliarden US-Dollar überschritten, eine mehr als dreifache Steigerung gegenüber den rund 9 Milliarden US-Dollar Ende 2025.

Zusätzlich zu diesem bemerkenswerten Wachstum hat sich die Anzahl der Geschäftskunden, die auf annualisierter Basis über 1 Million US-Dollar ausgeben, in weniger als zwei Monaten verdoppelt und liegt nun bei über 1.000. Diese rasante Expansion im Unternehmensengagement unterstreicht die entscheidende Rolle, die Claude bei der Steigerung des Geschäftswerts und der digitalen Transformation in verschiedenen Branchen spielt. Um diesen Kurs beizubehalten und seine wachsende Kundschaft effektiv zu bedienen, sind solch erhebliche Investitionen in die Kerninfrastruktur nicht nur vorteilhaft, sondern absolut wesentlich.

Anthropic’s Wachstumsmeilensteine

MetrikSchätzung Jahresende 2025Anfang 2026 (Aktuell)Wachstumsfaktor (ca.)
Annualisierter Umsatz~9 Milliarden US-Dollar>30 Milliarden US-Dollar~3.3x
Jährliche Kunden, die >1 Mio. US-Dollar ausgeben500+>1.000>2x

Diese Tabelle veranschaulicht die aggressiven Wachstumsmetriken, die Anthropic’s signifikante Investition in KI-Rechenleistung notwendig machen und das Unternehmen für eine anhaltende Marktführerschaft positionieren.

Stärkung der amerikanischen KI-Infrastruktur und globaler Reichweite

Ein erheblicher Teil dieser neu erworbenen Rechenleistung wird strategisch in den Vereinigten Staaten angesiedelt sein. Dies steht im Einklang mit Anthropic’s breiterem Engagement zur Stärkung der amerikanischen KI-Infrastruktur und baut auf dem im November 2025 gemachten Versprechen auf, 50 Milliarden US-Dollar in heimische Rechenkapazitäten zu investieren. Durch den Aufbau einer robusten, US-zentrischen KI-Recheninfrastruktur verbessert Anthropic nicht nur seine Betriebssicherheit und -effizienz, sondern trägt auch zur nationalen technologischen Souveränität und zum Wirtschaftswachstum im Sektor der fortschrittlichen Rechenzentren bei.

Die Partnerschaft vertieft auch Anthropic’s bestehende Zusammenarbeit mit Google Cloud, eine Weiterentwicklung der im letzten Oktober angekündigten erhöhten TPU-Kapazität. Diese langjährige Beziehung unterstreicht eine gemeinsame Vision zur Förderung der KI-Entwicklung und -Bereitstellung. Während ein Großteil dieser Rechenleistung in den USA angesiedelt sein wird, bleibt Anthropic’s Engagement für eine globale Präsenz ungebrochen, um sicherzustellen, dass seine Modelle Kunden weltweit zugänglich sind.

Strategische Cloud- und Hardware-Diversifizierung für Resilienz

Anthropic’s Ansatz zur KI-Hardware und Cloud-Bereitstellung ist bemerkenswert vielfältig, eine Strategie, die darauf ausgelegt ist, Leistung, Effizienz und Resilienz zu maximieren. Das Unternehmen trainiert und betreibt seine Claude-Modelle auf einem Spektrum modernster KI-Hardware, darunter AWS Trainium, Google TPUs und NVIDIA GPUs. Diese Multi-Vendor-, Multi-Architektur-Strategie ermöglicht es Anthropic, spezifische KI-Workloads akribisch den am besten geeigneten Chips zuzuordnen und so sowohl Geschwindigkeit als auch Kosteneffizienz zu optimieren.

"Diese Vielfalt an Plattformen führt zu besserer Leistung und größerer Resilienz für Kunden, die sich bei kritischen Aufgaben auf Claude verlassen", erklärte das Unternehmen. Diese verteilte und anpassungsfähige Infrastruktur ist entscheidend für die Skalierung von KI für alle, insbesondere für große Unternehmen, die unerschütterliche Zuverlässigkeit und Durchsatz benötigen. Darüber hinaus bleibt Amazon Anthropic’s primärer Cloud-Anbieter und Trainingspartner und setzt die enge Zusammenarbeit am Project Rainier fort. Claude zeichnet sich als das einzige führende KI-Modell aus, das Kunden auf allen drei der weltweit größten Cloud-Plattformen zur Verfügung steht: Amazon Web Services (Bedrock), Google Cloud (Vertex AI) und Microsoft Azure (Foundry). Diese breite Cloud-Verfügbarkeit, zusammen mit ihrer Amazon-Partnerschaft, bietet eine unvergleichliche Flexibilität und Auswahl für Unternehmen, die fortschrittliche KI einsetzen.

Die Zukunft von Claude: Unternehmensskalierung und darüber hinaus

Die Einspeisung mehrerer Gigawatt an Next-Generation TPU-Kapazität von Google und Broadcom markiert eine neue Ära für Anthropic und seine Claude-Modelle. Diese massive Skalierung der Ressourcen dient nicht nur der Deckung der aktuellen Nachfrage; sie ermöglicht die nächste Generation von KI-Funktionen und verschiebt die Grenzen dessen, was führende Modelle erreichen können. Für Unternehmen bedeutet dies den Zugang zu noch leistungsfähigeren, zuverlässigeren und anspruchsvolleren KI-Assistenten, die komplexe Aufgaben mit beispielloser Genauigkeit und Sicherheit bewältigen können.

Während Anthropic sein schnelles Wachstum fortsetzt, stellt dieses strategische Rechen-Commitment sicher, dass seine Forschungs- und Entwicklungsteams über die notwendige Rechenleistung verfügen, um neue Grenzen in der KI zu erforschen, von fortschrittlicheren Schlussfolgerungsfähigkeiten bis hin zu einem verbesserten multimodalen Verständnis. Die Zusammenarbeit mit Branchenriesen wie Google und Broadcom positioniert Anthropic, um seine Führungsposition zu festigen und Innovationen voranzutreiben, die seiner großen Kundenbasis und dem breiteren KI-Ökosystem in den kommenden Jahren zugutekommen.

Häufig gestellte Fragen

What is the primary objective of Anthropic's expanded partnership with Google and Broadcom regarding AI compute?
The core objective of Anthropic's newly announced partnership with Google and Broadcom is to secure a massive expansion of its AI compute infrastructure, specifically multiple gigawatts of next-generation Tensor Processing Unit (TPU) capacity. This significant commitment, set to come online starting in 2027, is designed to power the continued development and deployment of Anthropic's frontier Claude models. It directly addresses the exponential growth in demand from its global customer base, ensuring that Anthropic has the necessary computational resources to maintain its leadership in AI innovation and deliver high-performance, reliable services to enterprises adopting its advanced AI solutions.
How has Anthropic's customer base and revenue grown, influencing this infrastructure investment?
Anthropic has experienced an unprecedented surge in customer demand and financial growth, which directly necessitates this substantial infrastructure investment. As of early 2026, the company's run-rate revenue has soared past $30 billion, a significant leap from approximately $9 billion at the close of 2025. Furthermore, the number of business customers each spending over $1 million annually with Anthropic has doubled in less than two months, now exceeding 1,000. This rapid, sustained growth across its enterprise client base underscores the critical need for a massive expansion in compute power to both support existing users and enable future advancements of its Claude models.
What role does this partnership play in Anthropic's commitment to strengthening American AI infrastructure?
This partnership represents a major pillar in Anthropic's broader strategic commitment to strengthening American AI infrastructure. The vast majority of the newly secured compute capacity from Google and Broadcom will be sited within the United States. This move significantly expands upon Anthropic's previously announced $50 billion investment initiative from November 2025, which aims to bolster domestic computing capabilities. By housing such critical AI infrastructure on U.S. soil, Anthropic not only addresses its own operational needs but also contributes to national technological resilience and job creation within the rapidly evolving AI sector, fostering a robust domestic AI ecosystem.
How does Anthropic's multi-platform strategy enhance the performance and resilience of Claude models?
Anthropic employs a deliberate multi-platform strategy to enhance the performance and resilience of its Claude models. This involves training and running Claude across a diverse range of AI hardware, including AWS Trainium, Google TPUs, and NVIDIA GPUs. This approach allows Anthropic to strategically match specific workloads to the most suitable chips, optimizing for efficiency and specialized processing. By not relying on a single hardware vendor or cloud provider, Anthropic gains significant flexibility, reduces dependency risks, and ensures that customers receive optimal performance and increased operational resilience for their critical AI-driven tasks, a key factor for enterprise adoption and trust in frontier AI.
Which major cloud platforms offer Anthropic's Claude models to their customers?
Anthropic's Claude models are uniquely available across all three of the world's largest cloud platforms, providing unparalleled accessibility and choice for enterprise customers. Specifically, Claude is offered through Amazon Web Services (AWS) via its Bedrock service, on Google Cloud through Vertex AI, and within Microsoft Azure via its Foundry program. This broad availability ensures that organizations, regardless of their existing cloud infrastructure or strategic partnerships, can seamlessly integrate and leverage Anthropic's frontier AI capabilities, making Claude a highly versatile and accessible option in the competitive AI market.
What is the expected timeline for the new compute capacity to become operational?
The new compute capacity, secured through the expanded partnership with Google and Broadcom, is anticipated to become operational relatively soon. Anthropic expects this significant expansion of next-generation TPU capacity to come online starting in 2027. This phased rollout ensures a steady increase in computational power, strategically aligned with the projected growth in demand for Anthropic's Claude models and the continuous advancement of its AI research and development efforts, providing a clear roadmap for scaling its infrastructure to meet future challenges and opportunities in the AI landscape.

Bleiben Sie informiert

Erhalten Sie die neuesten KI-Nachrichten per E-Mail.

Teilen