Anthropic

Anthropic, Amazon erweitern Compute-Partnerschaft für Claude
Anthropic und Amazon vertiefen ihre Zusammenarbeit und sichern sich bis zu 5 GW Rechenleistung für das Training und die Bereitstellung von Claude, angetrieben von AWS Trainium-Chips. Dies erweitert ihre strategische Partnerschaft.

Claude Design: Anthropic's KI revolutioniert die visuelle Gestaltung
Anthropic Labs stellt Claude Design vor, ein KI-gestütztes Tool, das Claude Opus 4.7 nutzt, um Designern und Teams bei der Erstellung von Prototypen, Mockups und Marketingmaterialien durch kollaborative Konversation zu helfen.

Agentische KI transformiert Marketing: Stunden zu Minuten
Erfahren Sie, wie agentische KI, unterstützt von AWS Bedrock und Gradial, die Zeit für die Content-Veröffentlichung von Marketingteams von Stunden auf Minuten verkürzt und so Produktivität und Qualität steigert.

Claude Code Auto-Modus: Sicherere Berechtigungen, weniger Ermüdung
Der Auto-Modus von Anthropic's Claude Code revolutioniert die Interaktionen von KI-Agenten, indem er die KI-Sicherheit verbessert und Genehmigungsermüdung durch intelligente, modellbasierte Berechtigungsverwaltung für Entwickler eliminiert.

Anthropic, Google, Broadcom: Partnerschaft für Gigawatt an KI-Rechenleistung
Anthropic erweitert seine KI-Rechenkapazität durch eine neue Partnerschaft mit Google und Broadcom drastisch und sichert sich mehrere Gigawatt an Next-Gen TPU-Kapazität für Claude-Modelle.

KI-Emotionskonzepte: Anthropic enthüllt funktionale Emotionen in LLMs
Anthropics Forschung deckt funktionale KI-Emotionskonzepte in LLMs wie Claude Sonnet 4.5 auf. Neuronale Repräsentationen beeinflussen KI-Verhalten, entscheidend für den Aufbau sichererer, zuverlässigerer Systeme.

Anthropic und Australien kooperieren für KI-Sicherheit & -Forschung
Anthropic unterzeichnet ein MOU mit der australischen Regierung, um die KI-Sicherheitsforschung voranzutreiben, seinen Wirtschaftsindex zu integrieren und 3 Mio. AUD in wissenschaftliche Partnerschaften zu investieren, die mit Australiens nationalem KI-Plan übereinstimmen.

Von Anthropic unterstützte Länder: API- & Claude.ai-Zugang
Erkunden Sie die umfassende Liste der von Anthropic unterstützten Länder und Regionen für den kommerziellen API-Zugang und Claude.ai. Erfahren Sie, wo Anthropic's KI-Modelle weltweit verfügbar sind.

Anthropic Claude: Aktualisierungen der Nutzungsbedingungen und Datenschutzrichtlinie für Verbraucher
Anthropic kündigt wichtige Aktualisierungen der Nutzungsbedingungen und Datenschutzrichtlinie von Claude an, die Nutzern die Kontrolle über die Datennutzung zur Modellverbesserung ermöglichen und die Datenaufbewahrung für Sicherheit und Entwicklung verlängern.

Programmierkenntnisse: Der doppelte Einfluss von KI-Assistenz auf die Entwicklerentwicklung
Anthropic-Forschung zeigt, dass KI-Assistenz die Programmierproduktivität steigern, aber die Kompetenzentwicklung, insbesondere die Fehlersuche, behindern kann. Erfahren Sie, wie Interaktionsmuster die Beherrschung beeinflussen.

Anthropic Institute: Dem gesellschaftlichen Einfluss von KI begegnen
Das Anthropic Institute wird ins Leben gerufen, um den tiefgreifenden gesellschaftlichen Herausforderungen leistungsstarker KI zu begegnen, indem es interdisziplinäre Forschung für eine verantwortungsvolle KI-Entwicklung und globale Governance-Diskussionen nutzt.

Agenten-Tools: KI-Leistung durch Claude-Optimierung verbessern
Entdecken Sie, wie Sie hochwertige KI-Agenten-Tools mit Anthropic Claude schreiben und optimieren. Erfahren Sie mehr über Prototypenbau, umfassende Evaluierungen und Agenten-Kollaboration für verbesserte KI-Leistung.

Claude & Codex auf Copilot Business/Pro: Verbesserte KI-Codierung
GitHub Copilot Business- und Pro-Benutzer erhalten jetzt direkten Zugriff auf leistungsstarke KI-Codierungsagenten, Claude von Anthropic und OpenAI Codex, direkt in GitHub Workflows, was die Produktivität von Entwicklern steigert.

KI-Flüssigkeitsindex: Messung der menschlich-KI-Kollaborationsfähigkeiten
Anthropic's neuer KI-Flüssigkeitsindex misst kritische menschlich-KI-Kollaborationsfähigkeiten und betont die Bedeutung von Iteration und kritischer Bewertung für eine effektive KI-Nutzung.

Anthropic widersetzt sich dem Kriegsminister bei KI, beruft sich auf Rechte und Sicherheit
Anthropic widersetzt sich der Einstufung des Kriegsministeriums als Lieferkettenrisiko und bleibt bei der ethischen Nutzung von KI, verbietet Massenüberwachung im Inland und unzuverlässige autonome Waffen.

Anthropic deckt Destillationsangriffe von DeepSeek und MiniMax auf
Anthropic enthüllt, dass DeepSeek, Moonshot und MiniMax 16 Millionen illegale Austausche durchgeführt haben, um Claudes Fähigkeiten zu destillieren. Wie die Angriffe funktionierten und warum sie wichtig sind.

Claude Code Security: KI-Schwachstellenscanner
Claude Code Security fand über 500 Zero-Day-Schwachstellen in Open-Source-Code. Es scannt, analysiert und patcht Sicherheitslücken, die traditionelle Tools übersehen.

Claude Sonnet 4.6: Frontier-Coding zum Sonnet-Preis
Claude Sonnet 4.6 liefert Opus-Level-Coding für $3/$15 pro Mio. Tokens. 65% bessere Computer Use, 1M Kontextfenster und stärkerer Prompt-Injection-Schutz.

GitHub Agentic Workflows: KI-Agenten in CI/CD
GitHub Agentic Workflows ermöglicht KI-Agenten die Automatisierung von Repository-Aufgaben in GitHub Actions. Unterstützt Copilot, Claude Code und Codex in isolierten Containern.

Claude Opus 4.6: #1 in Coding- und Reasoning-Benchmarks
Claude Opus 4.6 ist #1 auf Terminal-Bench 2.0 und Humanity's Last Exam und schlägt GPT-5.2 um 144 Elo. Neu: Agent Teams, Compaction und 1M Kontext.

Xcode 26.3: Apple führt agentisches KI-Coding ein
Xcode 26.3 fügt agentisches KI-Coding mit Claude und Codex Agenten via Model Context Protocol hinzu. Agenten durchsuchen Docs, erkunden Dateien und verifizieren.

Claude AI steuert NASAs erste KI-geplante Mars-Rover-Fahrt
Claude AI plante NASAs Perseverance 400-Meter-Fahrt auf dem Mars — die erste KI-geplante Route auf einem anderen Planeten. JPL schätzt 50% schnellere Planung.