title: "OpenAI Enterprise-Datenschutz: Dateneigentum & Sicherheit im Detail" slug: "enterprise-privacy" date: "2026-03-06" lang: "de" source: "https://openai.com/enterprise-privacy/" category: "KI für Unternehmen" keywords:
- OpenAI
- Unternehmensdatenschutz
- Datensicherheit
- Dateneigentum
- DSGVO-Konformität
- SOC 2 Audit
- ChatGPT Enterprise
- API-Plattform
- Geschäftsdaten
- KI-Datenschutz
- Datenkontrolle
- Modelltraining meta_description: "Entdecken Sie OpenAI's umfassende Verpflichtungen zum Unternehmensdatenschutz, detailliert beschrieben in Bezug auf Dateneigentum, Sicherheitsprotokolle wie SOC 2 und DSGVO-Konformität für ChatGPT Business, Enterprise und API-Lösungen." image: "/images/articles/enterprise-privacy.png" image_alt: "OpenAI Enterprise-Datenschutz: Sicheres Dateneigentum und Kontrolle für Unternehmen, die KI-Tools nutzen" quality_score: 94 content_score: 93 seo_score: 95 companies:
- OpenAI schema_type: "NewsArticle" reading_time: 5 faq:
- question: "Verwendet OpenAI meine Geschäftsdaten, um seine KI-Modelle zu trainieren?" answer: "Standardmäßig verwendet OpenAI Ihre Geschäftsdaten – einschließlich Eingaben und Ausgaben von ChatGPT Business, Enterprise, Healthcare, Edu, Teachers oder der API-Plattform – nicht zum Trainieren seiner Modelle. Diese Verpflichtung stellt sicher, dass Ihre geschützten Informationen vertraulich bleiben, es sei denn, Sie entscheiden sich ausdrücklich über Feedback-Mechanismen zur Serviceverbesserung dafür. Das Kernprinzip ist das 'Nicht-Trainieren' als Standard, was Unternehmen eine erhebliche Kontrolle über ihr geistiges Eigentum gewährt."
- question: "Wie gewährleistet OpenAI die Sicherheit und Konformität von Unternehmensdaten?" answer: "OpenAI setzt robuste Datensicherheits- und Konformitätsmaßnahmen durch, einschließlich erfolgreicher SOC 2-Audits, die die Einhaltung von Industriestandards bestätigen. Daten werden im Ruhezustand (AES-256) und während der Übertragung (TLS 1.2+) verschlüsselt. Strenge Zugriffskontrollen, ein 24/7/365 Bereitschafts-Sicherheitsteam und ein Bug Bounty-Programm stärken die Sicherheit. Die Konformität umfasst das Angebot von Datenverarbeitungsnachträgen (DVNs) zur Unterstützung der DSGVO und von Datenschutzvereinbarungen für Studentendaten für Bildungsplattformen, was ein Engagement für globale Datenschutzstandards demonstriert."
- question: "Welche Kontrolle haben Unternehmen über die Datenaufbewahrung innerhalb der OpenAI-Plattformen?" answer: "Für ChatGPT Enterprise, Healthcare und Edu kontrollieren Workspace-Administratoren die Richtlinien zur Datenaufbewahrung. Für ChatGPT Business und Teachers kontrollieren einzelne Endbenutzer die Aufbewahrung von Konversationen. Gelöschte oder nicht gespeicherte Konversationen werden in der Regel innerhalb von 30 Tagen aus den Systemen von OpenAI entfernt, es sei denn, rechtliche Verpflichtungen erfordern eine längere Aufbewahrung. Kürzere Aufbewahrungsfristen können Produktfunktionen wie den Konversationsverlauf beeinträchtigen, was einen Kompromiss zwischen Datenschutz und Funktionalität für eine optimale Nutzung darstellt."
- question: "Wem gehören die Eingaben und Ausgaben, die bei der Nutzung der OpenAI-Dienste für Unternehmen generiert werden?" answer: "Zwischen dem Geschäftsanwender und OpenAI behalten Sie alle Rechte an den Eingaben, die Sie ihren Diensten zur Verfügung stellen. Sie besitzen auch alle Ausgaben, die Sie rechtmäßig von ihren Diensten erhalten, soweit gesetzlich zulässig. OpenAI erwirbt nur die Rechte, die zur Bereitstellung von Diensten, zur Einhaltung geltender Gesetze und zur Durchsetzung von Richtlinien erforderlich sind. Diese klare Eigentumsabgrenzung stellt sicher, dass das durch KI-Tools generierte geistige Eigentum fest beim Kunden verbleibt."
- question: "Wie integrieren sich GPTs und Apps in die Unternehmensdatenschutzverpflichtungen von OpenAI?" answer: "Bei der Nutzung von GPTs oder Apps innerhalb von Unternehmens-ChatGPT-Umgebungen (Enterprise, Business, Healthcare, Teachers, Edu) gelten die gleichen Datenschutzverpflichtungen. Intern geteilte GPTs halten sich an bestehende Datenrichtlinien und 'Nicht-Trainieren'-Standards. Das öffentliche Teilen von GPTs, falls von Administratoren aktiviert, kann eine zusätzliche Überprüfung nach sich ziehen, wird jedoch für den Gesundheitsbereich nicht unterstützt. Apps verbinden sich mit internen/Drittanbieter-Quellen unter Einhaltung von Berechtigungen, und OpenAI trainiert standardmäßig keine Modelle mit Daten, die über diese Anwendungen abgerufen werden, wodurch die Privatsphäre gewahrt bleibt."
- question: "Sind Konversationen und Chat-Verläufe für andere innerhalb meiner Organisation oder für OpenAI-Mitarbeiter zugänglich?" answer: "Der Zugriff variiert je nach Produkt. In ChatGPT Enterprise, Edu und Healthcare können Endbenutzer ihre eigenen Konversationen einsehen, und Workspace-Administratoren können Audit-Logs über eine Compliance-API abrufen. Autorisierte OpenAI-Mitarbeiter greifen nur zur Problembehebung, zur benutzerberechtigungsbasierten Wiederherstellung oder bei gesetzlichen Vorgaben auf Konversationen zu. Für Business und Teachers ist der Mitarbeiterzugriff auf technischen Support, Missbrauchsermittlungen und die Einhaltung gesetzlicher Vorschriften beschränkt, wobei auch Drittanbieter-Auftragnehmer unter strenger Vertraulichkeit Missbrauch überprüfen."
- question: "Kann die API-Plattform von OpenAI für sensible Daten wie Protected Health Information (PHI) verwendet werden?" answer: "Während ChatGPT for Healthcare darauf ausgelegt ist, die HIPAA-Konformität zu unterstützen und für Protected Health Information (PHI) geeignet ist, bedarf die direkte Frage nach der PHI-Nutzung der API-Plattform weiterer Klärung. Angesichts der robusten Compliance-Standards von OpenAI, einschließlich der SOC 2 Typ 2-Zertifizierung für ihre API, würde die Nutzung der API für PHI im Allgemeinen spezifische vertragliche Vereinbarungen, wie einen Business Associate Agreement (BAA), erfordern. Organisationen sollten sich direkt an OpenAI wenden, um sensible Gesundheitsdaten zu behandeln."
# OpenAI Enterprise-Datenschutz: Schutz Ihrer Geschäftsdaten mit KI
In der sich schnell entwickelnden Landschaft der künstlichen Intelligenz nutzen Unternehmen zunehmend leistungsstarke KI-Modelle, um Innovation, Effizienz und Wachstum voranzutreiben. Die Einführung von KI, insbesondere bei großen Sprachmodellen, wirft jedoch kritische Fragen zu Datenschutz, Sicherheit und Eigentum auf. OpenAI, ein führendes Unternehmen in der KI-Forschung und -Bereitstellung, hat einen umfassenden Rahmen entwickelt, der diese Bedenken für seine Unternehmenskunden adressiert. Dieser Artikel beleuchtet die Verpflichtungen von OpenAI im Detail, um sicherzustellen, dass Unternehmen KI mit Vertrauen integrieren können.
## OpenAI's unerschütterliches Engagement für den Unternehmensdatenschutz
OpenAI versteht, dass Vertrauen für Unternehmen von größter Bedeutung ist. Ihr Datenschutzrahmen für Unternehmensnutzer basiert auf drei Kernpfeilern: **Eigentum**, **Kontrolle** und **Sicherheit**. Diese Verpflichtungen gelten weitgehend für ihre Suite geschäftsorientierter Produkte, einschließlich ChatGPT Business, ChatGPT Enterprise, ChatGPT for Healthcare, ChatGPT Edu, ChatGPT for Teachers und ihre API-Plattform. Ziel ist es, Unternehmen klare Zusicherungen zu geben, dass ihre wertvollen Daten ihr Eigentum bleiben und mit größter Sorgfalt behandelt werden.
Diese Philosophie begegnet direkt einem der häufigsten Zögern von Unternehmen bei der Betrachtung von KI-Tools: der Angst, dass ihre proprietären Daten zum Trainieren von Modellen verwendet oder öffentlich zugänglich gemacht werden könnten. Der Ansatz von OpenAI zielt darauf ab, diese Risiken proaktiv zu mindern, sodass Organisationen von KI profitieren können, ohne ihre sensiblen Informationen oder ihren Wettbewerbsvorteil zu gefährden.
## Dateneigentum & Kontrolle: Stärkung Ihres Unternehmens
Im Mittelpunkt der Unternehmensdatenschutzrichtlinie von OpenAI steht eine starke Haltung zum Dateneigentum. **Standardmäßig trainiert OpenAI seine Modelle nicht mit Ihren Geschäftsdaten.** Dies umfasst alle Eingaben und Ausgaben, die über ihre Dienste auf Unternehmensebene generiert werden. Diese Verpflichtung ist entscheidend für die Wahrung der Datenvertraulichkeit und die Sicherstellung, dass proprietäre Informationen innerhalb der Grenzen Ihrer Organisation bleiben.
Darüber hinaus erklärt OpenAI explizit, dass **Sie Ihre Eingaben und Ausgaben besitzen** (soweit gesetzlich zulässig), wodurch Ihre Rechte an geistigem Eigentum gefestigt werden. Das bedeutet, dass alle kreativen Inhalte, Codes oder Analysen, die mit ihren Tools generiert werden, Ihrem Unternehmen gehören.
Die Kontrolle geht über das Eigentum hinaus und erstreckt sich auf die interne Verwaltung Ihrer Daten. Funktionen wie **SAML SSO** (Single Sign-On) bieten eine Authentifizierung auf Unternehmensebene und optimieren die Zugriffsverwaltung. Fein granulierte Kontrollen ermöglichen es Organisationen, festzulegen, wer Zugriff auf Funktionen und Daten innerhalb ihres Arbeitsbereichs hat. Für diejenigen, die benutzerdefinierte Lösungen erstellen, sind über die API-Plattform trainierte benutzerdefinierte Modelle ausschließlich Ihre und werden nicht geteilt. Darüber hinaus haben Workspace-Administratoren direkte Kontrolle über **Datenaufbewahrungsrichtlinien** für Produkte wie ChatGPT Enterprise, ChatGPT for Healthcare und ChatGPT Edu, sodass sie die Verwaltung des Datenlebenszyklus an interne Compliance-Anforderungen anpassen können.
Die Integration von **GPTs** und **Apps** in Unternehmensumgebungen hält sich ebenfalls an diese Prinzipien. GPTs, die intern innerhalb eines Arbeitsbereichs erstellt und geteilt werden, unterliegen denselben Datenschutzverpflichtungen, wodurch die Vertraulichkeit interner Daten gewährleistet wird. Wenn ChatGPT über Apps eine Verbindung zu internen oder Drittanbieteranwendungen herstellt, werden vorhandene Organisationsberechtigungen respektiert, und entscheidend ist, dass OpenAI standardmäßig keine Modelle mit Daten trainiert, auf die über diese Integrationen zugegriffen wird. Dieser umfassende Ansatz ermöglicht es Unternehmen, fortschrittliche KI-Funktionen zu nutzen und gleichzeitig eine strenge Überwachung ihrer Daten aufrechtzuerhalten.
## Vertrauensstärkung durch robuste Sicherheit und Compliance
Das Engagement von OpenAI für den Unternehmensdatenschutz wird durch robuste Sicherheitsmaßnahmen und die Einhaltung anerkannter Compliance-Standards untermauert. Das Unternehmen hat erfolgreich ein **SOC 2 Audit** abgeschlossen, das bestätigt, dass seine Kontrollen den Industriestandards für Sicherheit und Vertraulichkeit entsprechen. Diese unabhängige Verifizierung bietet Unternehmen eine erhebliche Zusicherung hinsichtlich der Integrität der Systeme von OpenAI.
Der Datenschutz wird durch **Verschlüsselung** weiter verstärkt. Alle Daten werden im Ruhezustand mithilfe von **AES-256**, einem Industriestandard-Verschlüsselungsalgorithmus, verschlüsselt, und Daten, die zwischen Kunden, OpenAI und seinen Dienstanbietern übertragen werden, werden mithilfe von **TLS 1.2+** gesichert. Strenge Zugriffskontrollen begrenzen, wer auf Daten zugreifen kann, und ein 24/7/365 Bereitschafts-Sicherheitsteam ist bereit, auf potenzielle Vorfälle zu reagieren. OpenAI betreibt auch ein [Bug Bounty Programm](https://openai.com/blog/bug-bounty-program/), das die verantwortungsvolle Offenlegung von Schwachstellen fördert. Für detailliertere Einblicke können Unternehmen das spezielle Trust Portal von OpenAI konsultieren.
Aus Compliance-Sicht unterstützt OpenAI Unternehmen aktiv bei der Erfüllung regulatorischer Verpflichtungen. Sie bieten **Datenverarbeitungsnachträge (DVNs)** für berechtigte Produkte wie ChatGPT Business, ChatGPT Enterprise und die API an, um die Einhaltung von Datenschutzgesetzen wie der **DSGVO** zu unterstützen. Für Bildungseinrichtungen gibt es eine spezielle **Datenschutzvereinbarung für Studentendaten** für ChatGPT Edu und für Teachers, die ihren maßgeschneiderten Ansatz für verschiedene Sektoren hervorhebt.
Es ist wichtig zu beachten, dass OpenAI zwar automatisierte Inhaltsklassifizierer und Sicherheitstools einsetzt, um die Dienstnutzung zu verstehen, diese Prozesse jedoch Metadaten über Geschäftsdaten generieren und **keine Geschäftsdaten selbst enthalten**. Die menschliche Überprüfung von Geschäftsdaten ist streng begrenzt und wird nur dienstspezifisch unter bestimmten Bedingungen durchgeführt, wodurch die Vertraulichkeit weiter geschützt wird.
## Maßgeschneiderter Datenschutz über die vielfältige Produktsuite von OpenAI
OpenAI bietet eine Reihe von ChatGPT-Produkten an, die jeweils auf spezifische Benutzerbedürfnisse zugeschnitten sind, und ihre Datenschutzkonfigurationen spiegeln diese Spezialisierung wider.
* **ChatGPT Enterprise** ist für große Organisationen konzipiert und bietet erweiterte Kontrollen und Bereitstellungsgeschwindigkeit.
* **ChatGPT Edu** dient Universitäten und bietet ähnliche administrative Kontrollen, die für den akademischen Gebrauch angepasst sind.
* **ChatGPT for Healthcare** ist ein sicherer Arbeitsbereich, der entwickelt wurde, um die **HIPAA-Konformität** zu unterstützen, was für Gesundheitsorganisationen entscheidend ist.
* **ChatGPT Business** richtet sich an kleine und wachsende Teams mit kollaborativen Tools und Self-Service-Zugang.
* **ChatGPT for Teachers** ist auf US-amerikanische K-12-Pädagogen zugeschnitten und enthält Schutzfunktionen und Administratorkontrollen auf Bildungsniveau.
* Die **API-Plattform** bietet Entwicklern direkten Zugriff auf leistungsstarke Modelle wie GPT-5 und ermöglicht die Entwicklung benutzerdefinierter Anwendungen. Für detaillierte Einblicke in die API-Funktionen können Sie Artikel wie [GPT-5.2 Codex](/de/openai-gpt-5-2-codex) erkunden.
Während die Kern-Datenschutzverpflichtungen konsistent bleiben, gibt es Nuancen in Aspekten wie der Sichtbarkeit von Konversationen und den Kontrollen der Datenaufbewahrung über diese Plattformen hinweg. Die folgende Tabelle veranschaulicht einige wichtige Unterscheidungsmerkmale der Datenschutzfunktionen:
| Funktion | ChatGPT Enterprise/Edu/Healthcare | ChatGPT Business | ChatGPT for Teachers | API-Plattform |
| :------------------------------------ | :-------------------------------- | :--------------- | :------------------- | :------------ |
| Daten für Modelltraining (Standard) | Nein | Nein | Nein | Nein |
| Dateneigentum (Eingaben/Ausgaben) | Benutzer/Organisation | Benutzer/Organisation| Benutzer/Organisation| Benutzer/Entwickler |
| Admin-Kontrolle der Datenaufbewahrung | Ja | Nein (Endbenutzer-Kontrolle) | Nein (Endbenutzer-Kontrolle) | N/A (Benutzer-/Entwickler-Kontrolle) |
| SOC 2-zertifiziert | Ja (Typ 2) | Ja (Typ 2) | Einhaltung von Best Practices | Ja (Typ 2) |
| DVN/SDVA verfügbar | Ja (DVN/SDVA) | Ja (DVN) | Ja (SDVA) | Ja (DVN) |
| Admin-Audit-Log-Zugriff | Ja (Compliance-API) | Nein | Nein | N/A |
Für Produkte wie ChatGPT Enterprise, Edu und Healthcare können Workspace-Administratoren über eine Compliance-API Audit-Logs von Konversationen und GPTs abrufen, was eine robuste Überwachung ermöglicht. Im Gegensatz dazu ist für ChatGPT Business und Teachers die Sichtbarkeit von Konversationen in der Regel auf den Endbenutzer beschränkt, wobei der interne Zugriff von OpenAI unter strengen Bedingungen auf spezifische Betriebs- und Compliance-Anforderungen beschränkt ist.
## Datenaufbewahrung und verantwortungsvolle KI-Nutzung
Die Datenaufbewahrung ist ein kritischer Aspekt des Unternehmensdatenschutzes. OpenAI bietet flexible Aufbewahrungsrichtlinien an, wobei Workspace-Administratoren in ChatGPT Enterprise, Edu und Healthcare kontrollieren können, wie lange Daten aufbewahrt werden. Für ChatGPT Business und ChatGPT for Teachers verwalten einzelne Endbenutzer typischerweise ihre Einstellungen zur Konversationsaufbewahrung. Standardmäßig werden alle gelöschten oder nicht gespeicherten Konversationen innerhalb von 30 Tagen aus den Systemen von OpenAI entfernt, es sei denn, eine gesetzliche Anforderung macht eine längere Aufbewahrung notwendig. Es ist wichtig zu beachten, dass die Aufbewahrung von Daten Funktionen wie den Konversationsverlauf ermöglicht, und kürzere Aufbewahrungsfristen das Produkterlebnis beeinträchtigen könnten.
Der Ansatz von OpenAI spiegelt ein tiefes Verständnis für die vielfältigen Bedürfnisse von Unternehmen wider, von den größten Konzernen bis hin zu einzelnen Pädagogen. Durch das Angebot maßgeschneiderter Datenschutzkontrollen und Compliance-Unterstützung ermöglichen sie es einem breiteren Spektrum von Organisationen, KI sicher und verantwortungsvoll einzusetzen und KI für alle zu skalieren. Dieses Engagement für den Datenschutz stellt sicher, dass Unternehmen mit fortschreitenden KI-Fähigkeiten weiterhin selbstbewusst innovieren können, da sie wissen, dass ihre sensiblen Informationen geschützt sind.
Originalquelle
https://openai.com/enterprise-privacy/Häufig gestellte Fragen
Does OpenAI use my business data to train its AI models?
By default, OpenAI does not use your business data—including inputs and outputs from ChatGPT Business, Enterprise, Healthcare, Edu, Teachers, or the API Platform—for training its models. This commitment ensures your proprietary information remains confidential, unless you explicitly opt-in through feedback mechanisms for service improvement. The core principle is non-training by default, granting enterprises significant control over their intellectual property.
How does OpenAI ensure the security and compliance of enterprise data?
OpenAI enforces robust data security and compliance measures, including successful SOC 2 audits, affirming adherence to industry standards. Data is encrypted at rest (AES-256) and in transit (TLS 1.2+). Strict access controls, a 24/7/365 on-call security team, and a Bug Bounty Program bolster security. Compliance includes offering Data Processing Addendums (DPAs) for GDPR support and Student Data Privacy Agreements for educational platforms, demonstrating a commitment to global privacy standards.
What control do businesses have over their data retention within OpenAI's platforms?
For ChatGPT Enterprise, Healthcare, and Edu, workspace administrators control data retention policies. For ChatGPT Business and Teachers, individual end users control conversation retention. Deleted or unsaved conversations are typically removed from OpenAI's systems within 30 days, unless legal obligations require longer retention. Shorter retention periods might impact product features like conversation history, balancing privacy with functionality for optimal use.
Who owns the inputs and outputs generated when using OpenAI's services for business?
Between the business user and OpenAI, you retain all rights to the inputs provided to their services. You also own any output rightfully received from their services, to the extent permitted by law. OpenAI only acquires rights necessary to provide services, comply with applicable laws, and enforce policies. This clear ownership delineation ensures intellectual property generated through AI tools remains firmly with the client.
How do GPTs and Apps integrate with OpenAI's enterprise privacy commitments?
When using GPTs or Apps within enterprise ChatGPT environments (Enterprise, Business, Healthcare, Teachers, Edu), the same privacy commitments apply. Internally shared GPTs adhere to existing data policies and non-training defaults. Public sharing of GPTs, if enabled by admins, may incur additional review, though not supported for healthcare. Apps connect to internal/third-party sources respecting permissions, and OpenAI does not train models on data accessed via these applications by default, maintaining privacy.
Are conversations and chat histories accessible to others within my organization or to OpenAI employees?
Access varies by product. In ChatGPT Enterprise, Edu, and Healthcare, end users view their own conversations, and workspace admins can access audit logs via a Compliance API. Authorized OpenAI employees access conversations only for incident resolution, user permission-based recovery, or legal mandates. For Business and Teachers, employee access is limited to engineering support, abuse investigation, and legal compliance, with third-party contractors also reviewing for abuse under strict confidentiality.
Can OpenAI's API Platform be used for sensitive data like Protected Health Information (PHI)?
While ChatGPT for Healthcare is designed to support HIPAA compliance, suitable for Protected Health Information (PHI), the direct question for the API Platform's PHI use needs further clarification. Given OpenAI's robust compliance standards, including SOC 2 Type 2 certification for its API, using the API for PHI would generally necessitate specific contractual agreements, such as a Business Associate Agreement (BAA). Organizations should consult OpenAI directly for handling sensitive health data.
Bleiben Sie informiert
Erhalten Sie die neuesten KI-Nachrichten per E-Mail.
