Code Velocity
IA Empresarial

Privadesa empresarial d'OpenAI: Desempaquetant la Propietat i Seguretat de les Dades

·5 min de lectura·OpenAI·Font original
Compartir
Privadesa Empresarial d'OpenAI: Propietat i control segur de les dades per a empreses que utilitzen eines d'IA

title: "Privadesa empresarial d'OpenAI: Desempaquetant la Propietat i Seguretat de les Dades" slug: "enterprise-privacy" date: "2026-03-06" lang: "ca" source: "https://openai.com/enterprise-privacy/" category: "IA Empresarial" keywords:

  • OpenAI
  • 'Privadesa Empresarial'
  • 'Seguretat de Dades'
  • 'Propietat de Dades'
  • 'Compliment GDPR'
  • 'Auditoria SOC 2'
  • 'ChatGPT Enterprise'
  • 'Plataforma API'
  • 'Dades de Negoci'
  • 'Privadesa IA'
  • 'Control de Dades'
  • 'Entrenament de Models' meta_description: "Exploreu els compromisos integrals de privadesa empresarial d'OpenAI, detallant la propietat de les dades, els protocols de seguretat com SOC 2, i el compliment amb el GDPR a través de les solucions ChatGPT Business, Enterprise i API." image: "/images/articles/enterprise-privacy.png" image_alt: "Privadesa Empresarial d'OpenAI: Propietat i control segur de les dades per a empreses que utilitzen eines d'IA" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "OpenAI utilitza les meves dades empresarials per entrenar els seus models d'IA?" answer: "Per defecte, OpenAI no utilitza les vostres dades empresarials —incloent entrades i sortides de ChatGPT Business, Enterprise, Healthcare, Edu, Teachers o la Plataforma API— per entrenar els seus models. Aquest compromís garanteix que la vostra informació propietària es mantingui confidencial, tret que activeu explícitament l'opció a través de mecanismes de feedback per a la millora del servei. El principi fonamental és el no-entrenament per defecte, que atorga a les empreses un control significatiu sobre la seva propietat intel·lectual."
  • question: "Com garanteix OpenAI la seguretat i el compliment de les dades empresarials?" answer: "OpenAI aplica mesures robustes de seguretat i compliment de dades, incloent auditories SOC 2 reeixides, que confirmen l'adhesió als estàndards de la indústria. Les dades es xifren en repòs (AES-256) i en trànsit (TLS 1.2+). Controls d'accés estrictes, un equip de seguretat de guàrdia 24/7/365 i un Programa de Recompenses per Errors (Bug Bounty Program) reforcen la seguretat. El compliment inclou l'oferta d'Adenda de Processament de Dades (DPA) per al suport del GDPR i Acords de Privadesa de Dades d'Estudiants per a plataformes educatives, demostrant un compromís amb els estàndards globals de privadesa."
  • question: "Quin control tenen les empreses sobre la retenció de dades dins de les plataformes d'OpenAI?" answer: "Per a ChatGPT Enterprise, Healthcare i Edu, els administradors de l'espai de treball controlen les polítiques de retenció de dades. Per a ChatGPT Business i Teachers, els usuaris finals individuals controlen la retenció de converses. Les converses esborrades o no guardades s'eliminen normalment dels sistemes d'OpenAI en un termini de 30 dies, tret que les obligacions legals requereixin una retenció més llarga. Els períodes de retenció més curts podrien afectar les funcions del producte, com l'historial de converses, equilibrant la privadesa amb la funcionalitat per a un ús òptim."
  • question: "Qui és el propietari de les entrades i sortides generades en utilitzar els serveis d'OpenAI per a negocis?" answer: "Entre l'usuari empresarial i OpenAI, vostè conserva tots els drets sobre les entrades proporcionades als seus serveis. També és propietari de qualsevol sortida rebuda legítimament dels seus serveis, en la mesura que ho permeti la llei. OpenAI només adquireix els drets necessaris per proporcionar serveis, complir amb les lleis aplicables i fer complir les polítiques. Aquesta clara delimitació de la propietat garanteix que la propietat intel·lectual generada a través d'eines d'IA romangui fermament amb el client."
  • question: "Com s'integren els GPTs i les aplicacions amb els compromisos de privadesa empresarial d'OpenAI?" answer: "En utilitzar GPTs o Aplicacions dins dels entorns empresarials de ChatGPT (Enterprise, Business, Healthcare, Teachers, Edu), s'apliquen els mateixos compromisos de privadesa. Els GPTs compartits internament s'adhereixen a les polítiques de dades existents i als valors predeterminats de no-entrenament. La compartició pública de GPTs, si els administradors la permeten, pot implicar una revisió addicional, tot i que no és compatible amb l'àmbit sanitari. Les aplicacions es connecten a fonts internes/de tercers respectant els permisos, i OpenAI no entrena models amb dades a les quals s'accedeix a través d'aquestes aplicacions per defecte, mantenint la privadesa."
  • question: "Les converses i els historials de xat són accessibles per a altres membres de la meva organització o per als empleats d'OpenAI?" answer: "L'accés varia segons el producte. A ChatGPT Enterprise, Edu i Healthcare, els usuaris finals veuen les seves pròpies converses, i els administradors de l'espai de treball poden accedir als registres d'auditoria mitjançant una API de Compliment. Els empleats autoritzats d'OpenAI accedeixen a les converses només per a la resolució d'incidents, la recuperació basada en el permís de l'usuari o les exigències legals. Per a Business i Teachers, l'accés dels empleats es limita al suport d'enginyeria, la investigació d'abusos i el compliment legal, amb contractistes de tercers que també revisen els abusos sota estricta confidencialitat."
  • question: "La Plataforma API d'OpenAI es pot utilitzar per a dades sensibles com la Informació Sanitària Protegida (PHI)?" answer: "Tot i que ChatGPT for Healthcare està dissenyat per donar suport al compliment de la HIPAA, adequat per a la Informació Sanitària Protegida (PHI), la pregunta directa sobre l'ús de PHI per part de la Plataforma API necessita més aclariments. Donats els robustos estàndards de compliment d'OpenAI, inclosa la certificació SOC 2 Tipus 2 per a la seva API, l'ús de l'API per a PHI requeriria generalment acords contractuals específics, com un Acord d'Associació Comercial (BAA). Les organitzacions haurien de consultar directament amb OpenAI per gestionar dades sanitàries sensibles."
# Privadesa Empresarial d'OpenAI: Protegint les vostres Dades de Negoci amb IA
En el paisatge en ràpida evolució de la intel·ligència artificial, les empreses aprofiten cada vegada més models d'IA potents per impulsar la innovació, l'eficiència i el creixement. No obstant això, l'adopció de la IA, especialment amb models de llenguatge grans, planteja preguntes crítiques sobre la privadesa de les dades, la seguretat i la propietat. OpenAI, un líder en recerca i desplegament d'IA, ha establert un marc integral que aborda aquestes preocupacions per als seus clients empresarials. Aquest article s'endinsa en els compromisos d'OpenAI, assegurant que les empreses puguin integrar la IA amb confiança.

## El Compromís Inamovible d'OpenAI amb la Privadesa de Dades Empresarials
OpenAI entén que per a les empreses, la confiança és primordial. El seu marc de privadesa per als usuaris empresarials se centra en tres pilars fonamentals: **propietat**, **control** i **seguretat**. Aquests compromisos s'apliquen àmpliament a la seva suite de productes orientats al negoci, incloent ChatGPT Business, ChatGPT Enterprise, ChatGPT for Healthcare, ChatGPT Edu, ChatGPT for Teachers i la seva Plataforma API. L'objectiu és proporcionar a les empreses garanties clares que les seves dades valuoses continuen sent seves i es gestionen amb la màxima cura.

Aquesta filosofia aborda directament una de les vacil·lacions més comunes que tenen les empreses quan consideren les eines d'IA: la por que les seves dades propietàries puguin ser utilitzades per entrenar models o esdevenir públicament accessibles. L'enfocament d'OpenAI té com a objectiu mitigar aquests riscos de manera proactiva, permetent a les organitzacions beneficiar-se de la IA sense comprometre la seva informació sensible o el seu avantatge competitiu.

## Propietat i Control de Dades: Empoderant el vostre Negoci
Al cor de la política de privadesa empresarial d'OpenAI hi ha una postura ferma sobre la propietat de les dades. **Per defecte, OpenAI no entrena els seus models amb les vostres dades empresarials.** Això inclou totes les entrades i sortides generades a través dels seus serveis a nivell empresarial. Aquest compromís és crucial per mantenir la confidencialitat de les dades i garantir que la informació propietària romangui dins dels límits de la vostra organització.

A més, OpenAI declara explícitament que **vostè és el propietari de les seves entrades i sortides** (sempre que ho permeti la llei), solidificant els seus drets de propietat intel·lectual. Això significa que qualsevol contingut creatiu, codi o anàlisi generat utilitzant les seves eines pertany al vostre negoci.

El control s'estén més enllà de la propietat a com es gestionen les vostres dades internament. Funcions com **SAML SSO** (Single Sign-On) proporcionen autenticació a nivell empresarial, agilitzant la gestió d'accés. Els controls granulars permeten a les organitzacions dictar qui té accés a les funcions i dades dins del seu espai de treball. Per a aquells que construeixen solucions personalitzades, els models personalitzats entrenats a través de la Plataforma API són exclusivament vostres i no es comparteixen. A més, els administradors de l'espai de treball tenen un control directe sobre les **polítiques de retenció de dades** per a productes com ChatGPT Enterprise, ChatGPT for Healthcare i ChatGPT Edu, cosa que els permet alinear la gestió del cicle de vida de les dades amb els requisits de compliment interns.

La integració de **GPTs** i **Aplicacions** dins dels entorns empresarials també s'adhereix a aquests principis. Els GPTs construïts i compartits internament dins d'un espai de treball estan subjectes als mateixos compromisos de privadesa, garantint que les dades internes romanguin privades. De manera similar, quan ChatGPT es connecta a aplicacions internes o de tercers mitjançant Aplicacions, respecta els permisos organitzatius existents i, de manera crítica, OpenAI no entrena els seus models amb cap dada a la qual s'accedeix a través d'aquestes integracions per defecte. Aquest enfocament integral permet a les empreses aprofitar les capacitats avançades d'IA mantenint una supervisió estricta de les seves dades.

## Enfortint la Confiança amb una Seguretat i Compliment Robustos
El compromís d'OpenAI amb la privadesa empresarial es basa en mesures de seguretat robustes i l'adhesió a estàndards de compliment reconeguts. La companyia ha completat amb èxit una **auditoria SOC 2**, que confirma que els seus controls s'alineen amb els punts de referència de la indústria per a la seguretat i la confidencialitat. Aquesta verificació independent proporciona una garantia significativa a les empreses sobre la integritat dels sistemes d'OpenAI.

La protecció de dades es reforça encara més mitjançant el **xifratge**. Totes les dades es xifren en repòs mitjançant **AES-256**, un algorisme de xifratge estàndard de la indústria, i les dades en trànsit entre clients, OpenAI i els seus proveïdors de serveis es protegeixen mitjançant **TLS 1.2+**. Els controls d'accés estrictes limiten qui pot accedir a les dades, i un equip de seguretat de guàrdia 24/7/365 està preparat per respondre a qualsevol incident potencial. OpenAI també opera un [Programa de Recompenses per Errors (Bug Bounty Program)](https://openai.com/blog/bug-bounty-program/), fomentant la divulgació responsable de vulnerabilitats. Per a informació més detallada, les empreses poden consultar el Portal de Confiança dedicat d'OpenAI.

Des de la perspectiva del compliment, OpenAI dóna suport activament a les empreses en el compliment de les obligacions reguladores. Ofereixen **Adenda de Processament de Dades (DPAs)** per a productes elegibles com ChatGPT Business, ChatGPT Enterprise i l'API, ajudant al compliment de les lleis de privadesa com el **GDPR**. Per a les institucions educatives, s'ha establert un **Acord de Privadesa de Dades d'Estudiants** específic per a ChatGPT Edu i per a Teachers, destacant el seu enfocament adaptat a diferents sectors.

És important tenir en compte que, si bé OpenAI utilitza classificadors de contingut automatitzats i eines de seguretat per entendre l'ús del servei, aquests processos generen metadades sobre les dades empresarials i **no contenen les dades empresarials en si mateixes**. La revisió humana de les dades empresarials és estrictament limitada i es realitza només per a cada servei sota condicions específiques, salvaguardant encara més la confidencialitat.

## Privadesa a Mida a la Diversa Suite de Productes d'OpenAI
OpenAI ofereix una gamma de productes ChatGPT, cadascun dissenyat amb les necessitats específiques de l'usuari en ment, i les seves configuracions de privadesa reflecteixen aquesta especialització.

*   **ChatGPT Enterprise** està dissenyat per a grans organitzacions, oferint controls avançats i velocitat de desplegament.
*   **ChatGPT Edu** serveix a universitats, proporcionant controls administratius similars adaptats per a ús acadèmic.
*   **ChatGPT for Healthcare** és un espai de treball segur dissenyat per donar suport al **compliment de la HIPAA**, crucial per a les organitzacions sanitàries.
*   **ChatGPT Business** s'adreça a equips petits i en creixement amb eines col·laboratives i accés d'autoservei.
*   **ChatGPT for Teachers** està adaptat per a educadors de primària i secundària dels EUA (K-12), incorporant proteccions de grau educatiu i controls d'administrador.
*   La **Plataforma API** ofereix als desenvolupadors accés directe a models potents com GPT-5, permetent el desenvolupament d'aplicacions personalitzades. Per a informació detallada sobre les capacitats de l'API, podeu explorar articles com [GPT-5.2 Codex](/ca/openai-gpt-5-2-codex).

Tot i que els compromisos bàsics de privadesa es mantenen constants, hi ha matisos en aspectes com la visibilitat de la conversa i els controls de retenció de dades en aquestes plataformes. La taula següent il·lustra alguns diferenciadors clau de les funcions de privadesa:

| Característica                              | ChatGPT Enterprise/Edu/Healthcare | ChatGPT Business | ChatGPT for Teachers | Plataforma API |
| :---------------------------------------- | :-------------------------------- | :--------------- | :------------------- | :------------- |
| Dades per a Entrenament de Models (Per Defecte) | No                                | No               | No                   | No             |
| Propietat de Dades (Entrades/Sortides)      | Usuari/Organització                 | Usuari/Organització| Usuari/Organització  | Usuari/Desenvolupador |
| Control de Retenció de Dades de l'Administrador | Sí                                | No (Control per Usuari Final) | No (Control per Usuari Final) | N/A (Control per Usuari/Desenvolupador) |
| Certificat SOC 2                           | Sí (Tipus 2)                      | Sí (Tipus 2)     | Adherent a les Millors Pràctiques | Sí (Tipus 2) |
| DPA/SDPA Disponible                       | Sí (DPA/SDPA)                     | Sí (DPA)         | Sí (SDPA)            | Sí (DPA)       |
| Accés al Registre d'Auditoria de l'Administrador | Sí (API de Compliment)            | No               | No                   | N/A            |

Per a productes com ChatGPT Enterprise, Edu i Healthcare, els administradors de l'espai de treball poden accedir als registres d'auditoria de converses i GPTs mitjançant una API de Compliment, proporcionant una supervisió robusta. En canvi, per a ChatGPT Business i Teachers, la visibilitat de la conversa es restringeix generalment a l'usuari final, amb l'accés intern d'OpenAI limitat a necessitats operatives i de compliment específiques sota condicions estrictes.

## Navegant per la Retenció de Dades i l'Ús Responsable de la IA
La retenció de dades és un aspecte crític de la privadesa empresarial. OpenAI ofereix polítiques de retenció flexibles, amb els administradors de l'espai de treball a ChatGPT Enterprise, Edu i Healthcare capaços de controlar quant de temps es retenen les dades. Per a ChatGPT Business i ChatGPT for Teachers, els usuaris finals individuals solen gestionar les seves configuracions de retenció de converses. Per defecte, qualsevol conversa esborrada o no guardada s'elimina dels sistemes d'OpenAI en un termini de 30 dies, tret que un requisit legal exigeixi una retenció més llarga. És important tenir en compte que la retenció de dades permet funcions com l'historial de converses, i els períodes de retenció més curts podrien afectar l'experiència del producte.

L'enfocament d'OpenAI reflecteix una comprensió profunda de les diverses necessitats de les empreses, des de les corporacions més grans fins als educadors individuals. Oferint controls de privadesa personalitzats i suport de compliment, permeten a una gamma més àmplia d'organitzacions adoptar la IA de manera segura i responsable, escalant la IA per a tothom. Aquesta dedicació a la privadesa garanteix que, a mesura que avancen les capacitats d'IA, les empreses puguin continuar innovant amb confiança, sabent que la seva informació sensible està protegida.

Preguntes freqüents

Does OpenAI use my business data to train its AI models?
By default, OpenAI does not use your business data—including inputs and outputs from ChatGPT Business, Enterprise, Healthcare, Edu, Teachers, or the API Platform—for training its models. This commitment ensures your proprietary information remains confidential, unless you explicitly opt-in through feedback mechanisms for service improvement. The core principle is non-training by default, granting enterprises significant control over their intellectual property.
How does OpenAI ensure the security and compliance of enterprise data?
OpenAI enforces robust data security and compliance measures, including successful SOC 2 audits, affirming adherence to industry standards. Data is encrypted at rest (AES-256) and in transit (TLS 1.2+). Strict access controls, a 24/7/365 on-call security team, and a Bug Bounty Program bolster security. Compliance includes offering Data Processing Addendums (DPAs) for GDPR support and Student Data Privacy Agreements for educational platforms, demonstrating a commitment to global privacy standards.
What control do businesses have over their data retention within OpenAI's platforms?
For ChatGPT Enterprise, Healthcare, and Edu, workspace administrators control data retention policies. For ChatGPT Business and Teachers, individual end users control conversation retention. Deleted or unsaved conversations are typically removed from OpenAI's systems within 30 days, unless legal obligations require longer retention. Shorter retention periods might impact product features like conversation history, balancing privacy with functionality for optimal use.
Who owns the inputs and outputs generated when using OpenAI's services for business?
Between the business user and OpenAI, you retain all rights to the inputs provided to their services. You also own any output rightfully received from their services, to the extent permitted by law. OpenAI only acquires rights necessary to provide services, comply with applicable laws, and enforce policies. This clear ownership delineation ensures intellectual property generated through AI tools remains firmly with the client.
How do GPTs and Apps integrate with OpenAI's enterprise privacy commitments?
When using GPTs or Apps within enterprise ChatGPT environments (Enterprise, Business, Healthcare, Teachers, Edu), the same privacy commitments apply. Internally shared GPTs adhere to existing data policies and non-training defaults. Public sharing of GPTs, if enabled by admins, may incur additional review, though not supported for healthcare. Apps connect to internal/third-party sources respecting permissions, and OpenAI does not train models on data accessed via these applications by default, maintaining privacy.
Are conversations and chat histories accessible to others within my organization or to OpenAI employees?
Access varies by product. In ChatGPT Enterprise, Edu, and Healthcare, end users view their own conversations, and workspace admins can access audit logs via a Compliance API. Authorized OpenAI employees access conversations only for incident resolution, user permission-based recovery, or legal mandates. For Business and Teachers, employee access is limited to engineering support, abuse investigation, and legal compliance, with third-party contractors also reviewing for abuse under strict confidentiality.
Can OpenAI's API Platform be used for sensitive data like Protected Health Information (PHI)?
While ChatGPT for Healthcare is designed to support HIPAA compliance, suitable for Protected Health Information (PHI), the direct question for the API Platform's PHI use needs further clarification. Given OpenAI's robust compliance standards, including SOC 2 Type 2 certification for its API, using the API for PHI would generally necessitate specific contractual agreements, such as a Business Associate Agreement (BAA). Organizations should consult OpenAI directly for handling sensitive health data.

Manteniu-vos al dia

Rebeu les últimes notícies d'IA al correu.

Compartir