Code Velocity
AI modeliai

OpenAI duomenų naudojimas: modelio veikimo tobulinimas ir privatumas

·5 min skaitymo·OpenAI·Originalus šaltinis
Dalintis
OpenAI duomenų srauto diagrama, rodanti, kaip vartotojo įvestis pagerina AI modelio veikimą su privatumo apsaugos priemonėmis

title: "OpenAI duomenų naudojimas: modelio veikimo tobulinimas ir privatumas" slug: "5722486-how-your-data-is-used-to-improve-model-performance" date: "2026-03-20" lang: "lt" source: "https://help.openai.com/en/articles/5722486-how-your-data-is-used-to-improve-model-performance" category: "AI modeliai" keywords:

  • OpenAI duomenų naudojimas
  • modelių mokymas
  • AI modelių tobulinimas
  • privatumo kontrolė
  • duomenų atsisakymas
  • ChatGPT duomenys
  • Codex duomenys
  • Sora duomenys
  • įmonių AI privatumas
  • API duomenų politika
  • asmeninių duomenų anonimizavimas
  • duomenų saugojimas meta_description: "Sužinokite, kaip OpenAI naudoja vartotojų duomenis iš tokių paslaugų kaip ChatGPT, Codex ir Sora, siekdama pagerinti AI modelių veikimą, išsamiai aprašant privatumo kontrolės mechanizmus ir atsisakymo galimybes." image: "/images/articles/5722486-how-your-data-is-used-to-improve-model-performance.png" image_alt: "OpenAI duomenų srauto diagrama, rodanti, kaip vartotojo įvestis pagerina AI modelio veikimą su privatumo apsaugos priemonėmis" quality_score: 94 content_score: 93 seo_score: 95 companies:
  • OpenAI schema_type: "NewsArticle" reading_time: 5 faq:
  • question: "Kaip OpenAI naudoja vartotojų duomenis, kad pagerintų savo AI modelių veikimą?" answer: "OpenAI naudoja vartotojų sąveiką ir turinį iš savo paslaugų, kad nuolat tobulintų AI modelių tikslumą, saugumą ir bendrąsias galimybes. Šis procesas apima modelių susidūrimą su realaus pasaulio problemomis ir duomenimis, o tai padeda jiems efektyviau spręsti konkrečias vartotojų užduotis ir suprasti įvairius kontekstus. Pavyzdžiui, pokalbiai ChatGPT gali prisidėti prie jo mokymosi, tobulinant jo atsakymus ir bendrą naudingumą. Vis dėlto, OpenAI taiko griežtas privatumo priemones, įskaitant galimybę vartotojams atsisakyti mokymo ir sumažinti asmeninę informaciją duomenų rinkiniuose, užtikrinant, kad modelio tobulinimas būtų suderintas su vartotojo privatumu."
  • question: "Kokias galimybes turi individualūs vartotojai, norėdami, kad jų duomenys nebūtų naudojami OpenAI modelių mokymui?" answer: "Individualūs vartotojai turi keletą patikimų galimybių kontroliuoti, ar jų duomenys iš tokių paslaugų kaip ChatGPT, Codex ir Sora yra naudojami modelių mokymui. Pagrindinis būdas yra atsisakyti per OpenAI privatumo portalą, pasirinkus 'nesimokyti iš mano turinio'. ChatGPT atveju vartotojai taip pat gali tvarkyti mokymo nuostatas per 'Duomenų kontrolės DUK' arba naudoti 'Laikinojo pokalbio' režimą, kuris aiškiai pašalina tuos pokalbius iš mokymo, istorijos ar atminties kūrimo. Sora ir Codex taip pat siūlo specialius nustatymus savo sąsajose, skirtus duomenų mokymo nuostatoms valdyti, užtikrinant išsamų asmeninių duomenų valdymą."
  • question: "Kuo OpenAI duomenų privatumo politika skiriasi verslo vartotojams, palyginti su individualiais vartotojais?" answer: "OpenAI taiko atskirą ir griežtesnę duomenų privatumo politiką savo verslo paslaugoms, įskaitant ChatGPT Business, ChatGPT Enterprise ir savo API platformą, palyginti su individualiais vartotojais. Pagal nutylėjimą, OpenAI nenaudoja jokių įvesčių ar išvesčių iš verslo vartotojų sąveikos savo modeliams mokyti. Šis 'atsisakymo' modelis individualiems vartotojams versle pereina į 'sutikimo' modelį, kai organizacijos turi aiškiai pasirinkti dalytis duomenimis – pavyzdžiui, teikiant atsiliepimus 'Playground' aplinkoje – jei nori, kad jų duomenys prisidėtų prie modelio tobulinimo. Šis metodas teikia pirmenybę įmonių duomenų saugumui ir konfidencialumui."
  • question: "Jei pateikiu atsiliepimą apie modelio atsakymą (pvz., 'patinka'/'nepatinka'), ar tas turinys naudojamas mokymui, net jei aš atsisakiau duomenų naudojimo?" answer: "Taip, jei pasirenkate pateikti aiškų atsiliepimą apie modelio atsakymą, pavyzdžiui, pasirinkdami 'patinka' arba 'nepatinka', visas pokalbis, susijęs su konkrečiu atsiliepimu, gali būti naudojamas OpenAI modeliams mokyti, net jei kitu atveju esate atsisakę duomenų mokymo. Šis mechanizmas leidžia OpenAI įtraukti tikslinius atsiliepimus tiesiai į modelio patobulinimus. Svarbu suprasti šį skirtumą: nors bendrosios sąveikos galima atsisakyti, specifinis, tyčinis atsiliepimas yra tiesioginis indėlis į modelio tobulinimą. Vartotojai turėtų tai atsiminti, kai pasirenka vertinti modelio atsakymus."
  • question: "Ar galiu valdyti duomenų mokymo nustatymus ChatGPT, Sora ir Codex iš vienos vietos?" answer: "Nors OpenAI siūlo centralizuotą privatumo portalą, kuriame galite visuotinai atsisakyti turinio naudojimo mokymui daugelyje paslaugų, įskaitant ChatGPT ir Sora, svarbu atkreipti dėmesį, kad kai kurios paslaugos, ypač Codex ir Sora, taip pat turi atskirus, specializuotus valdiklius. Pavyzdžiui, nustatymų koregavimas ChatGPT sąsajoje automatiškai nepaveiks jūsų Sora nustatymų. Panašiai, Codex turi specifines kontrolės priemones, leidžiančias mokymąsi visose aplinkose, kurios valdomos jo paties nustatymuose. Todėl, norėdami visapusiškai valdyti duomenis, vartotojams gali tekti koreguoti nustatymus keliose vietose, priklausomai nuo naudojamų paslaugų."
  • question: "Kokių priemonių imasi OpenAI, siekdama apsaugoti asmeninę informaciją, kai duomenys naudojami modelių mokymui?" answer: "OpenAI taiko keletą esminių priemonių, skirtų apsaugoti asmeninę informaciją, kai duomenys naudojami modelių mokymui. Pirma, jie saugo tik tam tikrus būtinus duomenis iš vartotojų sąveikų. Svarbiausia, kad prieš įtraukiant šiuos duomenis į mokymo duomenų rinkinius, jie apdorojami, siekiant žymiai sumažinti arba depersonalizuoti bet kokią asmeninę informaciją. Šis depersonalizavimas padeda užtikrinti, kad modeliai mokosi iš bendrų dėsningumų ir elgesio, o ne iš identifikuojamų individualių duomenų. Tikslas yra sukurti saugią ir produktyvią aplinką, kurioje AI galimybės galėtų tobulėti, duodamos naudos plačiai vartotojų bazei, kartu išlaikant griežtus privatumo standartus."

# OpenAI duomenų naudojimas: modelio veikimo tobulinimas ir privatumas

Sparčiai besivystančioje dirbtinio intelekto srityje modelių gebėjimas mokytis ir tobulėti laikui bėgant yra pažangos pagrindas. OpenAI, pirmaujanti AI tyrimų ir diegimo įmonė, nuolat tobulina savo sudėtingus modelius, derindama pažangiausius tyrimus ir neįkainojamas įžvalgas, gautas iš realaus pasaulio sąveikų. Šiame straipsnyje aprašoma, kaip jūsų duomenys prisideda prie šio evoliucinio proceso, išsamiai nurodomi mechanizmai, skirti pagerinti [AI modelius](/lt/ai-models), kartu griežtai saugant vartotojų privatumą ir siūlant išsamią jūsų informacijos kontrolę.

## AI modelių tobulinimas: vartotojų duomenų vaidmuo

Transformacinė AI galia slypi jos nuolatinio mokymosi gebėjime. OpenAI modeliai, tokie kaip ChatGPT, Codex ir [Vaizdo įrašų generavimas su Sora](/lt/generating-videos-on-sora), suprojektuoti taip, kad taptų tikslesni, saugesni ir gebėtų spręsti sudėtingas problemas, susidūrę su įvairiais duomenimis. Kai vartotojai leidžia naudoti savo turinį mokymui, tai tiesiogiai skatina šiuos patobulinimus, prisidėdami tiek prie bendrųjų modelių galimybių, tiek prie jų gebėjimo patenkinti konkrečius vartotojų reikalavimus. Šis simbiotinis vartotojų sąveikos ir modelio tobulinimo ryšys yra esminis AI pažangai.

Įžvalgos, gautos iš praktinių pritaikymų, leidžia OpenAI nustatyti tobulinimo sritis, suprasti niuansuotus vartotojų pageidavimus ir sustiprinti savo sistemų patikimumą įvairiems iššūkiams. Šis kartojamasis mokymosi iš realaus pasaulio duomenų procesas yra labai svarbus kuriant AI, kuri būtų ne tik galinga, bet ir patikima bei orientuota į vartotoją.

## Individualios paslaugos: duomenų naudojimas ir atsisakymas ChatGPT, Codex ir Sora

Individualiems vartotojams, naudojantiems tokias paslaugas kaip ChatGPT, Codex ir Sora, jūsų turinys pagal numatytuosius nustatymus gali būti naudojamas OpenAI modeliams mokyti. Tačiau OpenAI suteikia tvirtas, išsamias kontrolės priemones tam valdyti.

<Aside type="note" title="Naujausi teisiniai pokyčiai">
  Atkreipkite dėmesį, kad duomenų saugojimui tam tikrose paslaugose gali turėti įtakos tebesitęsiantys teisiniai pokyčiai. Norėdami gauti naujausią informaciją, žr. oficialius OpenAI pranešimus ir tinklaraščio įrašus, pvz., jų [atsakymą į naujausius duomenų reikalavimus](https://openai.com/index/response-to-nyt-data-demands/).
</Aside>

### Duomenų nuostatų valdymas:

*   **Visuotinis atsisakymas:** Galite atsisakyti duomenų mokymo visose taikomose paslaugose apsilankę OpenAI [privatumo portale](https://privacy.openai.com/policies?modal=take-control) ir pasirinkę "nesimokyti iš mano turinio".
*   **ChatGPT valdikliai:** Norėdami gauti konkrečių nurodymų pokalbiams ChatGPT, juos rasite [Duomenų kontrolės DUK](https://help.openai.com/en/articles/7730893-data-controls-faq). Atsisakius, nauji pokalbiai neprisidės prie modelio mokymo.
*   **Laikinasis pokalbis:** ChatGPT taip pat siūlo „Laikinojo pokalbio“ funkciją, pasiekiamą iš pokalbių ekrano. Šio režimo pokalbiai neatsiras jūsų istorijoje, nebus naudojami ar nesukurs prisiminimų, ir nebus naudojami modeliams mokyti, siūlant greitą į privatumą orientuotą galimybę.
*   **Sora nustatymai:** Sora turi savo specialius nustatymus, kad būtų išjungtas mokymas. Nors visuotinis atsisakymas per privatumo portalą taip pat taikomas Sora, ChatGPT nustatymų koregavimas neturės įtakos Sora duomenų nuostatoms.
*   **Codex aplinkos:** Kūrėjams, naudojantiems Codex, specifinės kontrolės priemonės, leidžiančios mokytis visose aplinkose, valdomos [Codex nustatymuose](https://chatgpt.com/codex/settings/general). Jos skiriasi tiek nuo ChatGPT, tiek nuo privatumo portalo nustatymų. Daugiau apie tai galite rasti šaltiniuose apie [Codex naudojimą su jūsų ChatGPT planu](/lt/using-codex-with-your-chatgpt-plan).

Svarbu atkreipti dėmesį, kad net jei atsisakėte mokymo, pateikus aiškų atsiliepimą (pvz., „patinka“ arba „nepatinka“ apie modelio atsakymą), visas su tuo susijęs pokalbis gali būti naudojamas modelio mokymui, siekiant išspręsti konkrečias problemas ar patobulinimus.

## Įmonių sprendimai: verslo ir API vartotojų duomenų privatumas

OpenAI taiko iš esmės skirtingą duomenų privatumo požiūrį savo verslo pasiūlymams, kurie apima ChatGPT Business, ChatGPT Enterprise ir OpenAI API platformą. Šiose paslaugose pagal numatytuosius nustatymus **įvestys ar išvestys nėra naudojamos modelių mokymui.**

Organizacijos, naudojančios šias įmonių lygio paslaugas, gauna naudos iš sustiprinto duomenų konfidencialumo. API klientams, pavyzdžiui, suteikiama galimybė aiškiai sutikti dalytis duomenimis, jei jie nori prisidėti prie modelio tobulinimo, pavyzdžiui, [teikdami atsiliepimus 'Playground' aplinkoje](https://help.openai.com/en/articles/10306912-sharing-feedback-evals-and-api-data-with-openai). Tai užtikrina, kad įmonės duomenys liks privatūs, nebent būtų aiškus, aktyvus sutikimas jais dalytis. Išsamiam supratimui apie tai, kaip tvarkomi verslo duomenys, žr. OpenAI [Įmonės privatumo](/lt/enterprise-privacy) puslapį, kuriame aprašomi konkretūs įsipareigojimai ir apsaugos priemonės. Kūrėjams, dirbantiems su API, taip pat gali būti naudinga peržiūrėti [Geriausią praktika naudojant OpenAI API komandų inžineriją](/lt/best-practices-for-prompt-engineering-with-the-openai-api), siekiant optimizuoti savo duomenų sąveikas.

## OpenAI duomenų tvarkymas: privatumo apsauga modelio mokymo metu

OpenAI yra įsipareigojusi atsakingai tvarkyti duomenis. Nors tam tikri duomenys iš jūsų sąveikų yra saugomi, siekiant palengvinti modelio tobulinimą ir suprasti vartotojų poreikius, imamasi svarbių priemonių privatumo rizikai sumažinti. Prieš įtraukiant bet kokius duomenis į mokymo duomenų rinkinius, jie apdorojami, siekiant sumažinti asmeninės informacijos kiekį. Šis depersonalizavimas arba anonimizavimas padeda užtikrinti, kad modeliai mokytųsi iš bendrų dėsningumų ir elgesio, o ne iš identifikuojamų individualių duomenų.

Šis kruopštus požiūris leidžia OpenAI nuolat didinti modelio efektyvumą ir aktualumą, nepakenkiant vartotojų konfidencialumui. Tikslas yra sukurti saugią ir produktyvią aplinką, kurioje AI galimybės galėtų tobulėti, duodamos naudos plačiai vartotojų bazei, kartu išlaikant griežtus privatumo standartus.

## Duomenų kontrolės valdymas: jūsų pasirinkimai ir apžvalga

OpenAI teikia daugialypį požiūrį į duomenų kontrolę, užtikrindama, kad vartotojai galėtų priimti pagrįstus sprendimus, kaip jų sąveikos prisideda prie modelio kūrimo. Žemiau pateiktoje lentelėje apibendrinami pagrindiniai atsisakymo mechanizmai, prieinami įvairiose OpenAI paslaugose:

| Paslaugos kategorija    | Pagrindiniai atsisakymo metodai                                                                | Pastabos                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                   |
| :---------------------- | :--------------------------------------------------------------------------------------------- | :--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- |
| **Individualios paslaugos** |                                                                                                |                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                    |
| ChatGPT                 | **Privatumo portalas**, **Duomenų kontrolės DUK**, **Laikinasis pokalbis**                     | Laikinasis pokalbis neleidžia mokyti, saugoti istorijos ir kurti atminties toje konkrečioje sesijoje. Atsisakymas per Privatumo portalą arba Duomenų kontrolės DUK taikomas naujiems pokalbiams.                                                                                                                                                                                                                                                                                                                         |
| Sora                    | **Sora nustatymai**, **Privatumo portalas**                                                    | Sora turi specialius nustatymus. Visuotinis atsisakymas per Privatumo portalą taip pat bus taikomas Sora, tačiau ChatGPT nustatymai neturi įtakos Sora duomenų nuostatoms.                                                                                                                                                                                                                                                                                                                                                    |
| Codex                   | **Codex nustatymai**                                                                           | Specifiniai valdikliai, skirti mokymui visose aplinkose, valdomi pačiuose Codex nustatymuose, nepriklausomai nuo ChatGPT ar visuotinio Privatumo portalo.                                                                                                                                                                                                                                                                                                                                                                 |
| **Verslo paslaugos**     |                                                                                                |                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                                    |
| ChatGPT Business        | **Numatytasis atsisakymas**                                                                    | Duomenys nenaudojami mokymui, nebent būtų aiškiai sutikta.                                                                                                                                                                                                                                                                                                                                                                                                                                                              |
| ChatGPT Enterprise      | **Numatytasis atsisakymas**                                                                    | Duomenys nenaudojami mokymui, nebent būtų aiškiai sutikta.                                                                                                                                                                                                                                                                                                                                                                                                                                                              |
| OpenAI API platforma    | **Numatytasis atsisakymas** (aiškus sutikimas dalytis duomenimis, pvz., per 'Playground' atsiliepimus) | Duomenys pagal numatytuosius nustatymus nenaudojami mokymui. Klientai gali pasirinkti dalytis duomenimis, kad padėtų tobulinti modelius, pavyzdžiui, teikdami atsiliepimus API 'Playground' aplinkoje.                                                                                                                                                                                                                                                                                                                      |

Norėdami gauti išsamesnės informacijos apie OpenAI bendrąją duomenų tvarkymo praktiką, vartotojai raginami peržiūrėti oficialią [Privatumo politiką](https://openai.com/policies/privacy-policy), [Naudojimo sąlygas](https://openai.com/policies/terms-of-use) ir specialų [Įmonės privatumo puslapį](https://openai.com/enterprise-privacy). Šie ištekliai suteikia skaidrių įžvalgų apie duomenų valdymą, duomenų saugojimo laikotarpius ir vartotojų teises, patvirtindami OpenAI įsipareigojimą atsakingai kurti AI. Suprasdami ir naudodamiesi šiomis kontrolės priemonėmis, vartotojai gali aktyviai dalyvauti AI tobulinimo kelionėje, išlaikydami pasitikėjimą savo duomenų privatumu.

Dažniausiai užduodami klausimai

How does OpenAI utilize user data to enhance the performance of its AI models?
OpenAI leverages user interactions and content from its services to continuously improve the accuracy, safety, and general capabilities of its AI models. This process involves exposing models to real-world problems and data, which helps them become more effective at solving specific user tasks and understanding diverse contexts. For instance, conversations held within ChatGPT can contribute to its learning, refining its responses and overall utility. However, OpenAI implements robust privacy measures, including allowing users to opt out of training and reducing personal information within datasets, ensuring that model improvement is balanced with user privacy.
What options do individual users have to prevent their data from being used for OpenAI model training?
Individual users have several robust options to control whether their data from services like ChatGPT, Codex, and Sora is used for model training. The primary method is to opt out through OpenAI's privacy portal by selecting 'do not train on my content.' For ChatGPT, users can also manage training preferences via the Data Controls FAQ or utilize 'Temporary Chat' mode, which explicitly excludes those conversations from training, history, or memory creation. Sora and Codex also offer dedicated settings within their respective interfaces for managing data training preferences, ensuring granular control over personal data.
How does OpenAI's data privacy policy differ for business users compared to individual users?
OpenAI maintains a distinct and more stringent data privacy policy for its business services, including ChatGPT Business, ChatGPT Enterprise, and its API platform, compared to individual users. By default, OpenAI does not use any inputs or outputs from business users' interactions to train its models. This 'opt-out' model for individual users shifts to an 'opt-in' model for businesses, where organizations must explicitly choose to share data—for example, by providing feedback in the Playground—if they wish for their data to contribute to model improvement. This approach prioritizes enterprise data security and confidentiality.
If I provide feedback on a model's response (e.g., thumbs up/down), is that content used for training even if I've opted out?
Yes, if you choose to provide explicit feedback on a model's response, such as by selecting 'thumbs up' or 'thumbs down,' the entire conversation associated with that specific feedback may be used to train OpenAI's models, even if you have otherwise opted out of data training. This mechanism allows OpenAI to incorporate targeted feedback directly into model improvements. It's important to understand this distinction: while general interaction can be opted out of, specific, intentional feedback is a direct contribution to model refinement. Users should be mindful of this when choosing to rate model responses.
Can I manage data training settings for ChatGPT, Sora, and Codex from a single location?
While OpenAI offers a centralized privacy portal where you can universally opt out of training on your content for many services, including ChatGPT and Sora, it's important to note that some services, particularly Codex and Sora, also feature separate, dedicated controls. Adjusting settings within the ChatGPT interface, for instance, will not automatically impact your Sora settings. Similarly, Codex has specific controls for allowing training on full environments, which are managed within its own settings. Therefore, for comprehensive control, users may need to adjust settings in multiple locations depending on the services they use.
What measures does OpenAI take to protect personal information when using data for model training?
OpenAI employs several critical measures to protect personal information when using data for model training. Firstly, they retain only certain necessary data from user interactions. Crucially, before this data is incorporated into training datasets, it undergoes processes designed to significantly reduce or de-identify any personal information. This de-identification helps ensure that models learn from collective patterns and behaviors rather than identifiable individual data. The objective is to foster a safe and productive environment where AI capabilities can advance, benefitting a broad user base while upholding stringent privacy standards.

Būkite informuoti

Gaukite naujausias AI naujienas el. paštu.

Dalintis