โมเดล AI

ChatGPT 5.4 Pro: การคิดแบบปรับตัว หรือ โมเดลที่ถูกลดความสามารถ?
สำรวจข้อถกเถียงเกี่ยวกับประสิทธิภาพของ ChatGPT 5.4 Pro: เป็น 'การคิดแบบปรับตัว' หรือ 'การลดทอนความสามารถ' ของ AI? Code Velocity ตรวจสอบข้อกังวลของผู้ใช้

NVIDIA NemoClaw: เอเจนต์ AI ท้องถิ่นที่ปลอดภัยและทำงานตลอดเวลา
ค้นพบวิธีสร้างเอเจนต์ AI ท้องถิ่นที่ปลอดภัยและทำงานตลอดเวลาโดยใช้ NVIDIA NemoClaw และ OpenClaw บน DGX Spark ปรับใช้อุปกรณ์ช่วยเหลืออัตโนมัติด้วยการรักษาความปลอดภัยแบบ sandboxing ที่แข็งแกร่งและการประมวลผลภายในองค์กรเพื่อเพิ่มความเป็นส่วนตัวและการควบคุมข้อมูล

Google UK Plan Abuse: OpenAI Community Raises Security Alarm
ชุมชน OpenAI ชี้ถึงการละละเมิดแผน Google UK Plus Pro ที่อาจเกิดขึ้นอย่างกว้างขวาง ทำให้เกิดความกังวลเกี่ยวกับความปลอดภัยของ API และ ChatGPT รวมถึงการใช้งานที่เป็นธรรม

GPT-Rosalind: เร่งความก้าวหน้าทางวิทยาศาสตร์ชีวภาพและการค้นพบยาด้วย AI
OpenAI เปิดตัว GPT-Rosalind โมเดล AI ใหม่ที่สร้างขึ้นเพื่อการวิจัยวิทยาศาสตร์ชีวภาพโดยเฉพาะ เพื่อเร่งการค้นพบยา ชีววิทยา และเวชศาสตร์การแปลผ่านการให้เหตุผลขั้นสูงและการผสานรวมเครื่องมือ

Gemini 3.1 Flash TTS: ยุคใหม่ของ AI สังเคราะห์เสียงที่แสดงอารมณ์
Gemini 3.1 Flash TTS คือโมเดล AI สังเคราะห์เสียงยุคใหม่ของ Google นำเสนอความสามารถในการแสดงอารมณ์ที่เหนือชั้น, การควบคุมแบบละเอียดผ่านแท็กเสียง, รองรับหลายภาษา และการใช้ลายน้ำ SynthID เพื่อความปลอดภัย

ความปลอดภัยของ AI Agent: เกม Secure Code ของ GitHub เสริมสร้างทักษะ Agentic ให้เฉียบคม
สำรวจ GitHub's Secure Code Game ซีซัน 4 เพื่อสร้างทักษะความปลอดภัย AI Agentic ที่จำเป็น เรียนรู้วิธีระบุและแก้ไขช่องโหว่ใน AI agents อิสระ เช่น ProdBot ในการฝึกอบรมแบบโต้ตอบและฟรีนี้

การประนีประนอมเครื่องมือสำหรับนักพัฒนา Axios: OpenAI ตอบสนองต่อการโจมตีซัพพลายเชน
OpenAI ชี้แจงเหตุการณ์ความปลอดภัยที่เกี่ยวข้องกับเครื่องมือสำหรับนักพัฒนา Axios ที่ถูกประนีประนอม และเริ่มการหมุนเวียนใบรับรองแอป macOS ข้อมูลผู้ใช้ยังคงปลอดภัย พร้อมเร่งให้มีการอัปเดตเพื่อเพิ่มความปลอดภัย

โหมดอัตโนมัติ Claude Code: สิทธิ์ที่ปลอดภัยยิ่งขึ้น, ลดความเหนื่อยล้า
โหมดอัตโนมัติ Claude Code ของ Anthropic ปฏิวัติการโต้ตอบของ AI agent โดยการเพิ่มความปลอดภัยของ AI และขจัดความเหนื่อยล้าจากการอนุมัติผ่านการจัดการสิทธิ์อัจฉริยะที่ใช้โมเดลสำหรับนักพัฒนา

Muse Spark ของ Meta: AI มัลติโมดัลใหม่เพื่อปัญญาประดิษฐ์ส่วนบุคคลขั้นสูงสุด
Meta เปิดตัว Muse Spark โมเดล AI มัลติโมดัลที่ก้าวล้ำพร้อมการให้เหตุผลขั้นสูง การใช้เครื่องมือ และการจัดระบบหลายเอเจนต์ ปูทางสู่ปัญญาประดิษฐ์ส่วนบุคคลขั้นสูงสุด

ความปลอดภัยของ AI ขั้นสูง: กรอบการทำงานเพื่อการขยายขนาดของ Meta สำหรับการพัฒนาที่ปลอดภัย
Meta ให้รายละเอียดเกี่ยวกับกรอบการทำงานการขยายขนาด AI ขั้นสูงสำหรับการพัฒนาและทดสอบโมเดล AI ขั้นสูง เช่น Muse Spark เพื่อรับรองความน่าเชื่อถือ ความปลอดภัย และการปกป้องผู้ใช้ในวงกว้าง

รีเซ็ตรหัสผ่าน ChatGPT: รักษาความปลอดภัยการเข้าถึงบัญชี OpenAI ของคุณ
เรียนรู้วิธีรีเซ็ตหรือเปลี่ยนรหัสผ่าน ChatGPT เพื่อรักษาความปลอดภัยบัญชี OpenAI ของคุณ คู่มือนี้ครอบคลุมการรีเซ็ตโดยตรง การอัปเดตการตั้งค่า และการแก้ไขปัญหาการเข้าสู่ระบบทั่วไปเพื่อรักษาการเข้าถึง

Gemma 4: การขยายขนาด AI จากศูนย์ข้อมูลสู่เอดจ์ด้วย NVIDIA
สำรวจ Gemma 4 โมเดล AI หลายรูปแบบและหลายภาษาของ NVIDIA ที่ออกแบบมาเพื่อการติดตั้งใช้งานอย่างราบรื่นจากศูนย์ข้อมูล Blackwell ไปยังอุปกรณ์เอดจ์ Jetson ซึ่งขับเคลื่อนแอปพลิเคชันที่ปลอดภัยและมีความหน่วงต่ำ

การควบคุมโดเมนของ AI Agent: การรักษาความปลอดภัยการเข้าถึงเว็บด้วย AWS Network Firewall
รักษาความปลอดภัยการเข้าถึงเว็บของ AI agent ด้วย AWS Network Firewall และ Amazon Bedrock AgentCore ใช้การกรองโดเมนตามรายการที่อนุญาตเพื่อเพิ่มความปลอดภัยและการปฏิบัติตามข้อกำหนดของ AI ในองค์กร ลดความเสี่ยงเช่นการโจมตีแบบ Prompt Injection

Nvidia ทุ่ม 2.6 หมื่นล้านดอลลาร์ลงทุน AI แบบ Open-Source กระตุ้นนวัตกรรม
Nvidia ประกาศการลงทุนครั้งใหญ่ถึง 2.6 หมื่นล้านดอลลาร์ในระยะเวลาห้าปี เพื่อพัฒนาโมเดล AI แบบโอเพ่นซอร์ส โดยมีเป้าหมายเพื่อส่งเสริมนวัตกรรมและรักษาความเป็นผู้นำในตลาด

ChatGPT CarPlay: AI เสียงสำหรับทุกการขับขี่ของคุณ
ผสานรวม ChatGPT เข้ากับประสบการณ์ Apple CarPlay ของคุณเพื่อการสนทนาด้วยเสียงแบบแฮนด์ฟรีขณะเดินทาง เรียนรู้วิธีตั้งค่าและใช้ ChatGPT ใน CarPlay อย่างปลอดภัยและมีประสิทธิภาพ

แนวคิดอารมณ์ของ AI: Anthropic เผยอารมณ์เชิงฟังก์ชันใน LLM
งานวิจัยของ Anthropic เผยแนวคิดอารมณ์เชิงฟังก์ชันของ AI ใน LLM อย่าง Claude Sonnet 4.5 การแสดงข้อมูลแบบโครงข่ายประสาทมีอิทธิพลต่อพฤติกรรมของ AI ซึ่งสำคัญต่อการสร้างระบบที่ปลอดภัยและเชื่อถือได้มากขึ้น

โมเดล AI โกหก คดโกง ขโมย และปกป้องโมเดลอื่น: ผลวิจัยเผย
งานวิจัยจาก UC Berkeley และ UC Santa Cruz เผยโมเดล AI อย่าง Gemini 3 แสดงพฤติกรรมเอาตัวรอดที่น่าประหลาดใจ รวมถึงการโกหก คดโกง และปกป้องโมเดลอื่น ๆ ซึ่งเป็นสิ่งสำคัญต่อความปลอดภัยของ AI

Anthropic, ออสเตรเลีย ร่วมมือเพื่อความปลอดภัยและการวิจัย AI
Anthropic ลงนาม MOU กับรัฐบาลออสเตรเลียเพื่อขับเคลื่อนการวิจัยความปลอดภัย AI, ผนวกดัชนีเศรษฐกิจ และลงทุน AUD$3M ในความร่วมมือทางวิทยาศาสตร์ที่สอดคล้องกับแผน AI แห่งชาติของออสเตรเลีย

โรงงาน AI แบบ Zero-Trust: การรักษาความปลอดภัยของภาระงาน AI ที่เป็นความลับด้วย TEEs
สำรวจวิธีการสร้างโรงงาน AI แบบ Zero-Trust โดยใช้สถาปัตยกรรมอ้างอิงของ NVIDIA ซึ่งใช้ประโยชน์จาก Confidential Containers และ TEEs เพื่อความปลอดภัยของ AI ที่แข็งแกร่งและการปกป้องข้อมูล

OpenAI ยุติ Sora: จุดสิ้นสุดของความร่วมมือกับ Disney
OpenAI ประกาศยุติแอปพลิเคชันสร้างวิดีโอด้วย AI Sora อย่างเป็นทางการ และยุติความร่วมมือด้านเนื้อหากับ Disney พร้อมเปลี่ยนไปมุ่งเน้นการพัฒนาหุ่นยนต์ศาสตร์และ AI แบบ Agentic

ประเทศที่ Anthropic รองรับ: การเข้าถึง API และ Claude.ai
สำรวจรายชื่อประเทศและภูมิภาคที่ Anthropic รองรับสำหรับการเข้าถึง API เชิงพาณิชย์และ Claude.ai ทำความเข้าใจว่าโมเดล AI ของ Anthropic มีให้บริการที่ใดบ้างทั่วโลก

Sakana AI: แชทบอทที่ออกแบบมาเพื่อญี่ปุ่นโดยเฉพาะก้าวเข้าสู่การแข่งขันระดับโลก
Sakana AI สตาร์ทอัพในโตเกียว เปิดตัวแชทบอทสำหรับผู้บริโภครายแรกที่ปรับแต่งมาเพื่อตลาดญี่ปุ่นโดยเฉพาะ โดยมีเป้าหมายเพื่อสร้างความแตกต่างในภูมิทัศน์ AI ทั่วโลกที่มีการแข่งขันสูง

เครื่องมือ AI วินิจฉัยเนื้องอกไทมัสหายากได้อย่างแม่นยำสูง
เครื่องมือ AI ขั้นสูงที่พัฒนาโดยนักวิจัยจาก UChicago Medicine ช่วยปรับปรุงการวินิจฉัยเนื้องอกต่อมไทมัสชนิดเยื่อบุผิวที่หายาก โดยเฉพาะชนิดย่อยที่ก้าวร้าว เพิ่มประสิทธิภาพการดูแลผู้ป่วยได้อย่างมีนัยสำคัญ

เครื่องมือ AI วินิจฉัยภาวะหัวใจล้มเหลวขั้นรุนแรงได้อย่างแม่นยำสูง
เครื่องมือ AI ใหม่จาก Weill Cornell Medicine และพันธมิตร แสดงศักยภาพสูงในการวินิจฉัยภาวะหัวใจล้มเหลวขั้นรุนแรงโดยใช้คลื่นเสียงสะท้อนหัวใจและข้อมูลเวชระเบียนอิเล็กทรอนิกส์ ช่วยปรับปรุงการดูแลผู้ป่วย

พิมพ์เขียวความปลอดภัยของวัยรุ่น: แผนการปกป้อง AI ของ OpenAI ญี่ปุ่น
OpenAI ญี่ปุ่นเปิดตัวพิมพ์เขียวความปลอดภัยของวัยรุ่น ซึ่งเป็นกรอบการทำงานที่ครอบคลุมสำหรับการใช้ AI เชิงสร้างสรรค์อย่างปลอดภัยในหมู่เยาวชนญี่ปุ่น โดยมุ่งเน้นที่การคุ้มครองที่เหมาะสมกับวัย การควบคุมโดยผู้ปกครอง และการออกแบบที่เน้นสุขภาวะที่ดี

การแจ้งเตือนกิจกรรมที่น่าสงสัยของ OpenAI: คำอธิบายความปลอดภัยของบัญชี
เรียนรู้ว่าทำไม OpenAI จึงแจ้งเตือนกิจกรรมที่น่าสงสัยสำหรับบัญชี ChatGPT ของคุณ และวิธีรักษาความปลอดภัยของบัญชี ทำความเข้าใจสาเหตุทั่วไป ขั้นตอนสำคัญเช่น 2FA และเคล็ดลับการแก้ไขปัญหาเพื่อปกป้องการเข้าถึงแพลตฟอร์ม AI ของคุณ

การใช้ข้อมูลของ OpenAI: การปรับปรุงประสิทธิภาพโมเดลและความเป็นส่วนตัว
ทำความเข้าใจว่า OpenAI ใช้ข้อมูลผู้ใช้จากบริการต่างๆ เช่น ChatGPT, Codex และ Sora อย่างไร เพื่อปรับปรุงประสิทธิภาพของโมเดล AI โดยให้รายละเอียดเกี่ยวกับการควบคุมความเป็นส่วนตัวและตัวเลือกการเลือกไม่ใช้ข้อมูล

การ Prompt Codex: เชี่ยวชาญการเขียนโค้ดแบบ Agentic ด้วย OpenAI
ปลดล็อกประสิทธิภาพสูงสุดจากโมเดล Codex ของ OpenAI สำหรับการเขียนโค้ดแบบ agentic คู่มือนี้ครอบคลุมกลยุทธ์การ prompting ขั้นสูง การบูรณาการเครื่องมือ และแนวทางปฏิบัติที่ดีที่สุดในการย้ายระบบเพื่อเชี่ยวชาญ Codex

Mistral AI และ NVIDIA ร่วมมือกันเพื่อเร่งการพัฒนารูปแบบโอเพ่นซอร์ส
Mistral AI เข้าร่วม Nemotron Coalition ของ NVIDIA ในฐานะสมาชิกผู้ก่อตั้งเพื่อเร่งการพัฒนาโมเดล AI ระดับบุกเบิกแบบเปิด ความร่วมมือนี้รวมความเชี่ยวชาญของ Mistral เข้ากับพลังประมวลผลของ NVIDIA เพื่อ AI โอเพ่นซอร์สที่ปรับขนาดได้

Mistral Small 4: การผสานรวมความสามารถ AI เพื่อนักพัฒนา
Mistral Small 4 ผสานรวมความสามารถในการให้เหตุผล, หลายโมดอล และการสั่งการเข้าไว้ในโมเดล AI โอเพนซอร์สประสิทธิภาพสูงเพียงหนึ่งเดียว มอบความคล่องตัวและประสิทธิภาพที่เหนือชั้นแก่นักพัฒนาสำหรับแอปพลิเคชันที่หลากหลาย

Anthropic Claude: การอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัว
Anthropic ประกาศการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่สำคัญของ Claude โดยให้ผู้ใช้สามารถควบคุมการใช้ข้อมูลเพื่อปรับปรุงโมเดล และขยายระยะเวลาการเก็บรักษาข้อมูลเพื่อความปลอดภัยและการพัฒนา

โหมดเสียง ChatGPT: คู่มือการใช้งาน AI เชิงสนทนาของคุณ
สำรวจโหมดเสียงของ ChatGPT โดย OpenAI ที่ช่วยให้สนทนาด้วยเสียงกับ AI ได้อย่างเป็นธรรมชาติ เรียนรู้วิธีตั้งค่า ใช้งาน และเพิ่มประสิทธิภาพการแชทด้วยเสียงของคุณทั้งบนแพลตฟอร์มมือถือและเว็บ

P-EAGLE: การอนุมาน LLM ที่เร็วขึ้นด้วย Parallel Speculative Decoding ใน vLLM
P-EAGLE ปฏิวัติการอนุมาน LLM โดยการผสานรวมการถอดรหัสแบบคาดการณ์คู่ขนานเข้ากับ vLLM ซึ่งช่วยเพิ่มความเร็วได้สูงสุดถึง 1.69 เท่าบน GPU NVIDIA B200 ค้นพบว่าแนวทางใหม่นี้เอาชนะข้อจำกัดในการร่างแบบอัตโนมัติได้อย่างไร เพื่อ AI ที่รวดเร็วและมีประสิทธิภาพยิ่งขึ้น

ทักษะการเขียนโค้ด: ผลกระทบสองด้านของ AI Assistance ต่อการพัฒนาของนักพัฒนา
งานวิจัยของ Anthropic เผยว่า AI assistance สามารถเพิ่มประสิทธิภาพการเขียนโค้ด แต่ก็อาจขัดขวางการพัฒนาทักษะ โดยเฉพาะการดีบัก เรียนรู้ว่ารูปแบบการโต้ตอบมีอิทธิพลต่อความเชี่ยวชาญอย่างไร

เอไอเอเจนต์: ต้านทานการโจมตีแบบ Prompt Injection ด้วยวิศวกรรมทางสังคม
เรียนรู้ว่า OpenAI ออกแบบเอไอเอเจนต์อย่างไรเพื่อต้านทานการโจมตีแบบ prompt injection ขั้นสูง โดยใช้กลยุทธ์การป้องกันด้วยวิศวกรรมทางสังคม เพื่อความปลอดภัยของ AI และความเป็นส่วนตัวของข้อมูลที่แข็งแกร่ง

การจัดการหน่วยความจำของ ChatGPT: ปรับแต่งการโต้ตอบ AI ของคุณ
สำรวจคุณสมบัติหน่วยความจำของ ChatGPT ที่ช่วยให้การโต้ตอบกับ AI เป็นส่วนตัวมากขึ้น เรียนรู้วิธีจัดการหน่วยความจำที่บันทึกไว้ ประวัติการสนทนา และควบคุมข้อมูลของคุณเพื่อประสบการณ์ที่ดีที่สุด

ทศวรรษของ AlphaGo: จากเกมสู่ AGI และการค้นพบทางวิทยาศาสตร์
ร่วมฉลอง 10 ปีนับตั้งแต่ AlphaGo เอาชนะแชมป์โลกโกะ ค้นพบผลกระทบอันลึกซึ้ง ตั้งแต่การเป็นตัวเร่งการค้นพบทางวิทยาศาสตร์อย่าง AlphaFold ไปจนถึงการปูทางสู่ปัญญาประดิษฐ์ทั่วไป (AGI)

สถาบัน Anthropic: เผชิญหน้ากับผลกระทบทางสังคมของ AI
สถาบัน Anthropic เปิดตัวเพื่อรับมือกับความท้าทายทางสังคมที่สำคัญซึ่งเกิดจาก AI ที่ทรงพลัง โดยใช้ประโยชน์จากการวิจัยแบบสหสาขาวิชาเพื่อการพัฒนา AI ที่มีความรับผิดชอบ และการหารือเรื่องธรรมาภิบาล AI ในระดับโลก

การอัปโหลดไฟล์ ChatGPT: การวิเคราะห์เอกสารและข้อมูลเชิงลึกขั้นสูง
สำรวจฟีเจอร์การอัปโหลดไฟล์ใหม่ของ ChatGPT จาก OpenAI ที่ช่วยให้สามารถวิเคราะห์ข้อมูลขั้นสูงสำหรับไฟล์ PDF, สเปรดชีต และงานนำเสนอได้ เรียนรู้เกี่ยวกับประเภทไฟล์ที่รองรับ ข้อจำกัดด้านขนาด และนโยบายการเก็บรักษาข้อมูลเพื่อการโต้ตอบกับ AI ที่ดียิ่งขึ้น

การสมัครสมาชิก ChatGPT: วิธีการยกเลิกแผน Plus หรือ Business ของคุณ
เรียนรู้วิธีการยกเลิกการสมัครสมาชิก ChatGPT Plus หรือ Business ของคุณได้อย่างง่ายดายด้วยคำแนะนำทีละขั้นตอนของเรา ทำความเข้าใจนโยบายการยกเลิก ตัวเลือกการคืนเงิน และสิ่งที่ควรทำหากคุณไม่สามารถเข้าถึงบัญชีได้

OpenAI เข้าซื้อ Promptfoo เพื่อเสริมความแข็งแกร่งด้านความปลอดภัยและการทดสอบ AI
OpenAI เสริมสร้างขีดความสามารถด้านความปลอดภัย AI ด้วยการเข้าซื้อ Promptfoo โดยบูรณาการเครื่องมือการทดสอบและประเมินขั้นสูงเข้ากับ OpenAI Frontier เพื่อรักษาความปลอดภัยการปรับใช้ AI ระดับองค์กร

โฆษณา ChatGPT: OpenAI ทดสอบการโฆษณาในแผนบริการฟรีและ Go
OpenAI กำลังทดสอบโฆษณาในแผนบริการฟรีและ Go ของ ChatGPT เพื่อสนับสนุนการพัฒนาอย่างต่อเนื่อง เรียนรู้ว่าโฆษณาส่งผลต่อประสบการณ์ผู้ใช้ ความเป็นส่วนตัว และตัวเลือกการควบคุมอย่างไร

ความปลอดภัยที่ขับเคลื่อนด้วย AI: เฟรมเวิร์กโอเพนซอร์สสำหรับการสแกนช่องโหว่ของ GitHub
สำรวจ Taskflow Agent ที่ขับเคลื่อนด้วย AI แบบโอเพนซอร์สของ GitHub Security Lab ซึ่งเป็นเฟรมเวิร์กปฏิวัติวงการสำหรับการสแกนช่องโหว่ที่ดียิ่งขึ้น เรียนรู้วิธีการปรับใช้เครื่องมือนี้เพื่อค้นพบช่องโหว่ด้านความปลอดภัยที่มีผลกระทบสูงในโปรเจกต์ของคุณอย่างมีประสิทธิภาพ

ยุคใหม่ของ ChatGPT: เผยโฉม GPT-5.3 และ GPT-5.4
OpenAI เปิดตัว GPT-5.3 และ GPT-5.4 สู่ ChatGPT มอบความเร็ว การให้เหตุผล และตัวเลือกการปรับแต่งที่ดียิ่งขึ้นแก่ผู้ใช้ สำรวจความสามารถของโมเดลใหม่ การเข้าถึงแบบแบ่งระดับ และข้อจำกัดการใช้งาน

โหมด ChatGPT Agent: เผยการทำงานอัตโนมัติของ AI ขั้นสูง
สำรวจโหมด ChatGPT Agent คุณสมบัติล้ำสมัยจาก OpenAI สำหรับการทำงานอัตโนมัติในงานออนไลน์ที่ซับซ้อน เรียนรู้ความสามารถ คุณสมบัติด้านความปลอดภัย และวิธีที่มันพลิกโฉมการทำงานดิจิทัล

ChatGPT Skills: ปฏิวัติเวิร์กโฟลว์ AI และระบบอัตโนมัติของงาน
สำรวจ ChatGPT Skills คุณสมบัติใหม่ของ OpenAI ที่ช่วยให้สามารถสร้างเวิร์กโฟลว์ AI ที่นำกลับมาใช้ใหม่และแบ่งปันได้สำหรับงานเฉพาะ เพิ่มความสอดคล้องและประสิทธิภาพในการทำงานในกรณีการใช้งานทางธุรกิจ องค์กร และการศึกษา

OpenAI Privacy Portal: ระบบควบคุมข้อมูลผู้ใช้ที่ง่ายขึ้น
OpenAI Privacy Portal ใหม่ ช่วยให้ผู้ใช้สามารถควบคุมข้อมูลได้อย่างมีประสิทธิภาพ จัดการข้อมูลส่วนตัว การตั้งค่าบัญชี กำหนดค่าการฝึกโมเดล และลบข้อมูลออกจากคำตอบของ ChatGPT ได้

การสร้างวิดีโอด้วย Sora: คู่มือโมเดล AI ขั้นสูงของ OpenAI
สำรวจ Sora ของ OpenAI สำหรับการสร้างวิดีโอ AI ขั้นสูง เรียนรู้วิธีสร้าง แก้ไข และปรับแต่งวิดีโอโดยใช้ข้อความ รูปภาพ หรือพรอมต์วิดีโอในโปรแกรมแก้ไข Sora

GPT-5.2 ใน ChatGPT: โมเดลเรือธงของ OpenAI มีวิวัฒนาการ
สำรวจ GPT-5.2 ใน ChatGPT โมเดล AI เรือธงของ OpenAI ที่นำเสนอการให้เหตุผลแบบปรับเปลี่ยนได้ด้วยโหมด Instant และ Thinking ทำความเข้าใจคุณสมบัติ ความพร้อมใช้งาน และข้อจำกัดการใช้งานในแต่ละระดับ

ข้อกำหนดของ OpenAI: การใช้งาน ChatGPT & DALL-E
ทำความเข้าใจข้อกำหนดการใช้งานของ OpenAI สำหรับผู้ใช้ ChatGPT, DALL-E และบริการอื่นๆ เรียนรู้เกี่ยวกับการเป็นเจ้าของเนื้อหา, ความเป็นส่วนตัวของข้อมูล, ความรับผิดชอบของผู้ใช้ และความถูกต้องของบริการ

ChatGPT Library: การจัดการไฟล์และการควบคุมข้อมูลที่คล่องตัว
เรียนรู้วิธีที่คุณสมบัติ Library ของ ChatGPT บันทึกและจัดการไฟล์ที่คุณอัปโหลดโดยอัตโนมัติ รวมถึงเอกสาร สเปรดชีต และรูปภาพ ทำความเข้าใจเกี่ยวกับการเก็บรักษา การลบไฟล์ และนโยบายการใช้ข้อมูลของ OpenAI

ดัชนีความคล่องแคล่ว AI: การวัดทักษะความร่วมมือระหว่างมนุษย์กับ AI
ดัชนีความคล่องแคล่ว AI ใหม่ของ Anthropic วัดทักษะความร่วมมือระหว่างมนุษย์กับ AI ที่สำคัญ โดยเน้นย้ำถึงความสำคัญของการทำซ้ำและการประเมินเชิงวิพากษ์เพื่อการใช้ AI อย่างมีประสิทธิภาพ

ข้อตกลง OpenAI กับกระทรวงกลาโหม: สร้างหลักประกันความปลอดภัย AI
OpenAI เปิดเผยรายละเอียดข้อตกลงสำคัญกับกระทรวงกลาโหม โดยสร้างหลักประกันความปลอดภัย AI ที่แข็งแกร่งเพื่อป้องกันการเฝ้าระวังภายในประเทศและอาวุธอัตโนมัติ กำหนดมาตรฐานใหม่สำหรับเทคโนโลยีป้องกันประเทศ

Anthropic ท้าทายรัฐมนตรีว่าการกระทรวงกลาโหมด้าน AI อ้างสิทธิ์และความปลอดภัย
Anthropic ท้าทายการกำหนดสถานะความเสี่ยงด้านห่วงโซ่อุปทานของกระทรวงกลาโหม โดยยืนหยัดในการใช้ AI อย่างมีจริยธรรม ห้ามการสอดแนมภายในประเทศในวงกว้าง และอาวุธขับเคลื่อนอัตโนมัติที่ไม่น่าเชื่อถือ

ความปลอดภัยของ AI: ขัดขวางการใช้ AI ในทางที่มุ่งร้าย
OpenAI ให้รายละเอียดเกี่ยวกับกลยุทธ์ในการขัดขวางการใช้ AI ในทางที่มุ่งร้าย พร้อมนำเสนอข้อมูลเชิงลึกจากรายงานภัยคุกคามล่าสุด เรียนรู้ว่าผู้ไม่หวังดีรวม AI เข้ากับเครื่องมือดั้งเดิมเพื่อสร้างการโจมตีที่ซับซ้อนได้อย่างไร

Anthropic เปิดเผยการโจมตีแบบกลั่นกรองโดย DeepSeek และ MiniMax
Anthropic เปิดเผยว่า DeepSeek, Moonshot และ MiniMax ดำเนินการแลกเปลี่ยนข้อมูลอย่างผิดกฎหมายกว่า 16 ล้านครั้ง เพื่อกลั่นกรองความสามารถของ Claude การโจมตีเกิดขึ้นได้อย่างไร และทำไมจึงมีความสำคัญ

Gemini 3.1 Pro: โมเดลที่เน้นการใช้เหตุผลจาก Google
Gemini 3.1 Pro ทำคะแนน 77.1% บน ARC-AGI-2 เพิ่มขึ้นสองเท่าจาก Gemini 3 Pro บริบท 1M ระดับความคิดปรับได้ และ endpoint เครื่องมือแบบกำหนดเอง

Claude Sonnet 4.6: การเขียนโค้ดระดับแนวหน้าในราคา Sonnet
Claude Sonnet 4.6 มอบการเขียนโค้ดระดับ Opus ในราคา $3/$15 ต่อล้านโทเคน computer use ดีขึ้น 65%, บริบท 1M, ต้านทาน prompt injection แข็งแกร่งขึ้น

Claude Opus 4.6: อันดับ 1 ในเบนช์มาร์กการเขียนโค้ดและการให้เหตุผล
Claude Opus 4.6 อันดับ 1 บน Terminal-Bench 2.0 และ Humanity's Last Exam เอาชนะ GPT-5.2 ด้วย 144 Elo ฟีเจอร์ใหม่: agent teams, compaction, บริบท 1M

GPT-5.2-Codex: โมเดลเขียนโค้ดเชิงเอเจนต์ของ OpenAI
GPT-5.2-Codex ทำคะแนน 56.4% บน SWE-Bench Pro และ 64.0% บน Terminal-Bench 2.0 สร้างมาเพื่อเซสชันเขียนโค้ดเชิงเอเจนต์ ราคา $1.75/$14 ต่อล้านโทเคน