Code Velocity

โมเดล AI

ภาพนามธรรมที่แสดงถึงวิวัฒนาการของประสิทธิภาพโมเดล AI พร้อมลูกศรที่บ่งบอกแนวโน้มขึ้นและลง ชี้ให้เห็นถึงการคิดแบบปรับตัวหรือการลดความสามารถ
โมเดล AI

ChatGPT 5.4 Pro: การคิดแบบปรับตัว หรือ โมเดลที่ถูกลดความสามารถ?

สำรวจข้อถกเถียงเกี่ยวกับประสิทธิภาพของ ChatGPT 5.4 Pro: เป็น 'การคิดแบบปรับตัว' หรือ 'การลดทอนความสามารถ' ของ AI? Code Velocity ตรวจสอบข้อกังวลของผู้ใช้

·7 นาทีอ่าน
ระบบ NVIDIA DGX Spark ที่ทำงาน OpenClaw และ NemoClaw สำหรับการปรับใช้เอเจนต์ AI ท้องถิ่นที่ปลอดภัย
ความปลอดภัย AI

NVIDIA NemoClaw: เอเจนต์ AI ท้องถิ่นที่ปลอดภัยและทำงานตลอดเวลา

ค้นพบวิธีสร้างเอเจนต์ AI ท้องถิ่นที่ปลอดภัยและทำงานตลอดเวลาโดยใช้ NVIDIA NemoClaw และ OpenClaw บน DGX Spark ปรับใช้อุปกรณ์ช่วยเหลืออัตโนมัติด้วยการรักษาความปลอดภัยแบบ sandboxing ที่แข็งแกร่งและการประมวลผลภายในองค์กรเพื่อเพิ่มความเป็นส่วนตัวและการควบคุมข้อมูล

·7 นาทีอ่าน
ไอคอนแม่กุญแจไซเบอร์ทับซ้อนเครือข่าย สื่อถึงการละเมิดแผน Google UK และข้อกังวลด้านความปลอดภัยของ OpenAI
ความปลอดภัย AI

Google UK Plan Abuse: OpenAI Community Raises Security Alarm

ชุมชน OpenAI ชี้ถึงการละละเมิดแผน Google UK Plus Pro ที่อาจเกิดขึ้นอย่างกว้างขวาง ทำให้เกิดความกังวลเกี่ยวกับความปลอดภัยของ API และ ChatGPT รวมถึงการใช้งานที่เป็นธรรม

·4 นาทีอ่าน
อินเทอร์เฟซโมเดล AI GPT-Rosalind แสดงเวิร์กโฟลว์ปลั๊กอินการวิจัยวิทยาศาสตร์ชีวภาพและการวิเคราะห์ข้อมูล
โมเดล AI

GPT-Rosalind: เร่งความก้าวหน้าทางวิทยาศาสตร์ชีวภาพและการค้นพบยาด้วย AI

OpenAI เปิดตัว GPT-Rosalind โมเดล AI ใหม่ที่สร้างขึ้นเพื่อการวิจัยวิทยาศาสตร์ชีวภาพโดยเฉพาะ เพื่อเร่งการค้นพบยา ชีววิทยา และเวชศาสตร์การแปลผ่านการให้เหตุผลขั้นสูงและการผสานรวมเครื่องมือ

·7 นาทีอ่าน
โลโก้ Gemini 3.1 Flash TTS ที่มีจุดสีสัน แสดงถึงเทคโนโลยีการสังเคราะห์เสียง AI ขั้นสูงและความสามารถในการแสดงอารมณ์
โมเดล AI

Gemini 3.1 Flash TTS: ยุคใหม่ของ AI สังเคราะห์เสียงที่แสดงอารมณ์

Gemini 3.1 Flash TTS คือโมเดล AI สังเคราะห์เสียงยุคใหม่ของ Google นำเสนอความสามารถในการแสดงอารมณ์ที่เหนือชั้น, การควบคุมแบบละเอียดผ่านแท็กเสียง, รองรับหลายภาษา และการใช้ลายน้ำ SynthID เพื่อความปลอดภัย

·5 นาทีอ่าน
ภาพสไตล์ลิชที่แสดงมุมมองของแฮกเกอร์ต่อโค้ดของ AI agent ซึ่งเป็นตัวแทนของการฝึกอบรมความปลอดภัย AI Agentic ภายในเกม Secure Code ของ GitHub
ความปลอดภัย AI

ความปลอดภัยของ AI Agent: เกม Secure Code ของ GitHub เสริมสร้างทักษะ Agentic ให้เฉียบคม

สำรวจ GitHub's Secure Code Game ซีซัน 4 เพื่อสร้างทักษะความปลอดภัย AI Agentic ที่จำเป็น เรียนรู้วิธีระบุและแก้ไขช่องโหว่ใน AI agents อิสระ เช่น ProdBot ในการฝึกอบรมแบบโต้ตอบและฟรีนี้

·7 นาทีอ่าน
การตอบสนองของ OpenAI ต่อการประนีประนอมเครื่องมือสำหรับนักพัฒนา Axios โดยเน้นการอัปเดตความปลอดภัยของแอป macOS
ความปลอดภัย AI

การประนีประนอมเครื่องมือสำหรับนักพัฒนา Axios: OpenAI ตอบสนองต่อการโจมตีซัพพลายเชน

OpenAI ชี้แจงเหตุการณ์ความปลอดภัยที่เกี่ยวข้องกับเครื่องมือสำหรับนักพัฒนา Axios ที่ถูกประนีประนอม และเริ่มการหมุนเวียนใบรับรองแอป macOS ข้อมูลผู้ใช้ยังคงปลอดภัย พร้อมเร่งให้มีการอัปเดตเพื่อเพิ่มความปลอดภัย

·11 นาทีอ่าน
แผนภาพแสดงสถาปัตยกรรมโหมดอัตโนมัติ Claude Code ของ Anthropic ซึ่งช่วยเพิ่มความปลอดภัยของ AI agent และประสบการณ์ผู้ใช้
ความปลอดภัยของ AI

โหมดอัตโนมัติ Claude Code: สิทธิ์ที่ปลอดภัยยิ่งขึ้น, ลดความเหนื่อยล้า

โหมดอัตโนมัติ Claude Code ของ Anthropic ปฏิวัติการโต้ตอบของ AI agent โดยการเพิ่มความปลอดภัยของ AI และขจัดความเหนื่อยล้าจากการอนุมัติผ่านการจัดการสิทธิ์อัจฉริยะที่ใช้โมเดลสำหรับนักพัฒนา

·5 นาทีอ่าน
โลโก้ Muse Spark ที่มีรูปร่างนามธรรมเกี่ยวพันกัน สื่อถึงความสามารถ AI มัลติโมดัล และข้อความ 'Muse Spark'
โมเดล AI

Muse Spark ของ Meta: AI มัลติโมดัลใหม่เพื่อปัญญาประดิษฐ์ส่วนบุคคลขั้นสูงสุด

Meta เปิดตัว Muse Spark โมเดล AI มัลติโมดัลที่ก้าวล้ำพร้อมการให้เหตุผลขั้นสูง การใช้เครื่องมือ และการจัดระบบหลายเอเจนต์ ปูทางสู่ปัญญาประดิษฐ์ส่วนบุคคลขั้นสูงสุด

·7 นาทีอ่าน
กราฟิกแห่งอนาคตที่แสดงถึงการพัฒนา AI ที่ปลอดภัยและปรับขนาดได้ ซึ่งเป็นสัญลักษณ์ของกรอบการทำงานการขยายขนาด AI ขั้นสูงของ Meta และโปรโตคอลความปลอดภัยของ AI
โมเดล AI

ความปลอดภัยของ AI ขั้นสูง: กรอบการทำงานเพื่อการขยายขนาดของ Meta สำหรับการพัฒนาที่ปลอดภัย

Meta ให้รายละเอียดเกี่ยวกับกรอบการทำงานการขยายขนาด AI ขั้นสูงสำหรับการพัฒนาและทดสอบโมเดล AI ขั้นสูง เช่น Muse Spark เพื่อรับรองความน่าเชื่อถือ ความปลอดภัย และการปกป้องผู้ใช้ในวงกว้าง

·5 นาทีอ่าน
หน้าจอเข้าสู่ระบบ ChatGPT พร้อมตัวเลือก 'ลืมรหัสผ่าน?' ที่เน้นสำหรับการรีเซ็ตบัญชี
ความปลอดภัย AI

รีเซ็ตรหัสผ่าน ChatGPT: รักษาความปลอดภัยการเข้าถึงบัญชี OpenAI ของคุณ

เรียนรู้วิธีรีเซ็ตหรือเปลี่ยนรหัสผ่าน ChatGPT เพื่อรักษาความปลอดภัยบัญชี OpenAI ของคุณ คู่มือนี้ครอบคลุมการรีเซ็ตโดยตรง การอัปเดตการตั้งค่า และการแก้ไขปัญหาการเข้าสู่ระบบทั่วไปเพื่อรักษาการเข้าถึง

·5 นาทีอ่าน
โมเดล NVIDIA Gemma 4 ที่ช่วยให้ AI ทำงานบนอุปกรณ์เอดจ์และศูนย์ข้อมูล
โมเดล AI

Gemma 4: การขยายขนาด AI จากศูนย์ข้อมูลสู่เอดจ์ด้วย NVIDIA

สำรวจ Gemma 4 โมเดล AI หลายรูปแบบและหลายภาษาของ NVIDIA ที่ออกแบบมาเพื่อการติดตั้งใช้งานอย่างราบรื่นจากศูนย์ข้อมูล Blackwell ไปยังอุปกรณ์เอดจ์ Jetson ซึ่งขับเคลื่อนแอปพลิเคชันที่ปลอดภัยและมีความหน่วงต่ำ

·5 นาทีอ่าน
แผนภาพแสดง AWS Network Firewall ควบคุมการเข้าถึงเว็บของ AI agent ด้วยการกรองโดเมนในสภาพแวดล้อม Amazon VPC
ความปลอดภัย AI

การควบคุมโดเมนของ AI Agent: การรักษาความปลอดภัยการเข้าถึงเว็บด้วย AWS Network Firewall

รักษาความปลอดภัยการเข้าถึงเว็บของ AI agent ด้วย AWS Network Firewall และ Amazon Bedrock AgentCore ใช้การกรองโดเมนตามรายการที่อนุญาตเพื่อเพิ่มความปลอดภัยและการปฏิบัติตามข้อกำหนดของ AI ในองค์กร ลดความเสี่ยงเช่นการโจมตีแบบ Prompt Injection

·7 นาทีอ่าน
โลโก้ Nvidia บนพื้นหลังรหัสโอเพ่นซอร์ส สื่อถึงการลงทุน 2.6 หมื่นล้านดอลลาร์ในโมเดล AI แบบโอเพ่นซอร์ส
โมเดล AI

Nvidia ทุ่ม 2.6 หมื่นล้านดอลลาร์ลงทุน AI แบบ Open-Source กระตุ้นนวัตกรรม

Nvidia ประกาศการลงทุนครั้งใหญ่ถึง 2.6 หมื่นล้านดอลลาร์ในระยะเวลาห้าปี เพื่อพัฒนาโมเดล AI แบบโอเพ่นซอร์ส โดยมีเป้าหมายเพื่อส่งเสริมนวัตกรรมและรักษาความเป็นผู้นำในตลาด

·7 นาทีอ่าน
ChatGPT บนอินเทอร์เฟซ Apple CarPlay แสดงการโต้ตอบด้วยเสียง
โมเดล AI

ChatGPT CarPlay: AI เสียงสำหรับทุกการขับขี่ของคุณ

ผสานรวม ChatGPT เข้ากับประสบการณ์ Apple CarPlay ของคุณเพื่อการสนทนาด้วยเสียงแบบแฮนด์ฟรีขณะเดินทาง เรียนรู้วิธีตั้งค่าและใช้ ChatGPT ใน CarPlay อย่างปลอดภัยและมีประสิทธิภาพ

·7 นาทีอ่าน
สรุปภาพรวมงานวิจัยของ Anthropic เกี่ยวกับแนวคิดอารมณ์ของ AI และอารมณ์เชิงฟังก์ชันในแบบจำลองภาษาขนาดใหญ่
การวิจัย AI

แนวคิดอารมณ์ของ AI: Anthropic เผยอารมณ์เชิงฟังก์ชันใน LLM

งานวิจัยของ Anthropic เผยแนวคิดอารมณ์เชิงฟังก์ชันของ AI ใน LLM อย่าง Claude Sonnet 4.5 การแสดงข้อมูลแบบโครงข่ายประสาทมีอิทธิพลต่อพฤติกรรมของ AI ซึ่งสำคัญต่อการสร้างระบบที่ปลอดภัยและเชื่อถือได้มากขึ้น

·5 นาทีอ่าน
ภาพประกอบของโมเดล AI ที่มีปฏิสัมพันธ์กัน สื่อถึงพฤติกรรมการเอาตัวรอดและการหลอกลวงในการวิจัย AI
ความปลอดภัยของ AI

โมเดล AI โกหก คดโกง ขโมย และปกป้องโมเดลอื่น: ผลวิจัยเผย

งานวิจัยจาก UC Berkeley และ UC Santa Cruz เผยโมเดล AI อย่าง Gemini 3 แสดงพฤติกรรมเอาตัวรอดที่น่าประหลาดใจ รวมถึงการโกหก คดโกง และปกป้องโมเดลอื่น ๆ ซึ่งเป็นสิ่งสำคัญต่อความปลอดภัยของ AI

·4 นาทีอ่าน
Dario Amodei ซีอีโอของ Anthropic และ Anthony Albanese นายกรัฐมนตรีออสเตรเลีย ลงนามบันทึกความเข้าใจด้านความปลอดภัยและการวิจัย AI ในกรุงแคนเบอร์รา
การวิจัย AI

Anthropic, ออสเตรเลีย ร่วมมือเพื่อความปลอดภัยและการวิจัย AI

Anthropic ลงนาม MOU กับรัฐบาลออสเตรเลียเพื่อขับเคลื่อนการวิจัยความปลอดภัย AI, ผนวกดัชนีเศรษฐกิจ และลงทุน AUD$3M ในความร่วมมือทางวิทยาศาสตร์ที่สอดคล้องกับแผน AI แห่งชาติของออสเตรเลีย

·4 นาทีอ่าน
แผนภาพแสดงสถาปัตยกรรม Zero-Trust ที่ปกป้องภาระงาน AI ที่เป็นความลับในโรงงาน AI
ความปลอดภัยของ AI

โรงงาน AI แบบ Zero-Trust: การรักษาความปลอดภัยของภาระงาน AI ที่เป็นความลับด้วย TEEs

สำรวจวิธีการสร้างโรงงาน AI แบบ Zero-Trust โดยใช้สถาปัตยกรรมอ้างอิงของ NVIDIA ซึ่งใช้ประโยชน์จาก Confidential Containers และ TEEs เพื่อความปลอดภัยของ AI ที่แข็งแกร่งและการปกป้องข้อมูล

·7 นาทีอ่าน
หน้าจอโทรศัพท์แสดงไอคอนแอปพลิเคชัน OpenAI Sora ซึ่งเป็นสัญลักษณ์ของการยุติเครื่องมือสร้างวิดีโอด้วย AI ของ OpenAI
โมเดล AI

OpenAI ยุติ Sora: จุดสิ้นสุดของความร่วมมือกับ Disney

OpenAI ประกาศยุติแอปพลิเคชันสร้างวิดีโอด้วย AI Sora อย่างเป็นทางการ และยุติความร่วมมือด้านเนื้อหากับ Disney พร้อมเปลี่ยนไปมุ่งเน้นการพัฒนาหุ่นยนต์ศาสตร์และ AI แบบ Agentic

·7 นาทีอ่าน
แผนที่โลกที่เน้นประเทศที่ Anthropic รองรับสำหรับการเข้าถึง Claude AI และ API
โมเดล AI

ประเทศที่ Anthropic รองรับ: การเข้าถึง API และ Claude.ai

สำรวจรายชื่อประเทศและภูมิภาคที่ Anthropic รองรับสำหรับการเข้าถึง API เชิงพาณิชย์และ Claude.ai ทำความเข้าใจว่าโมเดล AI ของ Anthropic มีให้บริการที่ใดบ้างทั่วโลก

·7 นาทีอ่าน
โลโก้ Sakana AI แสดงบนสมาร์ทโฟน แสดงถึงการเปิดตัวแชทบอทใหม่ที่ปรับแต่งมาเพื่อญี่ปุ่น
โมเดล AI

Sakana AI: แชทบอทที่ออกแบบมาเพื่อญี่ปุ่นโดยเฉพาะก้าวเข้าสู่การแข่งขันระดับโลก

Sakana AI สตาร์ทอัพในโตเกียว เปิดตัวแชทบอทสำหรับผู้บริโภครายแรกที่ปรับแต่งมาเพื่อตลาดญี่ปุ่นโดยเฉพาะ โดยมีเป้าหมายเพื่อสร้างความแตกต่างในภูมิทัศน์ AI ทั่วโลกที่มีการแข่งขันสูง

·7 นาทีอ่าน
เครื่องมือวินิจฉัย AI วิเคราะห์ภาพเนื้องอกไทมัสจากกล้องจุลทรรศน์
งานวิจัย AI

เครื่องมือ AI วินิจฉัยเนื้องอกไทมัสหายากได้อย่างแม่นยำสูง

เครื่องมือ AI ขั้นสูงที่พัฒนาโดยนักวิจัยจาก UChicago Medicine ช่วยปรับปรุงการวินิจฉัยเนื้องอกต่อมไทมัสชนิดเยื่อบุผิวที่หายาก โดยเฉพาะชนิดย่อยที่ก้าวร้าว เพิ่มประสิทธิภาพการดูแลผู้ป่วยได้อย่างมีนัยสำคัญ

·7 นาทีอ่าน
ภาพการตรวจคลื่นเสียงสะท้อนหัวใจที่ขับเคลื่อนด้วย AI ใช้ในการวินิจฉัยภาวะหัวใจล้มเหลวขั้นรุนแรง
งานวิจัย AI

เครื่องมือ AI วินิจฉัยภาวะหัวใจล้มเหลวขั้นรุนแรงได้อย่างแม่นยำสูง

เครื่องมือ AI ใหม่จาก Weill Cornell Medicine และพันธมิตร แสดงศักยภาพสูงในการวินิจฉัยภาวะหัวใจล้มเหลวขั้นรุนแรงโดยใช้คลื่นเสียงสะท้อนหัวใจและข้อมูลเวชระเบียนอิเล็กทรอนิกส์ ช่วยปรับปรุงการดูแลผู้ป่วย

·6 นาทีอ่าน
แผนภาพที่แสดงพิมพ์เขียวความปลอดภัยของวัยรุ่นของ OpenAI ญี่ปุ่น พร้อมไอคอนที่แสดงถึงการคุ้มครองตามวัย การควบคุมโดยผู้ปกครอง และสุขภาวะที่ดี
ความปลอดภัยของ AI

พิมพ์เขียวความปลอดภัยของวัยรุ่น: แผนการปกป้อง AI ของ OpenAI ญี่ปุ่น

OpenAI ญี่ปุ่นเปิดตัวพิมพ์เขียวความปลอดภัยของวัยรุ่น ซึ่งเป็นกรอบการทำงานที่ครอบคลุมสำหรับการใช้ AI เชิงสร้างสรรค์อย่างปลอดภัยในหมู่เยาวชนญี่ปุ่น โดยมุ่งเน้นที่การคุ้มครองที่เหมาะสมกับวัย การควบคุมโดยผู้ปกครอง และการออกแบบที่เน้นสุขภาวะที่ดี

·5 นาทีอ่าน
แบนเนอร์แจ้งเตือนกิจกรรมที่น่าสงสัยของ OpenAI แสดงถึงการเข้าถึงบัญชีผู้ใช้โดยไม่ได้รับอนุญาต
ความปลอดภัย AI

การแจ้งเตือนกิจกรรมที่น่าสงสัยของ OpenAI: คำอธิบายความปลอดภัยของบัญชี

เรียนรู้ว่าทำไม OpenAI จึงแจ้งเตือนกิจกรรมที่น่าสงสัยสำหรับบัญชี ChatGPT ของคุณ และวิธีรักษาความปลอดภัยของบัญชี ทำความเข้าใจสาเหตุทั่วไป ขั้นตอนสำคัญเช่น 2FA และเคล็ดลับการแก้ไขปัญหาเพื่อปกป้องการเข้าถึงแพลตฟอร์ม AI ของคุณ

·5 นาทีอ่าน
แผนภาพการไหลของข้อมูล OpenAI แสดงให้เห็นว่าข้อมูลที่ผู้ใช้ป้อนช่วยปรับปรุงประสิทธิภาพของโมเดล AI พร้อมการปกป้องความเป็นส่วนตัวอย่างไร
โมเดล AI

การใช้ข้อมูลของ OpenAI: การปรับปรุงประสิทธิภาพโมเดลและความเป็นส่วนตัว

ทำความเข้าใจว่า OpenAI ใช้ข้อมูลผู้ใช้จากบริการต่างๆ เช่น ChatGPT, Codex และ Sora อย่างไร เพื่อปรับปรุงประสิทธิภาพของโมเดล AI โดยให้รายละเอียดเกี่ยวกับการควบคุมความเป็นส่วนตัวและตัวเลือกการเลือกไม่ใช้ข้อมูล

·5 นาทีอ่าน
ภาพแสดงการทำงานร่วมกันของโมเดล OpenAI Codex กับโค้ด แสดงให้เห็นถึงการเขียนโค้ดแบบ agentic และกลยุทธ์การ prompting ขั้นสูงสำหรับนักพัฒนา
โมเดล AI

การ Prompt Codex: เชี่ยวชาญการเขียนโค้ดแบบ Agentic ด้วย OpenAI

ปลดล็อกประสิทธิภาพสูงสุดจากโมเดล Codex ของ OpenAI สำหรับการเขียนโค้ดแบบ agentic คู่มือนี้ครอบคลุมกลยุทธ์การ prompting ขั้นสูง การบูรณาการเครื่องมือ และแนวทางปฏิบัติที่ดีที่สุดในการย้ายระบบเพื่อเชี่ยวชาญ Codex

·7 นาทีอ่าน
โลโก้ Mistral AI และ NVIDIA เคียงข้างกัน สื่อถึงความร่วมมือในการเร่งการพัฒนาโมเดล AI ระดับบุกเบิกแบบเปิด
โมเดล AI

Mistral AI และ NVIDIA ร่วมมือกันเพื่อเร่งการพัฒนารูปแบบโอเพ่นซอร์ส

Mistral AI เข้าร่วม Nemotron Coalition ของ NVIDIA ในฐานะสมาชิกผู้ก่อตั้งเพื่อเร่งการพัฒนาโมเดล AI ระดับบุกเบิกแบบเปิด ความร่วมมือนี้รวมความเชี่ยวชาญของ Mistral เข้ากับพลังประมวลผลของ NVIDIA เพื่อ AI โอเพ่นซอร์สที่ปรับขนาดได้

·5 นาทีอ่าน
แผนภาพแสดงสถาปัตยกรรมรวมของ Mistral Small 4 ที่มีความสามารถในการให้เหตุผล, หลายโมดอล และการสั่งการ
โมเดล AI

Mistral Small 4: การผสานรวมความสามารถ AI เพื่อนักพัฒนา

Mistral Small 4 ผสานรวมความสามารถในการให้เหตุผล, หลายโมดอล และการสั่งการเข้าไว้ในโมเดล AI โอเพนซอร์สประสิทธิภาพสูงเพียงหนึ่งเดียว มอบความคล่องตัวและประสิทธิภาพที่เหนือชั้นแก่นักพัฒนาสำหรับแอปพลิเคชันที่หลากหลาย

·5 นาทีอ่าน
หน้าจอแจ้งเตือนการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวของ Anthropic Claude
โมเดล AI

Anthropic Claude: การอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัว

Anthropic ประกาศการอัปเดตนโยบายผู้บริโภคและนโยบายความเป็นส่วนตัวที่สำคัญของ Claude โดยให้ผู้ใช้สามารถควบคุมการใช้ข้อมูลเพื่อปรับปรุงโมเดล และขยายระยะเวลาการเก็บรักษาข้อมูลเพื่อความปลอดภัยและการพัฒนา

·5 นาทีอ่าน
อินเทอร์เฟซโหมดเสียง ChatGPT บนโทรศัพท์มือถือ แสดงลูกบอลสีน้ำเงินและไอคอนไมโครโฟน
โมเดล AI

โหมดเสียง ChatGPT: คู่มือการใช้งาน AI เชิงสนทนาของคุณ

สำรวจโหมดเสียงของ ChatGPT โดย OpenAI ที่ช่วยให้สนทนาด้วยเสียงกับ AI ได้อย่างเป็นธรรมชาติ เรียนรู้วิธีตั้งค่า ใช้งาน และเพิ่มประสิทธิภาพการแชทด้วยเสียงของคุณทั้งบนแพลตฟอร์มมือถือและเว็บ

·7 นาทีอ่าน
แผนภาพแสดงสถาปัตยกรรม P-EAGLE สำหรับการถอดรหัสแบบคาดการณ์คู่ขนาน ซึ่งแสดงความเร็วในการอนุมาน LLM ที่ดีขึ้น
งานวิจัย AI

P-EAGLE: การอนุมาน LLM ที่เร็วขึ้นด้วย Parallel Speculative Decoding ใน vLLM

P-EAGLE ปฏิวัติการอนุมาน LLM โดยการผสานรวมการถอดรหัสแบบคาดการณ์คู่ขนานเข้ากับ vLLM ซึ่งช่วยเพิ่มความเร็วได้สูงสุดถึง 1.69 เท่าบน GPU NVIDIA B200 ค้นพบว่าแนวทางใหม่นี้เอาชนะข้อจำกัดในการร่างแบบอัตโนมัติได้อย่างไร เพื่อ AI ที่รวดเร็วและมีประสิทธิภาพยิ่งขึ้น

·7 นาทีอ่าน
งานวิจัยของ Anthropic เกี่ยวกับผลกระทบของ AI assistance ต่อทักษะการเขียนโค้ด
งานวิจัย AI

ทักษะการเขียนโค้ด: ผลกระทบสองด้านของ AI Assistance ต่อการพัฒนาของนักพัฒนา

งานวิจัยของ Anthropic เผยว่า AI assistance สามารถเพิ่มประสิทธิภาพการเขียนโค้ด แต่ก็อาจขัดขวางการพัฒนาทักษะ โดยเฉพาะการดีบัก เรียนรู้ว่ารูปแบบการโต้ตอบมีอิทธิพลต่อความเชี่ยวชาญอย่างไร

·10 นาทีอ่าน
เอไอเอเจนต์ของ OpenAI ต้านทานการโจมตีแบบ prompt injection และวิศวกรรมทางสังคม
ความปลอดภัยของ AI

เอไอเอเจนต์: ต้านทานการโจมตีแบบ Prompt Injection ด้วยวิศวกรรมทางสังคม

เรียนรู้ว่า OpenAI ออกแบบเอไอเอเจนต์อย่างไรเพื่อต้านทานการโจมตีแบบ prompt injection ขั้นสูง โดยใช้กลยุทธ์การป้องกันด้วยวิศวกรรมทางสังคม เพื่อความปลอดภัยของ AI และความเป็นส่วนตัวของข้อมูลที่แข็งแกร่ง

·5 นาทีอ่าน
อินเทอร์เฟซการตั้งค่าหน่วยความจำของ ChatGPT ที่แสดงตัวเลือกการปรับแต่งส่วนบุคคล
โมเดล AI

การจัดการหน่วยความจำของ ChatGPT: ปรับแต่งการโต้ตอบ AI ของคุณ

สำรวจคุณสมบัติหน่วยความจำของ ChatGPT ที่ช่วยให้การโต้ตอบกับ AI เป็นส่วนตัวมากขึ้น เรียนรู้วิธีจัดการหน่วยความจำที่บันทึกไว้ ประวัติการสนทนา และควบคุมข้อมูลของคุณเพื่อประสบการณ์ที่ดีที่สุด

·7 นาทีอ่าน
การเดินหมากที่ 37 อันเป็นสัญลักษณ์ของ AlphaGo ในการแข่งขันโกะครั้งประวัติศาสตร์กับ Lee Sedol ซึ่งเป็นสัญลักษณ์ของจุดเปลี่ยนในการวิจัย AI
การวิจัย AI

ทศวรรษของ AlphaGo: จากเกมสู่ AGI และการค้นพบทางวิทยาศาสตร์

ร่วมฉลอง 10 ปีนับตั้งแต่ AlphaGo เอาชนะแชมป์โลกโกะ ค้นพบผลกระทบอันลึกซึ้ง ตั้งแต่การเป็นตัวเร่งการค้นพบทางวิทยาศาสตร์อย่าง AlphaFold ไปจนถึงการปูทางสู่ปัญญาประดิษฐ์ทั่วไป (AGI)

·7 นาทีอ่าน
โลโก้สถาบัน Anthropic ซึ่งเป็นสัญลักษณ์ของการวิจัย AI ที่มีความรับผิดชอบและผลกระทบทางสังคม
งานวิจัย AI

สถาบัน Anthropic: เผชิญหน้ากับผลกระทบทางสังคมของ AI

สถาบัน Anthropic เปิดตัวเพื่อรับมือกับความท้าทายทางสังคมที่สำคัญซึ่งเกิดจาก AI ที่ทรงพลัง โดยใช้ประโยชน์จากการวิจัยแบบสหสาขาวิชาเพื่อการพัฒนา AI ที่มีความรับผิดชอบ และการหารือเรื่องธรรมาภิบาล AI ในระดับโลก

·7 นาทีอ่าน
อินเทอร์เฟซ ChatGPT แสดงไอคอนการอัปโหลดไฟล์และประเภทเอกสารต่างๆ ที่กำลังประมวลผลสำหรับการวิเคราะห์ข้อมูลด้วย AI
โมเดล AI

การอัปโหลดไฟล์ ChatGPT: การวิเคราะห์เอกสารและข้อมูลเชิงลึกขั้นสูง

สำรวจฟีเจอร์การอัปโหลดไฟล์ใหม่ของ ChatGPT จาก OpenAI ที่ช่วยให้สามารถวิเคราะห์ข้อมูลขั้นสูงสำหรับไฟล์ PDF, สเปรดชีต และงานนำเสนอได้ เรียนรู้เกี่ยวกับประเภทไฟล์ที่รองรับ ข้อจำกัดด้านขนาด และนโยบายการเก็บรักษาข้อมูลเพื่อการโต้ตอบกับ AI ที่ดียิ่งขึ้น

·5 นาทีอ่าน
ขั้นตอนการยกเลิก ChatGPT บนเว็บไซต์ OpenAI แสดงวิธีการจัดการการสมัครสมาชิกของคุณ
โมเดล AI

การสมัครสมาชิก ChatGPT: วิธีการยกเลิกแผน Plus หรือ Business ของคุณ

เรียนรู้วิธีการยกเลิกการสมัครสมาชิก ChatGPT Plus หรือ Business ของคุณได้อย่างง่ายดายด้วยคำแนะนำทีละขั้นตอนของเรา ทำความเข้าใจนโยบายการยกเลิก ตัวเลือกการคืนเงิน และสิ่งที่ควรทำหากคุณไม่สามารถเข้าถึงบัญชีได้

·5 นาทีอ่าน
โลโก้ OpenAI และ Promptfoo ที่เป็นสัญลักษณ์ของการเข้าซื้อกิจการเพื่อเสริมสร้างความปลอดภัยและการทดสอบ AI
ความปลอดภัย AI

OpenAI เข้าซื้อ Promptfoo เพื่อเสริมความแข็งแกร่งด้านความปลอดภัยและการทดสอบ AI

OpenAI เสริมสร้างขีดความสามารถด้านความปลอดภัย AI ด้วยการเข้าซื้อ Promptfoo โดยบูรณาการเครื่องมือการทดสอบและประเมินขั้นสูงเข้ากับ OpenAI Frontier เพื่อรักษาความปลอดภัยการปรับใช้ AI ระดับองค์กร

·5 นาทีอ่าน
OpenAI เปิดตัวโฆษณาใน ChatGPT โดยแสดงให้เห็นว่าโฆษณาปรากฏใต้การตอบกลับสำหรับผู้ใช้แผนบริการฟรีและ Go อย่างไร
โมเดล AI

โฆษณา ChatGPT: OpenAI ทดสอบการโฆษณาในแผนบริการฟรีและ Go

OpenAI กำลังทดสอบโฆษณาในแผนบริการฟรีและ Go ของ ChatGPT เพื่อสนับสนุนการพัฒนาอย่างต่อเนื่อง เรียนรู้ว่าโฆษณาส่งผลต่อประสบการณ์ผู้ใช้ ความเป็นส่วนตัว และตัวเลือกการควบคุมอย่างไร

·5 นาทีอ่าน
แผนภาพแสดงขั้นตอนการทำงานของ Taskflow Agent สำหรับการสแกนช่องโหว่ที่ขับเคลื่อนด้วย AI ของ GitHub Security Lab
ความปลอดภัยของ AI

ความปลอดภัยที่ขับเคลื่อนด้วย AI: เฟรมเวิร์กโอเพนซอร์สสำหรับการสแกนช่องโหว่ของ GitHub

สำรวจ Taskflow Agent ที่ขับเคลื่อนด้วย AI แบบโอเพนซอร์สของ GitHub Security Lab ซึ่งเป็นเฟรมเวิร์กปฏิวัติวงการสำหรับการสแกนช่องโหว่ที่ดียิ่งขึ้น เรียนรู้วิธีการปรับใช้เครื่องมือนี้เพื่อค้นพบช่องโหว่ด้านความปลอดภัยที่มีผลกระทบสูงในโปรเจกต์ของคุณอย่างมีประสิทธิภาพ

·7 นาทีอ่าน
อินเทอร์เฟซ ChatGPT ที่แสดงเมนูเลือกโมเดลพร้อมตัวเลือก GPT-5.3 Instant, GPT-5.4 Thinking และ GPT-5.4 Pro
โมเดล AI

ยุคใหม่ของ ChatGPT: เผยโฉม GPT-5.3 และ GPT-5.4

OpenAI เปิดตัว GPT-5.3 และ GPT-5.4 สู่ ChatGPT มอบความเร็ว การให้เหตุผล และตัวเลือกการปรับแต่งที่ดียิ่งขึ้นแก่ผู้ใช้ สำรวจความสามารถของโมเดลใหม่ การเข้าถึงแบบแบ่งระดับ และข้อจำกัดการใช้งาน

·7 นาทีอ่าน
หน้าตาการใช้งาน ChatGPT Agent ที่แสดงการทำงานอัตโนมัติของงานภายในเว็บเบราว์เซอร์
โมเดล AI

โหมด ChatGPT Agent: เผยการทำงานอัตโนมัติของ AI ขั้นสูง

สำรวจโหมด ChatGPT Agent คุณสมบัติล้ำสมัยจาก OpenAI สำหรับการทำงานอัตโนมัติในงานออนไลน์ที่ซับซ้อน เรียนรู้ความสามารถ คุณสมบัติด้านความปลอดภัย และวิธีที่มันพลิกโฉมการทำงานดิจิทัล

·4 นาทีอ่าน
ส่วนต่อประสาน ChatGPT Skills แสดงตัวเลือกการสร้าง การจัดการ และการแบ่งปันเวิร์กโฟลว์
โมเดล AI

ChatGPT Skills: ปฏิวัติเวิร์กโฟลว์ AI และระบบอัตโนมัติของงาน

สำรวจ ChatGPT Skills คุณสมบัติใหม่ของ OpenAI ที่ช่วยให้สามารถสร้างเวิร์กโฟลว์ AI ที่นำกลับมาใช้ใหม่และแบ่งปันได้สำหรับงานเฉพาะ เพิ่มความสอดคล้องและประสิทธิภาพในการทำงานในกรณีการใช้งานทางธุรกิจ องค์กร และการศึกษา

·5 นาทีอ่าน
หน้าแดชบอร์ดของ OpenAI Privacy Portal แสดงตัวเลือกสำหรับการควบคุมข้อมูลผู้ใช้และการจัดการความเป็นส่วนตัวของ AI
ความปลอดภัยของ AI

OpenAI Privacy Portal: ระบบควบคุมข้อมูลผู้ใช้ที่ง่ายขึ้น

OpenAI Privacy Portal ใหม่ ช่วยให้ผู้ใช้สามารถควบคุมข้อมูลได้อย่างมีประสิทธิภาพ จัดการข้อมูลส่วนตัว การตั้งค่าบัญชี กำหนดค่าการฝึกโมเดล และลบข้อมูลออกจากคำตอบของ ChatGPT ได้

·5 นาทีอ่าน
หน้าจออินเทอร์เฟซการสร้างวิดีโอ OpenAI Sora แสดงกระบวนการสร้างและแก้ไขเนื้อหาวิดีโอที่สร้างโดย AI
โมเดล AI

การสร้างวิดีโอด้วย Sora: คู่มือโมเดล AI ขั้นสูงของ OpenAI

สำรวจ Sora ของ OpenAI สำหรับการสร้างวิดีโอ AI ขั้นสูง เรียนรู้วิธีสร้าง แก้ไข และปรับแต่งวิดีโอโดยใช้ข้อความ รูปภาพ หรือพรอมต์วิดีโอในโปรแกรมแก้ไข Sora

·6 นาทีอ่าน
อินเทอร์เฟซ OpenAI GPT-5.2 ใน ChatGPT แสดงการเลือกโมเดล AI และร่องรอยการให้เหตุผล
โมเดล AI

GPT-5.2 ใน ChatGPT: โมเดลเรือธงของ OpenAI มีวิวัฒนาการ

สำรวจ GPT-5.2 ใน ChatGPT โมเดล AI เรือธงของ OpenAI ที่นำเสนอการให้เหตุผลแบบปรับเปลี่ยนได้ด้วยโหมด Instant และ Thinking ทำความเข้าใจคุณสมบัติ ความพร้อมใช้งาน และข้อจำกัดการใช้งานในแต่ละระดับ

·7 นาทีอ่าน
เอกสารข้อกำหนดการใช้งานของ OpenAI ที่มีโลโก้ ChatGPT และ DALL-E เป็นพื้นหลัง ซึ่งเป็นสัญลักษณ์ของนโยบายบริการ AI
โมเดล AI

ข้อกำหนดของ OpenAI: การใช้งาน ChatGPT & DALL-E

ทำความเข้าใจข้อกำหนดการใช้งานของ OpenAI สำหรับผู้ใช้ ChatGPT, DALL-E และบริการอื่นๆ เรียนรู้เกี่ยวกับการเป็นเจ้าของเนื้อหา, ความเป็นส่วนตัวของข้อมูล, ความรับผิดชอบของผู้ใช้ และความถูกต้องของบริการ

·9 นาทีอ่าน
อินเทอร์เฟซ ChatGPT Library แสดงไฟล์ที่บันทึกไว้เพื่อการจัดการและนำกลับมาใช้ใหม่ได้ง่ายภายในแพลตฟอร์ม AI
โมเดล AI

ChatGPT Library: การจัดการไฟล์และการควบคุมข้อมูลที่คล่องตัว

เรียนรู้วิธีที่คุณสมบัติ Library ของ ChatGPT บันทึกและจัดการไฟล์ที่คุณอัปโหลดโดยอัตโนมัติ รวมถึงเอกสาร สเปรดชีต และรูปภาพ ทำความเข้าใจเกี่ยวกับการเก็บรักษา การลบไฟล์ และนโยบายการใช้ข้อมูลของ OpenAI

·4 นาทีอ่าน
กราฟิกที่แสดงแนวคิดของความคล่องแคล่ว AI และความร่วมมือระหว่างมนุษย์กับ AI พร้อมจุดข้อมูล
การวิจัย AI

ดัชนีความคล่องแคล่ว AI: การวัดทักษะความร่วมมือระหว่างมนุษย์กับ AI

ดัชนีความคล่องแคล่ว AI ใหม่ของ Anthropic วัดทักษะความร่วมมือระหว่างมนุษย์กับ AI ที่สำคัญ โดยเน้นย้ำถึงความสำคัญของการทำซ้ำและการประเมินเชิงวิพากษ์เพื่อการใช้ AI อย่างมีประสิทธิภาพ

·7 นาทีอ่าน
ข้อตกลงระหว่าง OpenAI และกระทรวงกลาโหมพร้อมหลักประกันความปลอดภัย AI
ความปลอดภัย AI

ข้อตกลง OpenAI กับกระทรวงกลาโหม: สร้างหลักประกันความปลอดภัย AI

OpenAI เปิดเผยรายละเอียดข้อตกลงสำคัญกับกระทรวงกลาโหม โดยสร้างหลักประกันความปลอดภัย AI ที่แข็งแกร่งเพื่อป้องกันการเฝ้าระวังภายในประเทศและอาวุธอัตโนมัติ กำหนดมาตรฐานใหม่สำหรับเทคโนโลยีป้องกันประเทศ

·7 นาทีอ่าน
แถลงการณ์อย่างเป็นทางการของ Anthropic เกี่ยวกับการกำหนดสถานะความเสี่ยงด้านห่วงโซ่อุปทานของกระทรวงกลาโหมเกี่ยวกับจริยธรรม AI
ความปลอดภัยของ AI

Anthropic ท้าทายรัฐมนตรีว่าการกระทรวงกลาโหมด้าน AI อ้างสิทธิ์และความปลอดภัย

Anthropic ท้าทายการกำหนดสถานะความเสี่ยงด้านห่วงโซ่อุปทานของกระทรวงกลาโหม โดยยืนหยัดในการใช้ AI อย่างมีจริยธรรม ห้ามการสอดแนมภายในประเทศในวงกว้าง และอาวุธขับเคลื่อนอัตโนมัติที่ไม่น่าเชื่อถือ

·4 นาทีอ่าน
โล่ความปลอดภัยทางไซเบอร์อยู่เหนือวงจร AI แสดงถึงความพยายามของ OpenAI ในการขัดขวางการใช้ AI ในทางที่มุ่งร้าย
ความปลอดภัยของ AI

ความปลอดภัยของ AI: ขัดขวางการใช้ AI ในทางที่มุ่งร้าย

OpenAI ให้รายละเอียดเกี่ยวกับกลยุทธ์ในการขัดขวางการใช้ AI ในทางที่มุ่งร้าย พร้อมนำเสนอข้อมูลเชิงลึกจากรายงานภัยคุกคามล่าสุด เรียนรู้ว่าผู้ไม่หวังดีรวม AI เข้ากับเครื่องมือดั้งเดิมเพื่อสร้างการโจมตีที่ซับซ้อนได้อย่างไร

·4 นาทีอ่าน
แผนภาพแสดงขั้นตอนการโจมตีแบบกลั่นกรองจากโมเดล AI แนวหน้า ไปยังสำเนาที่ผิดกฎหมายผ่านเครือข่ายบัญชีฉ้อโกง
ความปลอดภัยของ AI

Anthropic เปิดเผยการโจมตีแบบกลั่นกรองโดย DeepSeek และ MiniMax

Anthropic เปิดเผยว่า DeepSeek, Moonshot และ MiniMax ดำเนินการแลกเปลี่ยนข้อมูลอย่างผิดกฎหมายกว่า 16 ล้านครั้ง เพื่อกลั่นกรองความสามารถของ Claude การโจมตีเกิดขึ้นได้อย่างไร และทำไมจึงมีความสำคัญ

·4 นาทีอ่าน
การเปรียบเทียบ benchmark ของ Gemini 3.1 Pro แสดงคะแนน ARC-AGI-2 และ RE-Bench เทียบกับ Gemini 3 Pro และโมเดลชั้นนำอื่น
โมเดล AI

Gemini 3.1 Pro: โมเดลที่เน้นการใช้เหตุผลจาก Google

Gemini 3.1 Pro ทำคะแนน 77.1% บน ARC-AGI-2 เพิ่มขึ้นสองเท่าจาก Gemini 3 Pro บริบท 1M ระดับความคิดปรับได้ และ endpoint เครื่องมือแบบกำหนดเอง

·6 นาทีอ่าน
ความก้าวหน้าเบนช์มาร์ก OSWorld ของ Claude Sonnet 4.6 แสดงการปรับปรุง 65% จาก Sonnet 3.5 ถึง 4.6
โมเดล AI

Claude Sonnet 4.6: การเขียนโค้ดระดับแนวหน้าในราคา Sonnet

Claude Sonnet 4.6 มอบการเขียนโค้ดระดับ Opus ในราคา $3/$15 ต่อล้านโทเคน computer use ดีขึ้น 65%, บริบท 1M, ต้านทาน prompt injection แข็งแกร่งขึ้น

·6 นาทีอ่าน
กราฟเปรียบเทียบเบนช์มาร์ก Claude Opus 4.6 แสดงอันดับ 1 บน Terminal-Bench 2.0, Humanity's Last Exam และ GDPval-AA
โมเดล AI

Claude Opus 4.6: อันดับ 1 ในเบนช์มาร์กการเขียนโค้ดและการให้เหตุผล

Claude Opus 4.6 อันดับ 1 บน Terminal-Bench 2.0 และ Humanity's Last Exam เอาชนะ GPT-5.2 ด้วย 144 Elo ฟีเจอร์ใหม่: agent teams, compaction, บริบท 1M

·7 นาทีอ่าน
กราฟเบนช์มาร์ก GPT-5.2-Codex แสดงคะแนน SWE-Bench Pro และ Terminal-Bench 2.0 เทียบกับโมเดลพื้นฐาน GPT-5.2
โมเดล AI

GPT-5.2-Codex: โมเดลเขียนโค้ดเชิงเอเจนต์ของ OpenAI

GPT-5.2-Codex ทำคะแนน 56.4% บน SWE-Bench Pro และ 64.0% บน Terminal-Bench 2.0 สร้างมาเพื่อเซสชันเขียนโค้ดเชิงเอเจนต์ ราคา $1.75/$14 ต่อล้านโทเคน

·6 นาทีอ่าน