Code Velocity

מודלי AI

ייצוג אבסטרקטי של התפתחות ביצועי מודל AI, עם חצים המצביעים על מגמות עלייה וירידה, המרמזים על חשיבה אדפטיבית או 'נרפינג'.
מודלי AI

ChatGPT 5.4 Pro: חשיבה אדפטיבית או מודל 'מנורפף'?

חקור את הדיון סביב ביצועי ChatGPT 5.4 Pro: האם זו 'חשיבה אדפטיבית' או 'החלשה' של יכולות AI? Code Velocity חוקרת חששות משתמשים.

·7 דקות קריאה
מערכת NVIDIA DGX Spark המריצה את OpenClaw ו-NemoClaw לפריסת סוכן AI מקומי מאובטח
אבטחת AI

NVIDIA NemoClaw: סוכן AI מקומי מאובטח וזמין תמיד

גלו כיצד לבנות סוכן AI מקומי מאובטח וזמין תמיד באמצעות NVIDIA NemoClaw ו-OpenClaw על DGX Spark. פרוסו עוזרים אוטונומיים עם Sandboxing חזק והסקת מסקנות מקומית לפרטיות נתונים ושליטה משופרים.

·7 דקות קריאה
ממשק מודל ה-AI GPT-Rosalind המדגים זרימת עבודה של תוסף מחקר מדעי החיים וניתוח נתונים.
מודלי AI

GPT-Rosalind: מאיץ מדעי החיים וגילוי תרופות באמצעות AI

OpenAI חושפת את GPT-Rosalind, מודל AI חדש המיועד במיוחד למחקר מדעי החיים, המאיץ גילוי תרופות, ביולוגיה ורפואה תרגומית באמצעות חשיבה מתקדמת ושילוב כלים.

·7 דקות קריאה
לוגו Gemini 3.1 Flash TTS עם נקודות צבעוניות, המייצגות טכנולוגיית דיבור AI מתקדמת ויכולותיה האקספרסיביות.
מודלי AI

Gemini 3.1 Flash TTS: הדור הבא של דיבור AI אקספרסיבי

Gemini 3.1 Flash TTS הוא מודל הדיבור AI מהדור הבא של Google. הוא מציע אקספרסיביות חסרת תקדים, שליטה מדויקת באמצעות תגי אודיו, תמיכה רב-לשונית וסימן מים מאובטח של SynthID.

·5 דקות קריאה
תגובת OpenAI לפריצת כלי הפיתוח Axios, תוך הדגשת עדכוני אבטחה לאפליקציות macOS.
אבטחת AI

פריצת כלי הפיתוח Axios: OpenAI מגיבה למתקפת שרשרת האספקה

OpenAI מתייחסת לאירוע אבטחה הכרוך בכלי פיתוח Axios שנפרץ, ומבצעת רוטציה של תעודות אפליקציות macOS. נתוני המשתמשים נשארים בטוחים, עם קריאה לעדכונים לאבטחה משופרת.

·11 דקות קריאה
תרשים הממחיש את ארכיטקטורת מצב אוטומטי ב-Claude Code של Anthropic, המשפר את אבטחת סוכן ה-AI וחווית המשתמש.
אבטחת AI

מצב אוטומטי ב-Claude Code: הרשאות בטוחות יותר, פחות עייפות

מצב אוטומטי Claude Code של Anthropic מחולל מהפכה באינטראקציות של סוכני AI על ידי שיפור אבטחת ה-AI וביטול עייפות האישור באמצעות ניהול הרשאות חכם מבוסס מודל למפתחים.

·5 דקות קריאה
לוגו של Muse Spark עם צורות מופשטות משולבות המייצגות יכולות AI רב-מודאליות והטקסט 'Muse Spark'
מודלי AI

Muse Spark של Meta: בינה מלאכותית רב-מודאלית חדשה לבינת-על אישית

Meta מציגה את Muse Spark, מודל בינה מלאכותית רב-מודאלי פורץ דרך עם יכולות הסקה מתקדמות, שימוש בכלים ותזמור רב-סוכנים, הסולל את הדרך לבינת-על אישית.

·7 דקות קריאה
גרפיקה עתידנית המייצגת פיתוח AI מאובטח וניתן להרחבה, המסמלת את מסגרת ההרחבה המתקדמת ל-AI של מטא ואת פרוטוקולי בטיחות ה-AI שלה.
מודלי AI

בטיחות AI מתקדמת: מסגרת ההרחבה של מטא לפיתוח מאובטח

מטא מפרטת את מסגרת ההרחבה המתקדמת שלה ל-AI, המיועדת לפיתוח ובדיקת מודלי AI מתקדמים כמו Muse Spark, תוך הבטחת אמינות, אבטחה והגנת משתמשים בקנה מידה רחב.

·5 דקות קריאה
מסך התחברות של ChatGPT עם האפשרות 'שכחת סיסמה?' מודגשת לאיפוס חשבון.
אבטחת AI

איפוס סיסמת ChatGPT: אבטח את הגישה לחשבון OpenAI שלך

למד כיצד לאפס או לשנות את סיסמת ChatGPT שלך כדי לאבטח את חשבון OpenAI שלך. מדריך זה מכסה איפוסים ישירים, עדכוני הגדרות ופתרון בעיות התחברות נפוצות כדי לשמור על הגישה.

·5 דקות קריאה
מודלי Gemma 4 של NVIDIA המאפשרים AI במכשירי קצה ומרכזי נתונים
מודלי AI

Gemma 4: הרחבת AI ממרכז הנתונים ועד לקצה הרשת עם NVIDIA

חקור את Gemma 4, מודלי ה-AI הרב-מודאליים והרב-לשוניים של NVIDIA, המיועדים לפריסה חלקה ממרכזי נתונים של Blackwell ועד למכשירי קצה מסוג Jetson, המאפשרים יישומים מאובטחים ועם השהיה נמוכה.

·5 דקות קריאה
תרשים המציג את AWS Network Firewall שולט בגישה לאינטרנט של סוכני AI באמצעות סינון דומיינים בסביבת Amazon VPC.
אבטחת AI

בקרת דומיינים של סוכני AI: אבטחת גישה לאינטרנט עם AWS Network Firewall

אבטח גישה לאינטרנט של סוכני AI באמצעות AWS Network Firewall ו-Amazon Bedrock AgentCore. הטמע סינון מבוסס-דומיינים עם רשימות היתרים לאבטחת AI ארגונית משופרת ועמידה בתקנות, תוך הפחתת סיכונים כמו הזרקת פרומפטים.

·7 דקות קריאה
לוגו של Nvidia על רקע קוד פתוח, המסמל את השקעתה בסך 26 מיליארד דולר במודלי AI בקוד פתוח.
מודלי AI

השקעת הענק של Nvidia בסך 26 מיליארד דולר ב-AI בקוד פתוח מניעה חדשנות

Nvidia מכריזה על השקעה מונומנטלית בסך 26 מיליארד דולר במשך חמש שנים לפיתוח מודלי AI בקוד פתוח, במטרה להגביר חדשנות ולשמור על מובילות בשוק.

·7 דקות קריאה
סיכום ויזואלי של מחקר Anthropic על מושגי רגש ב-AI ורגשות פונקציונליים במודלי שפה גדולים.
מחקר AI

מושגי רגש ב-AI: Anthropic חושפת רגשות פונקציונליים במודלי LLM

מחקר של Anthropic חושף מושגי רגש פונקציונליים ב-LLMs כמו Claude Sonnet 4.5. ייצוגים נוירליים משפיעים על התנהגות ה-AI, מה שחיוני לבניית מערכות בטוחות ואמינות יותר.

·5 דקות קריאה
מנכ'ל Anthropic, דריו אמודי, וראש ממשלת אוסטרליה, אנתוני אלבניז, חותמים על מזכר הבנות לבטיחות ומחקר ב-AI בקנברה.
מחקר AI

Anthropic, אוסטרליה שותפות לבטיחות ומחקר ב-AI

Anthropic חותמת על מזכר הבנות (MOU) עם ממשלת אוסטרליה לקידום מחקר בטיחות AI, שילוב האינדקס הכלכלי שלה, והשקעה של 3 מיליון דולר אוסטרלי בשותפויות מדעיות התואמות את תוכנית ה-AI הלאומית של אוסטרליה.

·4 דקות קריאה
תרשים הממחיש ארכיטקטורת 'אפס אמון' המגנה על עומסי עבודה סודיים של AI במפעלי AI.
אבטחת AI

מפעלי AI בארכיטקטורת 'אפס אמון': אבטחת עומסי עבודה סודיים של AI עם TEEs

חקור כיצד לבנות מפעלי AI בארכיטקטורת 'אפס אמון' באמצעות ארכיטקטורת הייחוס של NVIDIA, תוך ניצול Confidential Containers ו-TEEs לאבטחת AI והגנת נתונים חזקים.

·7 דקות קריאה
מסך טלפון המציג את אייקון האפליקציה OpenAI Sora, המסמל את סגירת כלי יצירת הווידאו מבוסס AI של OpenAI.
מודלי AI

סגירת OpenAI Sora: סוף השותפות עם דיסני

OpenAI מפסיקה רשמית את אפליקציית Sora ליצירת וידאו AI ומסיימת את שותפות התוכן שלה עם דיסני, ומסיטה את המיקוד שלה לפיתוח רובוטיקה ו-AI סוכנותי.

·7 דקות קריאה
מפת עולם המדגישה מדינות נתמכות על ידי Anthropic עבור Claude AI וגישת API.
מודלי AI

מדינות נתמכות על ידי Anthropic: גישת API & Claude.ai

חקור את הרשימה המקיפה של Anthropic למדינות ואזורים נתמכים עבור גישת API מסחרית ו-Claude.ai. הבן היכן מודלי ה-AI של Anthropic זמינים ברחבי העולם.

·7 דקות קריאה
לוגו של Sakana AI מוצג על סמארטפון, המייצג את השקת הצ'אטבוט החדש שלהם המותאם ליפן.
מודלי AI

Sakana AI: צ'אטבוט המותאם ליפן נכנס למירוץ העולמי

Sakana AI, סטארט-אפ מטוקיו, משיקה את הצ'אטבוט הראשון שלה הפונה לצרכן, המותאם אסטרטגית לשוק היפני, במטרה לבדל את עצמה בנוף ה-AI העולמי התחרותי ביותר.

·7 דקות קריאה
כלי אבחון AI המנתח תמונות מיקרוסקופיות של גידולי תימוס
מחקר AI

כלי AI מאבחן גידולי תימוס נדירים בדיוק גבוה

כלי AI מתקדם שפותח על ידי חוקרים ב-UChicago Medicine משפר משמעותית את האבחון המדויק של גידולי אפיתל נדירים בתימוס, במיוחד תת-סוגים אגרסיביים, ובכך משפר את הטיפול בחולים.

·7 דקות קריאה
תמונת אקוקרדיוגרפיה מבוססת AI המשמשת לאבחון אי-ספיקת לב מתקדמת
מחקר AI

כלי AI מאבחן אי-ספיקת לב מתקדמת בדיוק גבוה

כלי AI חדש מ-Weill Cornell Medicine ושותפיה מבטיח רבות באבחון אי-ספיקת לב מתקדמת באמצעות אולטרסאונד לבבי ונתוני EHR, ומשפר את הטיפול בחולים.

·6 דקות קריאה
תרשים הממחיש את 'תוכנית בטיחות לנוער' של OpenAI יפן, עם אייקונים המייצגים הגנה מותאמת גיל, בקרת הורים ורווחה.
אבטחת AI

תוכנית בטיחות לנוער: תוכנית ההגנה של OpenAI יפן מפני AI

OpenAI יפן חושפת את 'תוכנית בטיחות לנוער', מסגרת מקיפה לשימוש בטוח ב-AI גנרטיבי בקרב בני נוער יפנים. היא מתמקדת בהגנות מותאמות גיל, בקרת הורים ותכנון ממוקד רווחה.

·5 דקות קריאה
באנר התראת פעילות חשודה של OpenAI המציין גישה פוטנציאלית בלתי מורשית לחשבון משתמש.
אבטחת AI

התראות פעילות חשודה ב-OpenAI: אבטחת חשבון מוסברת

למד מדוע OpenAI מנפיקה התראות פעילות חשודה עבור חשבון ה-ChatGPT שלך וכיצד לאבטח אותו. הבן את הסיבות הנפוצות, צעדים חיוניים כמו אימות דו-שלבי (2FA) וטיפים לפתרון בעיות כדי להגן על הגישה שלך לפלטפורמת ה-AI.

·5 דקות קריאה
דיאגרמת זרימת נתונים של OpenAI המראה כיצד קלט משתמש משפר את ביצועי מודל ה-AI עם אמצעי הגנה על פרטיות
מודלי AI

שימוש בנתונים של OpenAI: שיפור ביצועי המודל ופרטיות

הבינו כיצד OpenAI מנצלת נתוני משתמשים משירותים כמו ChatGPT, Codex ו-Sora כדי לשפר את ביצועי מודלי ה-AI, ומפרטת את בקרות הפרטיות ואפשרויות ביטול ההסכמה לשימוש בנתונים.

·5 דקות קריאה
ייצוג ויזואלי של מודל OpenAI Codex מקיים אינטראקציה עם קוד, המדגים קידוד אוטונומי ואסטרטגיות הנחיה מתקדמות למפתחים.
מודלי AI

הנחיית Codex: שליטה בקידוד אוטונומי עם OpenAI

מקסם ביצועים ממודלי Codex של OpenAI לקידוד אוטונומי. מדריך זה מכסה אסטרטגיות הנחיה מתקדמות, שילוב כלים ושיטות עבודה מומלצות להגירה כדי לשלוט ב-Codex.

·7 דקות קריאה
ממשק מצב קולי של ChatGPT בטלפון נייד, המציג את הכדור הכחול ואייקון המיקרופון.
מודלי AI

מצב קולי של ChatGPT: המדריך שלך לבינה מלאכותית שיחתית

חקור את מצב קולי של ChatGPT מבית OpenAI, המאפשר שיחות טבעיות מדוברות עם AI. למד כיצד להגדיר, להשתמש ולמטב את הצ'אטים הקוליים שלך בפלטפורמות ניידות ואינטרנטיות.

·7 דקות קריאה
תרשים הממחיש את ארכיטקטורת P-EAGLE לפענוח ספקולטיבי מקבילי, המציג מהירות הסקת LLM משופרת.
מחקר AI

P-EAGLE: הסקת LLM מהירה יותר עם פענוח ספקולטיבי מקבילי ב-vLLM

P-EAGLE מחולל מהפכה בהסקת LLM על ידי שילוב פענוח ספקולטיבי מקבילי ב-vLLM, ומשיג האצה של עד פי 1.69 במעבדי GPU מסוג NVIDIA B200. גלו כיצד גישה חדשנית זו מתגברת על צווארי בקבוק של יצירת טיוטות אוטורגרסיביות עבור AI מהיר ויעיל יותר.

·7 דקות קריאה
סוכני AI של OpenAI עומדים בפני התקפות הזרקת פרומפטים והנדסה חברתית
אבטחת AI

סוכני AI: עמידות בפני הזרקת פרומפטים באמצעות הנדסה חברתית

למדו כיצד OpenAI מתכננת סוכני AI לעמוד בפני התקפות הזרקת פרומפטים מתקדמות באמצעות אסטרטגיות הגנה של הנדסה חברתית, מה שמבטיח אבטחת AI חזקה ופרטיות נתונים.

·5 דקות קריאה
ממשק הגדרות הזיכרון של ChatGPT המציג אפשרויות התאמה אישית
מודלי AI

ניהול זיכרון ב-ChatGPT: התאמה אישית של אינטראקציות ה-AI שלך

חקור את תכונת הזיכרון של ChatGPT, המאפשרת אינטראקציות AI מותאמות אישית. למד כיצד לנהל זיכרונות שמורים, היסטוריית צ'אט ולשלוט בנתונים שלך לחוויה אופטימלית.

·7 דקות קריאה
ממשק ChatGPT המציג סמל העלאת קבצים וסוגי מסמכים שונים המעובדים לצורך ניתוח נתונים ב-AI
מודלי AI

העלאת קבצים ב-ChatGPT: ניתוח מסמכים משופר ותובנות נתונים

גלו את תכונת העלאת הקבצים החדשה של ChatGPT מבית OpenAI, המאפשרת ניתוח נתונים מתקדם עבור קובצי PDF, גיליונות אלקטרוניים ומצגות. למדו על סוגי קבצים נתמכים, מגבלות גודל ומדיניות שמירת נתונים לאינטראקציה משופרת עם AI.

·5 דקות קריאה
שלבי ביטול ChatGPT באתר OpenAI, הממחישים כיצד לנהל את המנוי שלך.
מודלי AI

ביטול מנוי ChatGPT: איך לבטל את תוכנית Plus או Business שלך

למד כיצד לבטל בקלות את מנוי ChatGPT Plus או Business שלך עם המדריך המפורט שלנו. הבן את מדיניות הביטולים, אפשרויות ההחזר ומה לעשות אם איבדת גישה לחשבון.

·5 דקות קריאה
לוגואים של OpenAI ו-Promptfoo המסמלים את רכישתן לשיפור אבטחת ובדיקות AI
אבטחת AI

OpenAI רוכשת את Promptfoo לחיזוק אבטחת ובדיקות בינה מלאכותית

OpenAI מחזקת את יכולות אבטחת הבינה המלאכותית שלה באמצעות רכישת Promptfoo, ומשלבת את כלי הבדיקה וההערכה המתקדמים שלה לתוך OpenAI Frontier כדי לאבטח פריסות AI ארגוניות.

·5 דקות קריאה
OpenAI מציגה פרסומות ב-ChatGPT, ומראה כיצד הן מופיעות מתחת לתשובות למשתמשי תוכניות Free ו-Go.
מודלי AI

פרסומות ב-ChatGPT: OpenAI בוחנת פרסום בתוכניות Free ו-Go

OpenAI בוחנת פרסומות בתוכניות Free ו-Go של ChatGPT כדי לתמוך בפיתוח מתמשך. למד כיצד פרסומות משפיעות על חווית המשתמש, הפרטיות ואפשרויות הבקרה.

·5 דקות קריאה
תרשים הממחיש את זרימת העבודה של Taskflow Agent, כלי סריקת הפגיעויות מבוסס-ה-AI של מעבדת האבטחה של GitHub
אבטחת AI

אבטחה מבוססת-AI: מסגרת קוד-פתוח לסריקת פגיעויות של GitHub

חקור את Taskflow Agent, הכלי מבוסס-ה-AI ובקוד פתוח של מעבדת האבטחה של GitHub, מסגרת מהפכנית לסריקת פגיעויות משופרת. למד כיצד לפרוס כלי זה כדי לחשוף ביעילות פגיעויות אבטחה בעלות השפעה גבוהה בפרויקטים שלך.

·7 דקות קריאה
ממשק ChatGPT המציג את תפריט הבחירה של המודל עם אפשרויות GPT-5.3 Instant, GPT-5.4 Thinking ו-GPT-5.4 Pro
מודלי AI

עידן חדש ל-ChatGPT: חשיפת GPT-5.3 ו-GPT-5.4

OpenAI מציגה את GPT-5.3 ו-GPT-5.4 ל-ChatGPT, ומציעה למשתמשים מהירות, יכולות חשיבה ואפשרויות התאמה אישית משופרות. גלו יכולות מודל חדשות, גישה מרובדת ומגבלות שימוש.

·7 דקות קריאה
ממשק יצירת הווידאו של OpenAI Sora המציג את תהליך היצירה והעריכה של תוכן וידאו שנוצר על ידי AI.
מודלי AI

יצירת וידאו עם Sora: מדריך למודל ה-AI המתקדם של OpenAI

חקור את Sora של OpenAI ליצירת וידאו מתקדמת באמצעות AI. למד כיצד ליצור, לערוך ולשפר סרטונים באמצעות הנחיות טקסט, תמונה או וידאו בעורך של Sora.

·6 דקות קריאה
ממשק GPT-5.3 Instant המציג זרימת שיחה משופרת ותשובות ישירות
מודלי AI

GPT-5.3 Instant: שיחות AI זורמות יותר

OpenAI חושפת את GPT-5.3 Instant, המשפר את השיחות היומיומיות של ChatGPT עם אינטראקציות חלקות יותר, פחות סירובים ותשובות חכמות יותר המסונתזות מהרשת.

·4 דקות קריאה
מסמך תנאי השימוש של OpenAI עם לוגו ChatGPT ו-DALL-E ברקע, המסמל את מדיניות שירותי ה-AI.
מודלי AI

תנאי OpenAI: ניווט בשימוש ב-ChatGPT וב-DALL-E

הבינו את תנאי השימוש של OpenAI עבור אנשים פרטיים המשתמשים ב-ChatGPT, DALL-E ושירותים אחרים. למדו על בעלות תוכן, פרטיות נתונים, אחריות משתמש ודיוק השירות.

·9 דקות קריאה
גרפיקה הממחישה את הרעיון של שטף בינה מלאכותית ושיתוף פעולה בין אדם ל-AI, עם נקודות נתונים.
מחקר AI

מדד שטף ה-AI: מדידת מיומנויות שיתוף פעולה בין אדם לבינה מלאכותית

מדד שטף ה-AI החדש של Anthropic מודד מיומנויות קריטיות בשיתוף פעולה בין אדם ל-AI, ומדגיש את חשיבות האיטרציה וההערכה הביקורתית לשימוש יעיל ב-AI.

·7 דקות קריאה
הסכם OpenAI ומשרד המלחמה עם אמצעי הגנה לבטיחות AI
אבטחת AI

הסכם משרד המלחמה של OpenAI: הבטחת אמצעי הגנה לבטיחות AI

OpenAI מפרטת את הסכם ציון הדרך שלה עם משרד המלחמה, המקים אמצעי הגנה חזקים לבטיחות AI נגד מעקב פנים-מדינתי וכלי נשק אוטונומיים, וקובע סטנדרט חדש לטכנולוגיית הגנה.

·7 דקות קריאה
מגן אבטחת סייבר מעל מעגלי AI, המייצג את מאמצי OpenAI בשיבוש שימושי AI זדוניים
אבטחת AI

אבטחת AI: שיבוש שימושי AI זדוניים

OpenAI מפרטת אסטרטגיות לשיבוש שימושי AI זדוניים, ומספקת תובנות מדוחות איום עדכניים. למד כיצד שחקני איום משלבים AI עם כלים מסורתיים למתקפות מתוחכמות.

·4 דקות קריאה
דיאגרמה המציגה את זרימת מתקפת הדיסטילציה ממודל AI חלוצי לעותקים לא חוקיים באמצעות רשתות חשבונות הונאה
אבטחת AI

Anthropic חושפת מתקפות דיסטילציה של DeepSeek ו-MiniMax

Anthropic חושפת כי DeepSeek, Moonshot ו-MiniMax ביצעו 16 מיליון חילופי נתונים בלתי חוקיים כדי להפיק את יכולות Claude. כיצד פעלו המתקפות ומדוע הן חשובות.

·4 דקות קריאה