SKN | Anthropic מרככת את התחייבות הבטיחות ב-AI כאשר התחרות מול OpenAI מתעצמת
ליאור מור
•
6 דק’ קריאה
•
לפני 3 שעה
נקודות מפתח
Anthropic עדכנה את מדיניות Responsible Scaling Policy כדי לאפשר המשך פיתוח כאשר הפער מול מתחרות מצטמצם.
לחצי תחרות ושאיפות הנפקה מעצימים את השינוי האסטרטגי.
המתיחות מול משרד ההגנה מדגישה את חשיבות ה-AI לביטחון לאומי.
Anthropic ריככה אחת מהתחייבויות הבטיחות המרכזיות שלה — שינוי מהותי עבור חברה שמיתגה את עצמה כמשקל נגד אחראי במרוץ הבינה המלאכותית. המהלך מדגיש כיצד לחצים תחרותיים ומסחריים מעצבים מחדש את סדרי העדיפויות של סטארטאפי ה-AI המובילים.
מ-Safety First לשוויון תחרותי
בשנת 2023 הציגה Anthropic את מדיניות Responsible Scaling Policy, במסגרתה התחייבה להאט או לעכב פיתוח אם מערכותיה ייראו מסוכנות פוטנציאלית. העמדה הזו בידלה אותה מיריבות וחיזקה את מיתוגה כחברה ממוקדת בטיחות בשוק AI מתקדם במהירות.
בפוסט בלוג חדש שפורסם ביום שלישי, הודיעה החברה כי לא תעכב עוד באופן אוטומטי פיתוח אם תסבור שאין לה “יתרון משמעותי” על פני מתחרותיה. הניסוח המעודכן מסמן מעבר מריסון חד־צדדי לגישה מודעת תחרות.
לדברי החברה, סביבת המדיניות הרחבה כיום מתמקדת יותר בתחרותיות ובצמיחה כלכלית ופחות במנדטים פדרליים של בטיחות. בפועל, Anthropic מכיילת מחדש את האסטרטגיה שלה בהתאם למומנטום התעשייתי והפוליטי המעדיף מהירות והיקף.
שאיפות הנפקה ולחץ תעשייתי
השינוי מדגיש את המתח הגובר בין אידיאליזם בתחום ה-AI למציאות מסחרית. Anthropic מתחרה ישירות ב-OpenAI, Google ו-xAI באחד המרוצים עתירי ההון בהיסטוריה של הטכנולוגיה.
המנכ״ל דריו אמודיי, שעזב את OpenAI בשנת 2020 בין היתר בשל חששות בטיחות, הציג במקור את Anthropic כאלטרנטיבה מונחית שליחות. אולם החברה נערכת לפי דיווחים לאפשרות של הנפקה ציבורית, והוערכה לאחרונה בכ־380 מיליארד דולר. OpenAI, שהחלה כעמותה לפני שעברה למבנה למטרות רווח, מגייסת הון לפי שווי העולה על 850 מיליארד דולר.
ראוי לציין כי OpenAI עדכנה בשנה שעברה את הצהרת המשימה שלה והסירה את המילה “בבטחה” מהיעד להבטיח שבינה מלאכותית כללית תועיל לאנושות. ההתאמות של שתי החברות משקפות כיצד ציפיות משקיעים ותחרות שוק מעצבות מחדש מסרים אסטרטגיים.
Anthropic ציינה כי צפתה מראש שתעדכן את מדיניות הסקיילינג שלה עם התפתחות התעשייה, והציגה את השינוי כחלק מתהליך מתמשך ולא כנסיגה מבטיחות.
מתיחות מול משרד ההגנה האמריקאי
השינוי במדיניות מתרחש על רקע חיכוך גובר בין Anthropic לבין משרד ההגנה האמריקאי בנוגע להגבלות על שימוש צבאי במערכת Claude. לפי דיווחים, גורמים בפנטגון הזהירו כי ישקלו להפעיל את חוק Defense Production Act אם החברה לא תעמוד בתנאי הממשלה.
בין האפשרויות שנדונו: הכרזה על Anthropic כסיכון לשרשרת האספקה או כפיית גישה מכוח סמכויות מתקופת המלחמה הקרה. הסכסוך ממחיש את תפקידן האסטרטגי ההולך וגובר של חברות AI בביטחון הלאומי.
במקביל, OpenAI משתתפת ביוזמה ביטחונית נפרדת באמצעות הגשה הקשורה ל-Applied Intuition, אם כי מעורבותה מוגבלת לתוכנת שליטה ובקרה.
בטיחות מול מהירות בעידן ה-AI
הפנייה של Anthropic משקפת טרנספורמציה רחבה יותר בנוף ה-AI. הנרטיבים המוקדמים שהתמקדו בסיכון קיומי ובהגנות אתיות מתמודדים כעת מול יריבות גיאופוליטית, שוויי עתק וציפיות בעלי מניות.
השאלה המרכזית כבר איננה האם מובילות ה-AI מעריכות בטיחות — אלא עד כמה הן מוכנות לשלם מחיר תחרותי בשמה.
עם האצת תוכניות ההנפקה והגברת מעורבות הממשלות בתשתיות AI, עקרונות היסוד של התעשייה עומדים למבחן מול מציאות של תחרות גלובלית.
להשוואה, בדיקה וניתוח בין בתי ההשקעות
השאירו פרטים ומומחה מטעמינו יחזור אליכם בהקדם
* אין במאמר זה, בחלקו או במלואו, כל הבטחה להשגת תשואות מהשקעות ואין האמור בו מהווה ייעוץ מקצועי לבצע השקעות בתחום כזה או אחר.