SKN | רגולטורים בארה”ב מזהירים מפני סיכוני מודלי AI כאשר בסנט ופאוול מתריעים למנכ”לי בנקים על חששות סביב Anthropic
רוני מור
•
6 דק’ קריאה
•
לפני 25 mins
נקודות מפתח
שר האוצר האמריקאי סקוט בסנט ויו"ר הפדרל ריזרב ג'רום פאוול הזהירו לפי הדיווחים מנכ"לי בנקים גדולים מפני סיכונים הקשורים למודלי הבינה המלאכותית של Anthropic, כך לפי בלומברג ניוז.
בנקים משלבים יותר ויותר כלי AI בפעילותם, מה שמעלה חששות סביב ממשל תאגידי, שקיפות מודלים ועמידות תפעולית.
בכירים במערכת הפיננסית האמריקאית, בהם שר האוצר סקוט בסנט ויו”ר הפדרל ריזרב ג’רום פאוול, הזהירו לפי הדיווחים מנכ”לי בנקים גדולים מפני סיכונים אפשריים הקשורים למודלי בינה מלאכותית שפותחו על ידי Anthropic, כך לפי דיווח של בלומברג ניוז. הדיונים מדגישים את תשומת הלב הרגולטורית ההולכת וגוברת לאופן שבו מערכות AI מתקדמות משולבות בתשתיות פיננסיות קריטיות, כאשר הבנקים מאיצים את אימוץ כלי למידת המכונה בתחומי ניהול סיכונים, מסחר ושירות לקוחות. האזהרה מגיעה על רקע התרחבות מהירה של יכולות הבינה המלאכותית, מה שמעלה שאלות בנוגע לפיקוח, אמינות המודלים וחשיפה מערכתית במערכת הפיננסית.
התגברות הפיקוח הרגולטורי על AI בבנקאות
הדיווח על הפגישה מדגיש את הדאגה הגוברת בקרב רגולטורים אמריקאים בנוגע לשימוש במערכות בינה מלאכותית מתקדמות בסביבות פיננסיות מפוקחות. Anthropic, חברת בינה מלאכותית מובילה המתמקדת במודלי שפה גדולים, פיתחה מערכות שמוסדות פיננסיים בוחנים יותר ויותר לצורך ניתוח נתונים, אוטומציה ותמיכה בקבלת החלטות.
לפי הדיווחים, הרגולטורים מתמקדים במיוחד בחוסר שקיפות של המודלים, באפשרות ל”הזיות” בפלטי AI גנרטיבי, ובקושי להבין באופן מלא כיצד מודלים מורכבים מגיעים למסקנות מסוימות. בבנקאות, שבה החלטות עשויות להשפיע ישירות על הקצאת אשראי, מסחר וניהול נזילות, אי-ודאות כזו עלולה ליצור סיכונים תפעוליים ורגולטוריים.
סיכון מערכתי ושיקולי יציבות פיננסית
מעורבותם של בכירים במדיניות הכלכלית האמריקאית מדגישה חששות כי אימוץ AI עלול להפוך לבעיה מערכתית אם לא ינוהל כראוי. בנקים מסתמכים יותר ויותר על ספקי AI חיצוניים, מה שמעלה שאלות לגבי סיכון ריכוזיות, תלות במודלים והאפשרות לכשלים מתואמים בין מוסדות המשתמשים במערכות דומות.
הפדרל ריזרב בראשות פאוול כבר הדגיש בעבר את החשיבות של עמידות תפעולית בתשתיות פיננסיות, ושילוב AI נבחן כעת במסגרת זו. החשש אינו רק מביצועי מודלים בודדים, אלא גם מהאופן שבו הסתמכות רחבה על מספר מצומצם של ספקי AI עלולה להגביר פגיעויות בתקופות של לחץ שוק או תקלות טכנולוגיות.
משתתפי שוק מציינים כי למרות ש-AI עשוי לשפר יעילות, להפחית עלויות ולשפר קבלת החלטות, הוא גם יוצר קטגוריות סיכון חדשות שהמסגרות הרגולטוריות המסורתיות עדיין אינן מטפלות בהן במלואן.
השלכות על בנקים ומפתחי AI
עבור מוסדות פיננסיים גדולים, האזהרה המדווחת מאותתת על הידוק אפשרי של דרישות ממשל תאגידי סביב הטמעת מערכות AI. ייתכן שבנקים יידרשו לחזק תהליכי אימות פנימיים, לבצע מבחני לחץ למערכות מבוססות AI ולתעד את מסלולי קבלת ההחלטות של המודלים. מהלך כזה עשוי להאט את קצב האימוץ אך להגביר את הביטחון הרגולטורי ביישום ארוך טווח.
עבור מפתחי AI כמו Anthropic, הפיקוח הגובר מצד רגולטורים ומוסדות מערכתיים עשוי להשפיע על אופן תכנון, בדיקה והטמעת המודלים בסביבות פיננסיות. הדרישה להסבריות, יכולת ביקורת ובקרות סיכון צפויה לגדול ככל שהבנקים ינסו להתאים את עצמם לדרישות הפיקוח המתפתחות.
ההתפתחות גם משקפת תחרות גלובלית רחבה יותר בתחום ה-AI, שבה גישות רגולטוריות בארה”ב, אירופה ואסיה עשויות להתפתח באופן שונה בכל הנוגע לפיקוח על שילוב מודלים מתקדמים במגזרים קריטיים כמו בנקאות.
בהמשך, משקיעים ומשתתפי שוק יעקבו אחר האופן שבו רגולטורים בארה”ב מנסחים הנחיות רשמיות בנושא AI למוסדות פיננסיים, וכן אחר התאמות אסטרטגיות של בנקים למדיניות הטכנולוגית. גורמים מרכזיים יהיו קצב האימוץ של AI, דרישות ציות חדשות, ורמת התיאום בין רגולטורים לחברות AI ביצירת סטנדרטים אחידים לבטיחות בתעשייה.
להשוואה, בדיקה וניתוח בין בתי ההשקעות
השאירו פרטים ומומחה מטעמינו יחזור אליכם בהקדם
* אין במאמר זה, בחלקו או במלואו, כל הבטחה להשגת תשואות מהשקעות ואין האמור בו מהווה ייעוץ מקצועי לבצע השקעות בתחום כזה או אחר.