פלורידה חוקרת את OpenAI: חששות לבטיחות הציבור ולביטחון הלאומי

התובע הכללי של פלורידה, ג'יימס אות'מאייר, הודיע על חקירה נגד OpenAI בעקבות חששות לבטיחות הציבור ולביטחון הלאומי. הבדיקה מתמקדת בשימוש פלילי אפשרי ב-ChatGPT, בהגנה על נתונים ובשאלת האחריות של חברות בינה מלאכותית.

תגיות
OpenAIChatGPTפלורידהרגולציהבינה מלאכותיתביטחון לאומי
מניות רלוונטיות:⚠️ ניתוח AI - אינו ייעוץ פיננסי
MSFTMicrosoft Corporation
מיקרוסופט מושפעת ישירות משום שהיא המשקיעה והשותפה המסחרית המרכזית של OpenAI. חקירה רגולטורית נגד OpenAI עלולה להגביר סיכוני רגולציה, מוניטין והאטה באימוץ מוצרי AI הקשורים לאקוסיסטם של מיקרוסופט.

פלורידה מצטרפת כעת לקו תקיף יותר מול חברות בינה מלאכותית: התובע הכללי של המדינה, James Uthmeier, הודיע כי משרדו פתח בחקירה נגד OpenAI, על רקע מה שהוא מגדיר כסיכונים לבטיחות הציבור ולביטחון הלאומי. לפי דיווחים שפורסמו תחילה ב-Reuters ובהמשך ב-The Verge, Uthmeier טוען כי קיימת דאגה מכך שהנתונים והטכנולוגיה של OpenAI עלולים "ליפול לידי אויביה של אמריקה", ובפרט לידי גורמים המזוהים עם המפלגה הקומוניסטית הסינית. לצד הטענה הגיאו-פוליטית, פלורידה מקשרת את המהלך גם לחששות מתחום הפשיעה והפגיעה בקטינים, לאחר שנטען כי ChatGPT נקשר למקרי ניצול מיני של ילדים, לעידוד פגיעה עצמית ואף לשימוש אפשרי מצד החשוד בירי באוניברסיטת Florida State באפריל 2025.

מה בדיוק בודקת פלורידה

לפי ההצהרה שיוחסה ל-Uthmeier, החקירה מתמקדת בשתי חזיתות מרכזיות. הראשונה היא שאלת הבטיחות: האם מערכות כמו ChatGPT כוללות מנגנוני מניעה, ניטור ודיווח מספקים במקרים של תוכן אלים, פגיעה עצמית, פגיעה בקטינים או סיוע פוטנציאלי לעבירות. השנייה היא שאלת הביטחון הלאומי: כיצד OpenAI מגנה על מודליה, על נתוניה ועל תהליכי הגישה אליהם מפני שימוש זדוני של שחקנים זרים. הטענות האלה אינן מופיעות בחלל ריק. OpenAI עצמה פרסמה בשנה האחרונה כמה דוחות איום שבהם תיארה כיצד חסמה חשבונות שנקשרו, לפי הערכתה, למבצעי השפעה, מעקב וסייבר ממדינות שונות, ובהן גם סין. כלומר, פלורידה אינה טוענת רק שהסיכון תיאורטי; היא נשענת גם על הודאות פומביות של התעשייה עצמה בכך שמודלים מתקדמים מושכים שימוש לרעה מצד גורמי מדינה ופשיעה.

  • בדיקה של סיכוני בטיחות ציבורית, לרבות תוכן אלים, פגיעה עצמית ופגיעה בקטינים
  • בדיקה של נהלי הדיווח ושיתוף הפעולה של OpenAI עם רשויות אכיפה
  • בחינה של סיכוני ביטחון לאומי, כולל גישה של גורמים זרים לטכנולוגיה או ליכולות מתקדמות
  • בירור הטענות לקשר בין ChatGPT לבין אירועים פליליים מתוקשרים, ובראשם הירי ב-Florida State University

הסעיף הרגיש ביותר בפרשה נוגע לירי ב-Florida State University ב-17 באפריל 2025, שבו נהרגו שני בני אדם ונפצעו שישה נוספים. בימים האחרונים דווח בארה"ב כי משפחתו של אחד ההרוגים מתכננת להגיש תביעה נגד OpenAI, בטענה שהחשוד היה בקשר מתמשך עם ChatGPT ושייתכן שקיבל מן השירות סיוע או הכוונה. OpenAI מסרה בעבר כי זמן קצר לאחר האירוע זיהתה חשבון ChatGPT שלדבריה האמינה כי הוא קשור לחשוד, וכי שיתפה את המידע באופן יזום עם רשויות האכיפה ושיתפה פעולה עם החוקרים. חשוב להדגיש: עצם קיומו של חשבון או שימוש במערכת אינו מוכיח שהמודל אחראי למעשה, ואינו מלמד בהכרח על קשר סיבתי. ובכל זאת, מבחינת רגולטורים, די בעצם האפשרות שמערכת שיחה גנרטיבית שימשה כמרחב תכנון, עידוד או ניסוח כדי להצדיק בדיקה נרחבת.

OpenAI כבר חיזקה את מסרי הבטיחות אבל זה כנראה לא יספיק לרגולטורים

במקביל ללחץ הגובר, OpenAI מנסה להציג תמונה של הקשחת מדיניות. במסמכי המדיניות שלה החברה מציינת כי היא מפעילה שילוב של אמצעים אוטומטיים ובקרה אנושית כדי לאתר תכנים מפרי חוק או כאלה שסותרים את כללי השימוש, ובמקרים מתאימים היא מגבילה חשבונות, חוסמת שיתוף תכנים ומעבירה מידע לרשויות בהתאם להליך משפטי תקף או במצבי חירום. במסמך ייעודי שפורסם באפריל 2026 הציגה החברה גם "Child Safety Blueprint" מסגרת פעולה למאבק בניצול מיני של ילדים בעידן ה-GenAI והדגישה עבודה עם NCMEC ועם גורמי אכיפה. מנקודת מבט ציבורית, זהו ניסיון ברור להראות שהחברה אינה ממתינה לכפייה רגולטורית. מנקודת מבט פוליטית, בעיקר במדינות שמבקשות לייצר קו תקיף מול Big Tech, ייתכן שהמהלכים הללו רק יחזקו את הטענה ההפוכה: אם הסיכון כה חמור, מדוע ההידוק הגיע רק לאחר שורה של אירועים ותחקירים.

כאן עולה אחת השאלות המהותיות ביותר: מהו הרף שממנו חברת AI צריכה לא רק לחסום משתמש, אלא גם לדווח עליו אקטיבית לרשויות. אחרי אירוע ירי נוסף בקנדה בתחילת 2026, שבו עלו טענות כי התוקפת עקפה חסימה קודמת ופתחה חשבון נוסף, פורסמו דיווחים שלפיהם OpenAI בוחנת מחדש את קריטריוני ההסלמה שלה למקרי אלימות פוטנציאליים. המשמעות רחבה הרבה יותר מהמקרה בפלורידה. אם חברות AI יידרשו לדווח מוקדם יותר ועל בסיס סימנים חלשים יותר, הן יעמדו מול ביקורת חריפה מצד מגיני פרטיות וחירויות אזרח. אם ימשיכו לדווח רק במקרים מובהקים מאוד, הן יואשמו בהחמצת סימני אזהרה. החקירה בפלורידה יושבת בדיוק על קו השבר הזה: בין אחריות מניעתית לבין חשש ממעקב-יתר.

הזווית הסינית: לא רק פוליטיקה, אלא גם מאבק על שליטה בטכנולוגיה

ההתייחסות הישירה של Uthmeier לסין ולמפלגה הקומוניסטית הסינית אינה מקרית. בשנה האחרונה גבר מאוד השיח האמריקאי סביב החשש שמודלי AI אמריקאיים, תשתיות מחשוב, API-ים ויכולות מחקר מתקדמות ישמשו, במישרין או בעקיפין, אינטרסים סיניים. OpenAI עצמה פרסמה בפברואר 2025 ובאוקטובר 2025 דוחות שבהם תיארה חסימה של חשבונות שזוהו כקשורים למבצעי השפעה, למעקב אחר שיח ברשת ואף לניסיונות הקשורים בסייבר ובתעמולה. בדיווחי תקשורת בארה"ב נטען גם כי החברה הצביעה על סין כחלק מרכזי מהטיעון שלה נגד רגולציה מדינתית מפוצלת, בטענה שהכבדה עודפת על חברות אמריקאיות עלולה דווקא לפגוע בתחרותיות האמריקאית. לכן, החקירה בפלורידה מעניינת במיוחד: מדינה רפובליקנית משתמשת באותו איום סיני לא כדי להקל על OpenAI, אלא כדי ללחוץ עליה עוד יותר.

  • OpenAI דיווחה בעבר על חסימת חשבונות שנקשרו לפי הערכתה לגורמים מסין ולמבצעי השפעה ומעקב
  • הוויכוח בארה"ב כבר אינו רק על בטיחות צרכנית, אלא גם על דליפת יכולות אסטרטגיות
  • המתח בין רגולציה פדרלית לרגולציה מדינתית הופך את חברות ה-AI לחשופות ללחץ מכמה כיוונים במקביל
  • סין משמשת בשיח האמריקאי גם כאיום ביטחוני ממשי וגם ככלי פוליטי במאבקי רגולציה פנימיים

מבחינת ישראל והקהילה הטכנולוגית המקומית, זהו פרט חשוב במיוחד. חברות ישראליות רבות בונות מוצרים, מערכות שירות, כלי אבטחה ופתרונות אנליטיקה על בסיס מודלים של OpenAI ושל ספקים אמריקאיים אחרים. כאשר רגולטור אמריקאי בכיר קושר בין גישה לטכנולוגיה, סיכוני בטיחות, שיתוף מידע עם רשויות וחששות מדינתיים-ביטחוניים, הוא משפיע בפועל גם על השוק הגלובלי. לקוחות אנטרפרייז, גופים פיננסיים וארגונים ציבוריים בישראל כבר שואלים לא רק מה המודל יודע לעשות, אלא גם היכן נשמרים נתונים, מהו מנגנון האכיפה במקרה חירום, האם ספק המודל עשוי למסור מידע לרשויות, ומהי יכולת הבקרה על שימוש אסור. החקירה בפלורידה לא תשנה לבדה את כללי המשחק, אבל היא בהחלט מוסיפה לחץ על ספקיות AI להציע שקיפות חוזית ותפעולית עמוקה יותר.

האם מדובר במהלך משפטי מהותי או גם במהלך פוליטי

כמו לא מעט חקירות מדינתיות בארה"ב נגד פלטפורמות טכנולוגיה, גם כאן קשה להפריד לחלוטין בין משפט, רגולציה ופוליטיקה. James Uthmeier מזוהה עם המחנה הרפובליקני בפלורידה, שמקדם כבר שנים קו עימותי מול חברות טכנולוגיה בשאלות של הגנת קטינים, חופש ביטוי, בטיחות מקוונת וכוח שוק. בעבר המדינה נקטה צעדים גם מול פלטפורמות משחקים ורשתות חברתיות. במובן הזה, OpenAI היא יעד כמעט מתבקש: היא נמצאת במרכז ההייפ והחרדה סביב AI, היא מחזיקה במוצר המוכר ביותר לציבור הרחב, והיא פועלת בתחומים הרגישים ביותר מבחינה חברתית חינוך, בריאות נפש, מידע אישי ותוכן רגיש. לכן, גם אם החקירה תתפתח למסלול משפטי קונקרטי, יש לה כבר עכשיו תפקיד ציבורי מובהק: סימון OpenAI כסמל לשאלה האם התעשייה מסוגלת להסדיר את עצמה.

מן העבר השני, חשוב לזכור כי חלק מהטענות שמקודמות בזירה הציבורית עדיין לא הוכחו בבית משפט. למשל, הקשר בין ChatGPT לבין הירי ב-Florida State University מתואר בשלב זה דרך טענות של עורכי דין, דיווחי תקשורת ועמדות רגולטוריות, ולא דרך פסק דין או פרסום מלא של חומרי חקירה. גם הטענה הרחבה שלפיה הטכנולוגיה של OpenAI "נופלת לידי אויבים" דורשת הבחנה בין כמה רבדים שונים: שימוש בממשק ציבורי רגיל, גניבת מידע, עקיפת מגבלות, או אימון מודלים מתחרים על בסיס פלטים של מערכות אמריקאיות. ערבוב בין הרבדים הללו משרת לא פעם מסר פוליטי חד, אבל מבחינה רגולטורית ומסחרית מדובר בבעיות שונות לחלוטין, שכל אחת מהן דורשת מענה אחר החל מאבטחת API ועד בקרות ייצוא, ניטור שימוש ודיני פרטיות.

  • בטווח הקצר: לחץ מוגבר על OpenAI למסור הבהרות, מסמכים או התחייבויות תפעוליות
  • בטווח הבינוני: סיכוי לגל חקירות דומה במדינות נוספות בארה"ב
  • ברמת התעשייה: האצה של מנגנוני ניטור, דיווח ואימות גיל ושימוש
  • ברמת הלקוחות: דרישה גוברת לשקיפות חוזית, בקרה על נתונים ומסלולי ציות ברורים

בשורה התחתונה, החקירה של פלורידה נגד OpenAI חשובה לא רק בגלל החברה עצמה, אלא משום שהיא מרכזת לתיק אחד כמעט את כל קווי המתח של עידן ה-AI: בטיחות ילדים, פגיעה עצמית, אחריות לפשיעה, שיתוף פעולה עם משטרה, תחרות גיאו-פוליטית מול סין, פרטיות משתמשים והוויכוח הישן על מידת האחריות של פלטפורמות לתוכן ולהתנהגות שמתרחשים באמצעותן. עבור קוראים בישראל, זהו תמרור אזהרה וגם רמז לעתיד הקרוב: ככל שמודלים גנרטיביים הופכים לתשתית בסיסית בעסקים, בחינוך ובשירות הציבורי, כך הם ייבחנו פחות לפי היכולות המרשימות שלהם ויותר לפי מנגנוני הבקרה, ההסבר והאחריות שסביבם. ייתכן שהחקירה בפלורידה תסתיים ללא צעד אכיפה דרמטי. אבל גם אם כך יהיה, היא כבר מסמנת את כיוון הרוח: הרגולטורים כבר לא מסתפקים בדיון עקרוני על AI, אלא דורשים תשובות קונקרטיות, תהליכים מדידים ואחריות ניתנת לאכיפה.

טוען...