Perplexity נכנסה בשנים האחרונות ללב הדיון על עתיד החיפוש בעידן ה-AI, עם הבטחה לחוויית שימוש מהירה, שיחתית ושקופה יותר מזו של מנועי החיפוש הוותיקים. אלא שכעת החברה ניצבת מול תביעה חדשה ורחבה, שמציגה תמונה כמעט הפוכה: לפי דיווחים בארה"ב, תביעה ייצוגית שהוגשה בסוף מרץ 2026 לבית משפט פדרלי בסן פרנסיסקו טוענת כי Perplexity שיתפה מידע אישי ושיחות מלאות של משתמשים עם Google ו-Meta, גם כאשר המשתמשים הפעילו את מצב Incognito. לפי התלונה, לא מדובר בנתוני שימוש כלליים בלבד, אלא בשיחות שעשויות לכלול מידע רגיש במיוחד החל מבריאות ומצב פיננסי ועד התלבטויות אישיות ומשפטיות. אם הטענות יתבררו כנכונות, זו לא רק מבוכה תדמיתית, אלא מכה ישירה לאחד מנכסי הליבה של כל מוצר AI: אמון.
מה בדיוק נטען בתביעה
לפי דיווחים של Bloomberg Law, התביעה הוגשה ב-31 במרץ 2026 לבית המשפט הפדרלי במחוז הצפוני של קליפורניה, תחת השם Doe v. Perplexity AI, Inc. et al., ומספר התיק שצוטט בדיווחים הוא 3:26-cv-02803. בתלונה נטען כי מיד עם התחברות המשתמש לעמוד הבית של Perplexity, מוטמעים במכשירו מנגנוני מעקב שמאפשרים ל-Google ול-Meta גישה לשיחות בינו לבין מנוע ה-AI של החברה. לפי נוסח הטענות כפי שדווח, Perplexity עשתה זאת כדי להפיק תועלות פרסומיות ואנליטיות, בעוד Meta ו-Google יכולות להשתמש במידע לצורכי מיקוד פרסום, ניתוח התנהגות ואף העברה לגורמים נוספים בשרשרת הפרסום הדיגיטלית. עצם השימוש במונח "Incognito" הופך כאן למוקד דרמטי: התביעה טוענת שההבטחה לפרטיות הייתה, למעשה, ריקה מתוכן.
- לפי התביעה, שיתוף הנתונים התרחש גם כאשר הופעל מצב Incognito.
- הטענות מתייחסות לשיחות מלאות עם מנוע ה-AI ולא רק לנתוני גלישה כלליים.
- החברות הנוספות שנזכרות בתביעה הן Meta ו-Google, בהקשר של פרסום ואנליטיקה.
- ההליך הוגש כתביעה ייצוגית מוצעת, כלומר עדיין לא אושר סופית כייצוגי.
בדיווחים שונים צוין כי התובע מזוהה בשלב זה כ-John Doe, תושב יוטה, וכי התביעה נשענת על דיני הפרטיות של קליפורניה. נוסח התלונה, כפי שתואר בכלי תקשורת משפטיים, מדגיש כי משתמש סביר לא היה מצפה שתמלילי שיחה מלאים עם שירות AI יועברו לחברות כמו Meta ו-Google. זהו הבדל מהותי לעומת מודלים מוכרים יותר של איסוף עוגיות, פיקסלים או אירועי גלישה בסיסיים. בעולם ה-AI, המשתמשים נוטים לשתף מידע אינטימי בהרבה: שאלות על מחלות, הכנסה, אסטרטגיה עסקית, ניהול משבר במקום העבודה, טיוטות חוזים, מחשבות פוליטיות, ולעיתים גם פרטים משפחתיים. לכן, גם אם מבחינה טכנית מדובר בעוד טכנולוגיית מדידה שיווקית, מבחינה ציבורית ומשפטית הטענה חמורה בהרבה.
למה הסיפור הזה גדול יותר מעוד מחלוקת על cookies
ההקשר הרחב הופך את הפרשה הזו למשמעותית במיוחד. Perplexity לא פועלת בוואקום: היא מנסה לבנות לעצמה זהות של אלטרנטיבה חכמה ל-Google, ובו בזמן להקים מודל עסקי יציב בשוק יקר ותחרותי מאוד. כבר ב-2024 החברה הציגה תוכנית לשיתוף הכנסות מפרסום עם גופי מדיה שתוכנם מצוטט בתשובות שלה, מתוך הבנה שחיפוש מבוסס AI חייב להיתמך במודל מסחרי ברור. אחר כך, ב-2025, מנכ"ל החברה עורר סערה כשהסביר כי הדפדפן שהחברה מפתחת יוכל לעקוב אחרי פעילות המשתמשים ברשת כדי להציע פרסום "hyper personalized". מבחינה עסקית, זה היה איתות ברור: גם Perplexity, כמו שחקניות טכנולוגיה אחרות, בוחנת ברצינות את הקשר בין נתוני משתמשים, התאמה אישית והכנסות מפרסום.
מכאן גם נובעת חומרת המקרה: אם חברה בונה מותג סביב מהירות, נוחות ואמון, ואחר כך מתברר לכאורה שמנגנוני מדידה פרסומיים פעלו גם במצב שמרמז על פרטיות מוגברת, הפגיעה איננה רק רגולטורית. היא חותרת תחת הצעת הערך עצמה. במשך שנים הציבור כבר למד ש"גלישה פרטית" בדפדפנים אינה הופכת אותו לבלתי נראה לכל העולם; לכל היותר היא מונעת שמירת היסטוריה מקומית. אבל כאשר שירות AI מציע מצב בשם Incognito בהקשר של שיחות אישיות, משתמשים רבים בהחלט עשויים להבין זאת כהבטחה למחסום אפקטיבי יותר מפני מעקב, שיתוף והצלבה עם מערכות פרסום. אם זו הייתה ההבנה בפועל ובית המשפט ישתכנע שהחברה טיפחה אותה Perplexity תתקשה לטעון שמדובר באי-הבנה שולית בלבד.
הרקע: Perplexity כבר הייתה תחת זכוכית מגדלת
גם לפני התביעה הנוכחית, Perplexity התמודדה עם שורת עימותים משפטיים ועסקיים. במהלך 2024 ו-2025 ספגה החברה ביקורת חריפה מצד מו"לים וגופי תוכן, ובחלק מהמקרים גם תביעות, סביב שימוש בתוכן עיתונאי, ציטוטים, סיכומים וחשש להפרת זכויות יוצרים או עקיפת מודלים מסחריים של אתרי חדשות. החברה ניסתה מצד אחד לפייס את התעשייה עם הסכמי שיתוף הכנסות, ומצד אחר המשיכה לקדם מוצר שמתיימר להחליף חלקים מהמודל המסורתי של חיפוש והפניית תנועה לאתרים. במקביל, השאיפות שלה בתחום הדפדפן, הפרסום והאינטגרציה למכשירים ניידים חיזקו את התחושה שהיא כבר לא רק "מנוע תשובות" צעיר, אלא שחקנית שמבקשת לגעת בלב תשתית האינטרנט הצרכני.
- מחלוקות מול מו"לים סביב שימוש בתוכן עיתונאי.
- דיון פומבי סביב מודל הפרסום העתידי של החברה.
- שאיפות להתרחב לדפדפן, לנייד ולחוויית חיפוש מלאה.
- רגישות גוברת לשאלת האמון בין משתמש לשירות AI.
לכן התביעה החדשה לא נופלת על קרקע ניטרלית. היא מצטרפת לנרטיב רחב יותר, שלפיו חברות AI אינן רק מפתחות מודלים, אלא בונות מערכות איסוף, הפצה ומוניטיזציה של מידע. השאלה כבר אינה רק האם התשובה של הבוט מדויקת, אלא מה המחיר הסמוי של השימוש החינמי או הזול בו. בעולם כזה, הפרטיות הופכת ממסמך מדיניות מעורפל למרכיב מוצרי של ממש. משתמשים בוחרים היום כלי AI גם לפי רמת האמון: האם השיחות נשמרות, האם הן משמשות לאימון, האם אפשר למחוק אותן, האם הן מוצפנות, והאם הגדרות כמו Incognito או Temporary Chat אכן עושות את מה שהשם שלהן מבטיח. הפרשה הנוכחית ממחישה עד כמה הפער בין שיווק לבין ארכיטקטורת הנתונים בפועל עלול להפוך מהר מאוד לבעיה משפטית.
מה עשויות להיות ההשלכות על שוק ה-AI
ברמה הענפית, הסיפור הזה עשוי להשפיע הרבה מעבר ל-Perplexity. בשנים האחרונות חברות AI ניסו לשכנע את הציבור שהממשק השיחתי הוא מרחב נוח ואישי יותר מחיפוש מסורתי. זה נכון פונקציונלית, אבל יוצר גם סיכון חדש: ככל שהשיחה אנושית וחופשית יותר, כך המשתמש חושף יותר. אם כעת יתבסס הרושם שהשיחות האלה עלולות לזרום למערכות פרסום של צדדים שלישיים, צפויה תגובת נגד מצד משתמשים, רגולטורים ולקוחות ארגוניים. ארגונים גדולים ממילא רגישים מאוד לשאלות של שמירת מידע, סודיות מסחרית והעברת נתונים לספקים נוספים. תביעה מסוג זה יכולה להקשות על כל ספק AI שמבקש למכור כלי חיפוש, סיכום או עוזר אישי לשוק הארגוני, גם אם אין נגדו הליך דומה כרגע.
- הקשחת דרישות שקיפות במוצרי AI צרכניים.
- בדיקות עומק מצד לקוחות אנטרפרייז לפני אימוץ כלים שיחתיים.
- לחץ רגולטורי מחודש על שימוש בפיקסלים, SDKs וכלי מדידה של צד שלישי.
- דרישה להפרדה ברורה בין פיצ'רי פרטיות לבין מערכות פרסום ואנליטיקה.
בהיבט התחרותי, יש כאן גם מסר ל-OpenAI, Google, Anthropic ושחקניות נוספות: אמון בפרטיות הופך להיות יתרון שיווקי מהותי, לא רק סעיף משפטי. ככל שמוצרי AI מתקרבים לשכבת מערכת ההפעלה, הדפדפן, הארגון והחיים האישיים, המשתמשים ידרשו להבין לא רק מה המודל יודע לעשות, אלא גם מי עוד "רואה" את השיחה. אם בעבר אפשר היה להסתפק בניסוחי מדיניות כלליים, הרי שכעת יתכן שהשוק יעבור לסטנדרט מחמיר יותר: הבטחות מוצריות מדויקות, הגדרות שמכובות כברירת מחדל, ויכולת אמיתית לאימות, מחיקה ובקרה. זה נכון במיוחד כאשר חברות AI מחפשות הכנסות חדשות בתקופה שבה עלויות החישוב, רכישת לקוחות והסכמי הפצה רק עולות.
הזווית הישראלית: למה זה חשוב גם כאן
לכאורה מדובר בהליך אמריקאי, על בסיס דיני פרטיות בקליפורניה, אבל המשמעות שלו רלוונטית מאוד גם לישראל. חברות, סטארט-אפים, עורכי דין, רופאים, אנשי שיווק וסטודנטים בישראל משתמשים בכלי AI שיחתיים בקצב גובר לעיתים לצרכים רגישים מאוד. בפועל, רבים מהמשתמשים אינם מבדילים בין "שיחה שלא נשמרת בחשבון" לבין "שיחה שלא מועברת לצדדים נוספים", אף שמדובר בשתי שאלות שונות לגמרי. אם פרשה כזו תחלחל לתודעה, אפשר לצפות ליותר דרישות מצד מחלקות משפטיות, ממוני פרטיות ו-CISOs לקבל תשובות קונקרטיות מספקי AI: אילו לוגים נשמרים, מי מקבל telemetry, האם כלי צד שלישי נחשפים לתוכן, ומה בדיוק עושה מצב פרטי או זמני.
מן הזווית הרגולטורית, ישראל אמנם אינה פועלת תחת ה-CCPA הקליפורני, אך הרגישות הציבורית סביב מידע אישי, מידע רגיש ושימוש משני במידע רק הולכת וגוברת. עבור חברות ישראליות שמטמיעות מוצרי AI באתרי צרכנים, באפליקציות ובסביבות עבודה, המסר ברור: אסור להסתמך על ניסוחים שיווקיים מעורפלים כאשר מאחוריהם פועלות תשתיות מדידה מורכבות של פרסום ואנליטיקה. גם כאן, המשתמש הסביר יבחן את המוצר לפי השם, לפי הממשק ולפי התחושה שקיבל לא רק לפי סעיף נסתר במדיניות. לכן, כל מוצר שמציע "מצב פרטי", "שיחה זמנית" או "לא נשמר בהיסטוריה" צריך לוודא שהמשמעות המעשית של ההבטחה הזו ברורה, מדויקת ואינה מטעה.
נכון לעכשיו, חשוב להדגיש: אלה טענות בכתב תביעה, ולא קביעות עובדתיות של בית משפט. Perplexity טרם קיבלה הכרעה שיפוטית בתיק הזה, וההליך נמצא בשלב מוקדם. ובכל זאת, גם ללא פסק דין, עצם קיומו של ההליך מציף שאלה עקרונית על עתיד ה-AI הצרכני: האם החברות יבחרו לבנות כלכלת תשובות שמבוססת על מינימום נתונים, או שהן ייגררו לאותו מסלול מוכר של מעקב, פרופיילינג ומיקוד פרסומי שהגדיר את עידן הרשתות החברתיות והחיפוש הקלאסי. Perplexity, שביקשה להציג חלופה חכמה ורעננה יותר, מוצאת את עצמה כעת מתמודדת עם החשד שהיא אולי מאמצת דווקא את הדנ"א הבעייתי ביותר של האינטרנט הישן. עבור המשתמשים, זה רגע תזכורת חשוב: ב-AI, כמו בכל שירות דיגיטלי אחר, נוחות איננה תחליף לשקיפות.