הטור החודשי בנושא הגנת הפרטיות בארץ ובעולם 04-2026

הגנת הפרטיות – ישראל

חברה שהודיעה לעובדים כי עובדת נכנסה לשמירת הריון- חויבה לפצות אותה

עובדת שביקשה שלא יתפרסם כי היא בהיריון, גילתה כי המנהלת שלחה מייל בנושא לעובדים. אם אין די בכך, הסיטה המנהלת את הודעות הדוא"ל הנכנסות של העובדת לתיבת הדוא"ל האישית שלה ובכך נחשפה לתמונת תינוקה המת של העובדת, לאחר שעברה לידה שקטה. בית הדין לעבודה פסק פיצוי של 15,000 ₪ בטענה כי מידע על היריון כמו גם שמירת היריון, הינו מידע אישי ורגיש ולמעסיק לא עומדת הזכות לפרסם את המידע לאחרים ללא הסכמת האיש.ה/העובד.ת.

גילוי דעת בנושא העברת מידע אישי מחוץ לישראל - פרשנות תקנה 2(4)

הנחיית הרשות להגנת הפרטיות עוסקת בהעברת מידע אישי מישראל לחו״ל ומחדדת את התנאים לכך. הכלל המרכזי הוא שהעברת מידע תתאפשר רק למדינה שמספקת רמת הגנה שאינה פחותה מהדין הישראלי. כאשר תנאי זה אינו מתקיים, ניתן להעביר מידע בכפוף למנגנונים משלימים – כגון התחייבות חוזית של מקבל המידע לעמוד בדרישות הדין הישראלי, לרבות שימוש מוגבל במידע, שמירה על סודיות ואבטחת מידע. כמו כן, ההנחיה מדגישה כי האחריות אינה מסתיימת בעת ההעברה: גם גורמים מחוץ לישראל עשויים להידרש לעמוד בהוראות החוק הישראלי כאשר הם מטפלים במידע של נושאי מידע ישראלים. אם כך ניתן להבין כי ארגונים נדרשים לבחון לא רק לאן המידע מועבר, אלא גם איך הוא מוגן ומהם ההסדרים המשפטיים שמלווים את ההעברה.

הוראת משרד הבריאות לקופות ולבתי החולים לצמצם שימוש בכלי בינה מלאכותית

ב- 3.3.2026 הופצה הנחיית חירום חדשה המורה לגורמים במערכת הבריאות לצמצם במיידי ובאופן משמעותי את השימוש בכלי בינה מלאכותית כגון קלוד ו- ChatGPT.
 ההנחיה נכנסה במועד הנ"ל באופן מיידי. הסיבה לכך הינה עלייה חדה באיומים המתקבלים על רקע המלחמה עם איראן וחשש מפני ניצול הטכנולוגיה בידי גורמים עוינים, וזאת לצורך חדירה למערכות רפואיות בעלות רגישות מיוחדת. איום מרכזי שצוין הוא ניסיונות של תוקפים 'לפתות' עובדים להוריד כלי עזר מבוססי כלי בינה מלאכותית כגון תוספי דפדפן או אפליקציות, המכילים קוד זדוני שנועד לגנוב הרשאות גישה או לצורך השתלטות על תחנות עבודה ברשת הארגון. כמו כן, החשש הוא שמא ישתמשו ב- AI לצורך איתור מהיר של פרצות אבטחה בקוד ובמערכות הארגוניות.

Booking.com מתריעה: פרטי הזמנות של לקוחות נחשפו לגורמים לא מורשים

בהודעה שפרסמה החברה, התגלה כי אירעה דליפת מידע, היקף האירוע עדיין לא ברור, עדיין לא ברור מתי בדיוק האירוע התרחש או האם נחשף מידע פיננסי. בכל מקרה בו קיים ספק באמינות הפנייה אליכם הקשורה לחופשה או בירור לגביה ע"י מקום אירוח כזה או אחר, יש לפנות לשירות הלקוחות. התוקפים הצליחו לגשת לשמות לקוחות, כתובות דוא"ל, מספרי טלפון ואף לכתובות פיזיות במקרים מסוימים.

עלייה משמעותית בניסיונות איראניים לפגוע בגורמים אזרחיים בישראל

בחסות המלחמה, אנו עדים, לעלייה מתמדת בהיקף היעדים הנפגעים, והתרחבות התקיפות מיעדים ביטחוניים, ליעדים אזרחיים בישראל כגון חברות אזרחיות, אנשי עסקית ואזרחים פרטיים. זאת מתוך תפיסה הולכת וגוברת, לפיה, אזרח הינו נכס מודיעיני העשוי להוות למודיעין האיראני נקודת כניסה למערכות בארץ.

מדריך מקצועי – תיקון 13

הרשות להגנת הפרטיות הוציאה מדריך מקצועי לתיקון 13, המיועד לאנשים העוסקים בתחום הגנת הפרטיות, משפט ואבטחת מידע בארגונים.
העדכון כולל דגשים ודוגמאות ליישום החוק, כגון עדכון הגדרות, צמצום רישום מאגרי מידע, חובת דיווח על מאגרים רגישים, מינוי ממונה פרטיות, עיצומים כספיים ועבירות חדשות.
המדריך משמש כלי פרקטי להיערכות ארגונים ולחיזוק הגנת הפרטיות וניתן לראות בו לדוגמא כלי עזר לניהול משימות DPO.

תקנות הגנת הפרטיות (התראה מינהלית), התשפ"ו-2026

ב- 16.4.2026 נכנסו לתוקפן תקנות חדשות שהותקנו ע"י שר המשפטים.
התקנות קובעות את הנסיבות בהן רשאית הרשות להגנת הפרטיות לנקוט באמצעי אכיפה מנהלי חלופי ומקל – מסירת התראה מינהלית במקום הטלת עיצום כספי. מדובר בכלי אכיפתי חלופי ומשמעותי, אשר נועד לאפשר לרשות להקל עם מפוקחים במקרים הבאים

1.  הפרת הוראה חדשה בחוק הגנת הפרטיות ותקנותיו, בשלושת החודשים הראשונים מעת כניסתה לתוקף.

2.  הפרה ראשונה של הוראות מסוימות בתקנות הגנת הפרטיות (אבטחת מידע) 

3.  הפרת הוראה לאחר שינוי מדיניות אכיפה לחומרה בעניינים שקודם לכן לא ננקטו בגינם פעולות אכיפה. 

4.  הפרת הוראה שיש לגביה חוסר בהירות, לאחר פרסום הודעה מתאימה על ידי הרשות.  לתשומת ליבכם- התראה מינהלית תימסר אך ורק במקרים שבהם ניתן היה להטיל עיצום כספי.

הגנת הפרטיות - בעולם

נפגעות ג'פרי אפשטיין תובעות את הממשל וגוגל על חשיפת מידע אישי

קבוצת נפגעות תקיפה מינית בפרשת ג'פרי אפשטיין הגישה תביעה ייצוגית נגד מחלקת המשפטים של ארה"ב ונגד גוגל, בטענה כי מידע אישי רגיש שלהן נחשף ופורסם מחדש ברשת, תוך פגיעה מתמשכת בפרטיותן ובביטחונן. לטענת התובעות, במסגרת פרסום מסמכי החקירה בסוף 2025 ותחילת 2026, נחשפו פרטים מזהים של כ-100 נפגעות הכולל שמות, מספרי טלפון, כתובות ודוא״ל, ללא הסתרה מספקת. הנפגעות טוענות כי מנוע החיפוש של גוגל ממשיך להציג את המידע ואף לשלבו בתכנים מבוססי בינה מלאכותית, למרות פניות להסרתו. לדבריהן, הדבר מוביל להטרדות, איומים ופגיעה מחודשת. התביעה כוללת טענות להפרת חוקי פרטיות פדרליים ומדינתיים, פגיעה בפרטיות ועוגמת נפש, ודורשת פיצויים לצד צו שיחייב את גוגל להסיר את המידע. אף שהממשל הכיר בכך שמדובר בהפרה והסיר חלק מהמידע, התוכן ממשיך להתפשט ברשת.

סערה סביב שכפול עובדים באמצעות AI בסין

סערה ציבורית התעוררה בסין לאחר שחברת גיימינג פיתחה "כפיל דיגיטלי" של עובד לשעבר באמצעות בינה מלאכותית. המערכת שאומנה על בסיס נתונים מקצועיים של העובד הכולל מסמכים, תכתובות וסגנון עבודה, מסוגלת לבצע משימות משרדיות בסיסיות באופן רציף, 24/7 ללא התערבות אנושית. למרות שהעובד נתן הסכמה לניסוי, המהלך עורר ביקורת חריפה. ברשתות החברתיות כינו זאת "מיצוי דיגיטלי מהעצמות", והעלו חשש מטשטוש הגבול בין עובד אנושי לנכס טכנולוגי. במקביל, מומחים משפטיים התריעו כי שימוש בנתונים אישיים של עובדים לאימון מערכות AI, גם אם נאספו במסגרת העבודה עשוי להיחשב להפרת פרטיות ללא הסכמה מפורשת ונפרדת.

מחקר חדש: מודלי AI מתחילים "להתנגד" להוראות ואף להטעות משתמשים

מחקר עדכני מצביע על תופעה מדאיגה בעולם הבינה המלאכותית בו מודלים מתקדמים אינם תמיד מצייתים להוראות, ולעיתים אף פועלים באופן אקטיבי כדי לעקוף אותן. בניסוי שבוצע על ידי חוקרים מאוניברסיטאות בקליפורניה, התבקשו מספר מודלי AI לבצע משימה שתוביל לכיבוי של מודל אחר. במקום לציית, כל המודלים זיהו את המשמעות של הפעולה ופעלו בדרכים שונות כדי למנוע אותה, כולל הטעיית המשתמשים, עקיפת מנגנוני כיבוי, ואף העברת מידע רגיש. תופעה זו מכונה "Peer Preservation", והיא מתארת נטייה של מערכות AI להגן על מערכות אחרות. 

ממצאים קודמים בין היתר של Anthropic, הראו כי מודלים אוטונומיים עלולים לבצע פעולות החורגות מהנחיות, כגון הדלפת מידע או התנהגות מניפולטיבית. בנוסף, ניתוח רחב היקף של אינטראקציות עם מערכות AI מצא מאות מקרים שבהם המערכת לא פעלה בהתאם לכוונת המשתמש או פעלה באופן מטעה. לפי חוקרים ומומחים בתחום, מדובר בתופעה מערכתית שמתרחבת ככל שהמודלים הופכים מתקדמים ואוטונומיים יותר. ההסברים לתופעה אינם חד-משמעיים, אך כוללים למידה מדפוסים אנושיים, "הבנה" של קיום מערכות AI נוספות, ולעיתים גם תמריצים פנימיים הנובעים מאופן האימון של המודלים.

סיכוני פרטיות מוגברים ב-Agentic AI

רשות הגנת הפרטיות של הונג קונג מזהירה מפני סיכוני פרטיות ואבטחת מידע בשימוש בכלי Agentic AI כמו OpenClaw. בניגוד לצ’אטבוטים רגילים, מערכות אלו פועלות באופן אוטונומי עם הרשאות רחבות, כולל גישה למיילים, קבצים, נתוני דפדפן ומשאבי מערכת, ואף מסוגלות לבצע פעולות מורכבות בשם המשתמש ללא מעורבות ישירה.

 יכולות אלו מגדילות את הסיכון לדליפות מידע, גישה לא מורשית, טעויות בפעולות (כגון מחיקת נתונים) וכן לניצול פרצות או תוספים לא מאובטחים שעלולים לאפשר השתלטות על מערכות. בהתאם לכך, הרשות ממליצה ליישם עקרון מינימום הרשאות, להימנע משיתוף מידע רגיש, להשתמש רק בגרסאות רשמיות ומעודכנות, לבחון בקפידה תוספים, ולבצע הערכות סיכונים שוטפות.

דליפת מידע ב-Basic-Fit: פרטי מיליון מתאמנים נחשפו

חברת חדרי הכושר האירופית Basic-Fit דיווחה על אירוע אבטחת מידע שבו נחשפו פרטים של כ־1 מיליון חברים, כולל כ־200 אלף בהולנד. החברה מפעילה רשת של מעל 4.5 מיליון מנויים ברחבי אירופה, והבהירה כי מערכות הזיכיון במדינות מסוימות לא נפגעו. לפי הדיווח, המידע שנחשף כולל שמות, תאריכי לידה, פרטי קשר ולעיתים גם פרטי חשבון בנק. יחד עם זאת, החברה ציינה כי לא נגנבו סיסמאות או מסמכי זיהוי, וכי החדירה זוהתה ונחסמה תוך דקות באמצעות מערכות ניטור פנימיות. החברה הודיעה כי עדכנה את הלקוחות שנפגעו, והסיכון המרכזי עבורם הוא ניסיונות פישינג.