AI בלי סיכון מיותר : כך תשלבו בינה מלאכותית מבלי לחשוף את הארגון להפרות פרטיות
הרשות להגנת הפרטיות פרסמה לאחרונה מדריך מקיף
ליישום טכנולוגיות מגבירות-פרטיות
במערכות בינה מלאכותית
זה איננו עוד מסמך מקצועי. זהו איתות רגולטורי ברור
לגבי הסטנדרט המצופה מארגונים המפתחים, מטמיעים
או מפעילים מערכות AI.
המסר המרכזי העולה מן המדריך הוא שפרטיות בעולם
הבינה המלאכותית אינה סוגיה נקודתית של אבטחת
מידע או קבלת הסכמה לשימוש בדאטה.
ההגנה נדרשת לכל אורך מחזור החיים של המערכת :
משלב קלט האימון, דרך בניית המודל והטמעתו, ועד
לקלט המשתמשים ולפלט שהמערכת מפיקה בפועל.
הסיכון אינו טמון רק בדאטה שנאסף. לעיתים מידע אישי
“מוטמע” במודל המאומן. לעיתים פלט שנראה תמים
חושף תובנות אישיות רגישות. לעיתים שימוש
ב- Fine Tuning על נתוני משתמשים יוצר חשיפה
משפטית ותפעולית שלא זוהתה מראש.
במצבים מסוימים, מחיקה של מידע מתוך מודל מאומן
אינה פעולה פשוטה כלל, ולעיתים מחייבת
אימון מחדש של המערכת כולה.
המדריך ממפה ארבע נקודות קריטיות המחייבות בחינה
מובנית : קלט האימון, המודל המאומן, קלט המשתמש
ופלט המערכת. כל אחד משלבים אלה עשוי להכיל
מידע אישי, וכל אחד מהם מחייב מנגנוני
מזעור סיכון מותאמים.
לצורך כך מוצגות שלוש משפחות מרכזיות של
טכנולוגיות מגבירות-פרטיות.
הראשונה מבוססת על :
שינוי המידע עצמו, באמצעות אנונימיזציה, מידע סינתטי
או פרטיות דיפרנציאלית, במטרה לצמצם זיהוי אישי תוך
שמירה על ערך אנליטי.
השנייה נשענת על :
חישוב מבוזר, כגון Federated Learning או ,
Multi-Party Computation המאפשר לאמן ולעבד
מודלים מבלי לרכז את כלל הנתונים במקום אחד.
השלישית מתמקדת :
בהפרדה ובהצפנה, לרבות הצפנה הומומורפית וסביבות
ביצוע מהימנות, המאפשרות עיבוד מאובטח
גם בסביבות ענן.
אך מעבר לטכנולוגיה, קיימת כאן נקודה אסטרטגית
עמוקה יותר.
אנו נכנסים לעידן שבו ארכיטקטורת הפרטיות תהפוך
לשיקול דירקטוריון ושיקול השקעה.
בדיוק כפי שסייבר עבר מעניין תפעולי לעניין הנהלתי,
כך גם פרטיות ב-.AI
משקיעים כבר בוחנים מקורות דאטה, מנגנוני מזעור,
שימושים משניים בנתונים, והאפשרות לשחזור מידע
מתוך מודלים מאומנים. בדיקות נאותות כוללות כיום
שאלות שלא נשאלו לפני שנתיים בלבד.
ארגון המטמיע AI ללא תכנון פרטיות מובנה מסתכן
לא רק בחשיפה רגולטורית, אלא גם בפגיעה באמון
שוק, בחסמי שיתוף פעולה עם גופים פיננסיים
ובריאותיים, ובעיכובים בתהליכי גיוס או שיתופי
פעולה בינלאומיים.
לעומת זאת, שילוב טכנולוגיות מגבירות-פרטיות
כבר בשלב התכנון מאפשר עבודה עם מידע רגיש,
יצירת שיתופי פעולה חוצי ארגונים והצגת מוכנות
רגולטורית בשלב מוקדם.
המדריך אינו מציע פתרון מדף ואינו מחליף התאמה
פרטנית. הבחירה בכלי ההגנה תלויה ברגישות המידע,
בסוג המודל, בסביבת ההרצה, במבנה הארגוני
ובמסגרת הרגולטורית החלה על הפרויקט.
המשמעות היא שכל פרויקט בינה מלאכותית מחייב
בחינה משפטית וטכנולוגית משולבת,
כבר בשלבי התכנון.
מי שמפתח, משקיע או מטמיע מערכות ,AI זה הזמן
למפות סיכונים ולבחון את הארכיטקטורה הקיימת.
אהבתם? שתפו את הדיוור עם הקהילה שלכם
מנהלים חברה או סטארטאפ המשלב בינה מלאכותית
ומתלבטים כיצד להטמיע AI
תוך עמידה בדרישות חוק הגנת הפרטיות ?
עובדים עם מידע אישי או רגיש ?
שוקלים Fine Tuning על דאטה של משתמשים ?
נדרשים להציג למשקיעים או לדירקטוריון
מפת סיכונים וארכיטקטורת פרטיות ?
יש לכם שאלות, הערות, הארות, תובנות ותגובות ?
נשמח מאד לקרוא ולשמוע.
פנו אלינו עכשיו
אפשר בתגובה לדיוור זה
אפשר בוואצאפ ואפשר גם להתקשר – 0528328676
נשמח מאד לייעץ ולעמוד לרשותכם.
אנחנו מבטיחים לענות ולחזור לכולם.
בתקווה ותפילה לימים טובים ושקטים יותר
ולבשורות טובות.
שלכם,
שרית ואילן צדק
למפות את נקודות איסוף ההסכמה בארגון –



