| 09:31:31 | ◀︎ | הסוואה דיגיטלית חדשה צמחה ממחקר AI של DARPA | |
| 09:41:55 | ◀︎ | כשהמשפט פוגש דמיון: הזיות בינה מלאכותית |
הכותרות שעניינו הכי הרבה גולשים בדף זה
לפני 16 דקות
75% מהצפיות
מאת אנשים ומחשבים
הרעש סביב הבינה המלאכותית בעולם אבטחת הסייבר והגנת הפרטיות מותיר ארגונים ומנהלי אבטחת מידע רבים מבולבלים. אלא שבתוך תחום רועש זה, מסתמנת נקודת מפנה חדשה במאבק בין מערכות זיהוי פנים – לבין האנשים שמנסים להתחמק מהן: סוג חדש של הסוואה דיגיטלית צמח ממחקר בינה המלאכותית של DARPA (ר"ת Defense Advanced Research Projects) – גוף המחקר הפדרלי בעל השם הקליט – "הסוכנות למחקר פרויקטי ביטחון מתקדמים במשרד ההגנה האמריקני" – אחראי על פיתוחים טכנולוגיים רבים בצבא ארה"ב ובצבאות זרים, לצד שימושים אזרחיים, ומכונה (הסוכנות) "המשוגעת".
כלי ה-AI החדש, הנתמך על ידי סוכנות המחקר, פועל באופן שונה מהרגיל: במקום להוסיף רעש, פילטרים או עיוותים נראים לעין, הטכניקה, הנקראת DiffProtect, משכתבת בעדינות את פניו של אדם בתמונה, תוך שימוש באותה טכנולוגיית בינה מלאכותית יוצרת, העומדת מאחורי כלי יצירת תמונה.
התמונה שמתקבלת עדיין נראית לכל צופה אנושי כמו הדמות שבתמונה – אך במערכות זיהוי פנים מתקדמות, התמונה הופכת למשהו אחר לגמרי.
הטכנולוגיה פותחה על ידי חוקרים מאוניברסיטת ג'ונס הופקינס, אוניברסיטת הונג קונג ו-AMD. המחקר נתמך על ידי תוכנית של סוכנות GARD (הבטחת עמידות של AI מפני הטעיה), שנועדה להבנה טובה יותר ולמציאת דרכים להתמודד עם האופן שבו מערכות לימוד מכונה עלולות להטעות. תוכנית GARD מתמקדת במחקרים על דינמיקות עוינות בין מערכות AI לקלטים (הנתונים המוכנסים לעיבוד) מטעים.
אנליסטים ציינו, כי ממצאי המחקר פורסמו ב"תזמון מרשים", כאשר מערכות זיהוי פנים עברו מעולם האבטחה הפיסי, שם נעשה בהם שימוש נישתי – לשדות תעופה, טלפונים חכמים, מערכות מניעת אובדן ברשתות קמעונאות ומאגרי נתונים נרחבים של מדיה חברתית. כך, ציינו אנליסטים, "מיליארדי אנשים חיים כבר בתוך רשת ביומטרית גלובלית, שאליה הם לא בחרו להצטרף באופן מודע. ככל שיותר מערכות שכאלו מוטמעות באופן נרחב, כך גדלים החששות לגבי שיעורי טעויות, הטיות, זיהוי שגוי ושחיקת האנונימיות – במרחבים ציבוריים ודיגיטליים".
בבסיס המחקר של DiffProtect עומדת ההנחה, שלפיה אותו סוג של מודלים מבוססי AI, שמאפשרים זיהוי פנים באופן הולך וגדל – יכול גם לערער אותו. היא בנויה על מודלים של דיפוזיה (פעפוע), טכנולוגיה שעומדת בבסיס רבים ממחוללי תמונות ה-AI.
אלא שבניגוד לאפליקציות שיוצרות תמונות מאפס, DiffProtect משתמשת במקודד אוטומטי מפעפע, לוקחת תמונת פנים ומפצלת אותה לשני ייצוגים פנימיים: קוד סמנטי ברמה גבוהה, שקולט את הפרטים והתכונות העיקריים בתמונה; וקוד רועש ברמה נמוכה, שמקודד טקסטורה, תאורה ופרטים עדינים נוספים.
על ידי התאמת הקוד הסמנטי בלבד, המערכת יכולה לשנות בעדינות את תכונות האדם המצולם בעת שחזור התמונה. השינויים האלה כמעט בלתי מורגשים. לפי החוקרים, התמונה המשופרת נראית כמו צילום אמיתי וקוהרנטי ולא שגויה או פגומה.
כך, DiffProtect מציגה שינויים זעירים בהבעות הפנים, בצורת העין, בגוון העור או במבנה הפנים, שמספיקים לבלבל מודל זיהוי ממוחשב, אך לא בולטים מספיק לצופה אנושי.
על מנת שהשינויים יישארו מזעריים ולא ישנו את דמות המצולם, החוקרים בנו "רגולציה", "מדיניות" – מערך חוקים סמנטיים, שמשווה ובודק את התמונה המקורית מול זו שעברה שינוי, ומגביל את פעילות האלגוריתם. כך, הסבירו, "לכלי מותר להטעות את המכונה, אבל לא את האנשים שמביטים בתמונה".
לפי החוקרים, הכלי הציג ביצועים מרשימים: בתרחישי תקיפה ממוקדים, שבהם המערכת מנסה שתמונת פנים אחת תיראה כאחרת, DiffProtect השיגה שיעורי הצלחה גבוהים ב-24% לעומת החלופות המובילות, תוך שמירה טובה יותר על איכות התמונה. הכלי נותר יעיל גם בעת שימוש בסוגי הגנות שונים, לרבות מערכות זיהוי פנים מסחריות.
"כלים כמו DiffProtect אינם מיועדים להסתיר פושעים", ציינו החוקרים, "הם מציעים לאנשים דרך טכנית להשיב לעצמם מידה מסוימת של חופש, פרטיות ועצמאות".
למרות ההבטחה שלו, DiffProtect עדיין אינו משווק כיישום צרכני בשל הצורך בחומרה חזקה וזמן חישוב משמעותי.
החוקרים סיכמו: "חל שינוי עמוק. הפרטיות בעידן ה-AI עשויה בסופו של דבר להיות תלויה ב-AI עצמה".
לפני 6 דקות
25% מהצפיות
מאת אנשים ומחשבים
הזיות של בינה מלאכותית הן מצבים שבהם מערכות AI מייצרות מידע משפטי שאינו קיים ועם זאת נשמע סמכותי, קוהרנטי ומשכנע עד כדי כך שעורכי דין מחליטים לשלב אותו בכתבי טענות שהם מגישים לערכאות השונות.
מאז כניסתן של מערכות ה-AI היוצרת לשוק, נתקלו בתי המשפט בתופעה חדשה ולא מוכרת: עורכי דין מגישים כתבי טענות הנשענים על פסיקה או חקיקה שאינן קיימות, תוצר "דמיון משפטי" של מודל בינה מלאכותית. התרחבות התופעה הגיעה עד לבג"ץ, שמצא לנכון לסקור אותה ולהתייחס אליה בשורה של פסקי דין, בהם בג"ץ 38379-12-24 בעניין פלונית ובג"ץ 23602-01-25 בעניין העמותה לקידום זכויות הכלבים. גם ערכאות נוספות מצאו עצמן מתמודדות עם התופעה וחלקן אף חייבו את עורכי הדין שעשו שימוש ב"הזיות" בתשלום הוצאות.
עבור מי שאמון על חקר האמת, ודיוק בפרטים הוא נר לרגליו, זו תזכורת חשובה: גם כאשר התוצר מתעתע היות שהוא מנוסח היטב ונראה בפורמט הנכון, הוא אינו תחליף לבדיקת המקור.
המאפיין המטעה הוא הדואליות: מצד אחד, כלי AI מסוגלים ליצר במהירות מרשימה טיוטות לכתבי טענות, הסכמים ותכתובות, לנתח עומסי מידע ולהציע מבני טיעון מרשימים וברורים. מצד שני, המודל עלול לייצר מידע שאינו קיים, אך נשמע משכנע כאילו נשאב ממאגר משפטי רשמי. זהו הפער שמלווה היום עורכי דין רבים – בין ניסוח שנשמע אמין לבין תוכן שעלול להיות לא נכון.
כיצד נוצרות ההזיות?
הזיות אינן תקלה נקודתית, אלא חלק מובנה מאופן הפעולה של המודלים. מערכות AI אינן מתחברות למאגרים משפטיים מוסמכים. הן מחוללות טקסט על בסיס דפוסים לשוניים, לא על בסיס מסד נתונים מאומת. כאשר חסר להן מידע, הן ״מייצרות״ אותו, בהתאם למה שנראה להן סביר באותו רגע.
"הבינה המלאכותית לא מהווה איום, אלא היא מתנה שמשלבת אתגר מקצועי: היא עשויה לטעות ולעשות זאת בביטחון רב. לכן תפקידה הוא לתמוך, לסייע ולייעל, אך לא להחליף את שיקול הדעת המשפטי ואת חובת האימות שעל כתפי עורכי הדין"
כך מקבלים עורכי הדין תוצרים הכוללים תיקוני חקיקה שמעולם לא נחקקו, סעיפים שאינם מופיעים בשום ספר חוקים, או פסקי דין שלא ניתנו. במקרים אחרים, המודל אינו ממציא אלא מעוות: משנה פרטים מהותיים, מייחס קביעות שלא נאמרו או מציג פרשנות סטטיסטית כהלכה משפטית מחייבת.
אז מה עושים?
המסקנה אינה להפסיק להשתמש בבינה מלאכותית, אלא להפסיק להסתמך עליה כמקור מידע. המודלים מצוינים ליצירת טיוטות, ארגון טיעון, העלאת כיווני מחשבה והבהרת מורכבויות. הם אינם מתאימים להפקת פסיקה או חקיקה ולא לשם כך נוצרו. מכאן נגזרים עקרונות עבודה ברורים:
כאשר הבינה המלאכותית כותבת — עורך הדין מאמת. כאשר הבינה המלאכותית מנסחת — עורך הדין אחראי.
כיצד מיישמים זאת בפועל?
אימות חובה – כל טענה שמפיק מודל AI חייבת לעבור אימות עצמאי במאגר משפטי רשמי (דוגמת נבו ותקדין).
שקיפות – ניתן לדרוש מהמודל לציין כאשר התשובה שלו אינה מבוססת על מקור ברור.
הנחיות מותאמות אישית – שימוש בהנחיות מותאמות אישית מאפשר לצמצם הזיות באמצעות הנחיות ישירות למודל, כמו: "אל תייצר פסיקה שלא אומתה", או "כאשר אינך בטוח ציין זאת".
סביבת עבודה סגורה – עבודה בפרויקטים סגורים מאפשרת למודל להסתמך רק על מסמכים שהוזנו ע"י עורך הדין ולא על מידע אקראי מהאינטרנט.
נהנים מהפירות מבלי לשלם מחיר
הבינה המלאכותית לא מהווה איום, אלא היא מתנה שמשלבת אתגר מקצועי: היא עשויה לטעות ולעשות זאת בביטחון רב. לכן תפקידה הוא לתמוך, לסייע ולייעל, אך לא להחליף את שיקול הדעת המשפטי ואת חובת האימות שעל כתפי עורכי הדין.
אם נאמץ לעצמנו "קוד אתי" ברור של בדיקה, הצלבה ואימות, נוכל ליהנות מהערך האמיתי של הכלים החדשים וליצור תוצרים משוכללים ומשודרגים תוך שימור עקרונות היסוד של המקצוע: אמינות, דיוק ואחריות.
הכותבת היא יו״רית משותפת של ועדת הבינה המלאכותית – מחוז תל אביב, לשכת עורכי הדין בישראל.