וואלה
וואלה
וואלה
וואלה

וואלה האתר המוביל בישראל - עדכונים מסביב לשעון

על תבונה ורגישות: איך מונעים מהבוטים לפגוע בפרטיות שלנו?

ד"ר מאיה גז

8.7.2023 / 9:02

הבינה המלאכותית היא אולי ההמצאה החשובה ביותר בדורנו, אבל כמו כל טכנולוגיה, היא טומנת בחובה גם סכנות. אחת מהן היא פגיעה חמורה בפרטיות. איפה עובר הגבול בין התועלת שנכנסה לחיינו לבין גולם, או ליתר דיוק "בוט" שקם על יוצרו?

OpenAI  ומיקרוסופט מציגות את GPT-4. MICROSOFT,
GPT 4 של OPEN AI ו - Microsoft/MICROSOFT

בשנה האחרונה החל מרוץ חדש, שמוגדר כמרוץ החימוש 2.0, עת ה- ChatGPT חדר לחיינו וגרם למלחמה סביב תחום הבינה המלאכותית. אותו ChatGPT שהפעים את כולם במבט ראשון, גרם, במבט שני, לחששות ברחבי העולם בכל הנוגע לחדירה לפרטיות, פגיעה בזכויות יוצרים ואף יציבות מדינות מבחינה כלכלית, ביטחונית ומדינית.

המאפיין הראשוני של הבינה המלאכותית הוא צ'אט-בוט, שהפך לשימוש צרכני כמעט בכל בית, עם מיליוני משתמשים בכל חודש, דבר שהוביל להאצת קצב ההשקעות בתחום ולתחרות בין ענקיות הטכנולוגיה על כלי הבינה המלאכותית.

מאז השקתו ChatGPT מעורר שיח שכולל כתיבת מאמרים ויצירות ומצד שני פגיעה בהגנה על מידע אישי. על אלו הגיבו רגולטורים ומחוקקים ברחבי העולם ובקרוב יהיה עליהם להחליט אם להגביל, להאט ואולי אף לאשר את ההתפתחויות השונות בתחום.

ען"ד גפנית לגזיאל שבבו משרד פירון. סטודיו תומאס,
עו"ד גפנית לגזיאל שבבו משרד פירון/סטודיו תומאס

הגבלות עולמיות

מעבר לפגיעה בפרטיות, יש הרואים בבינה המלאכותית סוגיה ציבורית וכלכלית שמעוררת עניין גם אצל הרגולטורים בעיקר באירופה, שם מקפידים להוביל ולהגיב ראשונים. לראייה, באיטליה הופסקה פעילות של חברת OpenAI בהפעלת ChatGPT לאחר שרשות ההגנה על המידע במדינה Garante אסרה על השימוש בו ונפתחה חקירה להפרת חוקי הגנת הפרטיות. המהלך הוא אמצעי למניעה הפרות של חוקי פרטיות או דליפת מידע לגורמים עוינים.

בעקבות זאת, הודיעה החברה על מספר שינויים בהתנהלות הצ'אטבוט והצהירה כי תהיה שקיפות מיטבית לגבי צורת פעולתה. עם זאת, בני 18 ומעלה יהיו רשאים להשתמש בתוכנה כמו בני 13, שיצטרכו לספק אישור הורים לשימוש בשירות - מהלך שמעלה חששות בקרב רגולטור באיטליה, מכיוון שקל לזייף או לסמן אישור מההורים.

נוסף לאיטליה, רשויות ההגנה בספרד, צרפת, גרמניה, אירלנד ועוד מדינות מערביות נוספות חוקרות ובודקות את איסוף המידע והשימוש בו על ידי מערכות הבינה המלאכותית. רק לאחרונה קם גוף המאחד את רשויות הפרטיות של אירופה, The European Data Protection Board, שהקים כוח משימה בנושא ChatGPT, שיבצע חקירות ואכיפה סביב הנושא הבעייתי, מהלך שעשוי להוביל למדיניות משותפת בכל רחבי היבשת.

לאחר מהלכים אלו השירות חזר לפעול ,אך עדיין נמצא בבקרה ממושכת. רשויות ההגנה השונות באירופה עדיין מייחלות שהבינה המלאכותית תעמוד בדרישות נוספות לדוגמת אימות גיל בצורה קשיחה יותר, קמפיין הסברה לעיבוד המידע והזכויות של כל אזרח על המידע שברשותו. בין היתר, עלו שאלות על השימוש במידע שנמסר לצ'אטבוט עצמו והאם ניתן להשתמש בו ללא הסכמה. למרות הניסיונות הרבים לאכוף ולחקור את הנושא, האיחוד האירופי מנסח בתקופה האחרונה סט חוקים שצפוי לעבור בחודשים הקרוב.

מה קורה בארצות-הברית? שם מתגבשים מספר מהלכים מול הטכנולוגיה החדשה. מטרת הרגולציה והחוקים המתהווים היא למנוע נזק שעשוי להיות אסון עצום מבחינת טכנולוגית למדינה, אך בזמן שמוודאים קידמה צריך לבחון דרך ראויה לפני שמעניקים לידי הציבור כלי בעל יכולות אדירות כמו הבינה המלאכותית.

במילים אחרות, האצבע של האח הגדול לא קלה על ההדק כשהיא מעניקה למיליוני משתמשים גישה לפרטים אישיים וממצאים חשובים. לכן מבחנים לאחרונה מספר מודלים שתפקידם להגן על התכנים שנמצאים בפלטפורמות השונות שמפרסמים כלל המשתמשים. את הפיגור המינורי של האמריקאים הם וודאי יצמצמו מהר, אחרי שיסדירו את המחלוקות הפוליטיות.

"בשימוש בטכנולוגיות של בינה מלאכותית קיימות סכנות רבות ביחס לפרטיות, למידע האישי ולהגנה עליהם. הסכנות לפרטיות יכולות לבוא לידי ביטוי הן בעת השימוש בטכנולוגיה, במסגרתה נאספים פרטים על המשתמשים, הן ביחס למידע אליו נחשפים המשתמשים תוך כדי השימוש בטכנולוגיה והן ביחס לאופן השימוש במידע הקיים באמצעות הטכנולוגיה", מסבירה עו"ד גפנית לגזיאל, שותפה וראש תחום הגנת הפרטיות במשרד עו"ד פירון.

מה הסכנות המיידיות?
"הרשות להגנת הפרטיות האיטלקית נסמכה על שתי טענות. המשנית - צ'אט GPT חושפת קטינים לתשובות שאינן הולמות לרמת ההתפתחות וההבנה שלהם; והעיקרית - שאין בסיס חוקי המצדיק את איסוף המידע המאסיבי הכולל מידע אישי למטרת "אימון" האלגוריתמים המהווים פעולת הפלטפורמה".

אבל זמן קצר אחרי שהאיטלקים חסמו את הצ'אטבוט הם העבירו רשימת ליקויים כדי שיפתח מחדש.
"ובתגובה החלה OpenAI ליישם ולהטמיע תיקונים וצפויה לציית לדיני הפרטיות האירופאים תוך זמן מועט".

sheen-shitof

מאריכים את האקט

כך תשפרו את הביצועים וההנאה במיטה - עם מבצע בלעדי

בשיתוף "גברא"
בינה מלאכותית. ShutterStock
בינה מלאכותית: צדדים שמצעידים את האנושות קדימה לצד כאלה שמהווים איום/ShutterStock

גם בישראל?

הבינה המלאכותית היא כנראה אחת ההמצאות הגדולות בימינו אם לא הגדולה שבהן. "כמו כל דבר חדש, יש חשש כי הוא יפגע או ישמיד את היסודות שבבסיס הקיים. יחד עם זאת, לטעמי, לא ניתן למנוע את התקדמות הטכנולוגיה ובאותה נשימה - ולמרות החששות הגדולים ניתן לומר כי סביר שהיא לא תמוטט את הפרטיות".

מה צריך כדי לוודא את זה?
"על החקיקה להתאים את עצמה ולהתפתח בהתאם. לדוגמא, האיחוד האירופי כבר עובד על חקיקה ספציפית להסדרת תחום הבינה המלאכותית, שעתידה לעבור לאישור הפרלמנט האירופי כבר בחודש הקרוב. חשוב לציין שגם החקיקה הקיימת כיום, שמסדירה את היבטי הפרטיות במדינות האיחוד האירופי ה- GDPR ובישראל דיני הגנת הפרטיות, מסדירה את מרבית הסוגיות שעולות גם בהקשר של בינה מלאכותית ולו אלו העוסקים בבינה מלאכותית יישמו אותה כדבעי, אזי החשש לפגיעה בפרטיות ירד משמעותית".

מי אחראי לשמור על הפרטיות שלנו?
"החקיקה החדשה לוקחת בחשבון שדיני הפרטיות הקיימים, מסדירים מרבית מהסוגיות שנוגעות לבינה מלאכותית ושמנגנוני ההסדרה הנוספים שיאכפו במסגרתה עתידים ליפול בעיקר על שכמם של הבעלים והמפתחים של אותן בינות מלאכותיו ומטרתם לייצר מנגנונים אפריוריים ליצירת בינות מלאכותיות כגון רישום במרשם בינות מלאכותיות, אימון הבינה על מסדי נתונים שאמורים למנוע הטיות ועוד. החקיקה החדשה גם מבדילה בין הסדרה של בינות מלאכותיות בהם סיכונים מוגברים, לרבות סיכונים הנוגעים להיבטי פרטיות כגון חשש מזליגה או גניבה של מידע פרטי או אישי ואחרים".

מה בנוגע לישראל?
"גם אצלנו, הרשות להגנת הפרטיות, הוציאה עמדה בדבר 'חובת יידוע במסגרת איסוף ושימוש במידע אישי', במסגרתה התייחסה לחובת היידוע במערכות מבוססות אלגוריתם או בינה מלאכותית, ולמעשה הבהירה, על בסיס דיני הגנת הפרטיות הקיימים כיום, את האופן שבו יש ליישם אותה על הטכנולוגיה החדשה".

מדוע אין הלימה בין פיתוחי טכנולוגיה לעולם המשפט וכיצד ניתן להביא לחפיפה בין התחומים?
"מאז ומתמיד הטכנולוגיה קדמה למשפט. זו דרכו של עולם. הטכנולוגיה מתפתחת בקצב מהיר והמשפט בדרך כלל מתפתח בעקבותיה. דיני הפרטיות הקיימים כיום הם איתנים ויכולים להסדיר את השימוש במידע על ידי מערכות בינה מלאכותית, ואילו החקיקה החדשה מטרתה בעיקר להסדיר את אופן פיתוח הטכנולוגיה.

לכן, הדגש העיקרי, לטעמי, ש"ידביק" את הקצב של המשפט לטכנולוגיה יהיה באופן היישום של דיני הפרטיות על הטכנולוגיה. על היישום לבוא לידי ביטוי בשלושה מישורים: הראשון הוא שהחברה המפתחת את הטכנולוגיות הללו תציית לדיני הגנת הפרטיות, בין בישראל ובין באירופה. השני, מתמקד בכך שארגונים וחברות שעושות שימוש בטכנולוגיות הללו, יצייתו לדיני הגנת הפרטיות, ובכלל זה, ישקפו זאת למשתמשים שלהם ויקבלו את הסכמתם לכך. האחרון, מתייחס לכך שהמשתמשים ידעו מה נעשה במידע שנאסף אודותם, , לאיזו מטרה הוא מיועד ויסכימו לכך".

עו"ד ורד זליכה משרד ליפא מאיר. איה בן עזרי,
עו"ד ורד זליכה, משרד ליפא מאיר ושות'/איה בן עזרי

בין חינוך למניעה

התקשורת לא חסכה מלהלעיט את דאגת הציבור כשפרסמה בחודשים האחרונים על אודות חברות אלקטרוניקה ובנקים גדולים שאסרו על עובדיהם לעשות שימוש בטכנולוגיה, מחשש לסיכוני אבטחה, דליפת מידע מסחרי, קנין רוחני ונזק אפשרי.

"שימוש של עסקים ולעתים של עובדים שלהם, בין אם על דעת המעסיק ובין אם לא, בטכנולוגיה של בינה מלאכותית, בהעדר הסכמה מפורשת לכך מאת נושאי המידע, עלול להעמיד את אותו העסק בחשיפה בשל הפרת דיני הפרטיות. לכן מומלץ ביותר שעסקים שעושים שימוש בטכנולוגיות של בינה מלאכותית, יעדכנו את מדיניות הפרטיות שלהם כך שתאפשר שימוש בה".

אחד הסיכונים הנוספים והמשמעותיים של הצ'אטבוט הוא דיסאינפורמציה. "כלומר הפצה נרחבת של מידע שגוי בקרב הציבור, וכפועל יוצא אחד האתגרים ביחס למערכות בינה מלאכותית, הוא סוג הבקרות הנדרשות, והניתנות ליישום, בקשר לדיוק של המערכת ולאמיתות תוצרי המידע שלה", מרחיבה עו"ד ורד זליכה, שותפה וראשת תחום סייבר ובינה מלאכותית במשרד ליפא מאיר ושות'.

"בין הסיכונים נמנים גם סיכוני הסייבר, בשל החשש לניצול לרעה של המערכת ליצירת פגיעויות חדשות או להתפשטות מהירה ונגישה באופן נרחב של כלים זדוניים בסייבר, הסיכון של הגנת הפרטיות, וכן החשש מפגיעה בקניין רוחני, בהינתן שהמערכות מתבססות, בין היתר, על יצירות המהוות קניין רוחני".

הבינה המלאכותית באמת יכולה למוטט את הפרטיות שלנו?
"אתגרים הנוגעים לפרטיות ברשת קיימים כבר היום, והבינה המלאכותית אכן עשויה להעצים אותם משמעותית. כיוון שמערכות הבינה המלאכותית מבוססות על מידע בסדרי גודל נרחבים, ומיועדות בחלקן להתייעלות במתן שירות לאנשים, להערכתי, לצורך הגנת הפרטיות, ימשיכו להתפתח שיטות להתממת מידע, כלומר, הסרת מאפיינים מזהים המשייכים לאדם ספציפי, טרם העלאתו למערכות, והן יהפכו לנפוצות הרבה יותר בקרב ארגונים מכלל המשק.

בנוסף, יש לזכור כי הדין הקיים חל גם בקשר למערכות בינה מלאכותית, והרגולטור התחיל להתייחס לנושא. הרשות להגנת הפרטיות התייחסה בשנה האחרונה לעניין היידוע של אנשים אודות השימוש במערכות בינה מלאכותית לאיסוף ועיבוד מידע אישי, והצורך להסביר לפרט את מטרת השימוש במידע אודותיו, למי הוא נמסר, וכיצד המערכת קיבלה החלטות לגביו".

האתגר בפניו עומדים בתי המשפט הולך וגדל ככל שהאדם מגדיל את המכונה. אם בתי המשפט משקפים כיום נורמות חברתיות ומתפתחים בהתאם עם השנים, ניכר שהטכנולוגיות החדשות הן זרז להתפתחות משפטית, לעתים טרם הופעתן.

"עם זאת, יש לזכור, שהדין הכללי הקיים, לדוגמא, דיני פרטיות, דיני הגנת צרכן וכיוצא בזאת, חל ככלל גם בקשר לבינה מלאכותית. לכן לגישתי, היכן שנזהה היבטים ייחודיים המצריכים התייחסות מעודכנת, לאור ההתפתחות הטכנולוגית המואצת והשאיפה לקדם חדשנות לטובת האנושות, ראוי לשקול בשלב ראשון להסתייע בכלים "רכים", כגון מדיניות ואתיקה, מודעות וחינוך הציבור, ולעצב את הרגולציה עקב בצד אגודל היכן שנדרש. גישה כזו תואמת להבנתי גם את הכיוונים שהותוו בטיוטת המדיניות הלאומית שגובשה לפני כשנה בתחום".

טרם התפרסמו תגובות

הוסף תגובה חדשה

+
בשליחת תגובה אני מסכים/ה
    4
    walla_ssr_page_has_been_loaded_successfully