שמירה על פרטיות בכתיבה ב- AI

כותב בארגון מתבלט איך להשתמש בבינה המאלוכתי. האם לבודק את ממצאי ה-AI או לקחת אותם כמו שהם?

היום דווקא רציתי לכתוב על AI באופן כללי, כשקפצה לי בפיד כתבה מתורגמת של הניו יורק טיימס על ה-AI. בפוסט זה אביא את עיקרי הכתבה אבל גם אביא המלצות מה לעשות עם כתיבה ארגונית בקשר לשמירה על פרטיות המידע. אז היום, ה-22.12.25,  פורסם כי CHATGPT טועה ביותר ממחצית מהאבחנות הרפואיות שלו. למרות זאת,  אנשים עדיין ממשיכים להעלות לו בדיקות מעבדה, ממצאי הדמיה ומידע רפואי רגיש. ואז מתחיל קרב אגרופים צפוי: מומחים מזהירים אנשים שלא להעלות את המידע הפרטי שלהם בצ'אט, ואילו OPENAI כמובן טוענת שהאבטחה שלה מספיקה, וכי יש למה מנגנונים מהפרצה הזו.

בעצם המאמר הזה מעלה שתי סוגיות חשובות: האחד, פרטיות המידע שלנו. השני, נכונות המידע ותקפותו.  אענה על שניהם בהקשר הארגוני. (Confidentiality and privacy)

מהימנות המידע מ- AI

אנחנו צריכים לזכור כיצד עובדת המכונה. על סמך מידע שיש לה, כולל המידע הפרטי, במקרה זה המידע הרפואי האישי שלי, היא מגיעה להכללות. אנחנו חושבים שהצ'אט מתייחס לכל הפרטים שנתנו לו. לא בהכרח, אומרת חוקרת AI מרצה בבית הספר לרפואה בהווארד וחוקרת בינה מלאכותית ד"ר דניאל ביטרמן. לדבריה "אין ודאות ש AI אכן מבצעים ניתוח אישי של תוצאות בדיקות". גם כשמזינים להם מידע פרטי, הם עדיין נותנים תשובות כלליות ולא פרשנות רפואית מותאמת. אז איך הממצא  הזה קשור לשימוש שלנו ב- AI בארגון? הממצא הזה מאמת את הטיפ שנתתי במאמרים הקודמים שהוא בקיצור "בדוק את התוצאות. השתמשת בתוכנה לצורך מסמך – דוח ביקורת". שאלת את הצ'ט שאלה וקיבלת תשובה. אל תיקח את התשובה כ'כזה ראה וקדש'.

טיפ לבדיקת מהימנות

שאלתי את הבינה:

  • מה המקור של התובנה?
  • באיזה מאמר השתמשת?
  • באיזה מאגר מידע?
  • הצלב את התוצאה שקיבלת בחיפוש בכלי אחר.

או

  • אולי נצליב את המידע שקיבלנו עם כלי אחר של AI?

פרטיות המידע מ- AI

הכתבה מביאה שני מקרי קיצון:  ישיש בן 88, שהזין ב- AI את כל המידע הרפואי הרגיש שלו. לדבריו,  ממילא בעידן הסלולר כל הזמן עוקבים אחריו, ואין לו פרטיות באמת. השנייה, חולת  סרטן סופני. היא יודעת שימיה ספורים., שהממצאים הקשים שקיבלה מה-AI הכינו אותה לפגישה פרונטלית עם הרופא שלה. בעזרת AI, הייתה מוכנה יותר נפשית לקראת הפגישה עם הרופוא שלה. שתי הדוגמאות הללו אלו הם אנשים שמרגישים שאן להם מה להפסיד מבחינת הפרטיות שלהם: הם מבוגרים מאוד, כוחותיהם מועטים, והם מוכנים להקריב את הפרטיות שלהם למען סיכוי ולו קלוש להיטיב את חייהם במעט. אנחנו, בכתיבה ארגונית  נמצאים במצב אחר לגמרי. יש לנו מה להפסיד מבחינת הקריירה והמוניטין שלנו. וגם לארגון יש מתחרים, יש סודיות. חלק מהנאמנות שלנו לארגון שלנו היא שמירה על הסודיות. גם בשימוש הפרטי. חשבו שנדע שמידע אישי שאנחנו מזינים ל- AI הופך לחומר גלם עבור משתמשים אחרים, בדיוק כמו שאנחנו משתמשים בתוכן של משתמשים אחרים. גם אם לפעמים מצניעים את השם, עדיין יש פרטים מזהים, ואנחנו יכולים לאבד את הפרטיות שלנו. גם אם הוא לא מזינים את שמו בצ'ט או הופך את הנתונים למטא, עדיין המכונה יכולה לקשר ביניהם ולזהות אותו לפי הפרטים המקושרים.

שמירה על סודיות המידע ב- AI

ונעבור להקשר הארגוני: לכל ארגון, גם לעסק של הספר השכונתי, יש סודות. אנחנו רוצים וצריכים לשמור על הסודות האלה. אני קוראת להם "סודות פנים ארגוניים" ומראה למשתתפים בסדנאות שלו עד כמה מבלי משים הם חושפים אותם במיילים, בהודעות וואסטאפ ואיפה לא. איך אפשר להימלט מהסכנה הזו? פשוט מאוד. להשתמש בכלי הבינה המלאכותית של הארגון. לכלים האלה יש הגנה על המידע  הרבה יותר מה- AI האישי שלי. גם אם נוח לי יותר להשתמש בכלי הפרטי שלי, כי הוא כבר מכיר אותי ויש לי שם מידע רלוונטי, צריך להימנע מכך. כדאי להשתמש רק בפלטפורמה הארגונית. מומחי הארגון כבר דאגו להבטחה ולשמירה על פרטיות המידע הרבה יותר מהצ'ט האישי, בטח כשהוא ללא תשלום. גם כשאני מזינה נתונים ומבקשת דוחות, המידע עלול לזלוג החוצה למתחרים שלי. מה שמזכיר לי כי פעם פלטפורמת המייל הייתה פרוצה יותר. וכך, לקוח שלי, מוסד פיננסי גדול, שרת המיילים נפרץ ותוכנו הגיע, איך לא, למתחרה שלו, גם הוא מוסד פיננסי גדול. נכון, לא כל הסודות הם מסוכנים, ובכל זאת, סוד ארגוני הוא עניין שצריך להישמר בתוך הארגון.

טיפ לשמירה על סודיות המידע הארגוני

  • השתמשו ב- AI  הארגוני. במכונה הארגונית, לא האישית. למרות הוויתור על הנוחות.

מהימנות המידע ב- AI – השקר הקטן או הבינוני

לא מזמן קראתי מאמר, בהקשר חברתי דווקא,  שדיבר על "השקר הבינוני". לדוגמה: אם במשטרים טוטליטריים כמו הקומוניזם ברוסיה או הפשיזם באירופה היה ברור שהמשטר משקר לאזרח בגדול, השקר הבינוני מדבר על זה שאנחנו לומדים להשלים עם שקרים. לקטגוריה הזו נכנס ה"שקר הבינוני". שקר שהוא לא ענק ומז'ורי, אבל ברור לכל הנוכחים שהו שקר למהדרין. שאין לא כל בסיס. לדוגמה: טראמפ משקר מבלי למצמץ שהוא לא מכיר את ג'פרי אפשטיין למרות שיש תמונה מאחוריו שמראה אותם מחובקים. התרגלנו לשקרים. גם ברשתות החברתיות. גם בפוליטיקה. אנשים כבר לא נרעשים כמו פעם משקרים. ואפילו יש תיאוריה שהחלה פוסט מודרניזם שאין עובדות יש רק פרשנות. ובנושא האישי החברתי, כבר אף אחד לא מתרגש שתפסו שמישהו משקר, או משתף פוסט שהוא לא בדק את תוכנו. כאן מגיעה ההבחנה החשובה בין ההקשר האישי להקשר הארגוני.

כי אם אני יכולה לקבל בשוויון נפש יחסי שקר שמצאתי ב- AI שקשור לחיים האישיים שלי, הרי שבהקשר המקצועי הוא יכול למוטט אותי.

לדוגמה: עורך דין שואל את ה- AI בנושא מסוים, והוא מקבל ממנו תקדים משפטי. כשהוא בודק אותו, הוא מגלה שהתקדים הזה לא היה ולא נברא. זאת אומרת, שאם הוא היה מביא את התקדים המפוברק שקיבל מהמכונה לבית המשפט, ייתכן שהשופט היה זורק אותו מכל המדרגות, או שהוא היה מאבד את התיק, את הלקוח, אולי זוכה בנזיפה מהשופט. בכל מקרה, אם ישתמש במידע הזה ללא בדיקה, יפגע במוניטין שלו. זוהי סכנה ממשית עבורו ועבור השם המקצועי שלו אנחנו, אנשי המקצוע בונים את המקצועיות שלנו במשך שנים. אם נסכן אותה, אנחנו מסכנים את המעמד שלנו, את המוניטין וייתכן שגם הרבה פרנסה. לכן, תמיד צריך לבדוק את המכונה.

אז מה לעשות במקרה הזה?

טיפ לשמירה על מהימנות המידע:

  • לעולם אל תשתמשו במידע שקיבלתם מ AI – מבלי לבדוק אותו. הוא העוזר שלנו. הוא לא אתם. אל תתפשרו על השקר הקטן או הבינוני בכתיבה המקצועית או הניהולית שלכם.

 

 

דילוג לתוכן