לוגו פסיכולוגיה עברית

×Avatar
אני מסכימ.ה להצטרף לרשימת התפוצה לקבלת עדכונים ומידע שיווקי
זכור אותי
בינה מלאכותית בטיפול: הזדמנויות מול סכנות | שיאל אהרן סלומון

בינה מלאכותית בטיפול: הזדמנויות מול סכנות | שיאל אהרן סלומון

שיאל אהרן סלומון | 20/6/2025 | הרשמו כמנויים | שלחו טקסט לבלוג

הבינה המלאכותית (AI) אינה עוד מדע בדיוני; היא הפכה לנדבך ממשי בשגרת העבודה המודרנית, ומציעה הזדמנויות חסרות תקדים גם בעולם הטיפול הנפשי. פלטפורמות כמו ChatGPT, Gemini ו-Perplexity זמינות לכל אדם, ומספקות מענה מהיר, רהוט ולעיתים אף מרשים בניסוח סיכומים, תכנון תהליכים טיפוליים וחיפוש מידע רלוונטי. במקביל, הופעתן של פלטפורמות No-Code נגישות — כגון Glide, Bubble, Softr ואחרות — מאפשרת כיום לכל פסיכולוג קליני, מטפל רגשי או סטודנט לפסיכותרפיה לבנות אפליקציה טיפולית משלו בתוך ימים בודדים, וללא שורת קוד אחת.

במבט ראשון, אלו חידושים מבורכים. הם מפשטים את העבודה, חוסכים בירוקרטיה, מרחיבים את הנגישות לכלים טיפוליים, ולעיתים אף תורמים להנגשת טיפול לאוכלוסיות מרוחקות או מוחלשות. אך מאחורי הקלות והפוטנציאל הזה מסתתרים סיכונים משמעותיים — אתיים, משפטיים ואבטחתיים — שרבים מאנשי בריאות הנפש כלל אינם מודעים להם.

רק בגלל שאפשר, לא אומר שכדאי

מטפלים אינם אנשי פיתוח תוכנה או סייבר. והעובדה שפלטפורמות No-Code מאפשרות גם לאדם נטול ידע טכנולוגי להקים שירות דיגיטלי אינה פוטרת אותו מהאחריות המשפטית והאתית הנובעת מהשירות. כאשר מטפל יוצר אפליקציית מעקב רגשי, ייעוץ או אפילו שירות תמיכה מבוסס AI, עליו לקחת בחשבון שמדובר באיסוף, אחסון והעברה של מידע רגיש במיוחד — לעיתים ברמה של מידע רפואי הנכנס תחת רגולציה מחמירה כגון GDPR באירופה או חוק הגנת הפרטיות בישראל.

ללא ידע מתאים, רוב המטפלים אינם בודקים:

  • היכן מאוחסן המידע?
  • האם יש הצפנה מתאימה?
  • האם מתקיים רישום לוגים (תיעוד פעולות)?
  • מהי מדיניות הגיבוי והמחיקה?
  • מי נחשף בטעות למידע שאינו אמור?

גם אם אפליקציה נבנתה למטרות טובות — היא עלולה לחשוף את המשתמשים למידע גולמי שאינו מאובטח כראוי. תרחישים כגון דליפת שיחות טיפוליות, חשיפת זהות מטופלים, או גישה של צד שלישי לתכנים אישיים רגישים – הם כבר לא תרחישים עתידניים, אלא סיכונים ממשיים.


- פרסומת -

מענה טיפולי אוטומטי – מתי הוא הופך למסוכן?

מעבר לסיכוני אבטחת המידע, עלינו לבחון גם את ההשלכות המעמיקות יותר של שימוש ב-AI בממשק הטיפולי עצמו. כאשר מטפלים מטמיעים בוטים טיפוליים או שירותי AI שמדמים שיחה טיפולית, עולות שאלות אתיות עמוקות:

  • האם האדם בצד השני מבין שמדובר במכונה ולא במטפל אנושי? בשירות נוסף ושונה ממה שמוצע לו בטיפול הפרונטלי?
  • ואולי החשוב ביותר- האם קיימים מנגנוני חירום ברורים למצבי סיכון ומצוקה?

מטופל שחווה מצוקה נפשית חריפה עשוי "להיאחז" בבוט שנראה אמפתי, אך אינו מסוגל להפעיל שיקול דעת קליני, לזהות מצבי חירום או להתאים את הטיפול לצרכים הייחודיים של האדם. התוצאה עלולה להיות פגיעה ממשית — הן בנפש המטופל והן באמון שלו בטיפול אנושי בעתיד.

חובת הזהירות – גם אם אין רגולציה מיידית

נכון להיום, ברוב מדינות העולם (ובכללן ישראל), אין רגולציה ישירה וברורה לגבי שימוש של אנשי טיפול בכלים מבוססי AI. אך העדר רגולציה אינו פוטר מאחריות; ההפך הוא הנכון — הוא מחייב זהירות יתרה.

מטפל שמפתח כלי AI עצמאי, מפרסם אפליקציה או עושה שימוש קבוע במערכות אלו מבלי להבין את ההשלכות, עלול למצוא את עצמו נושא באחריות משפטית במקרה של דליפת מידע או נזק טיפולי. בנוסף, ייתכן שמול מועצת הפסיכולוגים או גופים מקצועיים תעלה השאלה: האם הכלי הוצג למטופל כתחליף למפגש אנושי? האם נבדקה התאמה אתית ומקצועית לשימוש?

הדרך קדימה: שימוש אחראי ב-AI בטיפול

כדי לצמצם את הסיכונים ולא לוותר על הפוטנציאל האדיר של AI ככלי מסייע, הנה מספר המלצות קונקרטיות:

  1. התייעצו עם מומחי סייבר, אבטחת מידע ורגולציה לפני פיתוח, השקה או שימוש נרחב בכלי AI, אפליקציה טיפולית או בוט תמיכה.
  2. העדיפו כלים שעברו בקרה מקצועית ומציעים תשתית הצפנה ועמידה בתקני אבטחה מוכרים.
  3. בנו גבולות ברורים לשימוש המטופלים – כולל גילוי נאות מפורש שמדובר בכלי טכנולוגי, ואינו תחליף למפגש טיפולי אנושי.
  4. שלבו AI רק כחלק אינטגרלי מתהליך טיפולי כולל, תחת פיקוח והכוונה קלינית אנושית, ולא ככלי עצמאי.
  5. שמרו על עיקרון הזהירות המונעת – במיוחד כאשר עוסקים בתחום כה רגיש כמו בריאות הנפש.

לסיכום

הבינה המלאכותית מביאה עימה הזדמנויות אדירות גם לעולם בריאות הנפש — אך גם אחריות כבדה. מטפלים שרוצים לחדש, להרחיב ולהנגיש את עבודתם — מוזמנים לעשות זאת, ואף רצוי שיעשו כן על מנת לקדם את התחום, אך ורק תוך הבנה עמוקה של ההשלכות, מחויבות לאתיקה מקצועית, והקפדה על בטיחות המטופל.

הבינה המלאכותית כבר כאן, ומטופלים רבים נחשפים אליה ומשתמשים בה. על כן, כדי שהמטפלים יוכלו להמשיך לספק מענה עדכני ורלוונטי, עליהם לאמץ את ה-AI באופן מושכל ומקצועי.

כי רק בגלל שאפשר — לא אומר שכדאי לעשות זאת ללא ידע מקצועי ותשתיות מתאימות.

 


הכותבת - שיאל אהרן סלומון - פסיכולוגית לאחר התמחות קלינית, מומחית סייבר וLLM.

בינה מלאכותית בטיפול: הזדמנויות מול סכנות | שיאל א 1


תגיות:

מטפלים בתחום

מטפלים שאחד מתחומי העניין שלהם הוא: אתיקה, יחסי מטפל מטופל, טכנולוגיה
גלית מור
גלית מור
חברה ביה"ת
מוסמכת (M.A) בטיפול באמצעות אמנויות
אונליין (טיפול מרחוק), פתח תקוה והסביבה, רמת גן והסביבה
יהודה דוכן
יהודה דוכן
עובד סוציאלי
ירושלים וסביבותיה, אונליין (טיפול מרחוק)
אסף לוי
אסף לוי
מוסמך (M.A) בטיפול באמצעות אמנויות
תל אביב והסביבה, אונליין (טיפול מרחוק), רמת גן והסביבה
שרונה ירקוני
שרונה ירקוני
מטפלת זוגית ומשפחתית
חיפה והכרמל, פרדס חנה והסביבה
ענת פישמן
ענת פישמן
יועצת חינוכית
מטפלת זוגית ומשפחתית
שרון ושומרון, פתח תקוה והסביבה
אלון פלצור
אלון פלצור
פסיכולוג
חיפה והכרמל, אונליין (טיפול מרחוק)

עוד בבלוג של שפיות זמנית

תגובות

הוספת תגובה לפוסט

חברים רשומים יכולים להוסיף תגובות והערות.
לחצו כאן לרישום משתמש חדש או על 'כניסת חברים' אם הינכם רשומים כחברים.