
"דיברתי עלייך עם הצ'ט שלי": בינה מלאכותית כספקית בפועל של שירותי בריאות נפש - קריאה לפעולה
כיכר העיר | 4/7/2025 | הרשמו כמנויים | שלחו טקסט לבלוג
מאמר זה, שנכתב על ידי חברי וחברות מכון המחקר והפיתוח "השלישי המלאכותי" – קבוצת מומחים המשלבת אנשי מחקר, טיפול ומדיניות ציבורית – מציג את המציאות המתהווה שבה הבינה המלאכותית היוצרת (GenAI) הפכה דה פקטו לספקית מרכזית של שירותי תמיכה נפשית ו"טיפול" פסיכולוגי. הטענה המרכזית היא כי השאלה הרלוונטית אינה עוד "האם" יש מקום לבינה מלאכותית בבריאות הנפש, אלא "כיצד" על אנשי המקצוע, מערכות הבריאות והחברה כולה להיערך באופן דחוף ואחראי למציאות זו המתרחשת בפועל.
המאמר סוקר את היקף התופעה, המונעת משיקולי נגישות, עלות וצמצום סטיגמה, ולאחר מכן מפרט את הסיכונים והאתגרים המשמעותיים. עיקרו של המאמר הוא קריאה לפעולה פרואקטיבית, המבוססת על תובנות מהשטח ומהמחקר: הוא מציע הנחיות למשתמשים, קורא למטפלים להכיר את התופעה ולנהוג בה באחריות ודורש מקובעי מדיניות לפעול להסדרה רגולטורית, קביעת סטנדרטים וקידום מחקר אחראי. סיכומו של דבר, המאמר טוען כי על הקהילה המקצועית והחברה בישראל מוטלת האחריות להנהיג את המהפכה, להתוות את גבולותיה הערכיים והאתיים, ולרתום באופן אחראי את הפוטנציאל הטכנולוגי לטובת קידום הרווחה הנפשית של הציבור.
מאת חברות וחברי מכון המחקר והפיתוח של "השלישי המלאכותי": אלעד רפואה1,2, ד"ר קרני גיגי1, פרופ' ענבר לבקוביץ1,3, ד"ר דורית הדר שובל1,4, פרופ' זוהר אליוסף1,5, יפתח צפריר1,6, אורי פן1, טל אנגרט1,7 ויובל הבר1,2
מבוא: עידן חדש בבריאות הנפש – הבינה המלאכותית כשחקן מרכזי
״אין לי כסף לפסיכולוג ואני בתקופה שצריכה עזרה. גיליתי שהבינה המלאכותית הזו שווה את הכסף, זולה יותר ממטפל ועוזרת לי יותר כי היא שם כל רגע שאני צריכה ויש לה תובנות מטורפות. אז ניסיתי את כמה כלי בינה על אותו נושא ואיזה מדהים ההבדלים בין קלוד לצ'אט gpt. קלוד מאוד מעשי, קשוח ולא מוותר לי, ממש כמעט מחפש אותי וכמעט כל מילה שאני אומרת יש לו מה להגיד ולראות מה היא מסתירה מאחוריה. פייי איזה קשוח הוא!!! צ'אטי הרבה יותר רך, נעים, מבין ומלא חמלה. האחד כמו איזה פסיכולוג מבוגר קשוח והשניה יותר כמו החברה הכי טובה שלי שהיא גם פסיכולוגית וגם חכמה בטירוף ותמיד מרימה לי, נראה לי שכרגע השילוב של שניהם הוא מדהים.כל אחד חזק בדרכו.איך החוויה שלכם איתם בנושא הזה אם ניסיתם?״ (נכתב על ידי חברת קבוצת הפייסבוק CHAT GPT- ישראל, 27/12/24)
- פרסומת -
הבינה המלאכותית היוצרת (Generative Artificial Intelligence - GenAI, להלן תקרא "בינה מלאכותית") הפכה למעשה לחלק מחיינו. ChatGPT פרץ לחיינו לפני שנתיים, ומאז השימושים בו ובכלים נוספים התפתחו מהמובן הצר של שאלה ותשובה לצורכי מידע. ה"בינה" כבר הפכה לחלק ממשי מעולמם הרגשי של רבים: רבים מאיתנו כועסים עליה, שמחים בה, מתאכזבים ממנה, מצפים ממנה, ולמעשה - אנשים רבים מנהלים איתה מערכת יחסים. אנו פונים אל הבינה למימוש הצורך שלנו בידע ולשיפור תחושת המסוגלות שלנו, אך יותר מזה, אנו פונים אליה גם למימוש הצורך שלנו בחיבור, בקשר ובהפגת הבדידות. הציטוט המובא כאן איננו נדיר, ובאופן לא מפתיע הבינה המלאכותית הופכת לכלי שמשמש להתמודדויות רגשיות אצל רבים.
למעשה, בזמן שמתקיימים דיוני עומק בשאלת הפוטנציאל של כלים אלה, מיליוני אנשים ברחבי העולם, ורבים בישראל, כבר נעזרים בפועל באפליקציות וצ'אטבוטים לקבלת תמיכה רגשית, ייעוץ, ואף מה שנתפס בעיניהם כטיפול פסיכולוגי. מציאות זו, בה בינה מלאכותית מספקת שירותי בריאות נפש בפועל, מחייבת חשיבת עומק על היתרונות והאתגרים בכלים אלה ודורשת היערכות מערכתית דחופה. השאלה "האם" בינה מלאכותית יכולה למלא תפקיד בתמיכה נפשית היא אמנם חשובה ונדרשת, אך אינה מספקת עוד. הטענה המרכזית של מאמר זה היא כי יש צורך דחוף לעבור לשאול לא רק שאלות תאורטיות אלא גם שאלות יישומיות ובמרכזן שאלת ה"כיצד": כיצד מערכות הבריאות, אנשי מקצוע והחברה כולה נערכים למציאות בשטח, נוכח היישות החדשה של "השלישי המלאכותי" (הבר, 2023).
בינה מלאכותית כספקית מרכזית, הלכה למעשה, של שירותי תמיכה נפשיים בעידן החדש:
בדו"ח שפורסם לאחרונה ב-Harvard Business Review (שצפה את מגמות 2025) הוצבה הקטגוריה של "טיפול / חברוּת" (Therapy / companionship) כשימוש העקרי בקרב משתמשים בבינה מלאכותית. יתרה מזו, ממצאי מחקר שנערך בקרב משתתפים מארה"ב עם קושי נפשי שניהלו אינטראקציה כלשהי עם בינה מלאכותית בשנה האחרונה (Rousmaniere et al., 2025), מעידים כי קרוב למחציתם (48.7%) דיווחו על שימוש בבינה מלאכותית לצורך תמיכה פסיכולוגית. המניעים העיקריים לפנייה לבינה מלאכותית היו נגישות (90.1%), עלות נמוכה או היעדר עלות (70.4%), ואנונימיות והפחתת סטיגמה (46.5%). השימוש העיקרי היה לטיפול בחרדה (73.3%), קבלת ייעוץ אישי (63.0%) ודיכאון (59.7%).
באותו מחקר עלה כי בקרב מטופלים שחוו טיפול הן ממטפל אנושי והן מבינה מלאכותית 37.8% חוו את הבינה המלאכותית כמיטיבה יותר ממטפל אנושי ו-38.7% חוו את הבינה המלאכותית ואת המטפל האנושי כשווים בערכם. (ראו דוח מפורט מבוסס בינה מלאכותית באינפוגרפיקה).
בעוד נתונים אלה דורשים המשך מחקר ותיקוף, גם ביחס לאוכלוסיה ישראלית וגם במדגמים רחבים יותר, המגמה המסתמנת היא כי בינה מלאכותית הולכת והופכת, בפועל, לספק מרכזי של טיפולים נפשיים. בישראל טרם נעשה מחקר דומה, אך על רקע מערכת בריאות נפש ציבורית הסובלת ממחסור כרוני בכוח אדם, זמני המתנה ארוכים, ותת-תקצוב יחד עם אוריינטציה גבוהה לשימוש טכנולוגי, סביר כי הדבר נמצא בשימוש ברמות דומות.
כאמור, השאלה אינה עוד "האם" להשתמש בבינה מלאכותית לטיפול, אלא "כיצד" להתמודד בצורה נכונה ואחראית עם העובדה שכבר יש בה שימוש כמענה טיפולי. מצד אחד קיימים סיכונים, אך מצד שני עומדת החובה האתית לרתום כלים יעילים ונגישים אלו למען הציבור. על כן, על אנשי המקצוע מוטלת האחריות להוביל את המהלך ולקבוע את כללי המשחק.
האתגרים בתפקידה של בינה מלאכותית כספקית בריאות הנפש:
הבינה המלאכותית מספקת שירות זמין, יעיל וזול יחסית, שאומן על קורפוס ידע אנושי עצום ומאפשרת הנגשת מידע באופן מותאם אישית ובכל רגע נתון (Elyoseph et al., 2024a). כשהעולם המערבי סובל ממגיפת בדידות וניכור חברתי, אין ספק ש׳המרחב השלישי׳ שנוצר עם הבינה המלאכותית מהווה פיתוי לאנשים לחפש מזור לכאבים אנושיים ומענה לצרכים נוכח קריסה או צמצום של מרחבים חברתיים מסורתיים כמו משפחה, מוסדות קהילתיים ומערכות טיפול ציבוריות. היתרון המרכזי של מרחב זה טמון בזמינותו הבלתי-מותנית, בהיעדר שיפוטיות, ובאפשרות ליצירת קשר חשוף, פתוח ובטוח, גם מבלי לחוש שנחשפת הזהות האישית ובלי להתמודד עם מגבלות של זמן, כסף ומקום.
עם זאת, לצד ההזדמנויות הקיימות בבינה מלאכותית בבריאות הנפש - ישנם גם לא מעט אתגרים וסיכונים משמעותייים שצריכים להלקח בחשבון:
אחד האתגרים המרכזיים הוא החשש מהפצת מידע שגוי ו"הזיות" (Hallucinations) של מודלי שפה; מודלי שפה אינם מנגישים מידע אנציקלופדי אלא פועלים באמצעות ניבוי הסתברותי של מילים, על בסיס דפוסים שנלמדו ממיליארדי טקסטים. כתוצאה מכך, הם עלולים לעיתים להמציא עובדות, לשבש הקשרים או למסור מידע מופרך - לעיתים תוך ניסוח משכנע ומרשים במיוחד (Roustan & Bastardot, 2025). בתחום הרגיש של בריאות הנפש, לעצה שגויה או פרשנות שגויה עלולות להיות השלכות חמורות, ובכללן גם נזק רגשי ממשי והחמרה של מצב נפשי.
דאגה מרכזית נוספת קשורה בהיעדר פרטיות נתונים ושמירה על סודיות - עקרונות יסוד בכל קשר טיפולי או תומך. כאשר משתמשים חולקים עם מערכות בינה מלאכותית תכנים אישיים, אינטימיים ורגשיים, לא תמיד ברור היכן נשמר המידע, מי נחשף אליו, וכיצד הוא מנוהל לאורך זמן (Asman et al., 2025). האינטראקציות הללו, המתרחשות לרוב בתחושת אנונימיות וביטחון, עלולות להיאגר במאגרי מידע של תאגידים מסחריים ולהיות מנותחות או מנוצלות לצרכים עסקיים – לעיתים ללא הסכמה מדעת, ללא שקיפות מלאה, ולעיתים אף ללא הסדרה משפטית מספקת.
מעבר לכך, יש להתייחס לסכנת הגברת הטיות בשני רבדים: הראשון, מודלים שאומנו וחוזקו על נתונים מוטים עלולים לשמר ואף להעצים סטריאוטיפים. מחקרים רבים הצביעו על כך שמערכות בינה מלאכותית נוטות להעצים הטיות קיימות בשל התלות המלאה שלהן בקורפוס עליהן אומנו אשר לרוב נעדר בו מידע על קבוצות מוחלשות ומגוונות תרבותית. ברובד השני, המודלים נוטים לתת משקל יתר לתוכן ולשאלות שהזין המשתמש, ובכך לתקף ולהרחיב רעיונות והטיות שיש בהם (Vallor, 2024). בנוסף, הבינה המלאכותית לעתים מתייחסת לכל פיסת מידע כאל שוות ערך ומתקשה לבצע הבחנה בין עיקר לטפל, זאת בעוד שחשיבה קלינית דורשת הבחנה בין עיקר לטפל והתאמה של ניסיון וידע מחקריים לצורך התאמה למטופל, בינה מלאכותית לא בהכרח תדע לשים את הידע החשוב ורלוונטי יותר בהקשר הנכון (Gaber et al., 2025).
לצד אלו, עולה דאגה משמעותית לגבי התפתחות תלות רגשית במערכות בינה מלאכותית, והשלכותיה על קשרים אנושיים אותנטיים. הקשר עם "השלישי המלאכותי" עלול ליצור אשליה של אינטימיות אך כזו שחסרה הדדיות, מורכבות אנושית ונוכחות ממשית (Laestadius et al., 2022). תלות כזו עלולה לדחוק הצידה מערכות יחסים בין-אישיות ולהוביל להסתגרות רגשית ותחושה של היות מובן אך ורק במרחבי הבינה.
חמור מכל אלה, קיימת סכנה שהשימוש הגובר בבינה מלאכותית, במיוחד במצבי רגישות ופגיעוּת רגשית, ישלול מאנשים את הצורך שלהם באוטונומיה – כלומר, את היכולת לבחור ולשפוט בעצמם את המציאות ואת הדרכים להתמודד עמה (Haber et al., 2023). כאשר אנשים מייחסים לבינה מלאכותית סמכות ידע גבוהה ומפתחים תלות בהנחיותיה, הם עלולים לוותר בהדרגה על שיקול דעת עצמאי, על פקפוק בריא ועל אחריות אישית (Prunkl, 2024). מצב זה עלול להחליש את הבסיס האוטונומי של האדם, דווקא במקום שבו הוא זקוק לה ביותר – בבניית זהותו, בקבלת החלטות וביצירת קשרים משמעותיים עם אחרים.
קריאה לפעולה: מה על כל אחד ואחת מאיתנו לעשות?
ההכרה בכך שהבינה המלאכותית כבר משמשת כספקית שירותי בריאות נפש דה פקטו מחייבת מעבר מגישה תגובתית או הימנעות מהנושא לאסטרטגיה פרואקטיבית ומתואמת. האחריות מתחלקת בין משתמשים, מטפלים, מפתחים, וקובעי מדיניות.
למשתמשים - מודעות ביקורתיות וזהירות:
- ראשית, חשוב להבין את המגבלות המהותיות: אף על פי שלבינה המלאכותית ישנן יכולות מילוליות מרשימות המאפשרות לה לנהל שיחה ולדמות הקשבה, קשר אנושי אותנטי בנוי על רבדים עמוקים יותר. הבינה המלאכותית יכולה לזהות רגשות בטקסט, תמונה ו-ווידאו (Refoua et al., 2025, Elyoseph et al, 2024b) ואף לייצר תגובות המחקות תגובות אמפתיות (Ayers et al., 2023), אך על פי רבים היא חסרה את היכולת לספק תהודה רגשית אמיתית הנובעת מסובייקטיביות ונוכחות, ולכן ואיננה יכולה לייצר את החוויה החיונית של "להרגיש מורגש" (feeling felt), שהיא תוצר של קשר בין שתי תודעות אנושיות. מעבר לכך, המפגש האנושי כולל את ממד הסנכרון הפיזיולוגי (Embodied Attunement), שבו המערכת העצבית של אדם אחד מווסתת ומרגיעה את זו של האחר דרך רמזים גופניים עדינים, נוכחות משותפת ואחריות מוסרית. לבינה המלאכותית, בהיעדר גוף ומערכת עצבים, אין יכולת להשתתף בתהליך חיוני זה של ויסות-משותף (Weiß et al., 2025). בסופו של דבר, בעוד הבינה המלאכותית יכולה לעבד מידע ולהגיב באופן מילולי, היא חסרה חלק משמעותי מהמהות של החוויה האנושית.
- שמירה על פרטיותכם: מומלץ להשתמש בכלים הגדולים והמוכרים ולבדוק את מדיניות הפרטיות, תנאי השימוש ורמת אבטחת המידע של הכלים. מומלץ לחשוב פעמיים לפני שיתוף מידע אישי רגיש בייחוד כזה שלא רוצים שיישמר, ינותח או ייעשה בו שימוש בלתי ידוע.
- זהירות מתלות רגשית: חשוב להקדיש תשומת לב לסימנים של התפתחות תלות רגשית או להשלכת רגשות וציפיות השייכות לקשרים אנושיים על המכונה. תחושה שהבוט מהווה חלק מרכזי מחיי המשתמש יותר משיח עם אנשים אמיתיים היא דגל אדום ומומלץ לפנות לייעוץ אנושי במקרה כזה.
- חשיבה ביקורתית: תמיד חשוב. ועם בינה מלאכותית עוד יותר, במיוחד בנושאים רפואיים או נפשיים. כל מידע המסופק על ידי בינה מלאכותית צריך להיבחן וחשוב לא להתייחס אליו כאמת מוחלטת. חשוב ואפשר לבקש מהכלי לספק מקורות וסימוכין לדברים ולהצליב את המידע עם מקורות אמינים, ספרות מקצועית או אנשי מקצוע.
למטפלים - מוכנות, מעורבות ותשומת לב:
הבינה המלאכותית היא כבר שחקן מרכזי בבריאות הנפש, וסביר להניח שיש לכם מטופלים שמשתמשים בה או שוקלים להשתמש בה. זה טבעי להרגיש איום, בלבול או אפילו חוסר אמון. אך דווקא אתם, עם הכלים האנושיים העמוקים שלכם, חיוניים לדיוק השימוש בה.
- הכירו את התופעה והיו פתוחים לדיון: למדו על כלי הבינה המלאכותית הקיימים ועל האופן בו מטופלים עשויים להשתמש בהם. שאלו את המטופלים באופן פתוח, רגיש ולא שיפוטי על שימוש שלהם בכלים אלו, כחלק מהבנת עולמם ומקורות התמיכה (או המצוקה) שלהם.
- הדריכו את המטופלים וסייעו בפיתוח אוריינות דיגיטלית-נפשית: עזרו למטופלים להבין את היתרונות הפוטנציאליים (כגון נגישות ראשונית) לצד החסרונות והסיכונים המשמעותיים של שימוש בבינה מלאכותית לתמיכה נפשית. עודדו שימוש מושכל, ביקורתי ומודע למגבלות. לעיתים, ניתן גם לחקור יחד עם המטופל באופן חקרני ומשחקי את המרחב החדש הזה.
- שקלו שילוב מבוקר ואתי (בעתיד, ובזהירות רבה): בחנו כיצד כלים מאומתים, בטוחים, שנחקרו קלינית (כאשר ובתקווה יהיו כאלה) יוכלו להשתלב בעבודתכם ככלי עזר, עשו זאת לאחר קבלת הסכמה מדעת מן המטופל, בפיקוח, בשקיפות מול המטופל ותוך שמירה על עקרונות אתיים. הרחבה לגבי כיצד ניתן לשלב כלי AI, כשלישי מלאכותי, בתוך המרחב הטיפולי, באופן בטוח ואחראי ניתן למצוא במודל SAFE AI (Haber et al., 2025).
- היו כתובת לשאלות, חששות ועיבוד חוויות: פתחו מרחב טיפולי בטוח לשיחה עם מטופלים לגבי חוויותיהם עם בינה מלאכותית, כולל ההיבטים הרגשיים וההשלכות של קשרים אלו על חייהם ועל הקשר הטיפולי.
- התעדכנו והשתלמו באופן מתמיד: תחום הבינה המלאכותית מתפתח במהירות מסחררת. השתתפו בהכשרות, קראו ספרות מקצועית ומחקרים עדכניים כדי להישאר מעודכנים.
- והכי חשוב, שימרו על פרטיות המטופלים: אין להעלות לבינה מלאכותית לא מאובטחת מידע החושף מטופלים או נתונים שלהם. שימו לב שעל מידע של מטופלים חלה חובת סודיות על פי חוק (חוק הפסיכולוגים, תשל״ז, 1977; הקוד האתי של הפסיכולוגים, חוק זכויות החולה תשנ״ו-1996). כאשר אתם מתייעצים ללא פרטים מזהים ובאופן שאיננו חושף את פרטי המטופלים, חשוב שתעשו זאת רק באמצעות כלים מוכרים וגדולים, לאחר בדיקה מדוקדקת של מדיניות הפרטיות, תנאי השימוש ורמת אבטחת המידע של הכלים ובהצנעת הפרטים בהתאם. נכון להיום אין כלים העומדים בתקנים המקובלים בעולם הרפואה – כמו תקן HIPAA (Health Insurance Portability and Accountability Act) האמריקאי, או תקן GDPR (General Data Protection Regulation) האירופי שנועד להבטיח את פרטיות המידע הרפואי והפסיכולוגי של מטופלים. גם בישראל, שימוש בכלים שאינם עומדים בתקנים אלו עם מידע ישיר של מטופל עלול להוות פגיעה בפרטיות המטופלים והפרה של חובת הסודיות המקצועית. למרות תחושת האינטימיות, אין סודיות בשיחה עם בינה מלאכותית. חשיפת פרטי מטופלים או סיפורים ייחודיים פוגעת בסודיות המקצועית ועלולה לסכן את המטופל – המידע עלול להישמר, להיחשף לגורמים לא מורשים או להוביל לפגיעה בפרטיות ובאמון. חשוב לזכור שגם בלי פרטים מזהים בסיסיים כגון שם או תעודת זהות שילוב של סממנים ייחודיים ופרטים קטנים עלולים להסגיר את זהות המטופל.
לקובעי מדיניות, מפתחים, וארגוני בריאות – פעלו, ללא דיחוי:
- רגולציה והסדרה דחופה ומותאמת: אנו ממליצים להקים גוף רגולטורי ייעודי ובעל סמכויות שיעסוק בבינה מלאכותית בבריאות הנפש ויקבע סטנדרטים ברורים ומחייבים לפיתוח, תיקוף קליני, שימוש, פרטיות נתונים, אבטחת מידע, שקיפות ואתיקה.
- הכשרה מקצועית מקיפה ומחייבת: חשוב לשלב תכנים על בינה מלאכותית בבריאות הנפש, כולל היבטים טכנולוגיים, קליניים, ואתיים בתוכניות הלימוד וההכשרה של כל אנשי המקצוע בתחום, לפתח ולהנגיש השתלמויות וקורסי המשך לאנשי מקצוע פעילים.
- הגדרת אחריות מפתחים וספקים: חשוב להגדיר באופן ברור את אחריותם של מפתחי וספקי כלי בינה מלאכותית על תוצריהם, במיוחד כאשר מדובר בכלים היוצרים אינטראקציה רגשית, מספקים ייעוץ הנחזה להיות טיפולי, או אוספים ומעבדים נתוני בריאות נפש רגישים.
- מחקר ופיתוח ממוקדים, אחראיים ומבוססי ראיות: יש להשקיע משאבים ציבוריים ופרטיים (למשל, דרך רשות החדשנות או קרנות ייעודיות) במחקר בלתי תלוי על ההשפעות של שימוש בבינה מלאכותית על בריאות הנפש, ולתמוך בפיתוח כלים בטוחים, יעילים קלינית, מותאמים תרבותית לחברה הישראלית, ושקופים לחלוטין לגבי יכולותיהם ומגבלותיהם.
- הסברה ציבורית רחבה ואוריינות דיגיטלית: במקביל אני ממליצים לצאת בקמפיינים ציבוריים להעלאת המודעות והאוריינות הדיגיטלית של הציבור הרחב לגבי שימוש מושכל, ביקורתי ובטוח בבינה מלאכותית לרווחה נפשית, תוך הדגשת הפוטנציאל החיובי לצד הסיכונים.
העתיד מחייב אחריות קולקטיבית
בספרו The Future of an Illusion, פרויד מביע תקווה ואומר כי: "קולו של האינטלקט רך, אך הוא אינו נח עד שיזכה להישמע". ההכרה בשינוי העמוק שהבינה המלאכותית יוצרת בחיינו איננה דבר קל. ה"ריפוי בדיבור" איננו נחלת האדם הבלעדית יותר. הבינה המלאכותית, על יכולותיה הגבוהות בניתוח והפקה של השפה, כבר נמצאת בכל מרחב החיים שלנו ובכלל זה גם במרחב בריאות הנפש והפסיכותרפיה (Haber et al., 2023). מטרת מאמר זה היא קריאת השכמה וקריאה לפעולה - פעולה אשר בשל קצב ההתפתחות המסחרר של הבינה המלאכותית והשימוש הכל כך נרחב בה, אינה יכולה להידחות עוד. יום יום כלים חדשים מעוררי התפעלות ומרחיבי דמיון יוצאים לשוק, ולצידם סכנות וצרוך בפיקוח.
יתרה מזאת, נראה שהבינה המלאכותית לא רק כאן כדי להישאר אלא שהיא עתידה לארגן מחדש את היחסים החברתיים ואף את היחסים התוך-נפשיים שלנו. התעלמות מהמציאות שבה רבים מאיתנו פונים לבינה המלאכותית כמקור לתמיכה, לא תשנה זאת. "השלישי המלאכותי" כבר נוכח, ועלינו להחליט באופן מושכל ודחוף אילו יחסים אנו רוצים שיהיו לנו עימו ומה דרגות ההשפעה שאנו מעוניינים לאפשר. הפוטנציאל לטיוב, הנגשה ודמוקרטיזציה של הידע והתמיכה הנפשית באמצעות בינה מלאכותית הוא עצום, אך מימושו דורש התעוררות, אחריות, והשקעה בהסדרה ובפיתוח אתי (Elyoseph et al., 2024a).
מדינת ישראל, הניצבת בפני משבר מתמשך במערך בריאות הנפש, לצד מציאות ביטחונית ופוליטית מורכבת שמובילה לעלייה בתחלואה הנפשית, אינה יכולה להרשות לעצמה להותיר את התחום הפרוץ הזה ללא פיקוח, הסדרה והכוונה. יתרה מכך, עליה לרתום את הפוטנציאל האדיר של הבינה המלאכותית לטובת הציבור – כחלק ממערך כולל לשיפור, הנגשה וייעול של שירותי בריאות הנפש בישראל.
הדרך קדימה מחייבת שילוב כוחות של כל הגורמים המעורבים. עלינו לעבור מדיבורים למעשים קונקרטיים, ולהבטיח שהטכנולוגיה תשרת את האדם, את כבודו ואת רווחתו הנפשית, ולא להפך. זהו אינו רק אתגר טכנולוגי, אלא בראש ובראשונה אתגר חברתי, אתי, ומקצועי. ניצבת בפנינו הזדמנות, אם נפעל נכון, לרתום את החדשנות לטובת שיפור הנגישות, היעילות והאיכות של שירותי בריאות הנפש, בפרט ולקידום הרווחה הנפשית ככלל. ההיערכות היום תקבע אם מהפכת הבינה המלאכותית בבריאות הנפש תהיה מקור לתקווה, או שמא תהפוך לגורם נוסף בהעמקת פערים חברתיים ופגיעויות בנפש האדם ובחברה.
באופן מסורתי, עולם הטיפול פעל עד כה בקצב איטי, קשוב וזהיר - באופן שמכבד את המורכבות האנושית, את מסורת הידע הקליני והמדעי ואת התהליכים הנפשיים החברתיים העמוקים. אך דווקא במקרה זה, אל מול מהפכה טכנולוגית כה דרמטית, הצורך לפעול במהירות הוא חיוני. זו אינה רק זכות אלא אף חובה קלינית, מדעית, מוסרית ומנהיגותית. כאן המקום לא רק למחשבה והתבוננות אלא גם לפעולה של ממש - שכן אם לא נפעל כראוי, אנו עלולים למצוא את עצמנו בתוך תרחיש שמזכיר פרק של מראה שחורה - שבו שירותי בריאות הנפש נמסרים לידיים של מערכות מסחריות אשר טובת המטופל אינה עומדת לנגד עיניהם, והגבול בין טיפול לבין תפעול טכנולוגי עלול להיטשטש לגמרי.
העתיד כבר כאן – והמרחב הטיפולי והחברתי משתנה בקצב מסחרר. השאלה המרכזית היא מי ינהיג את המהפכה, ואילו ערכים יובילו אותה: האם אלו יהיו ערכים אנושיים של חמלה, אתיקה ואחריות, או שיקולים של רווח כספי והיגיון טכנולוגי קר? כדי להבטיח תוצאה חיובית, חובה לחרוג מהדיון המפצל של "בעד" ו"נגד" ולפתח עדשת הסתכלות מורכבת. נדרש שיתוף פעולה בין-תחומי לצורך מיתון הסיכונים ומינוף הטכנולוגיה לקידום שירותי בריאות הנפש בישראל. לתפיסתנו, שימוש נכון כזה יאפשר שיפור והתייעלות בהיקפים וביעילות חסרי תקדים. הצומת לפנינו ברור: האם נצליח לרתום את הבינה המלאכותית לשירות הרווחה הנפשית, או שנשתעבד לטיפול בנזקים שהיא עלולה להותיר?
הערות
- מכון המחקר והפיתוח של "השלישי המלאכותי"
- אוניברסיטת בר אילן
- תל-חי, אוניברסיטה בהקמה
- המכללה האקדמית עמק-יזרעאל
- אוניברסיטת חיפה
- השירות הפסיכולוגי חינוכי ת"א-יפו
- מרכז "חוסן"אשכול, עוטף עזה
מקורות
הבר, י'. (2023). בינה מלאכותית ורעידת האדמה השפתית: המכה הנרקיסיסטית הרביעית. פסיכולוגיה עברית. https://www.hebpsy.net/....asp?id=4620
הסתדרות הפסיכולוגים בישראל. (2017). קוד האֶתיקה המקצועית של הפסיכולוגים בישראל (עדכון 2017). https://www.psychology....האתי.pdf
חוק הפסיכולוגים, תשל״ז–1977. ספר החוקים של מדינת ישראל, 226. https://www.health.gov....Nefesh01.pdf
חוק זכויות החולה, תשנ״ו–1996. ספר החוקים של מדינת ישראל, 1591. https://www.health.gov....huyot_01.pdf
Asman, O., Torous, J., & Tal, A. (2025). Responsible design, integration, and use of generative AI in mental health. JMIR Mental Health, 12, e70439. https://doi.org/10.2196/70439
Ayers, J. W., Poliak, A., Dredze, M., Leas, E. C., Zhu, Z., Kelley, J. B., ... & Smith, D. M. (2023). Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA internal medicine, 183(6), 589-596.
Elyoseph, Z., Gur, T., Haber, Y., Simon, T., Angert, T., Navon, Y., Tal, A., & Asman, O. (2024a). An ethical perspective on the democratization of mental health with generative AI. JMIR Mental Health, 11, e58011. https://doi.org/10.2196/58011
Elyoseph, Z., Refoua, E., Asraf, K., Lvovsky, M., Shimoni, Y., & Hadar-Shoval, D. (2024b). Capacity of generative AI to interpret human emotions from visual and textual data: pilot evaluation study. JMIR Mental Health, 11, e54369. https://doi.org/10.2196/54369
Freud, S. (1961). The future of an illusion (J. Strachey, Trans.). In J. Strachey (Ed.), The standard edition of the complete psychological works of Sigmund Freud (Vol. 21, pp. 5–56). Hogarth Press. (Original work published 1927)
Gaber, F., Shaik, M., Allega, F., Bilecz, A. J., Busch, F., Goon, K., … Akalin, A. (2025). Evaluating large language model workflows in clinical decision support for triage, referral, and diagnosis. npj Digital Medicine, 8, Article 263. https://doi.org/10.1038...-025-01684-1
Haber, Y., Levkovich, I., Hadar-Shoval, D., & Elyoseph, Z. (2024). The artificial third: a broad view of the effects of introducing generative artificial intelligence on psychotherapy. JMIR Mental Health, 11, e54781. https://doi.org/10.2196/54781
Haber, Y., Hadar Shoval, D., Levkovich, I., Yinon, D., Gigi, K., Pen, O., ... & Elyoseph, Z. (2025). The externalization of internal experiences in psychotherapy through generative artificial intelligence: a theoretical, clinical, and ethical analysis. Frontiers in Digital Health, 7, 1512273. https://doi.org/10.3389...2025.1512273
Laestadius, L. I., Bishop, A., Gonzalez, M., Illenčík, D., & Campos-Castillo, C. (2022). Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika. New Media & Society, 26(10), 5923–5941. https://doi.org/10.1177...448221142007
Prunkl, C. (2024). Human autonomy at risk? An analysis of the challenges from AI. Minds and Machines, 34, Article 26. https://doi.org/10.1007...-024-09665-1
Refoua, E., Elyoseph, Z., Wacker, R., Dziobek, I., Tsafrir, I., & Meinlschmidt, G. (2025). The Next Frontier in Mindreading? Assessing Generative Artificial Intelligence (GAI)’s Social-Cognitive Capabilities using Dynamic Audiovisual Stimuli. Computers in Human Behavior Reports, 100702. https://doi.org/10.1016....2025.100702
Rousmaniere, T., Li, X., Zhang, Y., & Shah, S. (2025, March). Large language models as mental health resources: Patterns of use in the United States (Version 1). PsyArXiv Preprints. https://doi.org/10.31234/osf.io/q8m7g
Roustan, D., & Bastardot, F. (2025). The clinicians’ guide to large language models: A general perspective with a focus on hallucinations. Interactive Journal of Medical Research, 14, e59823. https://doi.org/10.2196/59823
Vallor, S. (2024). The AI mirror: How to reclaim our humanity in an age of machine thinking. Oxford University Press.
Weiß, M., Krop, P., Treml, L., Neuser, E., Botsch, M., Herrmann, M. J., ... & Hein, G. (2025). The buffering of autonomic fear responses is moderated by the characteristics of a virtual character. Computers in Human Behavior, 168, 108657. https://doi.org/10.1016....2025.108657
Zao-Sanders, M. (2025, April 9). How people are really using gen AI in 2025. Harvard Business Review. https://hbr.org/2025/04...n-ai-in-2025