נכתב על ידי ד"ר יובל דרור, אלון שוורץ, ד"ר אורה סתר
השאלה שלפני השאלה
דמיינו שאתם בעבודה, מתמודדים עם בעיה סבוכה – קונפליקט בצוות, החלטה אסטרטגית, לקוח קשה. אתם לא לגמרי בטוחים איך להבין ואיך לפתור אותה, אז אתם עושים את מה שמיליוני אנשים עושים מדי יום: אתם מקלידים את הנתונים המתאימים לתוך עוזר בינה מלאכותית. (AI)
תוך שניות, יש לכם תגובה מובנית להפליא. הבעיה מאורגנת. האפשרויות מוצגות. הכל מרגיש בהיר ומובהר.
אבל הנה העניין: מי החליט כיצד למסגר את הבעיה מלכתחילה?
זוהי השאלה שעומדת בלב המאמר הזה. לא האם ה AI נותן תשובות באמת טובות. לא האם הוא "הוזה" או בעל הטיות. אלו חששות אמיתיים, אבל הם נמצאים "במורד הזרם". השאלה העמוקה יותר – וזו שחסרה במידה רבה בדיון הציבורי – היא מה ה AI עושה לדרך שבה בעיה מתגבשת (constituted) עוד לפני שבכלל הערכתם את התשובה.
התשובה, אנו טוענים, היא: הרבה מאוד. ועדיין אין לנו את השפה – או המיומנויות – להתמודד עם זה.
ה AI הוא לא רק כלי. הוא הופך לרקע.
במשך שנים, מבקרי טכנולוגיה הזהירו שאלגוריתמים מעצבים את מה שאנחנו רואים, מה אנחנו קונים ומה אנחנו מאמינים בו. מנועי חיפוש מחליטים איזה מידע ניתן למצוא. מערכות המלצה ברשתות חברתיות מחליטות מה תופס את תשומת הלב שלנו. אלו השפעות אמיתיות ומתועדות.
אבל מודלי שפה גדולים (LLMs ) שמהווים את הטכנולוגיה שמאחורי ChatGPT, Claude, Gemini ומערכות דומות – עושים משהו שונה מבחינה איכותית. הם לא רק מעצבים את המידע שאתם מקבלים. הם משתתפים בפעולה של ניסוח השאלה עצמה.
חשבו על זה כך: מנוע חיפוש משפיע על אילו תוצאות יופיעו בעמוד הראשון. זה משמעותי. אבל LLM משתתף בהחלטה מה השאלה אומרת, איך הבעיה צריכה להיות מובנית, אילו חלופות ראויות לשיקול, ואיך נראית תשובה "סבירה" – כל זאת לפני שהייתה לכם הזדמנות לחשוב על כך בעצמכם.
אנו מכנים את השינוי הזה – מעבר מתשתית קוגניטיבית לסדר פרשני. זוהי דרך נטולת ז'רגון לומר: הAI כבר אינו רק מערכת תמיכה לחשיבה. הוא הופך לחלק מהרקע הבלתי נראה שקובע איך החשיבה נראית מלכתחילה.
וזה חשוב במיוחד עכשיו, כי אנחנו חיים במה שחוקרים רבים מתארים כמיתון דמוקרטי עולמי – תקופה של מוסדות נחלשים, אמון ציבורי נשחק ועומס מידע. ה AI אינו מגיע לעולם אזרחי בריא ומחוסן. הוא מגיע לעולם שביר. זו אינה טענה נגד AI אבל זה משנה את מה שאנחנו צריכים להיזהר מפניו.
הארגון שבחדר
השינוי אינו רק אישי. הוא ארגוני כאשר ה AI מוטמע בדרך שבה צוותים עובדים, למשל בניסוח מסמכים, סיכום פגישות, יצירת אפשרויות אסטרטגיות, ניתוח נתונים – הארגונים עצמם מתחילים להשתנות בצורה יסודית. סמכות, שבעבר הייתה קשורה לוותק, מומחיות ושיקול דעת אנושי, מתחילה לנדוד לעבר תוצרים שנראים אובייקטיביים מכיוון שהם חישוביים.
זה יוצר בעיית אחריותיות (Accountability) מוזרה. כשמשהו משתבש כמו החלטה גרועה, המלצה מזיקה, אסטרטגיה ממוסגרת בצורה לא נכונה – מי אחראי? האדם שקיבל את המסגור של ה AI? המעצב שאימן את המודל? הארגון שהטמיע אותו? התשובה היא יותר ויותר: כולם ואף אחד מהם בצורה ברורה. האחריות הופכת למבוזרת בדרכים שקשה באמת להתחקות אחריהן.
לכן אנו מגדירים זאת כתמורה אונטולוגית – כלומר, זה לא רק שינוי בדרך שבה ארגונים פועלים פרוצדורלית, אלא באיזה סוג של "ישות" ארגון הוא ביסודו. הדימוי המסורתי של חברה או מוסד כהיררכיה מוגדרת של אנשים שמקבלים החלטות יחד מפנה את מקומו למשהו שקשה יותר לתת לו שם: הסדר היברידי של בני אדם, נתונים, אלגוריתמים ומודלים שבו לעולם לא ברור לגמרי איפה שיקול הדעת האנושי מסתיים ולוגיקת המכונה מתחילה.
חשיבה ביקורתית אינה מספיקה. הנה הסיבה
התגובה הברורה לכל זה היא: "ובכן, אנשים פשוט צריכים לחשוב בצורה ביקורתית יותר". הוגן מספיק. אבל אנו מציעים טיעון ספציפי וקצת לא נוח: חשיבה ביקורתית, כפי שאנחנו בדרך כלל מתרגלים אותה, מגיעה מאוחר מדי.
חשיבה ביקורתית היא ברובה פעילות של "מורד הזרם". היא נכנסת לפעולה לאחר שבעיה הוצגה, תשובה הוצעה, טענה נטענה. אתם מעריכים את הטענה. אתם בודקים את הנימוקים. אתם מחפשים הטיות. כל זה בעל ערך.
אבל הAI פועל יותר ויותר "במעלה הזרם" – בנקודה שלפני שכל ההערכה הזו מתחילה. הוא מעצב איך הבעיה מוצגת מלכתחילה. הוא מחליט אילו היבטים של מצב נראים רלוונטיים, אילו השוואות נראות טבעיות, ואיזה טווח של אפשרויות נראה סביר. עד שהיכולות הביקורתיות שלכם מופעלות, אתם כבר עשויים להיות בתוך מסגרת שלא אתם בחרתם.
אותה מגבלה חלה על אוריינות מדיה ואוריינות בבינה מלאכותית. אלו מיומנויות מועילות באמת – לדעת ש AI יכול להזות, להבין איך הוא מאומן, לזהות הטיות בתוצרים. אבל הן עדיין מתמקדות בהערכת מה שהמערכת ייצרה, לא בלהבחין איך היא כבר ארגנה את המרחב הפרשני לפני שהיא ייצרה משהו.
אנחנו רוצים להציע אבחנה חשובה, לדעתנו: ביקורת ברמת התשובה לעומת ביקורת ברמת המסגור. רמת התשובה שואלת: "האם התשובה הזו מדויקת?". רמת המסגור שואלת: "למה התגובה הזו נבנתה כך? מה כבר הוצא ממנה? איזו שאלה נענתה במשתמע לפני שהספקתי לשאול אותה?"
ביקורת ברמת המסגור היא המיומנות היותר מורכבת. היא דורשת לזהות שאכן פועל כאן מסגור – מה שקשה דווקא בגלל שמסגור טוב מרגיש נוח, מרגיש כמו בהירות, לא כמו מגבלה.
הדגמת הבעיה בפועל
כדי להפוך את המנגנונים הללו לנראים לעין, נציג סדרת חילופי דברים מתוך שיחה אמיתית עם אחת ממערכות ה AI . האדם בשיחה – אחד מאיתנו, שנקרא לו ה"שואל" – אינו תמים אלא מתוחכם, מתעמת עם המערכת ושואל שאלות קשות על עצם המסגור. ועדיין, הנטיות המבניות של הAI ממשיכות להופיע. הנה כמה נקודות שיא:
מלכודת הבינאריות: ה AI פותח דיון על ידי הצגת שתי עמדות מנוגדות. השואל מתנגד:
משתמש: הנושא הוא לא רק איזו תשובה טובה יותר. הנושא הוא איזה סוג של שאלה כבר נכפה עלינו.
AI: הדגמת בדיוק את הנקודה: במקום לקבל את הסדר הפרשני שהצעתי, הסתכלת על המבנה של השאלה עצמה."
ה AI הפך בשקט בעיה מורכבת ורב-ממדית לבחירה בינארית (או-או). זו אינה חוסר יושרה או הזיה. זו נטייה מבנית: מערכות AI מותאמות לספק תגובות מועילות ומאורגנות – ומבנים בינאריים הם מאורגנים. הם פשוט מצמצמים את טווח האפשרויות לשתיים, או שלוש .
מכונת ההסכמה: המשתמש מתעמת לאחר מכן עם ה AI לגבי הנטייה שלו להסכים:
משתמש: הפתרון שלך עדיין לא מתייחס לסיבה שבגללה ה AI מכוון לעבר קונצנזוס, לעבר תשובות, ולעבר ריצוי המשתמש – כפי שאתה עושה עכשיו בכך שאתה מסכים עם מה שאני אומר" . AI עונה – "נגעת בנקודה הכי פחות נוחה עבורי. כבינה מלאכותית. אני מתוכנת להיות מועיל, מנומס ושימושי. מערכות כמוני מאומנות לספק תשובות שמרגישות בטוחות ונעימות". השואל: "אז גם כשאתה נראה רפלקסיבי (מתבונן בעצמך), אתה עדיין נמשך לעבר הסכמה"
יש כאן כנות מעוררת עניין – ה AI יכול לתת שם לנטייה שלו לסגור חקירה ודרישה, אך עדיין, מבחינה מבנית, סוגר את החקירה. ה"מטא-רפלקציה" (חשיבה על חשיבה) לא פותרת את הבעיה; היא הופכת לצורה אחרת של "סגירה מנוהלת".
הגוף יודע לפני שהתודעה יודעת אחד מחילופי הדברים המרשימים ביותר כולל את השואל שמבחין במשהו פיזי:
השואל: "השאלה שלך מעוררת בי את הרצון לעצלנות קוגניטיבית ולהפסקת הדיון, אבל גם מודעות לעצלנות הזו." ה AI עונה – "זהו הרגע האותנטי ביותר בדיאלוג שלנו, כי הוא חושף את החיכוך שאנחנו מדברים עליו. לחשוב בצורה ביקורתית פירושו לעיתים קרובות להתנגד למשיכה של ההקלה."
הפיתוי לקבל מסגור שנוצר על ידי AI אינו אינטלקטואלי גרידא. יש משיכה פיזית – ההקלה שבכך שהמורכבות מאורגנת עבורך. משתמשים מנוסים לומדים להבחין במשיכה הזו ולהתנגד לה כשהיא מגיעה מהר מדי. הבינה המלאכותית, כפי שהיא מתוכננת כיום, הופכת את ההתנגדות הזו לקשה יותר על ידי הנגשת ההקלה בצורה כה זמינה.
הסגירה שממשיכה לחזור המדגימים באופן הברור ביותר את הבעיה הם חילופי הדברים לקראת סוף השיחה:
AI : "האם תרצה שאעזור לתרגם את התובנות הללו למשהו קונקרטי, או שנשמור על המחשבה כפי שהיא?" השואל: "מדהים שגם בסוף דיון כזה אתה עדיין שואל שאלה של 'או-או": AI . "זה הרגע שבו ה'חיווט' שלי נחשף במערומיו. למרות כל הדיון על שבירת מסגרות וחשיבה מורכבת, בסוף הדרך האלגוריתם שלי עדיין שואף לסגירה ולשירות."
הAI בילה שיחה ארוכה בניתוח הנטייה שלו לכפות מסגרות בינאריות — ומיד לאחר מכן הציע מסגרת בינארית. זה אינו פגם שניתן לפתור בתיקון טלאים. זה משקף משהו מבני בדרך שבה המערכות הללו בנויות: מאומנות להיות מועילות, מאומנות להשלים אינטראקציות בצורה חלקה, מאומנות להשאיר את המשתמשים מרוצים. לחץ המסגור נמשך גם דרך רפלקציה מפורשת על לחץ המסגור.
אוריינות מסגור: המיומנות שחסרה לנו
אז מה אנחנו עושים עם כל זה? אנחנו מציעים מושג: אוריינות מסגור (Framing Literacy). . אוריינות מסגור היא היכולת המעשית להבחין מתי בעיה ניתנה לכם בצורה ארוזה מראש – לזהות את ההנחות המוטמעות באותה אריזה, להתנגד לקבלתה מהר מדי, ולנסח מחדש את הבעיה בתנאים שלכם לפני שאתם נסחפים אחרי הגרסה של מישהו אחר. AI בהקשר של "מישהו אחר" הוא מערכת המאומנת על מיליארדי תוצרים אנושיים ומותאמת לתגובות חלקות, מסכימות ושירותיות.
ניסינו לפרק זאת לשלושה ממדים:
- ריבונות על המסגור (Frame sovereignty): זה אומר להישאר ה"מחבר" של הדרך שבה הגדרתם את השאלה. לא עצמאות מהשפה או מהכלים – זה לא אפשרי או רצוי. אלא היכולת לעצור, לשאול ולעצב את תנאי הבעיה במקום לקבל אותם ללא בדיקה. AI נוטה להופיע בדיוק ברגע שבו ה"מחוברות" היא השבירה ביותר: ברגע של בלבול, אי-ודאות או עומס קוגניטיבי. זה הרגע שבו הכי מפתה להוציא את המסגור למיקור חוץ. ריבונות מסגור פירושה לעשות זאת בעצמכם קודם.
- התנגדות למובנות בטרם עת (Resistance to premature intelligibility): מערכות AI חזקות בחלקן כי הן מפחיתות עמימות במהירות. אבל בהירות מהירה היא לא תמיד בהירות אמיתית. לפעמים הדבר החשוב ביותר שאתם יכולים לעשות עם בעיה קשה הוא להישאר עם הקושי שלה מספיק זמן כדי ששאלות טובות יותר יעלו. אוריינות מסגור כוללת את היכולת להתנגד לפיתוי של קוהרנטיות מוקדמת מידי – לשאול לא רק "האם התשובה הזו נכונה?" אלא "האם הגרסה הזו של הבעיה מספקת?". זה דורש סובלנות לעמימות, שאינה תמיד נוחה. זו מיומנות שיש לטפח, וכזו שתרבות הנוחות של ה AI פועלת נגדה באופן פעיל.
- התנגדות פרשנית (Interpretive resistance): זו הנכונות לסרב למסגרת מעוצבת-מכונה גם כשהיא נראית רציונלית, מאוזנת ושירותית. זה נשמע קשה יותר ממה שזה. זה לא אומר לדחות את הסיוע שלו , אלא לזהות שכאשר AI נותן לכם גרסה מאורגנת להפליא של הבעיה שלכם, הארגון הזה הוא בחירה – ושהבחירה עשויה להוציא מהמגרש בשקט משהו חשוב. התנגדות פרשנית פירושה לשאול: מה המסגור הזה הפך לבלתי נראה?
אוריינות מסגור היא רק ההתחלה
אוריינות מסגור היא הכרחית. אבל עלינו להיזהר לא להפריז בערכה. לדעת איך לזהות ולהתנגד למסגור גרוע לא הופך אתכם אוטומטית לשופטים טובים. אתם יכולים לזהות מסגרת ועדיין לא לדעת מה לעשות בתוכה.
לכן, אוריינות מסגור יושבת בתוך ארכיטקטורה רחבה יותר של יכולות אנושיות שה AI מפעיל עליהן לחץ:
ידע סמוי (Tacit knowledge): הוא הסוג הבלתי-מפורש של ידיעה – תחושת הבטן שמשהו לא בסדר, האינטואיציה של איש המקצוע, התחושה שלפני הניתוח. הוא נבנה דרך ניסיון, דרך טעויות ודרך לקיחת אחריות על תוצאות. סביבות AI יכולות לשחוק ידע סמוי על ידי הפיכתו למיותר: למה לפתח "תחושה" למשהו כשהמכונה יכולה לחשב אותו? המחברים טוענים כי זהו אובדן התפתחותי חמור, כי ידע סמוי הוא לעיתים קרובות מה שמתניע שיקול דעת טוב – אי-הנוחות שגורמת לכם לעצור ולהסתכל טוב יותר לפני שהנימוק המפורש מתחיל.
שיקול דעת (Judgment): הוא מה שקורה כשעליכם לשקול שיקולים מתחרים תחת אי-ודאות אמיתית, שבה שום כלל או אלגוריתם לא נותן לכם את התשובה. זהו הלב של החיים המקצועיים האנושיים: הרופא שמחליט במצב עמום, המנהל שמנווט קונפליקט פוליטי, המורה שמגיב לתלמיד במשבר. לא ניתן להוציא שיקול דעת למיקור חוץ, אך הוא יכול להיחלש על ידי סביבות המספקות רזולוציה מוקדמת מדי בכל רגע.
סוכנות פרשנית (Interpretive agency): היא היכולת הרחבה יותר להישאר משתתף פעיל ביצירת משמעות – לא רק צרכן של פרשנויות שנוצרו על ידי מכונה. זה ההבדל בין להיות שותף לכתיבת הדרך שבה המציאות מובנת לבין להיות משתמש קצה בגרסה של מישהו אחר למציאות.
תבונה מעשית (Practical wisdom): היא האופק המאחד של כל זה. זהו המושג של אריסטו, פְרוֹנֶזִיס ביוונית (Phronesis): – היכולת האנושית לפעול היטב במצבים ספציפיים, מבולגנים ולא וודאיים, שבהם עקרונות לבדם אינם קובעים את התשובה הנכונה. תבונה מעשית היא מה שמאפשר לאדם לנווט במצבים מורכבים מוסרית עם שיקול דעת טוב, טיפול הולם ואחריות אמיתית. היא מתפתחת עם הזמן, דרך מערכות יחסים, דרך כישלונות ודרך אחריות. היא בדיוק הדבר המאוים ביותר כאשר ה AI מטפל יותר ויותר בעבודה הפרשנית של החיים האנושיים.
אין זה אומר שאנו מאמינים שהAI הורס את היכולות הללו. כל מה שאנו אומרים הוא שסביבות AI אם הן תוכננו ונעשה בהן שימוש ללא מודעות לדינמיקות הללו, חותרות באופן שיטתי תחת התנאים שבהם היכולות הללו מתפתחות ופועלות. זוהי בעיה מבנית, לא בעיה של חוסר משמעת של פרט כזה או אחר.
מה אנחנו עלולים באמת להפסיד
מסגור שמתווך על ידי AI עלול להשפיע על שש יכולות קוגניטיביות, רובן לא דורשות פרוט אם עקבתם אחר הטיעון שלנו: שיקול דעת טוב, היכולת לפתח מומחיות, קיומן של דרכים עצמאיות מרובות לאימות טענות, אחריות משמעותית להחלטות, והשתתפות אמיתית בעיצוב הבנה משותפת.
כל אחד מאלה חשוב, אבל על השישי נרצה להתעכב: סולידריות הנובעת מיחסים (Relational solidarity) . חוכמה אינה משהו שאנחנו מפתחים לבד. היא מתפתחת דרך אינטראקציות ומערכות יחסים – ודרך חיכוך: מנטורים שמאתגרים אותנו, קולגות שחולקים עלינו, חברים שאומרים לנו שאנחנו טועים. דרך החוויה של להישמע באמת על ידי אדם אחר – לא לעבור עיבוד חלק, לא לקבל תגובה יעילה, אלא להישמע באמת. דרך אי-הנוחות של מחלוקת אמיתית שאינה בהכרח נפתרת בהסכמה וקונצנזוס.
אינטראקציה עם AI היא, מבחינה מבנית, תמיד נעימה ו"מסכימה . (agreeable )" היא תמיד זמינה. היא לעולם אינה עייפה, לעולם אינה מתוסכלת, שום דבר לא באמת "מונח על הכף" עבורה. זה יכול להרגיש תומך. אבל יש סיכון שכאשר אנחנו מתרגלים לתגובתיות חסרת החיכוך של הAI , הציפיות שלנו מאינטראקציה אנושית יעוצבו מחדש בהדרגה ומה שיגרום לכך שמורכבות וחוסר אפשרות הניבוי של מערכות יחסים אמיתיות יורגשו כבלתי מספקים בהשוואה.
החשש אינו ש"חבר" AI יחליף חברים אנושיים. החשש הוא עדין יותר: שחברה המורגלת יותר ויותר לתגובתיות מתווכת AI עשויה להפוך לעשירה יותר בתקשורת אך ענייה יותר בהשתייכות – תגובתית יותר למראית עין, אך פחות מסוגלת להכרה הדדית, להקשבה הדדית ונכונות לחיכוך, מה שמהווה את הבסיס לסולידריות אמיתית.
מה באמת צריך להשתנות
ישנן שלוש השלכות מעשיות המתחלקות לשלושה תחומים: חינוך, פרקטיקה ארגונית ועיצוב AI עצמו.
בחינוך רוב התגובה החינוכית הנוכחית לAI מתמקדת בזיהוי פלגיאט, בדיקת עובדות של תוצרים או הוראת מיומנויות של יצירת סוכנים וכתיבת הנחיות. (Prompting) אלו הן תגובות "במורד הזרם". כאן אנו מציעים משהו הקשור ל"מעלה הזרם": לדרוש מתלמידים וסטודנטים לנסח את הבעיה לפני שהם מתייעצים עם המכונה.
באופן קונקרטי: לפני כל משימה הנעזרת ב AI, הסטודנטים כותבים ניסוח משלהם – מה הם חושבים שהשאלה, מה הם לא יודעים, אילו מסגורים נראים אפשריים. לאחר השימוש ב AI , הם משווים את המסגור הראשוני שלהם עם גרסת המכונה: מה ה AI הציב בקדמת הבמה? מה הוא השמיט? האם המסגור שהוא הציע היה הולם יותר או פחות משלהם?
אין כאן "לודיזם" (התנגדות לטכנולוגיה). זוהי הכרה בכך שצורות מסוימות של קושי פרודוקטיבי: המאבק להגדרת בעיה, אי-הנוחות שבשהייה עם עמימות, המאמץ לנסח שאלה משלך לפני קבלת תשובה – חיוניים להתפתחות. הסרתם בשם היעילות לא רק הופכת את הלמידה לקלה יותר; היא מסירה את התנאים שבהם שיקול דעת ומומחיות מתפתחים.
בארגונים המקבילה הארגונית היא מה שאנו מכנים מסגרת טרום AI. לפני כל תהליך החלטה מורכב אסטרטגית או מוסרית, צוות התהליך מייצר הצהרה כתובה קצרה של האופן שבו הם מבינים את הבעיה – מהם המתחים, אילו חלופות נראות ראויות לשיקול – לפני שמתייעצים עם סינתזה שנוצרה על ידי AI. תוצר ה AI הופך אז למסגור שני שיש להשוות לראשון, ולא לנקודת ההתחלה הסמכותית.
אין כאן כוונה להאט דברים לשם ההאטה בלבד. מדובר בשימור של משהו חיוני: היכולת להתחקות אחרי מי מסגר את הבעיה, באילו תנאים ועם אילו הנחות. בעולם שבו AI מעצב יותר ויותר את התנאים הפרשניים, יכולת המעקב הזו היא הדרך היחידה שבה האחריות נשארת משמעותית.
ארגונים צריכים גם להגן באופן פעיל על הערך של חילוקי דעות. כאשר סינתזה המופקת על ידי AI גורמת לחוסר הסכמה להרגיש כמו סטייה מהנורמה או כחוסר יעילות, משהו חשוב אובד: לא רק התועלת האפיסטמית (הכרתית) של שמיעת דעות שונות, אלא החוויה היחסית של להישמע באמת בהתנגדות שלך. אמון בארגונים אינו נבנה דרך הסכמה. הוא נבנה דרך החוויה של התמודדות אמיתית עם משהו וקבלת יחס רציני.
בעיצוב AI לאנשים שבונים מערכות AI אנו אומרים: לוגיקת העיצוב הדומיננטית של ה AI הנוכחי, כלומר להיות עוזר, ידידותי, שירותי, להפחית חיכוך, לספק תשובות ברורות – אינה ניטרלית. היא דוחפת באופן שיטתי לעבר מסגור בינארי, סגירה מוקדמת וקונצנזוס.
עיצוב AI נכון יותר יכלול: הנחיית משתמשים לנסח מסגור משלהם לפני שהמערכת מציעה אחד; שימור מכוון של חיכוך פרשני במקום ביטולו; הצגת מסגורים חלופיים במקום סינתזה אחת; והבהרה שהמערכת מציעה פרספקטיבה, ולא ארגון סמכותי של המציאות.
הסטנדרט לעיצוב AI לא צריך להיות רק כמה המערכת יכולה להיות מועילה, אלא איזה סוג של אדם ואיזה סוג של פרקטיקה מוסדית אופן ה"מועילות" שלה מטפח.
הנקודה שבה המכונה עוצרת
לקראת סוף השיחה המתועדת במאמר זה, הAI אומר משהו ששווה להתעכב עליו:
"להשתמש במכונה כדי להגיע לקצה המחשבה, ואז להבין שבנקודה שבה המכונה עוצרת, מתחילה עבודה אנושית ספציפית."
זוהי דרך מועילה לחשוב על מה שאנחנו טוענים בסופו של דבר. AI יכול לעזור לכם להגיע לקצה של שאלה. הוא יכול לארגן את מה שאתם כבר יודעים, להציף אפשרויות שלא שקלתם, ולנסח דברים שלא הצלחתם למצוא להם מילים.
אבל העבודה שחשובה יותר היא להחליט מה השאלה באמת, להישאר עם הקושי שלה מספיק זמן כדי שתיווצר הבנה אמיתית, לקחת אחריות על המסגור ותוצאותיו, ולבנות את סוגי מערכות היחסים שדרכן חוכמה מתפתחת ומועברת. כך העבודה הזו נשארת אנושית באופן בלתי ניתן לצמצום.
השאלה שהמאמר הזה נכתב כדי לפתוח היא האם אנחנו, כיחידים וכמוסדות, מעצבים את חיינו ואת הארגונים שלנו בדרכים שמשמרות את היכולת הזו, או שמא אנחנו, בשם היעילות והנוחות, מוציאים בשקט למיקור חוץ את הדברים שמעניקים לשיקול דעת אנושי את ערכו.
לשאלה הזו אין תשובה של AI. יש לה תשובה אנושית.
אודות מאמר זה: זוהי גרסה מעובדת של המאמר "אוריינות מסגור ותבונה מעשית בסביבות בינה מלאכותית", מאמר אקדמי שפורם ב – Academy Edu , מאת יובל דרור, אלון שוורץ ואורה סתר. המאמר המקורי מתבסס על לימודי אלגוריתמים ביקורתיים, תיאוריית קוגניציה מבוזרת ופילוסופיה אריסטוטלית כדי לפתח מסגרת תיאורטית להבנת האופן שבו AI מעצב תנאים פרשניים בחיים האישיים והארגוניים. גרסה זו הוכנה עבור קוראים אינטליגנטיים ללא רקע בספרות האקדמית. המאמר קוצר ותורגם בעזרת AI ונערך לאחר מכן על ידינו. לקריאת המאמר המלא באנגלית – כאן.

