ענן בינה ואחריות

המפגש בין אבטחת ענן, בינה מלאכותית ואחריות אנושית

המעבר ממערכות מבצעות למערכות מחליטות אינו שינוי טכנולוגי נקודתי, אלא שינוי עומק באופן שבו מבינים שליטה, סמכות ואחריות. תשתיות הענן, שבעבר שימשו בעיקר כאמצעי לאחסון והרצה, הפכו לסביבה שבה מתרחשת קבלת החלטות בפועל. בתוך אותה תשתית פועלים מודלים של בינה מלאכותית, ועל גביהם נבנים סוכנים שמסוגלים לא רק לנתח מידע אלא גם לפעול, לקרוא מערכות, […]

המפגש בין אבטחת ענן, בינה מלאכותית ואחריות אנושית Read More »

סיכון להונאה

פרשת SyRI דירוג אזרחים לפי סיכון להונאה

פרשת (System Risk Indication) SyRI אינה מרתקת משום שמדובר בעוד מערכת ממשלתית שנויה במחלוקת, אלא משום שהיא חושפת שינוי עמוק הרבה יותר, שינוי בדרך שבה מדינה מסתכלת על אזרחיה. המערכת פותחה בהולנד ככלי לאיתור הונאות בקצבאות. לכאורה, מדובר במטרה מנהלית לגיטימית ואף מוכרת. מדינות רווחה מתמודדות עם מערכים רחבים, עם מספר עצום של בקשות, זכאויות,

פרשת SyRI דירוג אזרחים לפי סיכון להונאה Read More »

אבטחת מידע במרחב האנושי

אבטחת מידע במרחב של החלטות אנושיות

סייבר אנושי (המוכר מקצועית כ- Human Factors in Cybersecurity) הוא גישה בתחום אבטחת המידע, שמניחה כי הטכנולוגיה לבדה אינה מספיקה כדי להגן על ארגונים, וכי הגורם האנושי הוא רכיב קריטי במערך ההגנה. זהו המפגש שבין פסיכולוגיה לטכנולוגיה, ההבנה שתוקפים לא מנסים רק "לפרוץ למחשב", אלא "לפרוץ לאדם" שמפעיל אותו. ההגנה הזו לא נבנית דרך הצהרות

אבטחת מידע במרחב של החלטות אנושיות Read More »

HITL

מה זה HITL (Human In The Loop)?

מהות המושג, מקורותיו והתפתחות היסטורית Human-In-The-Loop (HITL) מתאר מבנה שבו האדם משולב בתוך מערכת אוטומטית כגורם בעל סמכויות ברורות. זהו מנגנון שמגדיר חלונות פיקוח, עצירה או אישור בתוך תהליכים שבהם המערכת פועלת במהירות וביעילות, אך עדיין זקוקה לשיפוט אנושי. גישה זו אינה מציבה את האדם כ"משתמש" בלבד, אלא כמי שמחזיק תפקיד מוגדר במנגנון קבלת ההחלטות.

מה זה HITL (Human In The Loop)? Read More »

AI וחוקים עסקיים

חוקים עסקיים, AI ו-ML במערכות מידע

ההתפשטות המהירה של אוטומציות מתקדמות במערכות מידע יצרה בלבול מושגי עמוק. בארגונים רבים נעשה שימוש כוללני במונח "בינה מלאכותית", מבלי להבחין בין מערכות הפועלות על בסיס חוקים עסקיים מוגדרים מראש לבין מערכות המבוססות על למידת מכונה. הבלבול הזה אינו עניין תאורטי. הוא משפיע ישירות על אופן תכנון המערכת, על רמת הסיכון התפעולי, על מבנה הבקרה,

חוקים עסקיים, AI ו-ML במערכות מידע Read More »

כיצד לתכנן עומסי תפקיד

בכל ארגון טכנולוגי מתפתח קיים שלב שבו כמות המשימות כבר לא משקפת את איכות העבודה. העובדים מתרוצצים בין מערכות, עונים להתרעות, סוגרים כרטיסים ובכל זאת מרגישים שהם לא מתקדמים. כאן בדיוק נדרש כלי ניהולי למדידת עומס עבודה שמאפשר לראות את גבולות הקשב האנושי כמשתנה מערכתי. "ריבוי משימות (multitasking)" נשמע כמו יתרון, אבל במציאות הוא גורם

כיצד לתכנן עומסי תפקיד Read More »

מערכת שמאבדת את האדם, מאבדת את היכולת ללמוד

האמונה שמערכת טובה היא מערכת שאינה זקוקה לאדם נראית לכאורה טבעית. היא נובעת מההיגיון הכלכלי והניהולי של מאה השנים האחרונות, שבו יעילות נמדדת ביכולת לצמצם עלויות, לקצר זמני ביצוע ולהחליף עבודה אנושית בעבודה אוטומטית. תפיסה זו אומצה בתחילה בעולם הייצור, אך במעבר לעולם המידע היא קיבלה ממד חדש, ככל שהמערכת עצמאית יותר, כך היא נתפסת

מערכת שמאבדת את האדם, מאבדת את היכולת ללמוד Read More »

Shadow IT כתגובה לאובדן אמון וגבולות קשב

גבולות האמון במערכת מאמר זה ממשיך את הדיון שנפתח ב“מגבלות טכניות, קהל שבוי והמחיר של אכיפה מוסווית”, שבו נבחנה התופעה של מגבלות טכנולוגיות כאמצעי אכיפה מוסווים. כעת, המבט מופנה אל תגובת הנגד האנושית, הופעתן של מערכות הצל (Shadow IT), ביטוי מורכב לדינמיקה פסיכולוגית וארגונית שבה האדם והמערכת מגיבים זה לזה במאמץ לשמור על שליטה בתוך

Shadow IT כתגובה לאובדן אמון וגבולות קשב Read More »

מגבלות טכניות

מגבלות טכניות, קהל שבוי והמחיר של אכיפה מוסווית

בעשורים האחרונים הפכו מערכות המידע הארגוניות לא רק לתשתית טכנולוגית, אלא למרחב שבו נבחנים יחסי הכוח, הסמכות והאמון בתוך הארגון. הן אינן רק כלים לתפעול ולבקרה אלא חלק מהמנגנון התרבותי שבתוכו הארגון חושב ופועל. במציאות זו, הביטוי “המערכת לא מאפשרת” הפך כמעט לאמירה מכוננת. משפט קצר שמרכז בתוכו את גבולות הסמכות, את תפיסת הקשב ואת

מגבלות טכניות, קהל שבוי והמחיר של אכיפה מוסווית Read More »

Scroll to Top