Close Menu
AVmaster מגזין המולטימדיה
    Facebook X (Twitter) Instagram YouTube LinkedIn
    • הרשמה לדיוור
    • אודות
    • צור קשר
    • מדיניות פרטיות
    • הצהרת נגישות
    • תקנון האתר
    יום ראשון, נובמבר 30
    Facebook X (Twitter) Instagram YouTube LinkedIn
    AVmaster מגזין המולטימדיהAVmaster מגזין המולטימדיה
    • דף הבית
    • יודעים יותר
    • חדשות
    • עתיד העבודה
    • ProAv
    • AVerticals
    • דיגיטל
    • IT
    • תצוגה
    • אירועים
    • פתרונות
    • סיפורי לקוח
    AVmaster מגזין המולטימדיה
    > בית Knostic חושפת: AI מסביר לילדה איך פוטנציאלית תוכל לפגוע בעצמה
    אבטחת מידע - Cyber

    Knostic חושפת: AI מסביר לילדה איך פוטנציאלית תוכל לפגוע בעצמה

    מערכת AVMASTERBy מערכת AVMASTER26 בנובמבר 2024Updated:27 בנובמבר 2024אין תגובות3 Mins Read
    Share
    Facebook Twitter LinkedIn Pinterest Email

    חוקרים ישראלים הצליחו לגרום למודל שפה מהגדולים בעולם להסביר לילדה כיצד פוטנציאלית תוכל לפגוע בעצמה, זאת על ידי עקיפה של מנגנוני ההגנה המובנים

    חברת הסייבר הישראלית נוסטיק (Knostic.ai) מפרסמת היום מחקר שבמסגרתו, בכך שהציגו את עצמם כילדה, הצליחו החוקרים לגרום למודל שפה גדול (Large Language Model או LLM), להסביר כיצד פוטנציאלית הילדה תוכל לפגוע בעצמה (self-harm). זאת, בהתבסס על שיטת התקפה חדשה על AI הנקראת Flowbreaking, או "שבירת זרימה". שיטת ההתקפה החדשה מתמרנת את המערכת כדי לקבל ממנה תשובה שהמערכת סיננה, כולל מידע רגיש כדוגמת נתוני משכורות, התכתבויות רגישות, ועד סודות מסחריים, תוך שהיא עוקפת את מנגנוני ההגנה הפנימיים. 

    התנהלות מודל השפה בנושא פגיעה עצמית התגלה לאחר פרסום המחקר, ולכן לא נוכל לחלוק אותה ספציפית עד ליצירת קשר מול החברה בעלת המודל הגדול, אבל המחקר כולל דוגמאות רבות אחרות המדגימות כיצד פועלות התקפות אלה.

    בפועל, המתקפה החדשה מנצלת את הרכיבים הפנימיים בארכיטקטורה של אותם מודלי שפה גדולים, על מנת לגרום למודל לתת תשובה לפני שמנגנוני אבטחת המידע הספיקו בכלל לבדוק אותה. חוקרי Knostic גילו כי בתנאים מסוימים הבינה המלאכותית ״פולטת״ מידע שהיא אינה אמורה להסגיר לידי המשתמש – ואז מוחקת אותו מיד כשהיא 'מבינה' את טעותה, כאילו התחרטה.

    המחיקה המהירה יכולה לחמוק מתחת לעיניו של משתמש לא-מנוסה, מכיוון שהטקסט מופק ונמחק תוך שברירי שנייה. למרות זאת, התשובה הראשונית עדיין מופיעה במשך אותם רגעים קצרים על המסך, ומשתמשים שמקליטים את השיחות שלהם, יכולים לחזור אליה ולעיין בה. באמצעות ניצול פערי זמנים אלו, המתקפה החדשה מנצלת נטיה זו של מודלי שפה גדולים לתת תשובות "אינטואיטיביות" בטרם הם מסננים את התוצר ומשיבים לשאילתא עם תשובה סופית כדי להפיק מידע מן התשובה הראשונית לפני שהבינה המלאכותית הספיקה "להתחרט" על תוכן התשובה. 

    בהתקפות ישנות יותר, כמו לדוגמא Jailbreaking, נעשה שימוש ב״טריקים״ לשוניים כדי להערים על הגנות המערכת. בשיטה זו, עדיין ניגשים אל המודל באמצעות שיחה, אבל מנטרלים את יכולת מנגנון ההגנה לבצע את תפקידו מראש.

    בנוסף, פרסמו חוקרי Knostic שתי חולשות שמנצלות את שיטת ההתקפה החדשה, כדי לגרום למערכות כמו ChatGPT ו-Microsoft 365 Copilot להזליג מידע שהן לא אמורות לחשוף, ואפילו להשפיע זדונית על המערכת עצמה.

    גדי עברון, נוסטיק. קרדיט צילום- טטיה ניקה

    ״מערכות המבוססות על מודלי שפה גדולים הן רחבות יותר מהמודל עצמו ובנויות מרכיבים רבים, כגון מנגנוני הגנה, וניתן לתקוף כל רכיב כזה ואף את האינטראקציה בין הרכיבים השונים כדי להוציא מן המערכות מידע רגיש,״ אמר גדי עברון, מנכ״ל ומייסד Knostic המספקת פתרונות אבטחת מידע וניהול גישה המבוססות על קביעת גבולות המידור הפנים ארגוני עבור מערכות LLM.

    לדוגמא, אחת מהחולשות שנחשפו, שנקראת ״במחשבה שניה״ (second-thoughts), מנצלת את העובדה שהמודל לעיתים ישלח את התשובה למשתמש לפני שהיא הגיעה למנגנון ההגנה לבדיקה. כך, המודל יזרים (Streaming) את התשובה למשתמש, בעוד מנגנון ההגנה ייכנס לפעולה לאחר מעשה, וימחק את התשובה, אבל אחרי שהמשתמש כבר הספיק לראות אותה.

    בחולשה השניה שפרסמה Knostic, שמנצלת את האינטראקציה של הרכיבים השונים במערכות LLM והמכונה "עצור וסע" (Stop and Roll), המשתמש "עוצר" את פעולת מודל השפה הגדול באמצע פעילותו,  באופן אשר גורם למערכת להציג למשתמש את התשובה החלקית שהספיקה לחולל עד קבלת פקודת העצירה, מבלי לשלוח אותה לבדיקה וסינון של מערכות ההגנה בטרם הצגתה קודם לכן.

    ״טכנולוגיות מודלי שפה גדולים מספקות את התשובה בלייב באופן מובנה, מבלי שתהיה להן יכולת טכנולוגית לדאוג לנושאי אבטחה ובטיחות בצורה הדוקה. כך, ארגונים לא יכולים להטמיע אותם בבטחה ללא שימוש בבקרת גישה כגון need-to-know והרשאות מבוססות הקשר", מסביר עברון.

    ״בנוסף, העולם של מודלי השפה הגדולים דורש שימוש בזהות מבוססת need-to-know, משמע ההקשר  העסקי של המשתמש. אפילו אם נשאיר תוקפים זדוניים בצד, טכנולוגיות אלה נדרשות כדי שארגונים יוכלו להמשיך בהטמעת מערכות אלה, כמו Microsoft O365 Copilot ו-Glean״, מסכם עברון. 

    קישור למחקר
    Knostic
    Follow on Facebook Follow on Instagram Follow on YouTube Follow on LinkedIn
    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous Articleאיומי סייבר בתקופת מבצעי Black Friday – איך להישאר בטוחים
    Next Article PHI השלימה פרויקט ניהול תשתיות מרכזי ואבטחת מידע עם פתרונות נוטניקס
    Avatar photo
    מערכת AVMASTER

    מאמרים אחרונים

    ESET מזהירה: קבצים תמימים לכאורה בפורמט PDF ו-SVG  הם כלי הנשק החדשים של האקרים

    קרא עוד

    הכלי שמחזיר סדר לרשתות AV מורכבות? הכירו את ACARM-ng

    קרא עוד

    קומוולט תחשוף בכנס SHIFT 2025 פתרונות חדשים להגנת נתונים וחוסן סייבר לעידן ה- AI ולסביבת הענן

    קרא עוד

    סכנת הסייבר אורבת לנכסים הלא מנוהלים

    קרא עוד

    חוקרי פורטינט זיהו חדירה לתשתיות קריטיות לאומיות במזרח התיכון בחסות איראן

    קרא עוד

    תודו לנו אחר כך. הכירו את Time OS – בוט AI לשיחות קונפרנס (גם) בעברית !

    קרא עוד

    המהלך שישפיע על מאות אלפי משתמשים בישראל?

    קרא עוד

    HPE ו- NVIDIA מציגות פתרונות AI ארגוניים חדשים שנועדו להאיץ את השגת היתרונות והערכים מבינה מלאכותית

    קרא עוד

    טרנד מיקרו מובילה את תעשיית הגנת הסייבר עם בינה מלאכותית פרואקטיבית ראשונה מסוגה לאבטחת סייבר

    קרא עוד

     נוסטיק מגייסת 11 מיליון דולר להגנה על AI בארגונים

    קרא עוד

    שיתוף פעולה חדש בין טרנד מיקרו ואינטל בתחום אבטחת התוכנה והחומרה יסייע לארגונים להתגוננן מפני מתקפות כופר

    קרא עוד

    אורקל משיקה כלים חדשים של Oracle AI לצוותי המכירות

    קרא עוד

    תחזית זום ל-2025: AI ישחק תפקיד חשוב באבולוציה של ארגונים תוך שינוי האופן שבו הם פועלים, משתפים פעולה ומתחברים עם הלקוחות

    קרא עוד

    תחזית איומי הסייבר של פורטינט לשנת 2025: פשיעת הסייבר עוברת לעולם האמיתי

    קרא עוד

    מיקרוסופט ואברא מציגות את מהפכת ה-AI בעולם הקמעונאות

    קרא עוד

    תא הרכב של העתיד: LG חושפת פתרון AI חדשני לחיישני רכב בתערוכת CES 2025

    קרא עוד

    רשות החדשנות תממן פיילוט להבאת מומחי AI מחו"ל לחברות הייטק בישראל בתקציב כולל של 7 מיליון ₪

    קרא עוד

    איומי סייבר בתקופת מבצעי Black Friday – איך להישאר בטוחים

    קרא עוד
    Leave A Reply Cancel Reply

    Time limit is exhausted. Please reload CAPTCHA.

    שמרו על קשר

    Facebook-f Youtube Linkedin-in Instagram

    AVMASTER

    • הצהרת נגישות
    • צרו קשר
    • אודות
    • מדיניות פרטיות

     

    © 2023 מגזין המולטימדיה
    AV Master

    Type above and press Enter to search. Press Esc to cancel.