איך בינה מלאכותית יכולה לפרוץ את האבטחה שלך

סיכונים והתגמולים של בינה מלאכותית באבטחה

יש תיאבון ופחד מבינה מלאכותית בתוך עסקים. מקבלי החלטות IT (ITDM) מאמינים שבינה מלאכותית היא בסיסית באכיפת אבטחה וממשל, אך גם רואים בה איום על אותן מדיניות.

אז איך מנהיגי IT יכולים למפות את המסע שלהם ל-AI ולשמור על אבטחת המערכת האקולוגית שלהם, תוך הגנה מפני נוף איומים הולך ומתרחב?

מתיו אונאנגסט, מנהל בכיר, לקוח מסחרי ותחנת עבודה ב- AMD , מבין את החשש של מומחי IT ברחבי תעשיית האבטחה, ושוחחנו איתו כדי לחפור עמוק יותר לתוך האתגרים הללו ולגלות פתרונות אפשריים.

 דואליות אבטחה

סקר AMD שנערך לאחרונה מצא כי 75% מאנשי ITDM בבריטניה מאמינים כי בינה מלאכותית היא כעת כלי אינטגרלי בכל הקשור לניהול מדיניות אבטחה וממשל, אך 70% רואים גם בינה מלאכותית איום.

הגורם האנושי נותר אחד מהאיומים הגדולים ביותר על אבטחת הסייבר – מדיוג ועד עובדים ממורמרים. אבל זה גם גורם תורם משמעותי בהפרות ממשל, כאשר עובדים מרבים להזין מידע רגיש תוך שימוש בכלי AI כגון ChatGPT . כתוצאה מכך, אנשי אבטחה מתמודדים עם מספר הולך וגדל של איומים פנימיים וחיצוניים.

מומחי IT עדיין אופטימיים במידה רבה לגבי AI. "במידה רבה, כרגע, זה בא בצורה של חוויות שיתוף פעולה טובות יותר או אולי פרודוקטיביות מוגברת של העובדים", אומר לנו Unangst.

"אבל אחד הדברים האחרים שיצאו מהסקרים האלה היה רצון עז מצד אנשי ה-IT האלה לשפר ולהשקיע עוד יותר בתשתית הבינה המלאכותית. אני חושב שהיתרונות שאנחנו רואים היום טובים, אבל הם נקודת התחלה.

"וככל שפתרונות הבינה המלאכותית האלה ממשיכים להבשיל ולהיות חזקים יותר במהלך השנים הקרובות, אני מצפה שנראה רווחים ויתרונות משמעותיים סביב פרודוקטיביות העובדים, שיש לנו נתונים טובים יותר לקבל החלטות איתם, שיעזור לנו לשפר את העסקים מעבדים ומשפרים את היעילות של הפעילות שלנו, כמו גם דברים אחרים."

 סיכון מול תגמול

אחד הקשיים איתם מתמודדים היום מקצועני האבטחה הוא בהצדקת ה-ROI בכל הנוגע ל-AI, במיוחד בכל הנוגע לגורם האנושי. אם אתה רוצה לפרוס פתרון AI, צריך גם כמויות משמעותיות של הדרכה לגבי אופן השימוש בו, הממשל סביב השימוש בו, והאם השימוש בכל ארגון תואם באופן מלא לתקנות לאומיות ובינלאומיות.

לדברי Unangst, "הם צריכים לשלב את זה עם ההכשרה הנכונה והאפשרות הנכונה של העובדים שלהם כדי שהעובדים שלהם ידעו לזהות דברים שלא נראים נכונים, איך לזהות הזיות פוטנציאליות או אי דיוקים של נתונים, איך להשתמש המידע שיוצא מהכלים האלה בדרך הנכונה, בניגוד לנטייה עיוורת של המידע הזה ולהתקדם איתו.

"אני חושב שיש שם מגוון רחב של סיכונים, החל ממשהו שהוא לא מדויק שפשוט מועתק ומודבק ומשתמשים בו וזה יכול להיות פרסום או איזשהו תזכיר פנימי או, אתה יודע, הנחות נתונים שגויות שעלולות לגרום לרעה החלטות. אז בהחלט אני מצפה שהתעשייה והיכולת של הכלים והדגמים האלה ימשיכו להתפתח ולהשתפר.

"כשאנחנו חושבים על פתרונות האבטחה המבוססים על AI, זה רק עוד שכבה שמשתלבת בפתרון האבטחה הרחב יותר. ולכן, אני חושב שזה מרחב חדש יחסית, אבל כשאנחנו חושבים על חלק מסוכני האבטחה והיישומים המופעלים בדרך כלל על מחשבים ומכשירים, בוודאי שאלו נוטים לקבל הזדמנויות ליעילות משופרת או לרוץ בצורה יעילה יותר, תוך שימוש ב חלק מיכולות הבינה המלאכותית.

"ואז כשאנחנו חושבים על מחשבים חכמים יותר שיכולים לזהות פריצות או לזהות כל סוג של פעילות זדונית או משהו כזה. ישנם מודלים שמפותחים ונחקרים כיום, שבהם חלק מהדגמים הללו יכולים לפעול על מנוע הסקת AI משולב במכשיר, ולזהות ביעילות רבה חלק מהתקפות הללו ואז לשלוח את המערכת למצב המתאים כדי להתמודד עם אלה.

"לכן, מרחב שאגיד נמצא בשלבי פיתוח התחלתיים, אבל בהחלט תחום שאנו צופים שיהפוך לחלק גדול יותר מפתרון האבטחה הרחב יותר במהלך השנים הקרובות."

תקשורת מנהלים

על מנת להגדיל את התקציבים שלהם, מומחי IT צריכים להיות מסוגלים לתקשר את הסיכונים העומדים בפניהם לדרג המנהל. עם זאת, מכיוון שאבטחה היא תחום שסובב סביב מניעת אובדן במקום לייצר רווח, צוותי אבטחה רבים מתמודדים עם קשיים מבחינת מיומנויות ואיוש ונאלצים לעשות יותר בפחות. אז איך הם יכולים להצדיק השקעה בפתרונות AI?

"ברור שכשאנחנו חושבים על איך CISO הולך לתקשר את זה ואיך הם הולכים לחשוב על זה בצורה רחבה יותר, זה קריטי לאזן את הדיון סביב ההזדמנות עם הסיכונים והצורך לשמור על מיקוד חזק באבטחה .

"עליך לוודא שאתה מראה את הערך שהכלים והיכולות הללו מביאים לשולחן וכיצד זה יעזור לעסקים להיות פרודוקטיביים יותר או לשפר את התפעול. בינה מלאכותית היא המרחב העצום הזה כרגע, ולכן אני חושב שהמפתח במונחים של תקשורת אלה והאופן שבו אתה ממסגר את זה הוא לוודא שאתה מדבר יותר על המקרים הספציפיים שאתה פורס, הערך שהוא מספק, ו איך אתה הולך לנהל סיכונים, אבטחה או כל שיקול עסקי אחר סביב אותה פריסה ספציפית."

 מציאת האיזון

לאחר הפיצוץ של יכולות הבינה המלאכותית שראינו בשנים האחרונות, אין זה מפתיע שהרגולציה הבינלאומית צולעת מאחור, ונאבקת לשמור על קצב החידושים המתפתחים. כמה צעדים נעשו על ידי התחייבויות בינלאומיות ופסגת בטיחות AI בבריטניה, אך מפתחים חוששים שזה עלול לחנוק חדשנות.

"בהחלט חייב להיות איזון שם, נכון? מנקודת מבט של AMD, אנו מחויבים מאוד לבצע את מפת הדרכים שלנו בינה מלאכותית ואת סל המוצרים שלנו בצורה אחראית. הצטרפנו למספר ארגונים ברחבי התעשייה שמתמקדים בלהבטיח שכולנו ביחד נעשה זאת.

"עליך לוודא שהפתרונות האלה מאובטחים. אתה צריך לוודא שהם פועלים לפי מערכת חזקה של הנחיות מוסריות ואתיות. אז אני מאמין שיש שם איזון נכון. דיון שאנחנו צריכים לקיים ביחד כתעשייה הוא, איך דוחפים את החדשנות במרחב הזה, אבל דואגים שלא נחצה קווים, עד שיש לנו את מעקות הבטיחות והמחסומים הנכונים שם?

"וזה לא משהו שלדעתי כל חברה או ארגון אחד יוכל לעשות בעצמו. זו תצטרך להיות שותפות על פני המערכת האקולוגית הרחבה יותר".

אולי יעניין אותך גם

  • למה אקרים מכוונים לספקי שירותי בריאות? קרא עוד »
  • איך להימנע מקניית מטען מזויף של Apple Watch קרא עוד »
  • חברת אחסון וורדפרס Kinsta נפגעה ממתקפת דיוג קרא עוד »
  • פולקסווגן מחזירה את הכפתורים הפיזיים למכוניות קרא עוד »
להראות יותר
Back to top button

זוהה חוסם מודעות

אנא שקול לתמוך בנו על ידי השבתת חוסם המודעות שלך