בשבוע שעבר, משרד החקירות הפדרלי (FBI) פרסם הודעת שירות לציבור על העלייה בתוכן מזויף עמוק וכיצד הוא משמש לפשעים כמו סחיטה, סחיטה והטרדה. במונחים הפשוטים ביותר, זיוף עמוק הוא חומר מולטימדיה סינתטי המנסה לחקות מקור. זה יכול להיות תמונה מדור בינה מלאכותית, וידאו או קליפ אודיו.
תוכן
- מה אומרים המומחים על זיופים עמוקים
- איך אתה יכול לשמור על עצמך
- מדיה חברתית נעשית בבטחה ובאחריות
- מה לעשות אם אתה מקבל זיוף עמוק
- איך לזהות זיופים עמוקים
- בעיה רצינית עם פתרונות חצי יעילים
השם "דיפפייק" מגיע מהטכנולוגיה המובנית המשמשת ליצירת מדיה כזו - למידה עמוקה - אשר כרוך באימון מודל AI תוך שימוש בחומר מקורי ולאחר מכן שינוי שלו כדי ליצור את הרצוי תוצאות. זו לא בדיוק המצאה חדשה, אלא עם AI גנרטיבי מתפוצץ בפופולריות - וגישה - פשעים מזויפים עמוקים נמצאים במגמת עלייה.
סרטונים מומלצים
הפופולריות שלהם עד כדי כך שאפילו הקמפיין של המועמד הרפובליקני לנשיאות רון דה-סנטיס השתמש בתמונות מזויפות עמוקות של יריבו דונלד טראמפ כדי להעליב אותו. זיופים עמוקים הם גם אחת הסיבות לכך שקריאות לוויסות AI מועלות בכל מקום. לפי ה-FBI, התוכן ליצירת זיופים עמוקים מוסר בדרך כלל מפוסטים ברשתות החברתיות וקטעי שיחות וידאו לפני שינוי לחומרים בעלי אופי מיני מפורש לסחיטה ובריונות.
קָשׁוּר
- יצרנית ChatGPT OpenAI עומדת בפני חקירה של FTC על חוקי הגנת הצרכן
- תעבורת האתר ChatGPT ירדה לראשונה
- OpenAI בונה צוות חדש כדי לעצור בינה מלאכותית סופר אינטליגנטית
מה אומרים המומחים על זיופים עמוקים
אז מה הפתרון? לצערי, אין פתרון. לפחות, לא בלי לעשות פשרה - כזו שביסודה הופכת את כל המשמעות של "מדיה חברתית" על ראשה.
"למרבה הצער, הדרך היחידה להיות בטוחה שאף אחת מהתמונות או הסרטונים שלך לא משמשת ליצירת זיופים עמוקים היא להפסיק לפרסם כל תמונות של עצמך באינטרנט, אבל זה ידרוש הרבה כיף ממשתמשי האינטרנט", אומר אדריאנוס וורמנהובן, אבטחת סייבר יועץ ב נורד.
"ככל שיופיעו נוהלי אבטחה חדשים וטובים יותר, שחקנים זדוניים ימצאו דרך לגרום נזק. זה משחק של התעדכנות ומרגיש מאכזב לפעמים", אומר Parteek Saran, לשעבר גוגלר ויצר כלי ניהול סיסמאות מהדור הבא בשם אונו. עוד הוא מציע שיש לנסות ולאמץ "פילוסופיית אמון אפס" בכל הנוגע לפרסום תוכן במדיה החברתית ומדגיש תקשורת יעילה עם מכרים כדי להתרחק מזיוף עמוק הונאות.
"בעוד שבינה מלאכותית יכולה לסייע בטיפול בדאגות הבטיחות הדיגיטלית, אין רשת בטיחות חסינת שטויות", אומר ירון ליטוין, מומחה לבטיחות דיגיטלית ו-CMO ב- חוּפָּה. האפליקציה בעלת השם של החברה מכוונת להגנה על ילדים מפני פשעי מין מקוונים ומציעה גם מערך מגוון של בקרת הורים. Litwin מוסיף שכדאי להימנע מפרסום תמונות אינטימיות או מתפשרות תוך הפחתת תדירות פרסום אפילו תמונות רגילות.
איך אתה יכול לשמור על עצמך
זיופים עמוקים הם מפחידים, וקשה להבין את הטראומה שהם יכולים לגרום לאדם ולבני משפחתו. אבל יש כמה דרכים שבהן משתמשים יכולים להימנע מליפול בפח, או לפחות להתרחק במידה רבה.
כדי להבין אילו צעדים ממוצעים סמארטפון משתמשים בעלי כישורים דיגיטליים טיפוסיים יכולים לקחת, פניתי אל אנדרו גרדנר, סגן נשיא למחקר וחדשנות ב Gen Digital, חברת תוכנה המציעה כלי בטיחות מהימנים כמו Norton, Avast ואווירה, בין היתר.
גרדנר אומר כי פרוטוקולי הבטיחות מתחילים ברמה הבסיסית. משתמשים צריכים להתחיל בהפיכת הפרופילים שלהם לפרטי - או לפחות לשנות את הגדרות החשיפה של הפוסטים כך שרק האנשים שהם עוקבים אחריהם יכולים לראות ולקיים אינטראקציה עם הפוסטים שלהם. שליטה הורית, שזמינות כעת כמעט לכל פלטפורמת מדיה חברתית מרכזית, צריך להיות מופעל בקפידה כדי שהאפוטרופוסים יוכלו לפקוח עין על כל אינטראקציה חשודה.
הייעוץ הכללי הוא שצריך לקבל רק בקשות מאנשים שהם מכירים, אבל צעד נוסף יכול להגיע רחוק. "אם אתה פועל ברשת, בדוק את הפוסטים והפעילויות האחרונות של המוזמנים כדי לאמוד עד כמה הם אמיתיים", אומר גרדנר, ומוסיף כי יש להיזהר מ"חשבונות עם מעט חברים או חברים משותפים." עצה מכרעת נוספת שיש למנהל Gen Digital לתת היא בדיקה והגבלת מדיה חברתית כניסות.
משתמשים לעתים קרובות מבקרים בשירותים מקוונים, וכדי להימנע מהטרחה של יצירת חשבון, הם בוחרים באפשרות הכניסה למדיה החברתית. "זה נותן לאפליקציות גישה למידע אישי, ובמצבים מסוימים, אפליקציות אלה מוכרות את המידע הזה לצדדים שלישיים", הוא אומר. שערוריית קיימברידג' אנליטיקה הקשורה לפייסבוק הוא דוגמה מצוינת. יש לבדוק מעת לעת אילו אפליקציות מחוברות לחשבונות המדיה החברתית שלהם, ואם אין צורך, יש לבטל את הגישה שלהם.
זיופים עמוקים הם פשעים מתוחכמים המונעים בינה מלאכותית, אך גרדנר מציע שמשתמשים עדיין צריכים לדבוק בכמה הנחיות בטיחות בסיסיות - כגון כמו הפעלת אימות דו-גורמי, שימוש בסיסמאות חזקות, הפעלת מפתחות ביומטריים והימנעות מכל חשוד או לא ידוע קישורים.
מדיה חברתית נעשית בבטחה ובאחריות
Canopy's Litwin סבור שככל שאתה משתף יותר, כך קל יותר ליצור זיופים עמוקים משכנעים. אין מחסור במודלים מפוקפקים של יצירת תמונות AI ללא הגבלות על יצירת חומר מפורש. כלים אלה מסתמכים על קלט תמונה כדי להכשיר את המודל. ככל שהוא מוזן יותר נתוני אימון, כך הזיופים העמוקים הופכים להיות מדויקים ומציאותיים יותר.
זו הטקטיקה הסטנדרטית המיושמת על ידי מחוללי תמונות AI מיינסטרים כמו מסע אמצע. אם הפיד החברתי שלך פתוח ויש לו כמות מספקת של תמונות וסרטונים, אין מניעה ששחקן גרוע לגרד אותם כדי ליצור זיופים עמוקים מתפשרים. אבל אם אתה בין האנשים שרואים ערך במדיה החברתית מקום לשמר את הזיכרונות היקרים ביותר שלך, יש כמה אמצעים שאתה צריך לקחת.
"היזהר מאיזה מידע אישי אתה משתף באינטרנט, התאם את הגדרות הפרטיות בחשבונות שלך, הפעל אימות דו-שלבי ובדוק בקפידה את התמונות לאיתור פגמים כלשהם", מציין בויד קלוויס, מומחה לאבטחת סייבר במועצת הביטחון של פורבס ומחבר הספר "Through The Firewall: The Alchemy Of Turning Crisis Into Opportunity".
אבל איך לזהות באופן אמין פרופיל מדיה חברתית שסביר להניח שיש מאחוריו שחקן רע שעוסק במעשים מפוקפקים כמו יצירה והפצה של זיופים עמוקים? "אם שותפו חומרי וידאו או אודיו מפרופילים חשודים, והחשבונות אינם מכילים מידע אישי או תמונות, סביר להניח שהפרופיל מזויף", מציע תומס סמוליס, אדריכל אבטחת מידע ב-Baltic Amadeus. הוא מציע שפרופילים כאלה חסרי מידע אישי מזהה נוצרים במיוחד כדי להפיץ זיופים ומידע שנוי במחלוקת אחר".
מה לעשות אם אתה מקבל זיוף עמוק
אבל יש רק כל כך הרבה אמצעי זהירות שמשתמש סמארטפון ממוצע יכול לנקוט. אפילו המשתמשים בעלי הידע הדיגיטלי ביותר מוצאים את עצמם בקצה המקבל של פשעי סייבר, גם לאחר באמצעות כל הכלים הסטנדרטיים כמו אימות דו-גורמי, פרופילים פרטיים וביומטרים חומות אש.
אם, למרות נקיטת כל אמצעי הזהירות, אתה עדיין מוצא את עצמך במרכזו של פשע מזויף עמוק, פנה לייעוץ מומחה ועזרה מהרשויות במקום לקחת את העניינים לידיים שלך. מומחים מציינים כי ישיבה על הטרדה כזו או ניסיון להתמודד איתה בדיסקרטיות בעצמם לעתים קרובות מחמיר את המצב עבור הקורבנות.
"אם אתה מגלה שמישהו עושה שימוש לרעה בתוכן שלך, פנה לייעוץ שמכיר את חוק זכויות היוצרים שיעזור לך להסיר את התוכן כמו מהר ככל האפשר", אומר רוב סקוט, חבר בלשכת עורכי הדין בדאלאס ומומחה משפטי מורשה בתחומים כמו סיכון אבטחת סייבר ונתונים פְּרָטִיוּת.
התייעצות עם מומחה משפטי הוא חיוני מכיוון שהוא יכול להדריך אותך דרך הזכויות הדיגיטליות שלך, Canopy's Litwin מציע גם לשמור על כל ראיות, מייעצות לקורבנות "לתעד כל ראיה לניסיונות הסחיטה, כגון הודעות, מיילים או כל צורה של תקשורת הקשורה ל- סחיטה."
עצה מכרעת נוספת היא שעל הקורבן להפסיק מיד כל מגע עם פושע מכיוון שהפושע יכול להמשיך לתמרן או להטריד אותם בדרישות סחיטה חמורות יותר. במקביל, על המשתמשים ליצור קשר עם מומחה אבטחת סייבר או לחייג לאחד ממוקדי הסיוע הממשלתיים לפשעי סייבר כדי לנקוט באמצעים הנכונים בזמן.
איך לזהות זיופים עמוקים
עם מנועי AI שמתוחכמים יותר ויותר, סוג הזיופים העמוקים שהם מייצרים הופך להיות אמיתי בצורה מוזרה וקשה לזהות. עם זאת, יש עדיין כמה סמנים שמשתמשים יכולים לשים לב אליהם כדי לזהות חומר מתפשר שהשתנה סינתטית או שנוצרה בינה מלאכותית.
להלן אוסף של מזהים מזויפים עמוקים שיש למומחים להציע:
- שימו לב לתנועות עיניים לא טבעיות. אם נראה שעיניו של אדם אינן ממצמצות, תנועת העיניים כבויה, או שהבעות הפנים אינן מסונכרנות עם המילים שהוא מדבר, ככל הנראה מדובר בקליפ מזויף עמוק. חוסר רגשות, או רגשות לא קוהרנטיים, הוא סמן מובהק לכך שהמדיה עברה צורה דיגיטלית.
- "טכנולוגיית Deepfake מתמקדת בדרך כלל בתווי פנים", אומר גרדנר. "אם צורת הגוף של האדם לא נראית טבעית, או אם התנועות שלו קופצניות ומפורקות, הסרטון כנראה הוא זיוף עמוק".
- סמן אמין נוסף הוא הרקע, שיכול להיראות מטושטש באופן לא טבעי או מראה חפצים חזותיים מוזרים. דרך קלה נוספת לזהות זיופים עמוקים היא לחפש שינוי צבע חריג או אי התאמה רצינית של צבעים, במיוחד ביחס לפנים ולצל של פריטים מסביב.
- אם אתה נתקל בתמונה שבה אדם מנדנד "שיער מושלם" ואתה לא יכול לזהות אלמנטים בודדים כמו כמה קווצות שיער מתנופף או מקורזל, היזהרו. ידוע גם כי דגמי AI נאבקים בשיניים. שימו לב לשיניים שהן מושלמות באופן לא טבעי, או כאלו שאין להן קווי מתאר לשיניים בודדות, או אולי יותר שיניים מהתותבת האנושית הרגילה.
- חלקי גוף לא מיושרים, קצוות מטושטשים, כמה אצבעות נוספות או פחות, איברים מעוותים בצורה מוזרה, תנועה לא מסונכרנת של חלקי גוף, וקול חסר הפסקות והפסקות רגשיות הם הסימנים האחרים שכדאי להיזהר מהם היטב ל. "להקלטות קול או אודיו מזויפות יש לרוב רעשי רקע, קולות רובוטיים והגיות מוזרות", מסביר סמוליס.
בעיה רצינית עם פתרונות חצי יעילים
כפי שהוסבר לעיל, אין רשת ביטחון חסינת שטויות נגד זיופים עמוקים. אבל אם אתה זהיר לגבי היכן אתה משתף תמונות, מי יכול לראות אותן ועד כמה רחוק הגישה שלך למדיה החברתית, אתה יכול להישאר באזור בטוח יחסית.
צריך גם לשים לב מי החברים המקוונים שלהם, וגם לבדוק את הפעילויות של הזמנות חדשות לפני שמוסיפים אותן למעגל החברים שלהם ברשתות החברתיות. באשר לזיופים עמוקים, זה קצת מסובך. אבל אם תישארו ערניים ותקדישו זמן להעריך חוסר עקביות בתמונה או סרטון חשודים, ניתן לזהות זיופים עמוקים ברמת דיוק גבוהה למדי.
בסופו של יום, הכל עוסק בטיפוח הרגלים מקוונים היגייניים ושמירה על ערנות במרחב מקוון הנוטה יותר ויותר לזיוף.
המלצות עורכים
- Google Bard יכול עכשיו לדבר, אבל האם הוא יכול להטביע את ChatGPT?
- חברת הבינה המלאכותית החדשה של אילון מאסק שואפת "להבין את היקום"
- פריצות דרך של בינה מלאכותית יכולות להגיע דרך המוח של דבורים, אומרים מדענים
- OpenAI חושפת את מיקומו של המאחז הבינלאומי הראשון שלה
- 81% חושבים ש-ChatGPT הוא סיכון אבטחה, כך עולה מהסקר