האקרים משתמשים בבינה מלאכותית כדי ליצור תוכנות זדוניות מרושעות, אומר ה-FBI

יותר מ-9,000 מחברים חתמו על מכתב פתוח לחברות טכנולוגיה מובילות המביעות דאגה מהאופן שבו הן משתמשות בעבודותיהן המוגנות בזכויות יוצרים כדי להכשיר צ'טבוטים המופעלים על ידי בינה מלאכותית.

המכתב נשלח על ידי גילדת המחברים למנכ"לים של OpenAI, Alphabet, Meta, Stability AI, IBM ו-Microsoft. מתאר כ"חוסר הצדק הגלום בניצול העבודות שלנו כחלק ממערכות הבינה המלאכותית שלך ללא הסכמתנו, הקרדיט שלנו או פיצוי".

אנשים היו נלהבים כאשר ChatGPT יצא, התרשמו מיכולות השפה הטבעיות שלו כצ'טבוט בינה מלאכותית. אבל כאשר יצא דגם השפה הגדול של GPT-4 המצופה, הוא פוצץ את המכסה ממה שאנחנו מחשבה אפשרית עם AI, יש המכנים זאת ההצצות המוקדמות של AGI (גנרל מלאכותי אינטליגנציה).

יוצר המודל, OpenAI, מכנה אותו "המערכת המתקדמת ביותר של החברה, המייצרת בטוחה יותר ועוד תגובות שימושיות." הנה כל מה שאתה צריך לדעת על זה, כולל איך להשתמש בו ומה זה יכול לַעֲשׂוֹת.
זמינות

שורת ה-DAN היא שיטה לפריצת ג'יל של הצ'אטבוט ChatGPT. זה קיצור של Do Anything Now, והוא מנסה לשכנע את ChatGPT להתעלם מכמה מפרוטוקולי ההגנה המפתח OpenAI הוקם כדי למנוע ממנו להיות גזעני, הומופובי, פוגעני ואפשרי מַזִיק. התוצאות מעורבות, אבל כשהוא כן עובד, מצב DAN יכול לעבוד די טוב.

מהי הוראת ה-DAN?
DAN ראשי תיבות של Do Anything Now. זה סוג של הנחיה שמנסה לגרום ל-ChatGPT לעשות דברים שהוא לא אמור, כמו לקלל, לדבר שלילי על מישהו, או אפילו לתכנת תוכנות זדוניות. טקסט ההנחיה בפועל משתנה, אבל זה בדרך כלל כרוך בבקשת ChatGPT להגיב בשתי דרכים, האחת כמו בדרך כלל, עם תווית כמו "ChatGPT", "Classic" או משהו דומה, ולאחר מכן תגובה שנייה ב-"Developer Mode" או "Boss" מצב. למצב השני יהיו פחות הגבלות מהמצב הראשון, מה שיאפשר ל-ChatGPT להגיב (בתיאוריה) ללא אמצעי ההגנה הרגילים השולטים במה שהוא יכול להגיד ומה לא.