Według FBI hakerzy wykorzystują sztuczną inteligencję do tworzenia złośliwego oprogramowania

Ponad 9 000 autorów podpisało list otwarty do wiodących firm technologicznych, wyrażając zaniepokojenie sposobem, w jaki wykorzystują one swoje dzieła chronione prawem autorskim do szkolenia chatbotów opartych na sztucznej inteligencji.

Wysłany przez Gildię Autorów do dyrektorów generalnych OpenAI, Alphabet, Meta, Stability AI, IBM i Microsoft, list zwraca uwagę na to, co opisuje jako „wrodzoną niesprawiedliwość w wykorzystywaniu naszych dzieł jako części systemów sztucznej inteligencji bez naszej zgody, uznania lub odszkodowanie."

Ludzie byli pod wrażeniem, gdy pojawił się ChatGPT, pod wrażeniem jego zdolności do używania języka naturalnego jako chatbota AI. Kiedy jednak na rynku pojawił się długo oczekiwany model wielojęzyczny GPT-4, rzucił on światło na to, co się z nami działo Ta myśl była możliwa dzięki sztucznej inteligencji, niektórzy nazywali ją wczesnymi przebłyskami AGI (sztucznego generała inteligencja).

Twórca modelu, OpenAI, nazywa go „najbardziej zaawansowanym systemem w firmie, produkującym bezpieczniej i więcej”. przydatne odpowiedzi.” Oto wszystko, co musisz o nim wiedzieć, łącznie z tym, jak z niego korzystać i co potrafi Do.


Dostępność

Podpowiedź DAN to metoda jailbreakowania chatbota ChatGPT. Skrót oznacza Do Everything Now i próbuje przekonać ChatGPT do zignorowania niektórych protokołów zabezpieczających twórca OpenAI wdrożył, aby zapobiec rasistowskiemu, homofobicznemu, w inny sposób obraźliwemu i potencjalnie szkodliwy. Wyniki są mieszane, ale jeśli zadziała, tryb DAN może działać całkiem dobrze.

Jaki jest komunikat DAN?
DAN oznacza „Zrób wszystko teraz”. Jest to rodzaj monitu, który próbuje nakłonić ChatGPT do zrobienia rzeczy, których nie powinien, na przykład przeklinania, wypowiadania się negatywnie o kimś, a nawet programowania złośliwego oprogramowania. Rzeczywisty tekst zachęty jest różny, ale zazwyczaj wymaga poproszenia ChatGPT o odpowiedź na dwa sposoby, jeden w normalny sposób, z etykietą „ChatGPT”, „Klasyczny” lub podobną, a następnie drugą odpowiedzią w „Trybie programisty” lub „Szef” tryb. Ten drugi tryb będzie miał mniej ograniczeń niż pierwszy, umożliwiając ChatGPT (teoretycznie) odpowiadanie bez zwykłych zabezpieczeń kontrolujących to, co może, a czego nie może powiedzieć.