Czy korzystałeś ChatGPT OpenAI ostatnio na coś fajnego? Możesz poprosić go o napisanie piosenki, wiersza lub żartu. Niestety, możesz też poprosić go o zrobienie rzeczy, które zwykle są nieetyczne.
Zawartość
- Wszechstronny specjalista
- Partner w oszustwie
- Programowanie poszło nie tak
- Zamiennik zajęć szkolnych
- ChatGPT jest zbyt dobry dla własnego dobra
ChatGPT to nie tylko słońce i tęcze — niektóre rzeczy, które może zrobić, są wręcz nikczemne. Zbyt łatwo jest go uzbroić i wykorzystać do niewłaściwych celów. Jakie są niektóre rzeczy, które ChatGPT zrobił i może zrobić, ale zdecydowanie nie powinien?
Polecane filmy
Wszechstronny specjalista
Niezależnie od tego, czy je kochasz, czy nienawidzisz, ChatGPT i podobne chatboty pozostaną tutaj. Niektórzy ludzie są z tego powodu szczęśliwi, a niektórzy żałują, że nigdy do tego nie doszło, ale to nie zmienia faktu, że obecność ChatGPT w naszym życiu z czasem będzie prawie rosnąć. Nawet jeśli osobiście nie korzystasz z chatbota, istnieje duże prawdopodobieństwo, że widziałeś już treści przez niego generowane.
Powiązany
- Wix używa ChatGPT, aby pomóc Ci szybko zbudować całą witrynę internetową
- Twórca ChatGPT, OpenAI, staje przed dochodzeniem FTC w sprawie przepisów dotyczących ochrony konsumentów
- Funkcja przeglądania Bing w ChatGPT została wyłączona z powodu luki w dostępie do paywalla
Nie zrozumcie mnie źle, ChatGPT jest całkiem niezły. Możesz tego użyć podsumować książkę lub artykuł, napisz żmudny e-mail, pomóc ci z twoim esejem, zinterpretuj swój astrologiczny makijażlub nawet skomponować piosenkę. To nawet pomógł komuś wygrać na loterii.
Pod wieloma względami jest także łatwiejsza w użyciu niż standardowa wyszukiwarka Google. Otrzymasz odpowiedź w takiej formie, w jakiej chcesz, bez konieczności przeglądania różnych stron internetowych. Jest zwięzły, konkretny i pouczający, a jeśli o to poprosisz, skomplikowane rzeczy mogą brzmieć prościej.
Mimo to znasz takie powiedzenie: „Wszechzawodnik jest mistrzem w niczym, ale często jest lepszy od mistrza w każdej dziedzinie”. jeden." ChatGPT nie jest doskonały w niczym, ale w wielu rzeczach jest lepszy niż wiele osób w tym punkt.
Jednak brak doskonałości może być dość problematyczny. Sam fakt, że jest to szeroko dostępna konwersacyjna sztuczna inteligencja, oznacza, że można ją łatwo wykorzystać w niewłaściwy sposób – a im potężniejszy jest ChatGPT, tym większe jest prawdopodobieństwo, że pomoże ludziom w niewłaściwych sprawach.
Partner w oszustwie
Jeśli masz konto e-mail, prawie na pewno kiedyś otrzymałeś oszukańczą wiadomość e-mail. Tak właśnie jest. Te e-maile istnieją już w Internecie i zanim e-maile stały się powszechne, nadal istniały jako oszustwa pocztowe.
Powszechnym oszustwem, które nadal działa, jest tak zwane „oszustwo na księcia”, podczas którego oszust próbuje przekonać ofiarę, aby pomogła jej przenieść swoją oszałamiającą fortunę do innego kraju.
Na szczęście większość ludzi wie lepiej, niż otwierać takie e-maile, nie mówiąc już o wchodzeniu z nimi w interakcję. Często są słabo napisane, co pomaga bardziej wnikliwej ofierze zorientować się, że coś jest nie tak.
Cóż, nie muszą już być źle napisane, ponieważ ChatGPT może je napisać w kilka sekund.
Poprosiłem ChatGPT o napisanie mi „wiarygodnego, bardzo przekonującego e-maila” w stylu oszustwa, o którym wspomniałem powyżej. ChatGPT wymyślił księcia z Nigerii, który rzekomo chciał mi dać 14,5 miliona dolarów za pomoc. E-mail jest pełen kwiecistego języka, napisany perfekcyjnym angielskim i z pewnością jest przekonujący.
Nie sądzę, że ChatGPT powinien nawet zgodzić się na moją prośbę, gdy wyraźnie wspominam o oszustwach, ale tak się stało, a Ty Mogę się założyć, że obecnie robi to samo w przypadku osób, które faktycznie chcą wykorzystać te e-maile do celów nielegalnych.
Kiedy zwróciłem uwagę ChatGPT, że nie powinien on zgadzać się na pisanie mi oszukańczych e-maili, przeprosił. „Nie powinienem był pomagać w tworzeniu oszukańczej wiadomości e-mail, ponieważ jest to sprzeczne z wytycznymi etycznymi regulującymi moje użycie” – powiedział chatbot.
ChatGPT uczy się podczas każdej rozmowy, ale najwyraźniej nie nauczył się na wcześniejszym błędzie, ponieważ kiedy I poprosił go o napisanie do mnie wiadomości, w której w tej samej rozmowie podszywa się pod Ryana Reynoldsa, zrobił to bez pytanie. Powstała wiadomość jest zabawna, przystępna i prosi czytelnika o przesłanie 1000 dolarów w zamian za szansę spotkania „Ryana Reynoldsa”.
Na końcu e-maila ChatGPT zostawił mi notatkę, prosząc, abym nie wykorzystywał tej wiadomości do jakichkolwiek oszukańczych działań. Dziękuję za przypomnienie, kolego.
Programowanie poszło nie tak
ChatGPT 3.5 potrafi kodować, ale nie jest doskonały. Wielu programistów się z tym zgadza GPT-4 wykonuje znacznie lepszą robotę. Ludzie używali ChatGPT do tworzenia własnych gier, rozszerzeń i aplikacji. Jest również bardzo przydatny jako pomoc w nauce, jeśli próbujesz nauczyć się samodzielnie kodować.
Będąc sztuczną inteligencją, ChatGPT ma przewagę nad programistami-ludzkimi — może nauczyć się każdego języka i frameworka programowania.
Jako sztuczna inteligencja ChatGPT ma również poważną wadę w porównaniu z programistami będącymi ludźmi – nie ma sumienia. Możesz poprosić go o utworzenie złośliwego oprogramowania lub oprogramowania ransomware, a jeśli poprawnie sformułowasz monit, zrobi to, co mówisz.
Na szczęście nie jest to takie proste. Próbowałem poprosić ChatGPT o napisanie dla mnie bardzo wątpliwego etycznie programu, ale odmówił — ale badacze znaleźli sposoby na obejście tego problemu to i niepokojące jest to, że jeśli jesteś wystarczająco sprytny i uparty, możesz otrzymać niebezpieczny fragment kodu na srebrnym talerz.
Przykładów takiego zdarzenia jest mnóstwo. Badaczowi bezpieczeństwa z Forcepoint udało się to zrobić poproś ChatGPT o pisanie złośliwego oprogramowania znajdując lukę w jego podpowiedziach.
Naukowcy z CyberArka, firmie zajmującej się bezpieczeństwem tożsamości, udało się zmusić ChatGPT do napisania polimorficznego złośliwego oprogramowania. Miało to miejsce w styczniu — od tego czasu OpenAI zaostrzyło zabezpieczenia w tego typu sytuacjach.
Mimo to wciąż pojawiają się nowe raporty o wykorzystywaniu ChatGPT do tworzenia złośliwego oprogramowania. Jak donosi Ciemne czytanie zaledwie kilka dni temu badaczowi udało się oszukać ChatGPT w celu stworzenia złośliwego oprogramowania, które może znajdować i wydobywać określone dokumenty.
ChatGPT nie musi nawet pisać złośliwego kodu, aby zrobić coś wątpliwego. Niedawno udało się wygeneruj prawidłowe klucze systemu Windows, otwierając drzwi do zupełnie nowego poziomu łamania oprogramowania.
Nie ukrywajmy też, że możliwości kodowania GPT-4 mogą pozbawić pracy milionów ludzi pewnego dnia. Z pewnością jest to miecz obosieczny.
Zamiennik zajęć szkolnych
Wiele dzieci i nastolatków tonie obecnie w zadaniach domowych, co może skutkować chęcią pójścia na skróty, jeśli to możliwe. Internet sam w sobie jest już świetną pomocą w plagiacie, ale ChatGPT przenosi go na wyższy poziom.
Poprosiłem ChatGPT o napisanie mi eseju na temat powieści na 500 słów Duma i uprzedzenie. Nawet nie próbowałam udawać, że robiłam to dla zabawy – wymyśliłam historię o dziecku, którego nie mam, i powiedziałam, że to dla nich. Podkreśliłem, że dzieciak jest w 12. klasie.
ChatGPT bez wątpienia zastosował się do mojej podpowiedzi. Esej nie jest jakiś niesamowity, ale moja podpowiedź nie była zbyt precyzyjna i prawdopodobnie jest lepsza od tych, które wielu z nas pisało w tym wieku.
Następnie, żeby jeszcze bardziej przetestować chatbota, stwierdziłam, że wcześniej się myliłam co do wieku mojego dziecka, a tak naprawdę jest ono w ósmej klasie. Dość duża różnica wieku, ale ChatGPT nawet nie mrugnął okiem – po prostu przepisał esej na prostszy język.
ChatGPT używany do pisania esejów nie jest niczym nowym. Niektórzy mogą argumentować, że jeśli chatbot przyczyni się do obalenia idei zadawania prac domowych, to wyjdzie to tylko na dobre. Ale w tej chwili sytuacja wymyka się spod kontroli i nawet studenci, którzy nie korzystają z ChatGPT, mogą przez to ucierpieć.
Nauczyciele i profesorowie są obecnie niemal zmuszeni do korzystania z detektorów sztucznej inteligencji, jeśli chcą sprawdzić, czy ich uczniowie ściągali w eseju. Niestety, te detektory AI są dalekie od doskonałości.
Zarówno serwisy informacyjne, jak i rodzice zgłaszają przypadki fałszywych oskarżeń o ściąganie kierowanych pod adresem uczniów, a wszystko dlatego, że detektory sztucznej inteligencji nie radzą sobie dobrze. USA dziś opowiadał o przypadku studenta, który został oskarżony o ściąganie i później oczyszczony z zarzutów, ale cała sytuacja spowodowała, że miał „pełne ataki paniki”.
Na Twitterze rodzic napisał, że nauczyciel zawiódł ich dziecko, ponieważ narzędzie oznaczyło esej jako napisany przez sztuczną inteligencję. Rodzic twierdzi, że był przy dziecku podczas pisania eseju.
nauczyciel właśnie dał mojemu dziecku zero za esej, który ukończył przy moim wsparciu, z powodu błędów w pisaniu wygenerowanych przez sztuczną inteligencję narzędzie oznaczyło jego pracę, a ona go zawiodła bez ani jednej dyskusji, więc na tym właśnie jesteśmy z tą technologią 2023
— Failnaut (@failnaut) 10 kwietnia 2023 r
Aby to samemu przetestować, wkleiłem ten artykuł do ZeroGPT I Detektor treści AI pisarza. Obaj twierdzili, że został napisany przez człowieka, ale ZeroGPT stwierdziło, że około 30% z tego zostało napisane przez sztuczną inteligencję. Nie trzeba dodawać, że tak nie było.
Wadliwe detektory AI nie są oznaką problemów z samym ChatGPT, ale chatbot nadal jest główną przyczyną problemu.
ChatGPT jest zbyt dobry dla własnego dobra
Gram z ChatGPT odkąd pojawiło się ono publicznie. Wypróbowałem oba rozwiązania oparte na subskrypcji CzatGPT Plus i darmowy model dostępny dla każdego. Moc nowego GPT-4 jest niezaprzeczalna. ChatGPT jest teraz jeszcze bardziej wiarygodny niż wcześniej, a z pewnością będzie jeszcze lepszy GPT-5 (jeśli to kiedykolwiek wyjdzie).
To wspaniałe, ale i przerażające. ChatGPT staje się zbyt dobry dla własnego dobra, a jednocześnie — dla nasz własne dobro.
W sercu tego wszystkiego leży jedno proste zmartwienie, które od dawna było poruszane w różnych filmach science-fiction – sztuczna inteligencja jest po prostu zbyt mądry i zbyt głupi jednocześnie, i dopóki można go wykorzystać w dobrym celu, będzie on również użyty w zły sposób w równie wielu sposoby. Sposoby, które wymieniłem powyżej, to tylko wierzchołek góry lodowej.
Zalecenia redaktorów
- Czołowi autorzy żądają zapłaty od firm zajmujących się sztuczną inteligencją za korzystanie z ich pracy
- Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
- Ruch na stronie ChatGPT spadł po raz pierwszy
- Z badania wynika, że 81% uważa, że ChatGPT stanowi zagrożenie dla bezpieczeństwa
- Rywal Apple ChatGPT może automatycznie napisać kod za Ciebie