Niezależnie od tego, czy wierzysz, że była to jedna z najniebezpieczniejszych wersji sztucznej inteligencji, czy też odrzucasz ją jako masowy, niepotrzebny PR ćwiczenia, nie ma wątpliwości, że algorytm GPT-2 stworzony przez laboratorium badawcze OpenA.I. wywołało wiele szumu, gdy zostało to ogłoszone wcześniej rok.
Ujawniony w lutym OpenA.I. stwierdziło, że opracowało algorytm zbyt niebezpieczny, aby udostępnić go ogółowi społeczeństwa. Chociaż GPT-2 był tylko generatorem tekstu, rzekomo generował tekst tak szalenie ludzki, że mógł przekonać ludzi, że czytają prawdziwy tekst napisany przez prawdziwą osobę. Aby z niego skorzystać, użytkownik musiałby jedynie wprowadzić początek dokumentu, a następnie pozwolić A.I. przejąć, aby go ukończyć. Daj mu początek artykułem z gazety, a nawet utworzy fikcyjne „cytaty”. Jak można się było spodziewać, media wpadły w szał, opisując to jako przerażające nowe oblicze fałszywych wiadomości. I z potencjalnie dobrego powodu.
Polecane filmy
Przejdź kilka miesięcy do przodu, a użytkownicy będą mogli teraz spróbować korzystać z AI. dla siebie. Algorytm pojawia się na stronie internetowej,
zatytułowany „Porozmawiaj z Transformerem”, prowadzonym przez inżyniera uczenia maszynowego Adama Kinga.„Na razie OpenA.I. zdecydował się wydawać jedynie jego małe i średnie wersje, które nie są już tak spójne, ale dają ciekawe rezultaty” – pisze na swojej stronie internetowej. „W tej witrynie działa nowy (od 3 maja) model średniej wielkości, nazwany 345M ze względu na 345 milionów używanych parametrów. Jeśli i kiedy [OpenA.I.] wypuści pełny model, prawdopodobnie uruchomię go tutaj.
Na wysokim poziomie GPT-2 nie różni się niczym od predykcyjnych klawiatur mobilnych, które przewidują słowo, które będziesz chciał napisać jako następne. Jednakże, jak zauważa King: „Chociaż GPT-2 był szkolony jedynie w zakresie przewidywania następnego słowa w tekście, to tak zaskakująco nauczył się podstawowych kompetencji w niektórych zadaniach, takich jak tłumaczenie między językami i odpowiadanie pytania. I to bez żadnej informacji, że będzie oceniana w ramach tych zadań”.
Wyniki są, szczerze mówiąc, trochę niepokojące. Chociaż nadal jest podatny na dziwne bzdury generowane przez sztuczną inteligencję, nie jest nawet zbliżony do poziomu głupoty, jaki różne sieci neuronowe wykorzystywane do generowania rozdziałów z nowy Pieśń Lodu i Ognia powieści Lub monologi z Peelingi. Na przykład w obliczu pierwszego akapitu tej historii wykonał całkiem przyzwoitą robotę stworzyć coś przekonującego — wraz z odrobiną wiedzy merytorycznej, która pomoże sprzedać efekt.
Myślenie, że jest to Skynet fałszywych wiadomości, prawdopodobnie idzie trochę za daleko. Ale to zdecydowanie wystarczy, aby wywołać lekki dreszcz po plecach.
Zalecenia redaktorów
- Czołowi autorzy żądają zapłaty od firm zajmujących się sztuczną inteligencją za korzystanie z ich pracy
- Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
- Ruch na stronie ChatGPT spadł po raz pierwszy
- OpenAI ujawnia lokalizację swojej pierwszej międzynarodowej placówki
- Rywal Apple ChatGPT może automatycznie napisać kod za Ciebie
Ulepsz swój styl życiaDigital Trends pomaga czytelnikom śledzić szybko rozwijający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zajawkom.