Cały Internet należy teraz do sztucznej inteligencji Google

click fraud protection
Google Bard pokazany na Google IO 2023.

Najnowsza aktualizacja polityki prywatności Google sprawi, że firma będzie miała swobodę przeszukiwania sieci w poszukiwaniu treści, które mogą pomóc w budowaniu i ulepszaniu narzędzi sztucznej inteligencji.

„Google wykorzystuje informacje do ulepszania naszych usług oraz opracowywania nowych produktów, funkcji i technologii, które przynoszą korzyści naszym użytkownikom i społeczeństwu” – czytamy w nowej polityce Google. „Na przykład używamy publicznie dostępnych informacji, aby pomóc w szkoleniu modeli sztucznej inteligencji Google oraz tworzeniu produktów i funkcji, takich jak Tłumacz Google, Bardi możliwości sztucznej inteligencji w chmurze”.

Polecane filmy

Gizmodo zauważa, że ​​zasady zostały zaktualizowane i zawierają „modele AI”, podczas gdy poprzednio brzmiały „dla modeli językowych”. Ponadto zasady dodały Bard i Cloud AI, podczas gdy wcześniej wspominano tylko o Tłumaczu Google, dla którego to było Zebrane dane.

Polityka prywatności, która została zaktualizowana w weekend, wydaje się szczególnie złowieszcza, ponieważ wskazuje, że wszelkie informacje, które tworzysz online, mogą zostać wykorzystane przez Google do szkolenia modele sztucznej inteligencji.

Powyższe sformułowanie wydaje się opisywać nie tylko te w ekosystemie Google w jeden sposób inny, ale jest szczegółowy w taki sposób, aby marka mogła mieć dostęp do informacji z dowolnej części sieć.

Głównymi problemami związanymi z masowym rozwojem sztucznej inteligencji są pytania o prywatność, plagiat i to, czy sztuczna inteligencja może rozwiać prawidłowe informacje. Wczesne wersje chatbotów takie jak ChatGPT są oparte na dużych modelach językowych (LLM), które wykorzystywały już publiczne źródła, takie jak wspólne archiwum sieci Web, WebText2, Books1, Books2 i Wikipedia jako dane szkoleniowe.

Wczesny ChatGPT był niesławny z tego, że utknął na informacjach po 2021 roku, a następnie wypełniał odpowiedzi fałszywymi danymi. Może to być prawdopodobnie jeden z powodów, dla których Google chciałby mieć nieskrępowany dostęp do danych internetowych, aby korzystać z narzędzi takich jak Bard, aby mieć szkolenia w świecie rzeczywistym i potencjalnie w czasie rzeczywistym dla swoich modeli sztucznej inteligencji.

Gizmodo zauważył również, że Google może wykorzystać tę nową politykę do gromadzenia starych, ale wciąż tworzonych przez ludzi treści, takich jak dawno zapomnianych recenzji lub postów na blogach, aby nadal mieć poczucie, w jaki sposób tworzony jest ludzki tekst i mowa Rozpowszechniane. Wciąż jednak nie wiadomo, w jaki sposób Google wykorzysta zebrane dane.

Kilka platform mediów społecznościowych, w tym Twitter i Reddit, które są głównymi źródłami aktualnych informacji już ograniczyły ich publiczny dostęp w następstwie Popularność chatbota AI, ku rozczarowaniu ich całych społeczności.

Obie platformy zamknęły bezpłatny dostęp do swoich interfejsów API, co ogranicza użytkownikom możliwość pobierania ogromnych ilości postów w celu udostępniania ich gdzie indziej pod pozorem ochrony ich własności intelektualnej. To zamiast tego zepsuło wiele narzędzi innych firm, które sprawiają, że zarówno Twitter, jak i Reddit działają płynnie.

Zarówno Twitter, jak i Reddit musiały stawić czoła innym niepowodzeniom i kontrowersjom, ponieważ obawy ich właścicieli narastają w związku z przejęciem sztucznej inteligencji.

Zalecenia redaktorów

  • Najlepsze narzędzia do edycji wideo AI
  • Twórca ChatGPT OpenAI mierzy się z sondą FTC w sprawie przepisów dotyczących ochrony konsumentów
  • Naukowcy twierdzą, że przełom w sztucznej inteligencji może nastąpić za pośrednictwem mózgów pszczół
  • Najlepsze chatboty AI do wypróbowania: ChatGPT, Bard i inne
  • OpenAI ujawnia lokalizację swojej pierwszej międzynarodowej placówki

Ulepsz swój styl życiaTrendy cyfrowe pomagają czytelnikom śledzić szybko zmieniający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zapowiedziom.