På et møte med fremtredende teknologiledere i Det hvite hus torsdag, minnet visepresident Kamala Harris deltakerne om at de har en "etisk, moralsk og juridisk ansvar for å sikre sikkerheten og sikkerheten til den nye bølgen av generative AI-verktøy som har fått stor oppmerksomhet de siste måneder.
Møtet er en del av en bredere innsats for å engasjere seg med talsmenn, selskaper, forskere, borgerrettighetsorganisasjoner, ikke-for-profit organisasjoner, lokalsamfunn, internasjonale partnere og andre om viktige AI-spørsmål, Det hvite hus sa.
Anbefalte videoer
Harris og andre tjenestemenn fortalte lederne av Google, Microsoft, Anthropic og OpenAI - selskapet bak ChatGPT chatbot — at teknologigigantene må overholde eksisterende lover for å beskytte det amerikanske folket mot misbruk av den nye bølgen av AI-produkter. Nye forskrifter for generativ AI forventes å tre i kraft innen altfor lenge, men det nivået de begrense teknologien vil til en viss grad avhenge av hvordan selskapene distribuerer AI-teknologiene sine framover.
I slekt
- GPT-4: hvordan bruke AI-chatboten som gjør ChatGPT til skamme
- Google Bard kan nå snakke, men kan det overdøve ChatGPT?
- ChatGPT-nettstedstrafikken har falt for første gang
Også på torsdag, Det hvite hus delte et dokument skissere nye tiltak designet for å fremme ansvarlig AI-innovasjon. Tiltaket inkluderer 140 millioner dollar i finansiering for syv nye nasjonale AI-forskningsinstitutter, noe som bringer det totale antallet slike institutter til 25 over hele USA.
Avanserte chatbots som ChatGPT og Googles Bard reagerer på tekstmeldinger og er i stand til å svare på en veldig menneskelignende måte. De kan allerede utføre et bredt spekter av oppgaver veldig imponerende, for eksempel å skrive presentasjoner og historier, oppsummere informasjon og til og med skrive datakode.
Men med teknologifirmaer som kjemper for å sette chatbot-teknologien sin i sentrum ved å integrere den i eksisterende nettbaserte verktøy, er det frykt for de langsiktige implikasjonene av teknologien for det bredere samfunnet, som for eksempel hvordan det vil påvirke arbeidsplassen eller føre til nye typer kriminell virksomhet. Det er til og med bekymringer om hvordan teknologien, hvis den får lov til å utvikle seg ukontrollert, kan være en trussel mot menneskeheten selv.
OpenAI-sjef Sam Altman sa i mars at han er "litt redd" for de potensielle effektene av AI, mens et nylig brev publisert av AI-eksperter og andre i teknologibransjen ba om en seks måneders pause i utviklingen av generativ AI for å gi tid til å lage delte sikkerhetsprotokoller.
Og akkurat denne uken, Geoffrey Hinton, mannen ansett som "gudfaren til AI" for sitt banebrytende arbeid på feltet, avslutte innlegget hans på Google slik at han kunne snakke mer fritt om sine bekymringer angående teknologien. Den 75 år gamle ingeniøren sa at når teknologifirmaer slipper AI-verktøyene sine for offentlig bruk uten å bli fullt klar over potensialet deres, er det "vanskelig å se hvordan du kan forhindre de dårlige skuespillerne fra å bruke det for dårlig tingene."
Enda mer alarmerende, i et nylig CBS-intervju der han ble spurt om sannsynligheten for at AI "utsletter menneskeheten," svarte Hinton: "Det er ikke utenkelig."
Men det bør også bemerkes at de fleste av de som gir uttrykk for bekymringer også mener at hvis den håndteres ansvarlig, kan teknologien ha store fordeler for mange deler av samfunnet, inkludert for eksempel helsevesenet, noe som ville ført til bedre resultater for pasienter.
Redaktørenes anbefalinger
- Toppforfattere krever betaling fra AI-firmaer for å bruke arbeidet deres
- Wix bruker ChatGPT for å hjelpe deg raskt å bygge et helt nettsted
- ChatGPT-produsenten OpenAI står overfor FTC-undersøkelse over forbrukerbeskyttelseslover
- OpenAI bygger et nytt team for å stoppe superintelligent AI fra å bli useriøs
- De beste AI-chatbotene å prøve ut: ChatGPT, Bard og mer
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.