Selv mener Microsoft, at ChatGPT skal reguleres

Artificial Intelligence (AI) chatbots har taget verden med storm, med mulighederne for Microsofts ChatGPT forårsager undren og frygt i næsten lige stor grad. Men i et spændende twist opfordrer selv Microsoft nu regeringer til at handle og regulere kunstig intelligens, før tingene kommer faretruende ud af kontrol.

Appellen blev fremsat af BSA, en handelsgruppe, der repræsenterer adskillige forretningssoftwarevirksomheder, herunder Microsoft, Adobe, Dropbox, IBM og Zoom. Ifølge CNBC, slår gruppen til lyd for, at den amerikanske regering integrerer regler for brugen af ​​kunstig intelligens i national lovgivning om privatlivets fred.

En MacBook Pro på et skrivebord med ChatGPTs hjemmeside vist på skærmen.
Hatice Baran / Unsplash

Mere specifikt har BSA's argument fire hovedprincipper. Disse inkluderer påstandene om, at Kongressen klart bør angive, hvornår virksomheder skal bestemme den potentielle effekt af AI, og at disse krav skal træde i kraft, når brugen af ​​kunstig intelligens fører til "konsekvensbeslutninger" - hvilket Kongressen også bør Definere.

Relaterede

  • Topforfattere kræver betaling fra AI-virksomheder for at bruge deres arbejde
  • GPT-4: hvordan man bruger AI chatbot, der gør ChatGPT til skamme
  • Wix bruger ChatGPT til at hjælpe dig med hurtigt at bygge et helt websted

BSA siger også, at Kongressen skal sikre virksomhedens overholdelse ved hjælp af et eksisterende føderalt agentur og det udvikling af risikostyringsprogrammer skal være et krav for enhver virksomhed, der beskæftiger sig med højrisiko AI.

Anbefalede videoer

Ifølge Craig Albright, vicepræsident for amerikanske regeringsforbindelser hos BSA, "Vi er en industrigruppe der ønsker, at Kongressen skal vedtage denne lovgivning, så vi forsøger at skabe mere opmærksomhed på denne mulighed. Vi føler, at det bare ikke har fået så meget opmærksomhed, som det kunne eller burde."

BSA mener, at den amerikanske lov om databeskyttelse og beskyttelse af data, et lovforslag, der endnu ikke er blevet lov, er den rigtige lovgivning til at kodificere sine ideer om AI-regulering. Handelsgruppen har allerede været i kontakt med House Energy and Commerce Committee - det organ, der først fremlagde lovforslaget - om dets synspunkter.

Lovgivningen kommer helt sikkert

En bærbar computer åbnede til ChatGPT-webstedet.
Shutterstock

Den voldsomme hastighed, hvormed AI-værktøjer har udviklet sig i de seneste måneder, har skabt alarm i mange hjørner om de potentielle konsekvenser for samfund og kultur, og den frygt er blevet forstærket af talrige skandaler og kontroverser der har forfulgt feltet.

BSA er faktisk ikke det første organ, der har slået til lyd for hårdere værn mod AI-misbrug. I marts 2023 opfordrede en gruppe fremtrædende teknologiledere AI-virksomheder til det pause forskning på noget mere avanceret end GPT-4. Gruppen sagde, at dette var nødvendigt, fordi "AI-systemer med menneskelig konkurrencedygtig intelligens kan udgøre dybe risici for samfundet og menneskeheden” og at samfundet som helhed havde brug for at indhente og forstå, hvad AI-udvikling kunne betyde for fremtiden civilisation.

Det er tydeligt, at den hurtige hastighed, hvormed AI-værktøjer har udviklet sig, har forårsaget megen bestyrtelse blandt både industriledere og den brede offentlighed. Og når selv Microsoft foreslår, at deres egne AI-produkter skal reguleres, virker det mere og mere sandsynligt, at en form for AI-lovgivning bliver lov før eller siden.

Redaktørens anbefalinger

  • Her er grunden til, at folk tror, ​​at GPT-4 kan blive dummere med tiden
  • ChatGPT: de seneste nyheder, kontroverser og tips, du har brug for at vide
  • Hvad er en DAN-prompt til ChatGPT?
  • Google Bard kan nu tale, men kan den overdøve ChatGPT?
  • ChatGPT-producenten OpenAI står over for FTC-undersøgelse over forbrugerbeskyttelseslove

Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.