Fremtiden for kunstig intelligens bliver hurtigt gjort til en out-of-box oplevelse, som virksomheder kan tilpasse ud fra deres specifikke behov. Optimeret chatoplevelser, der er funktionelle langt ud over spørgsmål-og-svar og værktøjer til at skabe AI-applikationer uden måneders kodningsudvikling, kunne være det næste skridt uden for at introducere nye plugins og udvidelser.
Indhold
- Fundamentmodeller
- Agenter for Amazon Bedrock
Mere almindelige værktøjer, som f.eks ChatGPT for information og Midjourney for billeder stole på offentlige data og konsekvent udviklerkodning for at skabe et slutprodukt. I mellemtiden er Amazon Web Services (AWS) forpligtet til at lave generativ kunstig intelligens, der ikke kun er mere produktive og nemmere at navigere, men også data unikke og data sikre for de virksomheder, der implementerer den værktøjer.
Brandet bruger platforme som Amazon Bedrock til at skabe en unik plads til sig selv på det nye AI-marked. Dens flagskibshub har været tilgængelig siden april og huser flere af det, den kalder Foundation Models (FM'er). AWS har oprindeligt trænet disse basisniveau API'er og tilbyder organisationer de standard AI-funktioner, de ønsker. Organisationer kan blande og matche deres foretrukne FM'er og derefter fortsætte med at udvikle apps og tilføje deres egne proprietære data til deres unikke behov.
Anbefalede videoer
”Som udbyder træner vi grundlæggende disse modeller på et stort korpus af data. Når modellen er trænet, er der et afskæringspunkt. For eksempel januar 2023, så har modellen ikke nogen information efter det tidspunkt, men virksomheder vil have data, som er privat,” fortalte Amazon Bedrock Product and Engineering General Manager, Atul Deo til Digital Trends.
Hver virksomhed og de grundlæggende modeller, den bruger, vil variere, så hver resulterende applikation vil være unik baseret på den information, organisationer leverer til en model. FM'er er allerede basisskabeloner. For derefter at bruge open source-information til at udfylde modellerne kan det gøre applikationer gentagne på tværs af virksomheder. AWS’ strategi giver virksomheder mulighed for at gøre deres apps unikke ved at introducere deres egne data.
“Man vil også gerne kunne stille modellen nogle spørgsmål og få svar, men hvis den kun kan besvare spørgsmål om nogle forældede offentlige data, er det ikke særlig nyttigt. Du ønsker at kunne videregive den relevante information til modellen og få de relevante svar i realtid. Det er et af kerneproblemerne, som det løser,” tilføjede Deo.
Fundamentmodeller
De adskillige basismodeller, der understøttes på Amazon Bedrock, inkluderer Amazon Titan, samt modeller fra udbyderne Anthropic, AI21Labs og StabilityAI, der hver især tackler vigtige funktioner inden for AI-området, fra tekstanalyse, billedgenerering og flersproget generation, blandt andet opgaver. Bedrock er en fortsættelse af de fortrænede modeller, AWS allerede har udviklet på Amazon SageMaker JumpStart platformen, som har været i stueetagen hos mange offentlige FM'er, bl.a. Meta AI, Hugging Face, LightOn, Databricks og Alexa.
AWS annoncerede også for nylig nye Bedrock-modeller fra mærket Cohere på deres AWS-topmøde i slutningen af juli i New York City. Disse modeller inkluderer Command, som er i stand til at udføre opsummering, copywriting, dialog, tekstudtræk og besvarelse af spørgsmål til forretningsapplikationer og Embed, som kan udføre klyngesøgninger og klassificere opgaver i over 100 Sprog.
Vicepræsident for AWS machine learning, Swami Sivasubramanian, sagde under topmødets keynote, at FM'er er billige, lave latency, beregnet til at blive tilpasset privat, data krypteret og bruges ikke til at træne den oprindelige udviklede basismodel af AWS.
Mærket samarbejder med et væld af virksomheder, der bruger Amazon Bedrock, herunder Chegg, Lonely Planet, Cimpress, Philips, IBM, Nexxiot, Neiman Marcus, Ryanair, Hellmann, WPS Office, Twilio, Bridgewater & Associates, Showpad, Coda og Booking.com.
Agenter for Amazon Bedrock
AWS introducerede også hjælpeværktøjet, Agents for Amazon Bedrock på sit topmøde, som udvider funktionaliteten af grundlæggende modeller. Målrettet mod virksomheder for en lang række brugssager, Agents er en udvidet chatoplevelse, der hjælper brugere ud over standard chatbot spørgsmål og svar. Den er i stand til proaktivt at udføre opgaver baseret på den information, den er finjusteret på.
AWS Summit New York City 2023 – Keynote med Swami Sivasubramanian | AWS-begivenheder
AWS gav et eksempel på, hvordan det fungerer godt i et kommercielt rum. Lad os sige, at en detailkunde ønskede at bytte et par sko. Ved at interagere med Agent kan brugeren angive, at de ønsker at foretage en skoudveksling fra en størrelse 8 til en størrelse 9. Agenter vil bede om deres ordre-id. Når de er indtastet, vil agenter være i stand til at få adgang til detailbeholdningen bag kulisserne, fortælle kunden, at deres ønskede størrelse er på lager og spørge, om de vil fortsætte med udvekslingen. Når brugeren siger ja, bekræfter agenter, at ordren er blevet opdateret.
"Traditionelt ville det være meget arbejde at gøre dette. De gamle chatbots var meget stive. Hvis du sagde noget her og der, og det ikke virker - ville du sige, lad mig bare tale med den menneskelige agent," sagde Deo. "Nu, fordi store sprogmodeller har en meget rigere forståelse af, hvordan mennesker taler, kan de tage handlinger og gøre brug af de proprietære data i en virksomhed."
Mærket gav også eksempler på, hvordan et forsikringsselskab kan bruge agenter til at indgive og organisere forsikringskrav. Agenter kan endda hjælpe virksomhedens personale med opgaver såsom at slå virksomhedens politik for PTO op eller aktivt planlægge den fri, med en nu almindeligt kendt stil af AI-prompt, såsom "Cen du indgiver PTO for mig?”
Agenter fanger især, hvordan grundlæggende modeller giver brugerne mulighed for at fokusere på de aspekter af AI, der er vigtigst for dem. Uden at skulle bruge måneder på at udvikle og træne én sprogmodel ad gangen, kan virksomheder bruge mere tid til at justere information, der er vigtig for deres organisationer i Agents, for at sikre, at det er op til dato.
"Du kan finjustere en model med dine proprietære data. Efterhånden som anmodningen fremsættes, vil du have det nyeste og bedste,” sagde Deo.
Da mange virksomheder generelt fortsætter med at skifte mod en mere forretningscentreret strategi for kunstig intelligens, er AWS' mål ganske enkelt ser ud til at hjælpe mærker og organisationer med at få deres AI-integrerede apps og tjenester op at køre hurtigere. Nedskæring af app-udviklingstiden kunne se et forår af nye AI-apps på markedet, men kunne også se mange almindeligt anvendte værktøjer få tiltrængte opdateringer.
Redaktørens anbefalinger
- Amazon udvider brugen af generativ AI til at opsummere produktanmeldelser
- Metas nye AI-app er både til patienter med stemmebåndsskade og NPC'er i spillet
- Dette nye Photoshop-værktøj kan bringe AI-magi til dine billeder
- Medicinske sundhedseksperter de seneste til at slå alarm over AI-udvikling
- Adobe Firefly bringer tekst-til-billede AI til masserne med kunstneretik i tankerne