Il futuro dell’intelligenza artificiale si sta rapidamente trasformando in un’esperienza fuori dagli schemi che le aziende possono personalizzare in base alle loro esigenze specifiche. Ottimizzato esperienze di chat funzionali ben oltre le domande e risposte e strumenti per creare applicazioni di intelligenza artificiale senza mesi di sviluppo del codice potrebbero essere il passo successivo oltre all'introduzione di nuove plugin E estensioni.
Contenuti
- Modelli di fondazione
- Agenti per Amazon Bedrock
Strumenti più comuni, come ChatGPT per informazioni e A metà viaggio per le immagini si basano su dati pubblici e codifica coerente degli sviluppatori per creare un prodotto finale. Nel frattempo, Amazon Web Services (AWS) è impegnata a realizzare un’intelligenza artificiale generativa che non sia solo altro produttivo e più facile da navigare, ma anche dati unici e sicuri per le aziende che li implementano utensili.
Il brand sta utilizzando piattaforme come Amazon Bedrock per ritagliarsi uno spazio unico nel nuovo mercato dell’intelligenza artificiale. Il suo hub di punta è disponibile da aprile e ospita molti di quelli che chiama Foundation Models (FM). AWS ha inizialmente addestrato queste API di livello base e offre alle organizzazioni le funzionalità di intelligenza artificiale standard che desiderano. Le organizzazioni possono combinare e abbinare i loro FM preferiti e quindi continuare a sviluppare app, aggiungendo i propri dati proprietari per le loro esigenze specifiche.
Video consigliati
“Come fornitore, fondamentalmente addestriamo questi modelli su un ampio corpus di dati. Una volta addestrato il modello, c'è un punto limite. Ad esempio, gennaio 2023, quindi il modello non dispone di informazioni successive a quel punto, ma delle aziende vogliono dati, che sono privati", ha detto a Digital Atul Deo, direttore generale del prodotto e dell'ingegneria di Amazon Bedrock Tendenze.
Ogni azienda e i modelli di base che utilizza varieranno, quindi ogni applicazione risultante sarà unica in base alle informazioni che le organizzazioni forniscono a un modello. Gli FM sono già modelli di base. Utilizzare quindi informazioni open source per popolare i modelli può rendere le applicazioni ripetitive in tutte le aziende. La strategia di AWS offre alle aziende l'opportunità di rendere uniche le proprie app introducendo i propri dati.
“Vorresti anche essere in grado di porre alcune domande al modello e ottenere risposte, ma se può rispondere solo a domande su alcuni dati pubblici obsoleti, ciò non è molto utile. Vuoi essere in grado di trasmettere le informazioni rilevanti al modello e ottenere le risposte pertinenti in tempo reale. Questo è uno dei problemi fondamentali che risolve”, ha aggiunto Deo.
Modelli di fondazione
I diversi modelli di base supportati su Amazon Bedrock includono Amazon Titan, nonché modelli dei fornitori Anthropic, AI21Labs e StabilityAI, ciascuno dei quali affronta funzioni importanti all'interno dello spazio AI, dall'analisi del testo, alla generazione di immagini e alla generazione multilingue, tra le altre compiti. Bedrock è una continuazione dei modelli pre-addestrati che AWS ha già sviluppato sulla piattaforma Amazon SageMaker JumpStart, che è stata al piano terra di molti FM pubblici, tra cui MetaIA, Volto che abbraccia, LightOn, Databricks e Alexa.
AWS ha inoltre recentemente annunciato nuovi modelli Bedrock del marchio Cohere al Summit AWS di fine luglio a New York City. Questi modelli includono Command, che è in grado di eseguire riepiloghi, copywriting, dialoghi, estrazione di testo e risposta alle domande per applicazioni aziendali e Embed, che può completare ricerche di cluster e classificare attività in oltre 100 le lingue.
Il vicepresidente dell'apprendimento automatico di AWS, Swami Sivasubramanian, ha affermato durante il keynote del vertice che i FM sono a basso costo, bassi latenza, destinati ad essere personalizzati privatamente, crittografati i dati e non vengono utilizzati per addestrare il modello base originale sviluppato da AWS.
Il marchio collabora con una serie di aziende che utilizzano Amazon Bedrock, tra cui Chegg, Lonely Planet, Cimpress, Philips, IBM, Nexxiot, Neiman Marcus, Ryanair, Hellmann, WPS Office, Twilio, Bridgewater & Associates, Showpad, Coda e Booking.com.
Agenti per Amazon Bedrock
AWS ha inoltre introdotto al suo vertice lo strumento ausiliario Agents for Amazon Bedrock, che espande le funzionalità dei modelli fondamentali. Destinato alle aziende per una moltitudine di casi d'uso, Agents è un'esperienza di chat aumentata che assiste gli utenti oltre le domande e risposte standard dei chatbot. È in grado di eseguire attività in modo proattivo in base alle informazioni su cui è messo a punto.
Summit AWS New York City 2023 – Intervento con Swami Sivasubramanian | Eventi AWS
AWS ha fornito un esempio di come funziona bene in uno spazio commerciale. Supponiamo che un cliente al dettaglio desideri scambiare un paio di scarpe. Interagendo con l'Agente, l'utente può specificare che desidera effettuare uno scambio di scarpe dalla taglia 8 alla taglia 9. Gli agenti chiederanno il loro ID ordine. Una volta entrati, gli agenti potranno accedere all'inventario al dettaglio dietro le quinte, dire al cliente che la taglia richiesta è disponibile e chiedere se desiderano procedere con il cambio. Una volta che l'utente dice di sì, gli agenti confermeranno che l'ordine è stato aggiornato.
“Tradizionalmente fare questo richiederebbe molto lavoro. I vecchi chatbot erano molto rigidi. Se dicessi qualcosa qua e là e non funzionasse, diresti di lasciarmi parlare con l’agente umano”, ha detto Deo. “Ora, poiché i modelli linguistici di grandi dimensioni hanno una comprensione molto più ricca di come parlano gli esseri umani, possono intraprendere azioni e utilizzare i dati proprietari di un’azienda”.
Il marchio ha inoltre fornito esempi di come una compagnia assicurativa può utilizzare gli agenti per presentare e organizzare le richieste di indennizzo assicurativo. Gli agenti possono anche assistere il personale aziendale con compiti come consultare la politica aziendale sul PTO o programmare attivamente quel tempo libero, con uno stile di prompt AI ormai comunemente noto, come "Ce mi presenti la PTO?”
Gli agenti catturano in particolare il modo in cui i modelli fondamentali consentono agli utenti di concentrarsi sugli aspetti dell'intelligenza artificiale che sono più importanti per loro. Senza dover dedicare mesi allo sviluppo e alla formazione di un modello linguistico alla volta, le aziende possono spendere più tempo per modificare le informazioni importanti per le loro organizzazioni negli agenti, assicurandosi che siano all'altezza data.
“Puoi mettere a punto un modello con i tuoi dati proprietari. Mentre viene avanzata la richiesta, vuoi l'ultima e la migliore", ha detto Deo.
Poiché molte aziende nel complesso continuano a spostarsi verso una strategia per l’intelligenza artificiale più incentrata sul business, l’obiettivo di AWS è semplicemente sembra aiutare brand e organizzazioni a rendere operativi prima le proprie app e i propri servizi integrati con l’intelligenza artificiale. La riduzione dei tempi di sviluppo delle app potrebbe portare a una primavera di nuove app AI sul mercato, ma potrebbe anche vedere molti strumenti comunemente utilizzati ricevere gli aggiornamenti tanto necessari.
Raccomandazioni degli editori
- Amazon espande l’uso dell’intelligenza artificiale generativa per riassumere le recensioni dei prodotti
- La nuova app AI di Meta è sia per i pazienti con danni alle corde vocali che per gli NPC del gioco
- Questo nuovo strumento di Photoshop potrebbe portare la magia dell'intelligenza artificiale nelle tue immagini
- Gli esperti sanitari sono gli ultimi a lanciare l’allarme sullo sviluppo dell’intelligenza artificiale
- Adobe Firefly porta l'intelligenza artificiale da testo a immagine alle masse, tenendo presente l'etica degli artisti