AWS zapewnia firmom łatwe tworzenie aplikacji AI

Przyszłość sztucznej inteligencji szybko przekształca się w gotowe rozwiązanie, które firmy mogą dostosować do swoich konkretnych potrzeb. Zoptymalizowany czaty, które wykraczają poza funkcję pytań i odpowiedzi oraz narzędzia do tworzenia aplikacji AI bez miesięcy programowania, mogą być kolejnym krokiem poza wprowadzaniem nowych wtyczki I rozszerzenia.

Zawartość

  • Modele fundamentów
  • Agenci Amazon Bedrock

Bardziej powszechne narzędzia, takie jak CzatGPT w celach informacyjnych i W połowie podróży w przypadku obrazów opierają się na publicznych danych i spójnym kodzie programisty, aby stworzyć produkt końcowy. Tymczasem Amazon Web Services (AWS) angażuje się w tworzenie generatywnej sztucznej inteligencji, która jest nie tylko czymś więcej produktywne i łatwiejsze w nawigacji, ale także unikalne i bezpieczne dane dla firm, które je wdrażają narzędzia.

Znak AWS w Javitz Center w Nowym Jorku.
Fiona Agomuoh / Trendy cyfrowe

Marka korzysta z platform takich jak Amazon Bedrock, aby wypracować sobie wyjątkową przestrzeń na nowym rynku sztucznej inteligencji. Jej flagowy hub jest dostępny od kwietnia i mieści kilka tak zwanych modeli podstawowych (FM). AWS początkowo przeszkolił te interfejsy API na poziomie podstawowym i oferuje organizacjom standardowe funkcje sztucznej inteligencji, których pragną. Organizacje mogą łączyć i dopasowywać preferowane FM, a następnie kontynuować rozwój aplikacji, dodając własne, zastrzeżone dane dla swoich unikalnych potrzeb.

Polecane filmy

„Jako dostawca zasadniczo szkolimy te modele na dużym zbiorze danych. Po wytrenowaniu modelu następuje punkt odcięcia. Na przykład styczeń 2023 r., wówczas model nie zawiera żadnych informacji po tym momencie, ale firmy chcemy danych, które są prywatne” – powiedział dyrektor generalny ds. produktów i inżynierii Amazon Bedrock, Atul Deo Trendy.

Każda firma i podstawowe modele, z których korzysta, będą się różnić, więc każda powstała aplikacja będzie unikalna w oparciu o informacje przekazane modelowi przez organizacje. FM są już szablonami podstawowymi. Następnie wykorzystanie informacji pochodzących z otwartego źródła do wypełnienia modeli może spowodować, że aplikacje będą powtarzalne w różnych firmach. Strategia AWS daje firmom możliwość uczynienia swoich aplikacji wyjątkowymi poprzez wprowadzenie własnych danych.

„Chcesz także móc zadać modelowi kilka pytań i uzyskać odpowiedzi, ale jeśli może on odpowiadać tylko na pytania dotyczące nieaktualnych danych publicznych, nie jest to zbyt pomocne. Chcesz mieć możliwość przekazania odpowiednich informacji modelowi i uzyskania odpowiednich odpowiedzi w czasie rzeczywistym. To jeden z głównych problemów, który rozwiązuje” – dodał Deo.

Modele fundamentów

Kilka modeli fundamentów obsługiwanych przez Amazon Bedrock obejmuje Amazon Titan, a także modele dostawców Anthropic, AI21Labs i StabilityAI, każda zajmująca się ważnymi funkcjami w przestrzeni AI, między innymi analizą tekstu, generowaniem obrazów i generowaniem wielojęzycznym zadania. Bedrock jest kontynuacją wstępnie wytrenowanych modeli, które AWS opracował już na platformie Amazon SageMaker JumpStart, która znalazła się na parterze wielu publicznych FM, w tym Metasztuczna sztuczna inteligencja, Przytulanie twarzy, LightOn, Databricks i Aleksa.

Przemówienie przemówienia na szczycie AWS przedstawiające audycje Amazon Bedrock FM.
AWS/AWS

AWS ogłosiło również niedawno nowe modele Bedrock marki Cohere podczas szczytu AWS pod koniec lipca w Nowym Jorku. Modele te obejmują Command, który umożliwia wykonywanie podsumowań, copywritingu, dialogów, wyodrębniania tekstu i odpowiadanie na pytania w aplikacjach biznesowych oraz Embed, który umożliwia przeszukiwanie klastrów i klasyfikację zadań w ponad 100 Języki.

Wiceprezes AWS ds. uczenia maszynowego, Swami Sivasubramanian, powiedział podczas przemówienia na szczycie, że FM są tanie i niedrogie. opóźnienia, przeznaczone do prywatnego dostosowywania, dane szyfrowane i nie są używane do uczenia pierwotnie opracowanego modelu podstawowego przez AWS-a.

Marka współpracuje z wieloma firmami korzystającymi z Amazon Bedrock, m.in. Chegg, Lonely Planet, Cimpress, Philips, IBM, Nexxiot, Neiman Marcus, Ryanair, Hellmann, WPS Office, Twilio, Bridgewater & Associates, Showpad, Coda i Rezerwacja.com.

Agenci Amazon Bedrock

AWS na swoim szczycie wprowadził także narzędzie pomocnicze Agents for Amazon Bedrock, które rozszerza funkcjonalność Foundational Models. Skierowany do firm i mający wiele zastosowań, Agents to rozszerzona funkcja czatu, która pomaga użytkownikom wykraczając poza standardowe pytania i odpowiedzi chatbota. Jest w stanie proaktywnie wykonywać zadania w oparciu o informacje, na podstawie których jest dopracowywany.

Szczyt AWS w Nowym Jorku 2023 – przemówienie przemówienia ze Swamim Sivasubramanianem | Wydarzenia AWS-a

AWS dał przykład tego, jak dobrze sprawdza się w przestrzeni komercyjnej. Załóżmy, że klient detaliczny chciał wymienić parę butów. Wchodząc w interakcję z Agentem, użytkownik może szczegółowo określić, że chce dokonać wymiany buta z rozmiaru 8 na rozmiar 9. Agenci poproszą o identyfikator zamówienia. Po wejściu agenci będą mogli uzyskać dostęp do zapasów detalicznych za kulisami, poinformować klienta, że ​​żądany rozmiar jest dostępny i zapytać, czy chce kontynuować wymianę. Gdy użytkownik wyrazi zgodę, agenci potwierdzą, że zamówienie zostało zaktualizowane.

„Tradycyjnie zrobienie tego wymagałoby dużo pracy. Stare chatboty były bardzo sztywne. Jeśli powiesz coś tu i ówdzie i to nie zadziała, powiesz, żebym po prostu porozmawiał z ludzkim agentem” – powiedział Deo. „Teraz, ponieważ duże modele językowe mają znacznie bogatszą wiedzę na temat tego, jak ludzie mówią, mogą podejmować działania i wykorzystywać zastrzeżone dane w firmie”.

Marka podała także przykłady tego, jak firma ubezpieczeniowa może wykorzystać Agentów do zgłaszania i organizowania roszczeń ubezpieczeniowych. Agenci mogą nawet pomagać pracownikom firmy w zadaniach takich jak sprawdzanie polityki firmy dotyczącej PTO lub aktywne planowanie czasu wolnego za pomocą powszechnie znanego stylu podpowiedzi AI, np. „Ci złóż za mnie PTO?”

Agents w szczególności ukazuje, w jaki sposób modele podstawowe pozwalają użytkownikom skupić się na aspektach sztucznej inteligencji, które są dla nich najważniejsze. Firmy mogą bez konieczności spędzania miesięcy na opracowywaniu i szkoleniu jednego modelu językowego na raz więcej czasu na poprawianie informacji ważnych dla ich organizacji w Agentach i upewnianie się, że są aktualne data.

„Możesz dostroić model, korzystając z własnych danych. Ponieważ pojawia się prośba, chcesz tego, co najnowsze i najlepsze” – powiedział Deo.

Ponieważ wiele firm ogólnie przechodzi w kierunku strategii AI bardziej skoncentrowanej na biznesie, celem AWS jest po prostu cel wydaje się pomagać markom i organizacjom w szybszym uruchamianiu aplikacji i usług zintegrowanych ze sztuczną inteligencją. Skrócenie czasu tworzenia aplikacji może spowodować pojawienie się na rynku nowych aplikacji AI, ale także wiele powszechnie używanych narzędzi otrzyma bardzo potrzebne aktualizacje.

Zalecenia redaktorów

  • Amazon rozszerza wykorzystanie generatywnej sztucznej inteligencji do podsumowywania recenzji produktów
  • Nowa aplikacja AI Meta jest przeznaczona zarówno dla pacjentów z uszkodzeniem strun głosowych, jak i dla NPC-ów w grze
  • To nowe narzędzie programu Photoshop może dodać magię sztucznej inteligencji do Twoich zdjęć
  • Eksperci w dziedzinie zdrowia medycznego alarmują w związku z rozwojem sztucznej inteligencji
  • Adobe Firefly udostępnia masom sztuczną inteligencję przekształcającą tekst na obraz, mając na uwadze etykę artysty