AWS ermöglicht Unternehmen die einfache Entwicklung von KI-Apps

Die Zukunft der künstlichen Intelligenz wird schnell zu einem Out-of-Box-Erlebnis, das Unternehmen an ihre spezifischen Bedürfnisse anpassen können. Optimiert Chat-Erlebnisse, die weit über Frage-und-Antwort-Funktionen hinausgehen, und Tools zum Erstellen von KI-Anwendungen ohne monatelange Programmierentwicklung könnten der nächste Schritt neben der Einführung neuer sein Plugins Und Erweiterungen.

Inhalt

  • Foundation-Modelle
  • Agenten für Amazon Bedrock

Gängigere Tools, wie z ChatGPT für Informationen u Mitten auf der Reise Denn Bilder basieren auf öffentlichen Daten und konsistenter Entwicklercodierung, um ein Endprodukt zu erstellen. Unterdessen setzt sich Amazon Web Services (AWS) dafür ein, generative KI zu schaffen, die nicht nur mehr bietet produktiver und einfacher zu navigieren, aber auch dateneindeutig und datensicher für die Unternehmen, die es einsetzen Werkzeuge.

AWS-Anmeldung im Javitz Center NYC.
Fionna Agomuoh / Digitale Trends

Die Marke nutzt Plattformen wie Amazon Bedrock, um sich im neuen KI-Markt einen einzigartigen Platz zu sichern. Sein Flaggschiff-Hub ist seit April verfügbar und beherbergt mehrere sogenannte Foundation Models (FMs). AWS hat diese Basis-APIs zunächst trainiert und bietet Unternehmen die von ihnen gewünschten Standard-KI-Funktionen. Unternehmen können ihre bevorzugten FMs kombinieren und dann weiterhin Apps entwickeln und ihre eigenen proprietären Daten für ihre individuellen Anforderungen hinzufügen.

Empfohlene Videos

„Als Anbieter trainieren wir diese Modelle grundsätzlich anhand eines großen Datenbestands. Sobald das Modell trainiert ist, gibt es einen Grenzwert. Beispiel: Januar 2023, dann verfügt das Modell ab diesem Zeitpunkt nicht mehr über Informationen, sondern über Unternehmen „Ich möchte Daten, die privat sind“, sagte Atul Deo, General Manager für Produkt und Technik bei Amazon Bedrock, gegenüber Digital Trends.

Jedes Unternehmen und die von ihm verwendeten Basismodelle variieren, so dass jede resultierende Anwendung auf der Grundlage der Informationen, die Organisationen einem Modell zuführen, einzigartig ist. FMs sind bereits Basisvorlagen. Die anschließende Verwendung von Open-Source-Informationen zur Befüllung der Modelle kann dazu führen, dass sich Anwendungen unternehmensübergreifend wiederholen. Die Strategie von AWS gibt Unternehmen die Möglichkeit, ihre Apps durch die Einführung eigener Daten einzigartig zu machen.

„Sie möchten dem Modell auch einige Fragen stellen und Antworten erhalten, aber wenn es nur Fragen zu einigen veralteten öffentlichen Daten beantworten kann, ist das nicht sehr hilfreich. Sie möchten in der Lage sein, die relevanten Informationen an das Modell weiterzugeben und in Echtzeit die entsprechenden Antworten zu erhalten. Das ist eines der Kernprobleme, das dadurch gelöst wird“, fügte Deo hinzu.

Foundation-Modelle

Zu den verschiedenen auf Amazon Bedrock unterstützten Basismodellen gehören Amazon Titan sowie Modelle der Anbieter Anthropic, AI21Labs und StabilityAI befasst sich jeweils mit wichtigen Funktionen im KI-Bereich, unter anderem von der Textanalyse über die Bildgenerierung bis hin zur mehrsprachigen Generierung Aufgaben. Bedrock ist eine Fortsetzung der vorab trainierten Modelle, die AWS bereits auf der Amazon SageMaker JumpStart-Plattform entwickelt hat, die bei vielen öffentlichen FMs im Einsatz ist, darunter Meta-KI, Hugging Face, LightOn, Databricks und Alexa.

Keynote des AWS Summit mit Präsentation der Amazon Bedrock FMs.
AWS / AWS

AWS hat kürzlich auf seinem AWS Summit Ende Juli in New York City auch neue Bedrock-Modelle der Marke Cohere angekündigt. Zu diesen Modellen gehört Command, das Zusammenfassungen, Texterstellung, Dialoge, Textextraktion usw. ausführen kann Fragen-Antworten für Geschäftsanwendungen und Embed, das Clustersuchen durchführen und Aufgaben in über 100 klassifizieren kann Sprachen.

AWS-Vizepräsident für maschinelles Lernen, Swami Sivasubramanian, sagte während der Keynote des Gipfels, dass FMs kostengünstig und kostengünstig seien Latenz, die privat angepasst werden soll, Daten verschlüsselt und nicht zum Trainieren des ursprünglich entwickelten Basismodells verwendet werden von AWS.

Die Marke arbeitet mit einer Vielzahl von Unternehmen zusammen, die Amazon Bedrock nutzen, darunter Chegg, Lonely Planet, Cimpress, Philips, IBM, Nexxiot, Neiman Marcus, Ryanair, Hellmann, WPS Office, Twilio, Bridgewater & Associates, Showpad, Coda und Booking.com.

Agenten für Amazon Bedrock

AWS stellte auf seinem Gipfel auch das Hilfstool Agents for Amazon Bedrock vor, das die Funktionalität von Foundational Models erweitert. Agents richtet sich an Unternehmen für eine Vielzahl von Anwendungsfällen und ist ein erweitertes Chat-Erlebnis, das Benutzern über die Standard-Chatbot-Fragen und -Antworten hinaus hilft. Es ist in der Lage, Aufgaben basierend auf den Informationen, auf die es abgestimmt ist, proaktiv auszuführen.

AWS Summit New York City 2023 – Keynote mit Swami Sivasubramanian | AWS-Ereignisse

AWS gab ein Beispiel dafür, wie es in einem kommerziellen Bereich gut funktioniert. Angenommen, ein Einzelhandelskunde wollte ein Paar Schuhe umtauschen. Durch die Interaktion mit dem Agenten kann der Benutzer angeben, dass er einen Schuhwechsel von Größe 8 auf Größe 9 durchführen möchte. Agenten werden nach ihrer Bestell-ID fragen. Nach der Eingabe können Agenten hinter den Kulissen auf den Einzelhandelsbestand zugreifen, dem Kunden mitteilen, dass die gewünschte Größe auf Lager ist, und fragen, ob er mit dem Umtausch fortfahren möchte. Sobald der Benutzer „Ja“ sagt, bestätigen die Agenten, dass die Bestellung aktualisiert wurde.

„Traditionell wäre dies mit viel Arbeit verbunden. Die alten Chatbots waren sehr starr. Wenn Sie hier und da etwas sagen und es nicht funktioniert, würden Sie sagen: „Lass mich einfach mit dem menschlichen Agenten reden“, sagte Deo. „Da große Sprachmodelle nun ein viel umfassenderes Verständnis davon haben, wie Menschen sprechen, können sie Maßnahmen ergreifen und die proprietären Daten in einem Unternehmen nutzen.“

Die Marke gab auch Beispiele dafür, wie eine Versicherungsgesellschaft Agenten einsetzen kann, um Versicherungsansprüche einzureichen und zu organisieren. Agenten können den Mitarbeitern des Unternehmens sogar bei Aufgaben wie dem Nachschlagen der Unternehmensrichtlinien für PTO oder der aktiven Planung dieser Freizeit behilflich sein, mit einem inzwischen allgemein bekannten Stil von KI-Eingabeaufforderungen wie „Cund Sie reichen die PTO für mich ein?”

Agents erfasst insbesondere, wie grundlegende Modelle es Benutzern ermöglichen, sich auf die Aspekte der KI zu konzentrieren, die für sie am wichtigsten sind. Unternehmen können damit Geld sparen, ohne monatelang ein Sprachmodell nach dem anderen entwickeln und trainieren zu müssen Sie haben mehr Zeit für die Optimierung von Informationen, die für ihre Organisation in Agents wichtig sind, und stellen so sicher, dass sie den Anforderungen entsprechen Datum.

„Sie können ein Modell mit Ihren proprietären Daten verfeinern. Wenn die Anfrage gestellt wird, möchten Sie das Neueste und Beste“, sagte Deo.

Da viele Unternehmen insgesamt weiterhin auf eine stärker geschäftsorientierte Strategie für KI umsteigen, ist das Ziel von AWS einfach scheint Marken und Organisationen dabei zu helfen, ihre KI-integrierten Apps und Dienste schneller zum Laufen zu bringen. Die Verkürzung der App-Entwicklungszeit könnte dazu führen, dass neue KI-Apps auf den Markt kommen, aber auch viele häufig verwendete Tools dringend benötigte Updates erhalten.

Empfehlungen der Redaktion

  • Amazon erweitert den Einsatz generativer KI zur Zusammenfassung von Produktbewertungen
  • Metas neue KI-App richtet sich sowohl an Patienten mit Stimmbandschäden als auch an NPCs im Spiel
  • Dieses neue Photoshop-Tool könnte Ihren Bildern KI-Magie verleihen
  • Medizinische Gesundheitsexperten schlagen zuletzt Alarm wegen der KI-Entwicklung
  • Adobe Firefly bringt Text-zu-Bild-KI für die breite Masse unter Berücksichtigung der Künstlerethik