Künstliche Intelligenz hat außergewöhnliche Fortschritte gemacht, wenn es darum geht, Wörter zu verstehen und sie sogar in andere Sprachen übersetzen zu können. Google hat den Weg hierher mit erstaunlichen Tools wie Google Translate und kürzlich mit der Entwicklung von Transformer-Modellen für maschinelles Lernen geebnet. Aber Sprache ist knifflig – und es gibt noch viel zu tun, um KI aufzubauen. das versteht uns wirklich.
Sprachmodell für Dialoganwendungen
Auf der Google I/O am Dienstag kündigte der Suchriese mit einem neuen Sprachmodell namens LaMDA einen bedeutenden Fortschritt in diesem Bereich an. Die Abkürzung steht für Language Model for Dialogue Applications und ist eine hochentwickelte KI. Laut Google ist das Sprachtool überlegen, wenn es darum geht, den Kontext in Gesprächen zu verstehen. Wie Sundar Pichai, CEO von Google, feststellte, könnte dies eine intelligente Analyse eines Austauschs wie „Wie ist das Wetter heute?“ sein. „Es fängt an, sich wie Sommer anzufühlen. Vielleicht esse ich draußen zu Mittag.“ Das macht als menschlicher Dialog durchaus Sinn, würde aber viele KI-Fans verwirren. Systeme, die nach wörtlicheren Antworten suchen.
LaMDA verfügt über hervorragende Kenntnisse erlernter Konzepte, die es aus seinen Trainingsdaten synthetisieren kann. Pichai bemerkte, dass Antworten nie zweimal denselben Weg einschlagen, sodass sich Gespräche weniger skriptgesteuert und natürlicher anfühlen.
Der United States Postal Service (USPS) verlässt sich auf künstliche Intelligenz auf Basis der EGX-Systeme von Nvidia, um täglich mehr als 100 Millionen Postsendungen zu verfolgen, die über sein Netzwerk laufen. Das verkehrsreichste Postdienstsystem der Welt verlässt sich auf GPU-beschleunigte KI. Systeme, die dabei helfen, die Herausforderungen beim Auffinden verlorener oder fehlender Pakete und Post zu lösen. Im Wesentlichen wandte sich der USPS an A.I. um ihm dabei zu helfen, die „Nadel im Heuhaufen“ zu finden.
Um diese Herausforderung zu lösen, haben USPS-Ingenieure eine Edge-K.I. entwickelt. System von Servern, die E-Mails scannen und lokalisieren können. Sie erstellten Algorithmen für das System, die auf 13 Nvidia DGX-Systemen in USPS-Rechenzentren trainiert wurden. Die DGX A100-Systeme von Nvidia beispielsweise bieten eine Rechenleistung von fünf Petaflops und kosten knapp 200.000 US-Dollar. Es basiert auf der gleichen Ampere-Architektur wie die Consumer-GPUs der GeForce RTX 3000-Serie von Nvidia.
Designs werden im Laufe der Zeit iteriert. Architektur, die im Jahr 1921 entworfen und gebaut wurde, sieht nicht genauso aus wie ein Gebäude aus dem Jahr 1971 oder aus dem Jahr 2021. Trends ändern sich, Materialien entwickeln sich weiter und Themen wie Nachhaltigkeit gewinnen unter anderem an Bedeutung. Aber was wäre, wenn es bei dieser Entwicklung nicht nur um die Art der Gebäude ginge, die Architekten entwerfen, sondern tatsächlich um den Schlüssel zu der Art und Weise, wie sie entwerfen? Das ist das Versprechen evolutionärer Algorithmen als Designwerkzeug.
Während Designer längst Tools wie Computer Aided Design (CAD) nutzen, um Projekte zu konzipieren, wollen Befürworter des generativen Designs noch einen Schritt weiter gehen. Sie wollen Algorithmen nutzen, die evolutionäre Prozesse innerhalb eines Computers nachahmen, um Gebäude von Grund auf zu entwerfen. Und zumindest wenn es um Häuser geht, sind die Ergebnisse verdammt interessant.
Generatives Design
Celestino Soddu arbeitet schon länger mit evolutionären Algorithmen, als die meisten Menschen heute Computer benutzen. Soddu, ein zeitgenössischer italienischer Architekt und Designer, Mitte 70, interessierte sich bereits zu Zeiten des Apple II für die möglichen Auswirkungen der Technologie auf das Design. Was ihn interessierte, war die Möglichkeit, sich endlos mit einem Thema auseinanderzusetzen. Oder wie Soddu, der auch Professor für generatives Design an der Polytechnischen Universität Mailand in Italien ist, gegenüber Digital Trends sagte, ihm gefiel die Idee, „die Tür zu endloser Variation zu öffnen“.