Kunstmatige intelligentie heeft buitengewone vooruitgang geboekt als het gaat om het begrijpen van woorden en zelfs het kunnen vertalen ervan in andere talen. Google heeft hiertoe de weg bereid met geweldige tools als Google Translate en, recentelijk, met de ontwikkeling van Transformer machine learning-modellen. Maar taal is lastig – en er moet nog veel meer werk worden verzet om A.I. die ons echt begrijpt.
Taalmodel voor dialoogtoepassingen
Tijdens de Google I/O van dinsdag kondigde de zoekgigant een aanzienlijke vooruitgang op dit gebied aan met een nieuw taalmodel dat het LaMDA noemt. Een afkorting van Language Model for Dialogue Applications, het is een geavanceerde A.I. taalhulpmiddel waarvan Google beweert dat het superieur is als het gaat om het begrijpen van de context in gesprekken. Zoals Sundar Pichai, CEO van Google, opmerkte, zou dit een intelligente analyse kunnen zijn van een uitwisseling als “Wat is het weer vandaag?” “Het begint op zomer te lijken. Ik ga misschien buiten lunchen.’ Dat is volkomen logisch als menselijke dialoog, maar zou veel A.I. systemen op zoek naar meer letterlijke antwoorden.
LaMDA heeft superieure kennis van geleerde concepten die het kan synthetiseren op basis van zijn trainingsgegevens. Pichai merkte op dat reacties nooit twee keer hetzelfde pad volgen, waardoor gesprekken minder scripted en responsiever natuurlijker aanvoelen.
De United States Postal Service, of USPS, vertrouwt op kunstmatige intelligentie, aangedreven door Nvidia's EGX-systemen, om meer dan 100 miljoen poststukken per dag te volgen die via zijn netwerk gaan. Het drukste postdienstsysteem ter wereld vertrouwt op GPU-versnelde A.I. systemen om de uitdagingen van het lokaliseren van verloren of ontbrekende pakketten en post te helpen oplossen. In wezen wendde de USPS zich tot A.I. om het te helpen een ‘naald in een hooiberg’ te vinden.
Om die uitdaging op te lossen, hebben USPS-ingenieurs een edge A.I. systeem van servers die e-mail kunnen scannen en lokaliseren. Ze creëerden algoritmen voor het systeem die werden getraind op 13 Nvidia DGX-systemen in USPS-datacenters. Nvidia's DGX A100-systemen, ter referentie, bevatten vijf petaflops aan rekenkracht en kosten iets minder dan $ 200.000. Het is gebaseerd op dezelfde Ampere-architectuur die te vinden is op Nvidia's GPU's uit de GeForce RTX 3000-serie voor consumenten.
Ontwerpen herhalen zich in de loop van de tijd. Architectuur ontworpen en gebouwd in 1921 zal er niet hetzelfde uitzien als een gebouw uit 1971 of uit 2021. Trends veranderen, materialen evolueren en zaken als duurzaamheid winnen onder meer aan belang. Maar wat als deze evolutie niet alleen zou gaan over de soorten gebouwen die architecten ontwerpen, maar in feite de sleutel zou zijn tot de manier waarop ze ontwerpen? Dat is de belofte van evolutionaire algoritmen als ontwerpinstrument.
Hoewel ontwerpers al lang tools als Computer Aided Design (CAD) gebruiken om projecten te conceptualiseren, willen voorstanders van generatief ontwerp een aantal stappen verder gaan. Ze willen algoritmen gebruiken die evolutionaire processen in een computer nabootsen om gebouwen van de grond af aan te helpen ontwerpen. En als het om huizen gaat, zijn de resultaten behoorlijk interessant.
Generatief ontwerp
Celestino Soddu werkt al langer met evolutionaire algoritmen dan de meeste mensen die vandaag de dag werken computers gebruiken. Soddu, een hedendaagse Italiaanse architect en ontwerper, nu halverwege de zeventig, raakte geïnteresseerd in de potentiële impact van de technologie op design in de tijd van de Apple II. Wat hem interesseerde was de mogelijkheid om eindeloos over een thema te riffs. Of zoals Soddu, tevens hoogleraar generatief ontwerp aan de Polytechnische Universiteit van Milaan in Italië, tegen Digital Trends zei: hij hield van het idee om ‘de deur te openen voor eindeloze variatie’.