Kunstig intelligens har gjort ekstraordinære fremskridt, når det kommer til at forstå ord og endda være i stand til at oversætte dem til andre sprog. Google har hjulpet med at bane vejen her med fantastiske værktøjer som Google Translate og for nyligt med sin udvikling af Transformer machine learning-modeller. Men sproget er vanskeligt - og der er stadig meget mere arbejde at gøre for at opbygge A.I. der virkelig forstår os.
Sprogmodel for dialogapplikationer
På tirsdagens Google I/O annoncerede søgegiganten et betydeligt fremskridt på dette område med en ny sprogmodel, den kalder LaMDA. Kort for Language Model for Dialogue Applications, det er en sofistikeret A.I. sprogværktøj, som Google hævder er overlegent, når det kommer til at forstå kontekst i samtale. Som Googles administrerende direktør Sundar Pichai bemærkede, kan dette være en intelligent analyse af en udveksling som "Hvordan er vejret i dag?" »Det begynder at føles som sommer. Jeg spiser måske frokost udenfor." Det giver perfekt mening som en menneskelig dialog, men det ville forvirre mange A.I. systemer, der leder efter mere bogstavelige svar.
LaMDA har overlegen viden om indlærte koncepter, som den er i stand til at syntetisere fra sine træningsdata. Pichai bemærkede, at svar aldrig følger den samme vej to gange, så samtaler føles mindre scriptede og mere responsive naturlige.
United States Postal Service, eller USPS, er afhængig af kunstig intelligens drevet af Nvidias EGX-systemer til at spore mere end 100 millioner stykker post om dagen, der går gennem deres netværk. Verdens travleste postvæsen er afhængig af GPU-accelereret A.I. systemer til at hjælpe med at løse udfordringerne med at lokalisere mistede eller manglende pakker og post. I det væsentlige henvendte USPS sig til A.I. for at hjælpe den med at finde en "nål i en høstak".
For at løse denne udfordring skabte USPS-ingeniører en fordel A.I. system af servere, der kan scanne og lokalisere mail. De skabte algoritmer til systemet, der blev trænet på 13 Nvidia DGX-systemer placeret ved USPS-datacentre. Nvidias DGX A100-systemer, som reference, pakker i fem petaflops computerkraft og koster lige under $200.000. Den er baseret på den samme Ampere-arkitektur, som findes på Nvidias forbruger GeForce RTX 3000-serie GPU'er.
Designs gentages over tid. Arkitektur designet og bygget i 1921 vil ikke se det samme ud som en bygning fra 1971 eller fra 2021. Trends ændrer sig, materialer udvikler sig, og spørgsmål som bæredygtighed får blandt andre faktorer betydning. Men hvad nu hvis denne udvikling ikke kun handlede om de typer bygninger, arkitekter designer, men i virkeligheden var nøglen til, hvordan de designer? Det er løftet om evolutionære algoritmer som et designværktøj.
Mens designere for længst har brugt værktøjer som Computer Aided Design (CAD) til at hjælpe med at konceptualisere projekter, ønsker fortalere for generativt design at gå flere skridt videre. De ønsker at bruge algoritmer, der efterligner evolutionære processer inde i en computer til at hjælpe med at designe bygninger fra bunden. Og i det mindste når det kommer til huse, er resultaterne ret interessante.
Generativt design
Celestino Soddu har arbejdet med evolutionære algoritmer i længere tid, end de fleste mennesker, der arbejder i dag, har brugt computere. En moderne italiensk arkitekt og designer nu i midten af 70'erne, blev Soddu interesseret i teknologiens potentielle indflydelse på design tilbage i Apple II's dage. Det, der interesserede ham, var potentialet for uendeligt at riffe på et tema. Eller som Soddu, der også er professor i generativt design ved Polytechnic University of Milano i Italien, fortalte Digital Trends, kunne han godt lide ideen om at "åbne døren til uendelig variation."