Hjernelesing A.I. Gjør falske ansikter du finner attraktive

Hjerne-datamaskin-grensesnitt for å generere personlig attraktive bilder

Tenk om en ikke altfor fjern fremtidig versjon av Tinder var i stand til å krype inn i hjernen din og trekke ut funksjonene du finner mest attraktive i en potensiell partner, så skann søkeområdet for romantikk for å finne den partneren som har det høyeste antallet av disse fysiske attributter.

Innhold

  • Søker i ansiktsrommet
  • Sveip høyre hjernehalvdel
  • NeuroTinder og utover

Anbefalte videoer

Vi snakker ikke bare kvaliteter som høyde og hårfarge, heller, men en langt mer kompleks ligning basert på et datasett med alle du noen gang har funnet attraktive før. På samme måte som Spotify-anbefalingssystemet lærer sangene du liker, og deretter foreslår andre som samsvarer med en lignende profil — basert på funksjoner som dansbarhet, energi, tempo, lydstyrke og talestyrke - denne hypotetiske algoritmen ville gjøre det samme for spørsmål om hjerte. Eller i det minste lendene. Kall det fysisk attraktivitet matchmaking ved hjelp av A.I.

For å være tydelig, jobber ikke Tinder - så vidt jeg er klar over - med noe eksternt som dette. Men det er forskere fra Universitetet i Helsingfors og Københavns Universitet. Og mens den beskrivelsen kan smake litt av en dystopisk grunnhet midt mellom Svart speil og Love Island, i virkeligheten er hjernelesingsforskningen deres ganske fascinerende.

Søker i ansiktsrommet

I deres nylige eksperiment brukte forskerne en generativt adversarielt nevralt nettverk, trent på en stor database med 200 000 kjendisbilder, for å drømme opp en serie med hundrevis av falske ansikter. Dette var ansikter med noen av kjennetegnene til visse kjendiser - en sterk kjevelinje her, en gjennomtrengende sett med asurblå øyne der - men som ikke umiddelbart var gjenkjennelige som kjendisene i spørsmål.

Bildene ble deretter samlet til en lysbildefremvisning for å vise til 30 deltakere, som var utstyrt med elektroencefalografi (EEG) caps i stand til å lese hjerneaktiviteten deres, via den elektriske aktiviteten i hodebunnen. Hver deltaker ble bedt om å konsentrere seg om hvorvidt de syntes ansiktet de så på på skjermen var pent eller ikke. Hvert ansikt ble vist i en kort periode før neste bilde dukket opp. Deltakerne trengte ikke å merke noe på papiret, trykke på en knapp eller sveipe til høyre for å indikere godkjenningen. Bare å fokusere på det de fant attraktivt var nok.

The Cognitive Computing Group

"Vi viste et stort utvalg av disse ansiktene til deltakerne, og ba dem om å selektivt konsentrere seg om ansikter de fant attraktive," Michiel Spapé, en postdoktor ved Universitetet i Helsinki, fortalte Digital Trends. "Ved å fange hjernebølgene med EEG som oppstod like etter å ha sett et ansikt, estimerte vi om et ansikt ble sett på som attraktivt eller ikke. Denne informasjonen ble deretter brukt til å drive et søk i den nevrale nettverksmodellen - en 512-dimensjonal "ansiktsrom" - og trianguler et punkt som vil matche en individuell deltakers poeng attraktivitet."

Å finne de skjulte datamønstrene som avslørte preferanser for visse funksjoner ble oppnådd ved å bruke maskinlæring for å undersøke den elektriske hjerneaktiviteten hvert ansikt provoserte. Grovt sett, jo mer av en viss type hjerneaktivitet oppdaget (mer om det på et sekund), desto større blir tiltrekningsnivåene. Deltakerne trengte ikke å trekke frem visse funksjoner som spesielt attraktive. For å gå tilbake til Spotify-analogien, på samme måte som vi ubevisst kan trekke til sanger med en bestemt taktart, ved å måle hjerneaktivitet når vi ser på et stort antall bilder, og deretter la en algoritme finne ut hva de alle har til felles, A.I. kan skille ut deler av ansiktet vi kanskje ikke engang skjønner at vi er tegnet på til. Maskinlæring er i denne sammenhengen som en detektiv hvis jobb det er å koble sammen punktene.

Sveip høyre hjernehalvdel

"Det er ikke nødvendigvis "økt hjerneaktivitet", men snarere at visse bilder resynkroniserer nevral aktivitet," forklarte Spapé. «Det vil si at den levende hjernen alltid er aktiv. EEG er ganske ulikt [funksjonell magnetisk resonansavbildning] ved at vi ikke er veldig sikre på hvor aktiviteten kommer fra, men bare når den kommer fra noe. Bare fordi mange nevroner skyter samtidig, i samme retning, er [vi] i stand til å fange opp deres [elektriske] signatur. Så synkronisering og desynkronisering er det vi fanger opp i stedet for "aktivitet" som sådan."

Han understreket at det laget har ikke gjort er å finne en måte å se på tilfeldige EEG-hjernedata og fortelle umiddelbart om en person ser på noen de finner attraktive. "Tiltrekning er et veldig komplekst emne," sa han. Andre steder bemerket han at "vi kan ikke utføre tankekontroll."

The Cognitive Computing Group

Så hvordan har forskerne klart å gjennomføre dette eksperimentet hvis de ikke kan garantere at det de måler er tiltrekning? Svaret er faktisk at de er måle attraksjon. I det minste i dette scenariet. Det forskerne ser i dette eksperimentelle oppsettet er at omtrent 300 millisekunder etter en deltakeren ser et attraktivt bilde, lyser hjernen deres opp med et bestemt elektrisk signal kalt a P300 bølge. En P300-bølge betyr ikke alltid tiltrekning, men snarere en gjenkjennelse av en viss relevant stimuli. Men hva den stimuli er, avhenger av hva personen har blitt bedt om å se etter. I andre scenarier, der en person blir bedt om å fokusere på forskjellige funksjoner, kan det indikere noe helt annet. (Eksempel: P300-respons brukes som et mål i løgndetektorer - og ikke nødvendigvis for å fortelle om en person forteller sannheten om sin tiltrekning til en bestemt person.)

NeuroTinder og utover

I denne studien brukte forskerne deretter disse attraksjonsdataene for å få det generative motstandsnettverket til å generere nye tilpassede ansikter ved å kombinere de mest hjernegnistrende trekkene - en Frankenstein-samling av ansiktstrekk deltakernes hjernedata hadde indikert at de finner personlig attraktive.

"Selv om det kan være noen ansiktstrekk som ser ut til å være generelt foretrukket blant deltakere, som noen genererte ansikter i våre eksperimenter ligner hverandre, fanger modellen virkelig personlig egenskaper," Tuukka Ruotsalo, en førsteamanuensis ved Universitetet i Helsinki, fortalte Digital Trends. "Det er forskjeller i alle genererte bilder. I det mest trivielle aspektet får deltakere med ulike kjønnspreferanser ansikter som matcher den preferansen.»

Genererer attraktive mennesker som aldri har eksistert er absolutt en overskriftsfengende bruk av denne teknologien. Imidlertid kan den ha andre, mer meningsfulle applikasjoner også. Samspillet mellom et generativt kunstig nevralt nettverk og menneskelige hjerneresponser kan også brukes til å teste ut menneskelige responser på forskjellige fenomener som finnes i data.

"Dette kan hjelpe oss til å forstå hva slags funksjoner og kombinasjoner deres som reagerer på kognitiv funksjoner, som skjevheter, stereotypier, men også preferanser og individuelle forskjeller,” sa Ruotsalo.

Et papir som beskriver arbeidet var nylig publisert i tidsskriftet IEEE Transactions in Affective Computing.

Redaktørenes anbefalinger

  • Hvordan A.I. humlehjerne kan innlede en ny æra for navigasjon
  • Samsungs nye mat A.I. kan foreslå oppskrifter basert på hva som er i kjøleskapet ditt
  • Ny kardiologi A.I. vet om du snart dør. Leger kan ikke forklare hvordan det fungerer
  • Hold deg anonym på nettet med deepfake-teknologi som genererer et helt nytt ansikt for deg
  • Smart ny språkopplæringsapp lar deg øve på å snakke med en A.I. veileder