Enhver, der har set en 3D-animeret film eller spillet videospil i lang tid nok, har sandsynligvis bemærket noget om forholdet mellem tegn og tøj: vi ser aldrig dem lægge deres tøj på. Årsagen til dette skyldes, at animering af et 3D-tegn, der sætter på et stykke stof, ofte fører til katastrofale resultater med snarere karakteren eller kluden ikke ser ud til at være "realistisk".
Forskere ved Georgia Institute of Technology har forsøgt at afhjælpe dette problem, og deres resultater er imponerende - omend lidt dumt.
I videoen i overskriften kan vi se flere korte klip af humanoide modeller, der forsøger at påtage sig tøj. Mens animationerne er langt fra naturlige, forsøger GITs Karen Liu og hendes hold at finde en måde at få fysisk gengivet klud interagere med håndanimerede 3D-modeller uden behov for animatorer for at sikre, at hver fiber ikke klipper eller sidder fast på tegnemodellen.
At lade vand og klud udføres af en fysikmotor har typisk sparet animatorer meget tid, og nu kan GITs forskning give større realisme i 3D-film og videospil.
"Den nærmeste ting at lægge tøj på, vil du se i en animeret film er De utrolige lægge på capes, og det er stadig en meget simpel sag, fordi det ikke virkelig involverer en masse fysisk kontakt mellem tegnene og kluden. [...] Dette er det problem, vi ønsker at løse, fordi generering af denne slags scene indebærer den fysiske interaktion mellem to meget forskellige fysiske systemer. "- Karen Liu, leder af GITs forskerhold på nuværende tøjanimationspraksis
En af de største udfordringer for Karen Liu's team er at udvikle en vejsøgningsalgoritme, der både er realistisk og flydende. Ifølge Liu, "Karakteren skal træffe den rigtige beslutning om, hvordan han eller hun skal flytte lemmerne, så den har en klar vej til åbningen." Dette er svært af flere årsager, da mennesker gør mange bevægelser, som vi ikke rigtig tænker på, når de bliver klædt.
Disse omfatter akavede bevægelser som et håndtryk, eller vrider vores arme gennem ærmer. Uden disse animationer kan et 3D-tegn nå uhyggeligt bevægelsesniveau i sekunder, selv om vi ikke synligt kan se noget galt.
Mens Liu's hold er kommet tæt på at løse problemet med præ-renderede 3D-rum, ønsker de også at se om deres resultater anvendes i realtid 3D. Det betyder, at vi snart kunne se disse algoritmer, der bruges i videospil. De vil også anvende deres forskning på robotter: De fleste robotter er designet til at undgå kollisioner, men processen med at sætte på en skjorte kræver mange små kollisioner at opnå.
Men hvad betyder det for spilverdenen?
I øjeblikket i videospil er de fleste - hvis ikke alle - dressing scener præ-rendered. De nærmeste eksempler på omklædning og dressing i spillet indebærer typisk en fade-til-sort eller et tegn, der gemmer sig bag en slags visuel blok, før magisk skiftende tøj.
Den mest berygtede af disse ændringer er "The Sims" med tegn, der springer rundt uforklarligt hurtigt, før de kommer igen med et nyt sæt tøj. Mens du lægger tøj på, kan det ikke virke jordskærende vigtigt for spil, kan disse udviklinger medvirke til nedsænkning i videospil, der er meget afhængige af tøjændringer eller nøgenhed til fortælling. Visse scener fra The Witcher og Masseffekt Komme i tanke om.
Jeg kunne sikkert se animationer som denne bruges i scener mellem en forælder og et barn eller mellem to voksne tegn
Personligt tror jeg, at dette vil være et interessant begreb for fremtiden for videospil. Selvom spiludviklere ikke bruger denne forskning som en måde at animere tøj på, kan vi se, at dette bliver nyttigt til andre applikationer. For eksempel kunne vi se nye videospil, hvor objektet af et spil kunne være at have et tegn placere et fysik-gengivet objekt på eller ind i et andet ikke-fysisk renderet objekt. Ikke sikker på hvad de ville gøre med dette koncept, men jeg er sikker på, at spiludviklere kunne tænke på noget!
Hvad synes du om denne forskning? Er det spild af tid? Kan du tænke på nogen brug for det i fremtiden for spil?