Det ser ut som att Världen av Kinect hacks är på väg att bli lite mer intressant.
Medan många av de kinekerade projekten vi ser använder en eller två enheter, har detta 3D-telepresenssystem utvecklat av UNC Chapel Hill Student [Andrew Maimone] under ledning av [Henry Fuchs] har dem alla slag.
Inställningen använder upp till fyra kinektsensorer i en enda slutpunkt, som tar bilder från olika vinklar innan de bearbetas med hjälp av GPU-accelererade filter. Den video som tagits av kamerorna bearbetas i en serie steg, fyllning av hål och justera färger för att skapa en nätbild. När videoströmmarna har bearbetats överlagras de med varandra för att bilda en komplett 3D-bild.
Resultatet är en fantastisk realtid 3D-rendering av ämnet och omgivande rum som påminner oss om denna papercraft kostym. 3D-videon kan ses på en fjärrstation som använder en kinektsensor för att spåra ögonrörelserna, ändra videomatningsperspektivet i enlighet därmed. Telepresence-systemet erbjuder också möjlighet att lägga till i obefintliga föremål, vilket gör det till ett fantastiskt verktyg för avlägsna demonstrationer och liknande.
Kolla in videon nedan för att se ett omfattande genombrott av detta 3D-telepresenssystem.