Stereoseende är som bekant metoden vår hjärna använder sig för att göra avståndsbedömning och därmed skapa en 3D-vy av verkligheten. Med våra två ögon kan vi triangulera objekt, de båda ögonen ser två delvis olika bilder och hjärnan smälter samman dessa till en 3D-bild.
Idag finns glasögon med inbyggda skärmar, som kan visa olika bilder för de båda ögonen. Visar man datorgenererade bilder ur två lätt förskjutna perspektiv uppfattar vi det som äkta 3D, samma sak kan göras med två vanliga foton tagna cirka 6cm ifrån varandra.
Tänk dig följande scenario.
1) Du bär dessa glasögon, varje skärm är kopplad till en videokamera.
2) Videokamerorna är placerade precis framför dina ögon.
Så långt uppfattar du verkligheten precis som den är. Sedan börjar kamerorna flyttas, långsamt, långsamt åker de isär.
Avståndet blir 10, 15, 20, 50, 75, 100cm mellan kamerorna.
Vad händer?
Dels kommer du få en svart fläck mellan kamerorna, som du inte kan uppfatta (du kan ju inte se särskilt mycket av ditt näsben). Men vad händer med sakerna du ser? Du kommer ju se mer och mer av dom, på samma gång. Om du tittar på en badboll idag så kan du se lite drygt 50% av ytan, kanske 60%. Men vad händer i detta scenario?
Till slut bör du kunna se uppemot 100% av badbollen - i samma bild?
Kan hjärnan processa detta?
Nån som känner till någon forskning? Vad kan detta heta på engelska? Jag försökte med "extended stereo vision" fast Google gav mig mest skit tillbaks.
Är reklamen ivägen? Logga in eller registrera dig så försvinner den!
