Teake Zuidema
Nieuwe camera’s registreren de invalshoek van het licht waardoor de gebruiker achteraf kan kiezen waar de scherpte ligt.
Het Californische Lytro brengt in 2012 een camera op de markt waarbij het scherpstellen achteraf gebeurt (zie gadgets, TW43). Microlenzen boven de beelddetector focussen het licht met verschillende invalshoeken op verschillende pixels in de detector. De detector/chip slaat hierdoor meerdere beelden op die ieder voor zich scherp zijn. Omdat verschillende pixels verschillende functies hebben gaat dit wel ten koste van de resolutie.
Alyosha Molnar van de Cornell University heeft een nog ingenieuzer methode voor het maken van een CMOS light-field imager, een chip waarbij de pixels niet alleen gevoelig zijn voor de intensiteit en de golflengte van het licht maar ook voor de invalshoek. Iedere pixel is een fotodiode onder twee diffractieroosters die niet exact uitgelijnd zijn. Het bovenste rooster veroorzaakt hierdoor een interferentiepatroon op het onderste. De manier waarop het interferentiepatroon samenvalt met het onderste rooster bepaalt hoeveel licht de pixel bereikt. De pixel bewaart data over de invalshoek van het licht door de hoeveelheid licht te registreren.
Door de data van alle pixels samen te bewerken met de zogenaamde Fourier wordt het mogelijk het scherptepunt in het beeld naar verschillende afstanden te verleggen. Omdat deze CMOS-chip ook twee beelden kan produceren met verschillende scherptepunten, is hij ook te gebruiken om 3d-beelden te maken.
Ramesh Raskar van MIT heeft weer een andere benadering. Hij plaatst een stuk gerasterd glas tussen de cameralens en de beeldsensor. De mate waarin het licht nu wordt verzwakt hangt af van de invalshoek van het licht. Volgens Raskar levert deze methode minder verlies van resolutie dan die van de Lytro camera.