Gewölbte Kamerasensoren

BLOG: Bierologie

Weissbier & Wissenschaft
Bierologie

researchblogging Bastian sagt Bastian sagt:
Auch wenn Optoelektronik nicht gerade mein Fachgebiet ist interessiert mich das Thema als Hobby-Fotograf trotzdem: Einem Team aus Forschern der University of Illinois und der Northwestern University ist es gelungen einen sphärischen Kamerasensor zu bauen der damit dem Aufbau des Auges ein Stück näher ist. Das entsprechende Paper erschien letzte Woche in der Nature (hier auch als PDF, beides leider nur für zahlende Abonnenten).

Die Sensoren von Digitalkameras waren bislang stets flach, wie es schon früher bei analogen Kameras die Filmebene war. Doch genau dieser Aufbau von Kameras hat so seine Tücken: Die gewölbten Linsen der Objektive verzeichnen gerade zu den Rändern und um dies zu korrigieren müssen mehrere Linsensysteme in Reihe eingesetzt werden.
Doch dies macht Objektive nicht nur schwerer als sie sein müssten, es vermindert auch den Lichteinfall durch das komplexe Linsensystem.

Anders sieht es da bei der Funktionsweise unseres Auges aus, was nicht viel anders funktioniert als eine Kamera mit einem Objektiv mit Festbrennweite:
Das Licht fällt durch die Linse des Auges und trifft dann im Auge auf die gewölbte Netzhaut wo Fotorezeptoren, die sogenannten Stäbchen & Zapfen (Dabei sind die Zapfen für das Farbsehen zuständig, die empfindlicheren Stäbchen für das Schwarz-Weiss bzw. Kontrastsehen).
Zum Fokussieren wird im Kameraobjektiv der Abstand der Linsen variiert, im Auge geschieht dies durch die, durch Muskeln veränderbare, Wölbung der Linse. Durch die Wölbung der Netzhaut werden Korrekturen wie bei Kameraobjektiven nicht benötigt.

Diesen Umstand haben die Forscher nun auch für ihren gewölbten Sensor nutzen wollen, das Problem dabei sind jedoch die verwendeten Materialien: Die normalerweise benutzen Silizium-Wafer können der Spannung wie sie in einem gewölbten System entstehen nicht standhalten und würden einfach brechen.

Doch genau dieses Problem umgehen sie in ihrer veröffentlichten Methode sehr elegant: Anstatt die einzelnen Photodetektoren (die im Endeffekt die Pixel produzieren) auf einem Wafer anzuordnen haben sie diese getrennt und kleine, einzelne Detektoren gebaut die über flexible Metall-Verbindungen miteinander verschaltet sind.

Um dieses ebene Konstrukt nun in die Sphäre zu bringen bedient man sich eines elastischen Polymers der die gewünschte sphärische Form hat, sich jedoch auseinanderziehen lässt bis er plan ist.
Auf diesen ebenen Polymer wird dann das Sensor-Array aufgebracht und der Zug auf den Polymer entfernt, so das dieser sich wieder in seine ursprüngliche Form zurückzieht.

Dieses Negativ wird nun auf der gewünschten Positivsphäre festgeklebt, das Polymer gelöst und schon befindet sich der Sensor in der passenden Form. Anschaulich dargestellt ist dieser Vorgang auch in der Grafik* unten.

Kamerasensoren

Auf diese Weise haben die Forscher einen 16×16 Pixel großen, sphärischen Sensor gebaut der in seiner Form dem Auge sehr ähnlich ist. Und auch Fotos lassen sich damit schon machen, denn die Forscher haben eine einfache Linse (f=35 mm für die Fotografen hier) vor den Sensor gelegt und Testfotos gemacht.

Sicherlich, bei 16×16 Pixeln darf man keine Wunder erwarten (Windows-Icons haben bereits 32×32 Pixel) aber auch hier gibt es einen Trick um die Auflösung zu verbessern den sich die Wissenschaftler von der Funktion des Auges abgeschaut haben: Sie „scannen“ das Bild in dem sie den Betrachtungswinkel um einige Grad in jede Richtung verändern, genauso verbessern auch unsere Augen die eigentlich recht geringe Auflösung. Aus den Differenzen lässt sich dann ein hochgerechnetes Bild erzeugen.

Eine sehr spannende Entwicklung, auch wenn es zur Marktreife sicherlich noch ein gewaltiges Stück Arbeit ist. Doch gerade für die immer kleiner werdenden Point&Shoot-Kameras sehe ich hier eigentlich gute Anwendungsmöglichkeiten. Das soll es dann von mir auch dazu gewesen sein, von Laien für Laien. Falls es noch Fragen/Anmerkungen/Verbesserungen gibt freuen wir uns hier natürlich auch immer über Kommentare.

* Die Grafik wurde von Heung Cho Ko et al. erstellt und erschien zusammen mit ihrem Paper ‘A hemispherical electronic eye camera based on compressible silicon optoelectronics’ am 07.08.08 in ‘Nature’


Heung Cho Ko, Mark P. Stoykovich, Jizhou Song, Viktor Malyarchuk, Won Mook Choi, Chang-Jae Yu, Joseph B. Geddes III, Jianliang Xiao, Shuodao Wang, Yonggang Huang, John A. Rogers (2008). A hemispherical electronic eye camera based on compressible silicon optoelectronics Nature, 454 (7205), 748-753 DOI: 10.1038/nature07113

 

Veröffentlicht von

Bastian hat seinen Bachelor in Biologie in nur 8 statt 6 Semestern abgeschlossen. Nach einem kurzen Informatik-Studiums-Intermezzo an der TU Dortmund hat es ihn eigentlich nur für ein Stipendium nach Frankfurt am Main verschlagen. Dort gestrandet studiert er dort nun im Master-Programm Ökologie und Evolution. Zumindest wenn er nicht gerade in die Lebensweise der Hessen eingeführt wird. Neben seinen Studiengebieten bloggt er über die Themen, die gerade in Paperform hochgespült werden und spannend klingen.

Schreibe einen Kommentar