Berechnung bringt 3
Früher beschränkte sich die Fotografie auf flache, zweidimensionale Bilder. Heute wird die Kunst und Wissenschaft der Bilderfassung durch Optik, Computer und Elektronik vorangetrieben, und Cornell-Ingenieure arbeiten an den neuesten Entwicklungen der 3D-Bildgebung.
Suren Jayasuriya, ein Doktorand im Labor von Alyosha Molnar, außerordentlicher Professor für Elektro- und Computertechnik, entwickelt eine 3D-Kamera mit speziell entwickelten Bildsensoren, die zu bisher ungeahnten Anwendungen führen könnte, von intelligenten Autos über medizinische Bildgebung bis hin zu visuell beeindruckenden Anwendungen Computergrafik.
Die Sensoren, die aus Pixeln bestehen, die sowohl die Intensität als auch den Einfallswinkel des Lichts erfassen können, können ein Foto nach der Aufnahme digital neu fokussieren, aus einer einzigen Aufnahme unterschiedliche perspektivische Ansichten einer Szene erhalten und eine Bildtiefenkarte berechnen.
Zur Unterstützung der Arbeit erhielt Jayasuriya kürzlich ein Qualcomm Innovation Fellowship in Höhe von 100.000 US-Dollar für seinen gemeinsamen Vorschlag mit Achuta Kadambi, einem Doktoranden in Ramesh Raskars MIT Media Lab Camera Culture-Gruppe. Ihr Vorschlag trägt den Titel „Nanophotography: Computational CMOS Sensor Design for 3-D Imaging“.
„Das Spannende an winkelempfindlichen Pixeln ist, dass sie auf der Detektorseite Innovationen hervorbringen, um neue Anwendungen in der Computergrafik und Bildverarbeitung zu fördern, bei denen wir unseren Daten auf Kosten der Rechenleistung mehr Dimensionalität verleihen“, sagte Jayasuriya. „Aber die Art und Weise, wie sich die Dinge skalieren, mit Moores Gesetz und [Grafikverarbeitungseinheiten] und parallelem Rechnen, macht die Berechnung immer weniger zum Problem. Das Zeitalter von Big Data ist da. Jetzt geht es eher darum, welche Daten wir präsentieren.“ auf diese Algorithmen, um sie intelligenter zu machen?“
Mit anderen Worten: Bei der Bildaufnahme geht es nicht mehr nur darum, ein Foto zu machen. Es geht darum, ein Bild aufzunehmen und maschinelles Lernen und Berechnungen zu nutzen, um das Bild im Handumdrehen nachzubearbeiten.
Für das Qualcomm-Projekt arbeiten sie an einem Tiefensensor, der auf einer Bildgebungstechnik namens „Time of Flight“ basiert, die immer beliebter wird und insbesondere in Microsoft Kinect-Kameras verwendet wird. Die Flugzeitbildgebung misst die Zeit, die Photonen benötigen, um von Objekten in einer Szene reflektiert zu werden. Die Forscher fügen Flugzeitcodierung hinzu, um ihrem Bildgebungssystem zu ermöglichen, Licht zu visualisieren, während es durch eine Szene wandert, und um Ecken zu sehen. Durch die Erfassung von Licht im Flug können die Forscher durch Nachbearbeitungsberechnungen eine Kamera herstellen, die effektiv eine Milliarde Bilder pro Sekunde liefert.
Die winkelempfindlichen Pixel-Bildsensoren werden im sogenannten CMOS-Verfahren (Complementary Metal Oxide Semiconductor) hergestellt, einer bewährten Chip-Herstellungstechnik. Das ist einer der Vorteile, die Jayasuriya für das Projekt bringt. Sein Berater Molnar verfügt über langjährige Erfahrung in der Entwicklung von CMOS-basierten Chips für Bildgebungs-, Biomedizin- und Hochfrequenzanwendungen.
Das Projekt von Jayasuriya und Kadambi war einer von acht Qualcomm Fellowship-Gewinnern von 146 Bewerbern. Sie teilen sich den Preis von 100.000 US-Dollar.
Erhalten Sie Cornell-Nachrichten direkt in Ihren Posteingang.