Summary

Mess-und Richtungs räumlich variierenden Lichtstreuung aus biologischem Material

Published: May 20, 2013
doi:

Summary

Wir stellen eine zerstörungsfreie Methode zum Abtasten räumliche Variation in der Richtung des Lichts von strukturell komplexen Materialien verteilt. Indem das Material intakt bewahren wir grober Maßstab Streuverhalten, während gleichzeitig die Erfassung feinskaligen direktionale Beiträge mit hochauflösender Bildgebung. Die Ergebnisse sind in der Software visualisiert in biologisch relevanten Positionen und Personenwaagen.

Abstract

Licht interagiert mit eines Organismus integument auf einer Vielzahl von räumlichen Skalen. Zum Beispiel in einem schillernden Vogel: Nano-Strukturen zu erzeugen Farbe, die Milli-Skala Struktur von Widerhaken und barbules bestimmt weitgehend die Richtcharakteristik des reflektierten Lichts, und durch die Makro-Skala räumliche Struktur von überlappenden, gebogene Federn, schaffen diese direktionale Effekte die visuelle Textur. Milli-Skala und Makro-Skala Auswirkungen bestimmen, wo auf den Organismus des Körpers, und von dem, was und unter welchen Gesichtspunkten Beleuchtung, die schillernden Farben zu sehen sind. Somit wird der stark gerichteten Blitz leuchtenden Farben von der schillernden Kehle eines Kolibris unzureichend durch seine Nano-Struktur allein und erläutert Fragen bleiben. Von einem bestimmten Beobachtungspunkt, sind die Milli-Skala Elemente der Feder orientiert sich an stark reflektieren? Haben einige Arten produzieren breiteren "Fenster" für die Beobachtung von Schillern als andere? Diese und ähnliche Fragen may über alle Organismen, die ein bestimmtes Aussehen der Oberfläche für die Signalisierung, Tarnung, oder aus anderen Gründen entstanden sind gefragt.

Um die Richtcharakteristik der Lichtstreuung von Federn zu studieren, und ihre Beziehung zu den Vogel Milli-Skala Morphologie, entwickelten wir ein Protokoll zur Messung von Licht aus biologischen Materialien mit vielen Fotos in hoher Auflösung mit unterschiedlichen Beleuchtungs-und Blickrichtungen genommen verstreut. Da wir Streulicht gemessen als Funktion der Richtung, können wir die charakteristischen Merkmale in der gerichteten Lichtverteilung aus, dass insbesondere Feder verstreut zu beobachten, und weil Widerhaken und barbules sind in unserer Bilder gelöst, können wir klar führen die Richtungs-Funktionen, um diese unterschiedlichen Milli-Skala Strukturen. Halten Sie die Probe intakt bewahrt die Brutto-Skala Streuverhalten in der Natur gesehen. Das hier beschriebene Verfahren stellt eine verallgemeinerte Protokoll zur Analyse von räumlich und direktional-varying Lichtstreuung aus komplexen biologischen Materialien an mehreren strukturellen Skalen.

Introduction

Die Farbe und das Muster eines Organismus spielen integument ökologisch und sozial wichtige Funktionen in den meisten Tiergruppen. Diese phänotypischen Eigenschaften werden durch die Wechselwirkung von Licht mit der Struktur der Deckhaut, die optische Streuung, die räumlich (über die Oberfläche des Integument) und gerichtet (mit Veränderungen in der Beleuchtung und Blickrichtung) variiert aufweisen bestimmt. In komplexen biologischen Materialien, wie z. B. Federn, wird die Richtung der Lichtstreuung durch die Orientierung des sich wiederholenden milli-Skala Geometrie beeinflusst. Diese Milli-Skala Strukturen selbst kann mit Nano-Strukturen, wie Melanin-Arrays, die oft erben die Milli-Skala Orientierung eingebettet werden. Von Nano-bis Makro-Skalen, hat sich die Struktur des Integuments funktional, um die Signalisierung Fähigkeit des Organismus zu erhöhen entwickelt. Um den Einfluss der Morphologie von verschiedenen Skalen auf dem Gesamtbild zu beurteilen, Werkzeugemessen und analysieren die Farbe von biologischen Strukturen brauchen Flexibilität, um gerichtete Lichtstreuung in verschiedenen Maßstäben der Vergrößerung zu isolieren.

Wir entwickelten Image-basierte Mess-Tools, um zu studieren, wie die Leistung von einer Feder ist komplex und vielfältig Milli-Skala Morphologie (rami Widerhaken, distalen barbules und proximalen barbules) die Bandbreite der möglichen Ausdruck von nanoskaligen Strukturen allein erweitert. In einem einzigen Bild mit der Kamera aufgenommen, wir beobachtet, dass das Licht anders reflektiert an verschiedenen Stellen auf der Oberfläche der Feder, das heißt, Lichtreflexion war räumlich variierenden. Wenn wir das Licht und die Kamera bewegt in Bezug auf die Feder, beobachteten wir das Reflexionsvermögen verändert, das heißt, Lichtreflexion wurde gerichtet variierenden 1. Nach diesen Beobachtungen haben wir ein Protokoll, um methodisch bewegen das Licht und die Kamera um das Objekt mit einem sphärischen Gantry 2,3, mit dem wir erobert 2 Dimensionen surface Position (X und Y), 2 Dimensionen des Lichts Richtung (Breitengrad und Längengrad) und 2 Dimensionen der Kamera Richtung (Breitengrad und Längengrad) (Abbildung 2). In Software, die wir visuell erkundet die 6 Dimensionen des gestreuten Lichts in Abhängigkeit von Position, Richtung und Beleuchtung Blickrichtung.

Frühere Untersuchungen in den Reflexionsgrad von Integumente hat zu oft den Beitrag der Richtwirkung abgezinst – zB diffuse vs spiegelnd oder isotropen vs anisotrope Reflexion – die Farbe Ausdruck. Die meisten Farben-Messungen haben das einfallende Licht, Objekt und Blickgeometrie fixiert sorgfältig vermeiden direktionale Effekte. Zum Beispiel, um Spiegelreflexion von Farbmessungen zu beseitigen, ist es üblich, das Licht senkrecht zur Oberfläche zu platzieren und Aufzeichnung der Reflexion um 45 ° von der Normalen. Studien, die Morphologie Link tun, um gerichtet variierenden Reflexionsgrad der Regel auf der Nano-Skala konzentrierenund seine schillernden Folgen 4-8. Wenige betrachten den Beitrag der Mikro-, Milli-und Makro-Skala Geometrien Fernfeld optische Signatur 8-11. Es ist daher üblich, eine Licht-Detektor zu aggregieren Reflexion beschäftigen über einen einzigen Bereich von Interesse, die mehrere Milli-und / oder Makroebene Komponenten wie Widerhaken rami, barbules und sogar ganze Federn 6,8,11-17 umfassen kann . Wenn der Bereich von Interesse entweder kleiner als die Auflösungsgrenze des Detektors oder nicht an die Form des Detektors Sichtfeld konform ist, gibt die gemeinsame Protokoll Probe Dissektion der Lichtstreuung von der spezifischen Millisekunden Skalenelement 8,10 isolieren , 13,15.

Wir haben eine umfassende Protokoll zur Messwerterfassung und Visualisierung, die Erkundung der vielen Variablen oft in anderen stärker fokussierten Studien ignoriert fördert entwickelt. Wir messen Lichtstreuung über eine Kugel von Richtungen und acrossa Region des Weltraums mit einem massiven Reihe von High-Dynamic Range, Fotos in hoher Auflösung von einer systematischen Reihe von Licht und Blickrichtungen gemacht. Wir beschäftigen einen hochauflösenden Bildsensor mit seiner 2D-Array von feinskaligen Pixeldetektoren. Aggregation in Hardware erfolgt auf Pixel-Ebene, um eine Größenordnung kleiner als die Milli-Skala Elemente, die wir messen. Eine zweite Stufe Aggregate einzelnen Pixel in Software als der Benutzer die Form und Größe des Bereichs von Interesse. Dementsprechend kann eine einzelne Messung Satz wiederholt in Software ausgewertet werden, um verschiedene Aspekte des Lichts Wechselwirkung mit dem Material an verschiedenen biologisch relevanten Positionen und Skalen zu erkunden. Durch den Wegfall der Präparation und Messung der gesamten Feder, hat unser Protokoll den Vorteil, dass die Morphologie der Feder Flügel intakt, Beibehaltung natürlichen Kontext und Funktion, ist das Licht der Wechselwirkungen zwischen konstituierenden Milli-Skala Elemente.

Lichtstreuung von organismal structure ist mehrdimensional und schwer zu quantifizieren. Gemessen 6D Lichtstreuung kann noch nicht auf bestimmte Morphologie innerhalb einer Hierarchie der Skala werden mit einem einzigartigen Instrument zurückzuführen. Aber wir haben einen wichtigen Schritt in diese Verfolgung gemacht. Probenahme Reflexion mit der Gantry, die Erkundung großer Datenmengen in Software und Visualisierung von Daten Teilmengen grafisch – – Wir haben ein Tool umfasst drei komplementäre Methoden entwickelt, um unsere Fähigkeit, 6D Lichtstreuung an jedem Punkt eines Materials zu messen verlängern, bis die Milli-Skala. Als Protokolle wie uns beschäftigt sind, rechnen wir Biologen eine Vielzahl von direktional und räumlich variierenden Eigenschaften und entsprechenden strukturellen Anpassungen an mehreren Skalen der Entwicklung zu identifizieren. Mit unseren Tools sind wir in die Charakterisierung der Signalisierung Potential der Richtungs-und räumliche Expression von Milli-Skala Strukturen beschäftigt, und hoffen, dass Licht auf ihre adaptive Konsequenzen zu vergießen. Wir wenden uns an eine Reihe von Fragen, wie zB: von einemy gegebenen Beobachtungspunkt, was in Ordnung angelegte Elemente oder grober Maßstab Regionen der Feder reflektieren stark? Wie wirkt sich die Orientierung der feinskaligen Elemente Einfluss auf die Richtung des gestreuten Lichts? Was morphologischen Bedingungen produzieren Eine samtweiche Glanz im Vergleich zu einem mit Pailletten funkeln des schillernden Ornament? Haben einige Arten produzieren breiteren "Fenster" für die Beobachtung von Schillern als andere? Diese Fragen können über Vögel und ihre Federn, sondern auch über alle anderen Organismen, die ein bestimmtes Aussehen der Oberfläche für die Signalisierung, Tarnung, oder aus anderen Gründen entstanden sind gefragt.

Protocol

Bei der Nutzung unserer Methoden, um eine Probe zu messen, muss der Experimentator auf eine Reihe von Kamera und Licht Richtungen entscheiden, und für jede Kombination von Kamera und Licht Richtungen, macht die Kamera mehrere Aufnahmen mit unterschiedlichen Belichtungszeiten. Bewegen der Kamera erfordert zusätzliche Verarbeitung, weil es den Blick auf die Probe, wie im Bild zu sehen ändert, so verwenden wir normalerweise eine kleine Anzahl von Kamera Richtungen und eine größere Anzahl von Lichtquelle Richtungen. In den detaillierten Protokollen unten beschreiben wir zunächst, wie eine Messung mit vielen Richtungen Lichtquelle und einer Kamera Richtung, und wie zu verarbeiten und visualisieren die resultierenden Daten (Protokoll 1) durchzuführen. In dem primären Protokoll, das allein verwendet werden kann, wenn eine einzelne Ansicht ist, die ausreicht, um die Phänomene untersucht beobachten wir immer die Kameraansicht senkrecht zur Probenoberfläche (Primary Routine in Abbildung 1). Wenn mehrere Kamera Richtungen erforderlich sind, dieresultierenden schrägen Ansichten der Probe kann verzerrt sein, um die Auswirkungen der Bewegung der Kamera zurücksetzen und damit um die Bilder genau mit der kanonischen Ansicht senkrecht auszurichten. Um diese Verzerrungen zu berechnen, führen wir zusätzliche Kalibrierung Schritte, die Beobachtungen der Ziele auf der Probe platziert, um genau zu bestimmen, die Bewegung der Kamera relativ zu der Probe verwenden. Protokoll Nr. 2 Details dieses Kalibrierung und erklärt, wie Sie die Parameter auswählen und durchführen, Protokoll 1 mehrfach, Daten aus mehreren Ansichten (Secondary Routinen in Abbildung 1) zu sammeln. Schließlich Protokoll Nr. 3 enthält die zusätzliche Schritte, die in Protokoll Nr. 1 eingesetzt werden, um die schrägen Ansichten während der Datenverarbeitung berichtigen müssen. 1. Messen Streulicht in der Richtung der Oberfläche normal über die Sphäre der Vorfall Wegbeschreibung (Primary Routine in Abbildung 1) Vorbereitung und Montage des zu messenden Objekts werden Bereiten Sie eine dünne Metall-Montageplattemit einer ½-Zoll-Öffnung durch einen Ring von Zielen (wie in 2 gesehen) umgeben ist. Vorbereiten des zu messenden Materials. Wenn die Messung eine Feder, Bräutigam die Widerhaken für alle entpackten oder falsch ausgerichtete Abschnitte der pennaceous Flügel korrigieren. Legen der Oberfläche des Objekts (Vorderfläche der Feder) gegen die Rückseite (gegenüber der Soll-Ring) der Platte. Zentrum der Region von Interesse über die ½-Zoll-Öffnung in der Platte. Ziehen einer Platte des magnetischen Films mit einer 5/8-Zoll Öffnung gegen die Rückseite des Gegenstands (Rückseite der Feder), wodurch auf das Objekt, flach auf der Platte. Ausrichten der Öffnung der Folie an der Öffnung der Platte, ohne Scheren der Oberfläche. Die abgeflachte Oberfläche, um den Umfang der kreisförmigen Öffnung gemerkt, ergibt sich eine ebene Oberfläche Makro-etwa mit der Plattenoberfläche. Konfigurieren Sie die Gantry Suchen Sie dieMitte der kreisförmigen Öffnung an dem Ursprung des Gantry-Koordinatensystem. Legen Sie eine Lichtquelle auf der Gantry äußeren Arm. Ziel und eng fokussiert das Licht auf das Objekt, um sicherzustellen, dass die Öffnung gleichmäßig für alle Lichtquelle Winkeln beleuchtet. Legen Sie eine Kamera auf der Gantry inneren Arm. Einstellen der Kamera entfernt und der Brennweite der Makrolinse bis der Ring von Zielen die Breite des Sensors füllt. Kalibrieren Sie die Drehbewegungen (θ, φ) der Kamera und Lampe Armen. Kalibrieren Sie die Neigung (θ) in Bezug auf die Oberfläche des Objekts normalen so, dass die Kamera und die Lampe mit der Flächennormalen ausgerichtet sind, wenn θ = 0 ist. Kalibrieren des Azimut (φ) der Kamera auf dem Azimut der Lampe. Die absolute Azimutorientierung ist nicht kritisch, da die aufgenommenen Bilder können gedreht später im Protokoll. Konfigurieren Sie die Kamera Fokus und Belichtung Rotate die Kamera, bis das Objekt in einem streifenden Winkel betrachtet. Verringern Sie die f-Zahl, um die Schärfentiefe (DOF) zu minimieren, dann den Fokus Flugzeug in der Mitte der Öffnung gesetzt. Erhöhen Sie die f-Zahl, die DOF erhöhen, bis der Ring von Zielen um die Öffnung ist im Fokus. Ein Kompromiss zwischen Beugung und DOF-Unschärfen kann erforderlich sein. Clip eine Farbe Standard flach an der Montageplatte. Für RGB-Bilder mit einem Macbeth Color Checker. Für UV-VIS-NIR-Messungen verwenden Spectralon. Fotografieren Sie die Farbe Standard im RAW-Format. Berechnen Sie die Farbkanal Multiplikatoren, um den Weißabgleich ist das Bild. Finden Sie die Belichtungsreihe, die den Dynamikbereich der Szene umfasst unter extremen Betrachtungswinkel und Beleuchtung Richtungen. Für jede Belichtungszeit in der Halterung, erwerben ein dunkles Rauschen Bild, indem die Sensoren mit der Objektivdeckel auf. Erwerben Maße von einer spärlich abgetasteten Sphere Incident Wegbeschreibung Positionieren Sie die Kamera Achse senkrecht zur Oberfläche plane {θ, φ} = {0,0}. Schritt das Licht durch eine Reihe von gleichmäßig verteilten Positionen auf der Kugel, mit einem groben Abtasten (z. B. weniger als 500 Punkte). Für jede Richtung des einfallenden Lichtes in der Probenahme: Nehmen Sie ein RAW-Bild für jede Belichtungszeit in der Belichtungsreihe. Nehmen Sie ein einzelnes Bild von der Kamera beleuchtet Blitzgerät auf eine relativ kurze Belichtungszeit, um die Gantry Lampe Beleuchtung unterdrücken synchronisiert. Sprung zum nächsten Richtung des einfallenden Lichtes und wiederholen. Process Measurements von spärlich abgetasteten Sphere Mit dem debug (document) Modus dcraw einem seiner Demosaicing Funktion zu deaktivieren, konvertieren von RAW-Format in Graustufen, 16 Bit, linear, PGM-Format: Jede dunkle Lärmbelastung. Jede Belichtung des Objekts bei jedem Lichteinfall Richtung. </ Ol> Integration aller Low Dynamic Range (LDR) Graustufen Forderungen der Gantry Lampe Beleuchtung in einem einzigen High Dynamic Range (HDR) Farbe für jede Richtung des einfallenden Lichtes. Subtrahieren Sie die entsprechenden Dunkelrauschen Bild von jedem LDR Exposition. Demosaik jeder LDR Exposition einen ein Viertel Maßstab Bild ergeben. Weißabgleich jedes LDR Exposition mit den Farbkanal Multiplikatoren in Schritt 1.C.3 berechnet. Merge dunkel-Rausch-subtrahiert LDR Belichtungen in einem einzigen HDR-Bild durch Summierung aller Werte bei jedem Pixel Position und dividiert durch die Summe der Belichtungszeiten, Weglassen überbelichteten Pixel von beiden Summen. Shop HDR-Bild in EXR-Format in Halb-float Präzision und verlustfreie Wavelet (PIZ) Kompression kodiert. Wenn die Kamera Richtung ist nicht die kanonische Richtung oder der Messfahrt ist Teil einer mehrere Kamera Richtung Satz (Secondary Routinen in Abbildung 1 and Protocol 2): Konvertieren Sie die einzelnen Graustufen LDR Exposition der Flash-Tracking beleuchteten Ziele für jede Richtung des einfallenden Lichtes zu einem mosaikfreien, ein Viertel Maßstab LDR Farbbild in EXR-Format. Folgen des Protokolls Nr. 3, um die Flash-beleuchteten Bild, um projektive Transformation jedes HDR-Lampe beleuchtete Bild in das kanonische Ansicht. Verwenden Drehen Sie die HDR-Bilder in der gewünschten Ausrichtung – zB in unserem Fall eine 90 °-Drehung richtet die Wirbelsäule vertikal und die Feder Spitze nach oben. Schneiden Sie die HDR-Bilder fest um die kreisförmige Öffnung. Maskierung die Ziele und Metallplatte außerhalb der Öffnung reduziert die Dateigröße um bis zu 25%. Permutieren der Daten in dem gesamten Satz von HDR-Bilder, um einen Satz von Dateien, eine für jeden der mehreren Blöcke in dem Bild, das alle Richtungen Remissionswerte für Pixel organisiert enthalten erstellen. Diese gerichtete Reflexion Cache-Dateien werden organisiert, um den schnellen Zugriff auf eine aktivierenll die gerichteten Farbmessungen an einer einzigen Pixelposition des 2D-Projektion des 3D-Objekts. Visualisieren räumlich variierenden Light Scattering Über eine Hierarchie der Maßstab Um die Messungen zu finden, verwenden Sie die benutzerdefinierte SimpleBrowser Anwendung, um die Daten in Schritt 1.E. verarbeitet interpretieren SimpleBrowser öffnet sich ein Fenster mit dem Bild der Feder von dem ersten Vorfall Beleuchtung Richtung beleuchtet. Auf dem Bild der Feder Flügel, können einzelne Pixel oder Gruppen von Pixeln in linearen oder rechteckigen Anordnungen ausgewählt (Abbildung 3). Hierzu wählen Sie einen rechteckigen Bereich der Feder Flügel für die Analyse. Dann zeichnen Sie die Average Directional Lichtstreuung von der ausgewählten Region. Ein Plot Fenster mit Reflexion als Funktion der Richtungskosinus öffnet neben dem Bildfenster (R1 in Abbildung 4). Standardmäßig wird die Richtung der maximalen Leuchtdichte (a Durchlässigkeit Richtung in einer typical Feder-Messung) wird eine Belichtung von 1 zugeordnet. Verringern oder erhöhen Sie die Belichtung in einem halben Anschlag (√ 2 x) Schritten, um die Exposition der Reflexionsgrad Farbe Karte anzupassen. Zyklus der Reflexionsgrad Farbkarte zwischen Leuchtdichte, RGB und Farbigkeit (Siehe R1, R2 und R3 in Abbildung 4). Für die folgenden Schritte verwenden RGB. Um die Kugel zu drehen, klicken Sie auf den Trackball Schnittstelle aktivieren. Ziehen Sie die Schnittstelle, um die Drehung zu bewirken. Um die Reflexion Hemisphäre zu sehen, die Kugel zurück in seine voreingestellte Position (Siehe R2 in Abbildung 4). Drehen Sie die Kugel 180 ° von der Ausgangsposition um die Durchlässigkeit Hemisphäre zu sehen (siehe T2 in Abbildung 4). Für eine andere Sicht auf die Daten, wählen Sie die Polarplot Modus, um die Radien der beiden Richtungen auf der Einheitskugel skalieren durch ihre jeweiligen Helligkeitswerte. Ändern Sie die Farbe Karte von der Leuchtdichte skalierten Bereich von RGB nach Farbort (Siehe P3, F3, S3, A3 in Abbildung 4 </strong>). Die Beleuchtung Richtung des angezeigten Bildes ist rot eingekreist in der gerichteten Streuung Grundstück (Abbildung 4). Klicken Sie auf einen anderen Vorfall Beleuchtung Richtung, um das Bild der Feder aus dieser Richtung beleuchtet zeigen. Verringern oder erhöhen Sie die Belichtung des Bildes zu zeigen, über und Regionen unterbelichtet. Um Reflexion über eine Hierarchie von Skalen zu untersuchen, stellen Sie die Plot-Modus auf der Einheitskugel und die Farbe der Karte zu RGB. Im Test zeigt dieses Grundstück die durchschnittliche gerichtete Reflexion von der ausgewählten rechteckigen Bereich auf dem Bild. Ändern Sie die Auswahl Art von rechteckig bis linear (Abbildung 3). Dies ermöglicht Studie der gerichteten Reflexion von einzelnen feinen angelegte Strukturen im rechteckigen Bereich. Zeichnen Sie die Reflexion des linearen Mittelwert in einem neuen Fenster, während die rechteckigen Durchschnitt als Referenz. Passen Sie die Belichtung und Satz farbige Karte auf RGB. <li> In der linearen Plot Durchschnitt sind die distalen barbules durch den linearen Bereich überspannt gesehen, um Licht in Richtungen horizontal (Abbildung 8) zu reflektieren. Wählen Sie eine der Richtungen in der Beleuchtung lineare Handlung, die stark reflektierenden distalen barbules im Bild auf der linken Seite angezeigt. Schritt die Linie in Richtung der Spitze der Feder bis in den Bereich der Feder, wo der proximale barbules Zweig von der benachbarten Äste erreicht. In der linearen Durchschnitt Grundstück die proximalen barbules gesehen werden, um Licht in Richtungen senkrecht (Abbildung 8) zu reflektieren. Wählen Sie eine der Richtungen, die stark reflektierenden proximalen barbules im Bild auf der linken Seite angezeigt. In der linearen Handlung, beobachten die feinen angelegte Strukturen, die Licht in horizontale und vertikale Richtungen kombinieren, um die Fernfeld-Signal in der rechteckige Grundstück gesehen produzieren reflektieren. 2. Messen Streulicht in Multiple Kamera Wegbeschreibung (Secondary Routines in Fig. 1) Mehrere Kamera-Ansichten und ungleichmäßige direktionale Abtastung ermöglichen uns die Besonderheiten der gerichteten Reflexion zu studieren. Mit dem Zusatz von Kalibrierung Steps 2.A und 2.B hat Protokolls Nr. 1 erweitert worden, um mehrere Kamera-Ansichten umzugehen. Zwei konkrete Beispiele grafisch als Secondary Routinen II.A und II.B in Abbildung 1 dargestellt freuen in Steps 2.C und 2.D aufgeführt. In solchen Fällen wird die Kamera Richtung von seiner kanonischen Richtung (senkrecht zu der Oberfläche), was bedeutet, dass das Objekt aus einer Richtung von seiner Flächennormalen geneigt ist fotografiert verändert. Da die Bilder in das gleiche Koordinatensystem abgebildet werden müssen, zu korrigieren und wir verziehen jedes Foto, um die kanonische Orientierung durch Bezugnahme auf die Flash-fotografiert Ziele rund um die Probe (Abbildung 9) entsprechen. Kamera kalibrieren Projektion und Position: Der Zweck dieser Schritte sind, um die Kamera proj berechnenection und Position im Bild Transformation verwendet. Clip einen Stein-gemusterten Kalibrierungsziel flach an der Montageplatte. Nehmen Sie ein Bild auf der kanonischen Kamera-Ansicht (dh {θ, φ} = {0,0}) und mehrere Bilder in verschiedenen anderen Kamera-Ansichten über einen 120 °-Konus auf dem kanonischen Ansicht zentriert zu verbreiten. Laden Sie die Bilder in der Toolbox Bouguet b, a MATLAB Kamerakalibrierung Toolkit. Entpacken Sie die Gitter Ecken in jedem der Bilder, um die Kamera Matrizen zu rekonstruieren. Exportieren Sie die intrinsischen Kamera Projektions-Matrix (P) und die extrinsische Kameraposition Matrix (M). Die intrinsische Kamera Projektion der Brennweite und dem Hauptpunkt zusammen. Der extrinsische Kameraposition wird in erster Linie von einer Übersetzung aus, es übersetzt die Entstehung der Welt auf die Kamera Position. Lösen Sie für die Matrix, die Kalibrierung-Zielkoordinaten verwandelt zu Gantry Drehscheibe Koordinaten (X), dh Bouguet Raum Gantry Raum. Lösen Sie die Schachbrettmuster von der Metallplatte. Kalibrieren Zielpositionen und Projection Offsets: Der Zweck dieser Schritte ist es, die Abweichungen zwischen der Kalibrierung Ebene der Zielebene und der Probe zu berechnen, und die Zielpositionen lokalisieren. Drehen der Kamera in Gantry-Koordinaten, so daß die optische Achse senkrecht zu der Oberfläche verlaufen, dh die kanonische Rahmen. Aufnehmen eines Bildes des Rings von Zielen um die Öffnung mit Blitzlicht. Dies ist die kanonische Bild für Bild Ausrichtung. Verarbeiten Sie die Raw-Ausgabe (Protokoll in Schritten 1.E.3.a. und 1.E.4 skizziert.). Maskieren Sie die Region innerhalb und außerhalb des Rings der Zielzone, um vereinzelte Glanzlichter, die Zielerfassung verwechseln kann, dann finden Sie die Ziele im Bild. Drehen Sie die Kamera auf einem streifenden Winkel und ein Bild aufzunehmen. Berechnen Sie die kanonische cAmera Pose (Mc = M * RC) und die streifenden Winkel Kamera posieren (Mg = M * Rg) bezogen auf die extrinsische Kamera Matrix M in Schritt 2.A.3. die eine Übersetzung von der Position des Bouguet Schachbrettmuster basiert. Definieren M durch Verrechnung ihrer Übersetzung durch die Dicke des Papiers Ziel-Ring. Iterieren durch Versuch und Irrtum (Neuberechnung M unter Verwendung einer anderen Ebene für die Kalibrierung-Offset), bis der Offset in Gantry Raum zwischen der Ebene der Bouguet Schachbrettmuster und der Ebene des Rings von Targets, dh Dicke der Papier-Ziel-Ring, ist gelöst. Überprüfen Sie die in jeder Iteration durch Reprojizierens Ziele in der streifenden Winkel Bild auf die Ziele des kanonischen Bild verrechnet. Neudefinieren M gemäß dem Verfahren aus dem vorherigen Schritt, um die mit Öffnungen versehene Reprojizier Objekt im Glanzwinkel Bild auf der mit Öffnungen versehenen Gegenstand in der kanonischen Bild durch Versuch und Irrtum, bis die in Gantry Raum zwischen der Ebene des Rings von Zielen und der Ebene o Offsetf die mit Öffnungen versehene Gegenstand, dh Dicke der Metallplatte, gelöst wurde. Messen Seven Non-Stichprobe gleichmäßig Reflexion Hemisphären (Secondary Routine II.A in Abbildung 1) Untersuchen Sie die direktionalen Verteilung des reflektierten Lichts von der Kamera-Ansicht senkrecht zur Oberfläche gemessen, dh {θ, φ} = {0,0} in Protokoll 1 beschrieben. Resample das Reflexionsvermögen Hemisphäre Kamera Ausstrahlung von nicht spiegelnden Richtungen mehr dünn und spiegelnde Richtungen dichter aufzeichnen. Gelten die gleichen Kriterien, um das Reflexionsvermögen in 6 weiteren Kamera Richtungen gleichmäßig über die Hälfte einer Halbkugel verteilt Probe, dh {θ, φ} = {30,0}, {30,90}, {60,0}, {60,45} , {60,90}, {} 60.135. Sagen Sie die spiegelnde Bereiche der 6 weitere Läufe aus der Blickrichtung der jeweils mit dem Reflexionswinkel des Vorlaufs gekoppelt. Für jede der 7 ungleichmäßigenly abgetastet Hemisphären, zu erwerben und zu verarbeiten Messungen entsprechend den Anweisungen in den Schritten 1.D. und 1.E. oben. Optisch sehen die gerichtete Reflexion aus der gleichen Region der Feder in jedem der 7 nicht gleichmäßig abgetastet Hemisphären, folgen Sie den Anweisungen in Schritt 1.F. oben. Ordnen Sie die Richtungs-Reflexionsgrad Plots für jede der 7 Kamera Richtungen auf einer polaren Koordinatensystem, wo die Platzierung von jeder Parzelle auf seine Kamera Richtung (Siehe die Ergebnisse der visuellen Routine II.A in Abbildung 1, auch Abbildung 5) beruht. Messen fein abgetastet halbkreisförmige Wege, um detaillierte Informationen über die Farbänderung mit Winkel (Secondary Routine II B in Abbildung 1) zu erwerben Starten Sie die Anwendung und SimpleBrowser Eingang der verarbeiteten Messungen der ungleichmäßig abgetastet Reflexionsgrad Hemisphäre mit Kamera Richtung {θ, φ} = {0,0}, wie in Schritt 2.C.1 beschrieben. Wählen Sie aufe Pixels in dem Bild, dann wird mit einem Flugzeug zum 90. Perzentil der Luminanz des halbkugelförmigen Reflexionsvermögen bei der ausgewählten Pixelposition. Konstruieren Sie eine 1D Erwerb run die fein Proben Spiegelreflexionsvermögens in der spiegelnden Fläche. Generieren Portalarm Winkel in ½ ° Halbwinkel Schritten in der Ebene, in der vorherigen Schritt definiert. Beginnen mit dem Halbwinkel gleich 0 ° und deren Halbwertzeit auf 90 °. Für jede Messung in der Übernahme laufen, halten den halben Vektor konstant und gleich der Flächennormalen so dass jede Kamera Richtung in Richtung der spiegelnden befindet. Erwerben und verarbeiten Messungen entsprechend den Anweisungen in den Schritten 1.D. und 1.E. oben. Optisch sehen die 1D gerichtete Reflexion folgen Sie den Anweisungen in Schritt 1.F., beim Abtasten einen sehr kleinen Bereich (zB 3×3 Pixel) auf der gleichen Pixel verwendet werden, um die spiegelnde Ebene in Schritt 2.D.1 passen zentriert. Finden Sie die Richtung der Spitze Reflexion, dhBeschattung normal. Konstrukt 3 zusätzliche Erfassung läuft in der gleichen Weise wie in Schritt 2.D.2., Als Option für die Halb-Vektors zur Schattierung normalen nicht auf die Oberfläche normal. Für die 3 zusätzliche Durchläufe erzeugen Portalarm Winkel, die in Ebenen, die die Schattierung normalen liegen jedoch um 45 °, 90 ° und 135 ° gegenüber der spiegelnden Fläche in Schritt 2.D.1 definiert sind. Erwerben und verarbeiten Messungen entsprechend den Anweisungen in den Schritten 1.D. und 1.E. oben. Optisch sehen die 1D gerichtete Reflexion folgen Sie den Anweisungen in Schritt 1.F., beim Abtasten einen sehr kleinen Bereich (zB 3×3 Pixel) auf dem Pixel verwendet werden, um die spiegelnde Ebene in Schritt 2.D.1 passen zentriert. Export von SimpleBrowser die durchschnittliche reflektierte Ausstrahlung dieser sehr kleinen Bereich. In MATLAB plotten seiner Farbigkeit in Abhängigkeit von Halb-Winkel auf einer Farbtafel (Abbildung 6). Zeichnen Sie einen Farbton, Chroma und Luminanz als Funktion des halben Winkel (<strong> Abbildung 7). Konstruieren Sie vier weitere 1D Erfassung läuft in den gleichen vier Ebenen wie oben, aber dieses Mal konfigurieren Sie die Licht-und Kamera-Richtungen, um die Breite und Zerfall des Spiegelreflexionsvermögens messen. Setzen der Halbwinkel zwischen dem Licht und der Kamera auf eine konstante 10 °. Generieren Portalarm Winkel in 1 °-Schritten Vektor halb um die Achse senkrecht zu der Ebene. Beginnen Sie mit einer Halb-Vektor gleich -80 ° und erhöhen die Hälfte-Vektor bis +80 °, wobei 0 ° entspricht der Beschattung normal. Beachten Sie, dass nicht alle Kamera Richtungen in der spiegelnden Richtung befinden. Erwerben, Prozess-und Export Messungen entsprechend den Anweisungen in den Schritten 1.D. und 1.E. und 2.D.6. sind. In MATLAB zeichnen seine Chromatizität auf einer Farbtafel als eine Funktion des Winkels zwischen der Hälfte-Vektor und die Schattierung normal. Zeichnen Farbton, Chroma und Helligkeit in Abhängigkeit von dem Winkel zwischen der halben und der Schattierung Vektor normal. </li> 3. Projektive Transformation Projektive verwandeln jedes HDR-Bild in der kanonischen Ansicht oder der Blickrichtung senkrecht zur Oberfläche Ebene. Dieses Protokoll wird von Step 1.E.3.b zugegriffen werden, wenn eine Messfahrt ist Teil einer mehrere Kamera-Richtung gesetzt, wie die Beispiele in Protokoll Nr. 2 skizziert und grafisch als Secondary Routinen in Abbildung 1 dargestellt. Lesen Sie eine kanonische Bild aus einem nicht spiegelnden Richtung beleuchtet. (Bei Beweidung spiegelnde Richtungen der verminderte Kontrast zwischen der weißen Fläche des Papiers und der schwarzen Tinte kann zu Erkennung Ausfall Ziel. Vergleichen Sie die Klarheit des Bildes A und B in Abbildung 9). Suchen Sie die Koordinaten der Mitte jedes Ziels in der kanonischen Bild. Legen Sie das Zielbild von der Kamera-Blitzgerät für eine bestimmte Lampe-Kamera direktionale Paar (B in Abbildung 9) beleuchtet. Rund transform das Zielbild in den kanonischen Kamera Rahmen mit der Gantry Kamera Matrix M berechnet in Schritt 2.B.7. Suchen Sie die Koordinaten der Mitte jedes Ziels in der transformierten Zielbild (C in Abbildung 9). Spiel jedes Ziel in der transformierten Zielbild seiner Referenz-Soll in der kanonischen Bild von der Suche nach den minimalen Abstand zwischen Bild und Referenz Ziele. Entsorgen Sie alle unscharfen Ziele von DOF bei streifenden Winkel (D in Abbildung 9) verursacht. Lösen Sie das 2D projektive Transformation, die Karten Bild in der kanonischen Rahmen zu kanonische Bild-Ziele in dem gleichen Rahmen zielt. Untransform der Warp-to-fit Ziele aus der kanonischen Bildrahmen wieder auf den ursprünglichen Einzelbildes durch die Ebene der mit Öffnungen versehenen Objekts (M in Schritt 2.B.8.) Anstatt der Ebene der Ziele (M in Schritt 2. B.7.). Speichern Sie die Zielkoordinate Paare, die die Öffnungen Objekt im Zielbild Karte, um die Öffnungen obProjekt in der kanonischen Zielbild. Legen Sie das HDR-Bild von der Lampe (A in Abbildung 9) beleuchtet. Ableiten einer räumlichen projektiven Transformation von gespeicherten Soll-Koordinatenpaare das HDR-Bild in der kanonischen Rahmen (E in Fig. 9) zu transformieren. Zurück zur Startseite Protokoll. a Dcraw ist ein Open-Source-Computerprogramm von David Coffin entwickelt. Es wandelt ein Kamera-eigene RAW-Format Bild (dh unverarbeiteten CCD-Daten) zu einem Standard-Bildformat. Siehe http://www.cybercom.net/ ~ dcoffin / dcraw / . b Bouguet Toolbox ist eine Kamera Calibration Toolbox für MATLAB durch Jean-Yves Bouguet entwickelt. Siehe http://www.vision.caltech.edu/bouguetj/calib_doc .

Representative Results

Die primäre Messung unseres Protokolls (Routine I in Abbildung 1) fixiert die Kamera Richtung senkrecht zur Oberfläche und nur das Licht bewegt. Seit Lichtstreuung folgt dem Grundsatz der Gegenseitigkeit, das Ergebnis ist das gleiche, ob wir die Kamera konstant zu halten, während sie sich das Licht über die Hemisphäre oder umgekehrt. Wenn wir entweder die Kamera oder das Licht zu beheben, wird die komplette 4-dimensional Satz unterabgetastete. Ein vollständiges Bild des Streuverhalten wird beobachtet, wenn, anders als die primäre Messung Licht und Kamera weg von der Oberfläche normaler und in eine Vielzahl von Richtungen bewegt werden. Im Idealfall könnten wir Lichtstreuung von vielen Kamera Richtungen messen, so viele wie die Anzahl der einfallenden Lichtes Richtungen, um eine symmetrische Daten-Set zu erhalten. In der Praxis würde dies viel zu viele Risiken. Nach unserer Erfahrung können wir ausreichende Informationen über die verschiedenen Blickrichtungen, indem Sie die Kamera ein paar Mal assu erhaltenMing 180 °-Rotationssymmetrie um die Flächennormale. Während der sekundären Messphase haben wir Messungen von 7 Blickrichtungen über die Hemisphäre und innerhalb von 60 ° der Zenit 18,19 (Routine II.A in Abbildung 1) verteilt. In den Figuren dieser Arbeit zeigen wir, repräsentative Daten aus einer Feder Lamprotornis purpureus (Lila Glossy Starling), das Reflexionsvermögen von denen schillernd, glänzend, und anisotrope ist (Abbildung 5) gemessen. In jeder der 7 Blickrichtungen, ist reflektiertes Licht von Hunderten von einfallendem Licht Richtungen auf der Halbkugel versammelt. Die Richtungen bilden ein schmales Band orthogonal ausgerichtet zu der Mittelachse der Feder (siehe Bild Feder in Abbildung 4). Das Schillern Farbverschiebung ist subtil (bläulich-grün bei senkrechtem Einfall und grünlich-blau unter streifendem Einfall), wenn die Feder betrachtet senkrecht zu ihrer Oberfläche, wie in der {0 °, 0 & de geseheng;} RGB Grundstück von 5. Als Betrachtungswinkel Ansätze Beweidung werden die Winkel zwischen der Blickrichtung und die Beweidung Vorfall Richtungen maximiert, was zu einer markanten Farbverschiebung (bläulich-grün bei 0 ° und 240 ° bei Magenta zwischen Vorfall und Blickrichtungen), wie in der zu sehen {60 °, 0 °} RGB Grundstück in Abbildung 5. Wir können es sich leisten, das Licht und die Kamera auf viel feinere Winkelauflösung Schritt, wenn wir die Bewegungen 1 Dimension beschränken. Abbildung 6 zeigt die Farbigkeit der Reflexionsgrad von L. purpureus Gefieder in Abhängigkeit von dem Winkel zwischen dem einfallenden und Blickrichtungen, wobei die einfallenden und Blickrichtungen in der Ebene, die die spiegelnde Band, die senkrecht zur Längsachse des distalen barbule. Da die schillernden Farben Bögen durch Farbwert-Raum verschiebt sich die Farbe von blau-grün bis violett. Räumliche Variablen ation in der gerichteten Reflexion sichtbar ist, wo verschiedene (X, Y)-Koordinaten der Integument entsprechen unterschiedlichen milli angelegte Strukturen. Im Falle von L. purpureus nur eine Struktur – das distale barbule – sichtbar über den größten Teil der Region. Im Gegensatz dazu C. cupreus, drei Milli-Skala Strukturen – die rami, distalen barbules und proximalen barbules – sind deutlich in den Daten unterschieden, und wir können diese Reflexion aus der Feder beobachten orientiert sich in Bezug auf die Längsachse jeder Struktur (Abbildung 8) . Abbildung 1. Diese schematische Übersicht zeigt zwei Montage Methoden, die sphärische Gantry Koordinatensystem, Arten des Erwerbs Probenahme und ihre jeweiligen Ergebnisse. / Ftp_upload/50254/50254fig1large.jpg "target =" _blank "> Klicken Sie hier, um eine größere Abbildung anzuzeigen. Abbildung 2. Der abgeflachte Feder sichtbar ist durch eine Öffnung in einer Metallplatte durch einen Ring von Zielen umgeben. Eine sphärische Gantry gestellt zu Lichtstreuung von einer Feder an mehreren einfallenden Licht und Blickrichtungen zu messen. L = Leicht Arm (Breitengrad). C = Kamera Arm (Breitengrad). B = Kamera Basis (Längengrad). T = Turntable (Längengrad). F = Feather. Abbildung 3. Average Directional Streuung kann von einem Punkt, Linie oder rechteckigen Bereich Feder Flügel berechnet werden. p_upload/50254/50254fig4highres.jpg "src =" / files/ftp_upload/50254/50254fig4.jpg "/> Abbildung 4. Beispiel gerichteter Streuung Plot-Funktionen (R * = Reflexion, Transmission T * = P * = Top, F * = Front, S * = Side, A * = beliebig) und Farbschemata (* 1 = Luminance, * 2 = RGB , * 3 = Chromaticity). Klicken Sie hier, um eine größere Abbildung anzuzeigen . Abbildung 5. Die Leuchtdichte (oben) und RGB-Farbe (unten) des halbkugelförmigen Reflexionsgrad in Richtungskosinus Raum als aus den (Elevationswinkel, Azimutwinkel) Koordinatenpaaren angesehen: {0 °, 0 °}, {30 °, 0 °}, { 30 °, 90 °}, {60 °, 0 °}, {60 °, 45 °}, {60 °, 90 °} und {60 °, 135 °}. das Reflexionsvermögen gemittelt aus einem 25 × 25 Pixel rechteckigen Bereich der seitlichen Flügel eines Tertial L. purpureus (Lila Glossy Starling) Feder. Die roten Pfeile stellen Kamera Richtungen. Klicken Sie hier, um eine größere Abbildung anzuzeigen . Abbildung 6. Chromaticity der Reflexion als eine Funktion des halben Winkel zwischen dem einfallenden Licht und Blickrichtungen:. CIE 1976 Uniform Chromaticity Scales (USC) mit vergrößerten Region Klicke hier, um eine größere Abbildung anzuzeigen . / 50254/50254fig7highres.jpg "src =" / files/ftp_upload/50254/50254fig7.jpg "/> Abbildung 7. Reflexion als eine Funktion der Winkel zwischen dem einfallenden Licht und Blickrichtungen, in der Ebene mit (rot) und senkrecht zur (schattiert) der Längsachse des distalen barbule: (A) Dominant-Wellenlänge, (B) Prozent Chroma (C ) Prozent Leuchtkraft. Die Farbschattierungen in Kurve A ist die RGB-Farbe des Reflexionsvermögen. Negative Werte stellen Wellenlänge Farben in den nicht-spektralen lila Dreieck. Klicken Sie hier, um eine größere Abbildung anzuzeigen . Abbildung 8. Average Directional Reflexionsgrad von distalen und proximalen barbules barbules zwischen zwei benachbarten rami der C. cupreus (African Smaragdkuckuck). Abbildung 9. (A) Non-entzerrten Bild von Gantry-Lampe beleuchtet, (B) Non-entzerrten Bild von Blitz auf der Kamera leuchtet, (C) Gefiltert Zielkandidaten auf affine transformierten, Flash-ausgeleuchteten Bild (D) Acceptably scharfen Ziele innerhalb Tiefe Feld (E) Richt-Lampe beleuchteten Bildes, (F) gedreht Feder up, Spitze abgeschnitten und maskiert. Klicken Sie hier, um eine größere Abbildung anzuzeigen .

Discussion

Obwohl die Leistung und Funktion von vielen Pigmentstörungen und strukturelle Färbungen gut erkannt werden, ist die Morphologie von vielen Integumente so komplex, dass ihre strukturelle Detail und Funktion schlecht verstanden werden 20. Integumente haben Spezialisierungen, die räumlich variieren über die Oberfläche des Organismus unterschiedlich reflektieren das Licht gerichtet in Richtung des Betrachters entwickelt. Richtwirkung hat sich die Aufmerksamkeit in erster Linie in der Studie von Schillern aufgrund seiner Farbverschiebung mit Wechsel der Vorfall und Blickwinkel, und die Erforschung der biologischen Schillern integument erhalten hat sammelte hauptsächlich 1D-und 2D-Messungen einige 8,12,17. Aber generalisierte 6D Messungen wurden nicht Routine in der Studie von Integumente 21-23, irisierende oder anderweitig, und die Literatur über organismal Farbe Phänotypen wird durch das Fehlen von gerichteten Farbdaten der Art unserer Methode bietet eingeschränkt.

Die Feder ist ein besonders rich integumentary umfassend Anordnungen von Milli-Skala Struktur der Widerhaken: rami, distalen barbules und proximalen barbules. Die geringe Größe der Elemente und ihrer komplexen Anordnungen ist es schwierig, die Lichtstreuung Leistung der einzelnen Elemente zu erkennen. Unser Protokoll erfolgreich Milli-Skala Struktur von dem Einfluss der Makro-Skala Geometrie isoliert. Mit der Charakterisierung der funktionellen Konsequenzen der gerichteten Expression von milli-Skala Strukturen Fernfeld Signatur der Feder, dadurch wir Untersuchung ihre adaptive Folgen.

Wir standen praktische Kompromisse zwischen spektralen, räumlichen und Winkelauflösung. Wir entschieden uns für eine hohe räumliche, medium eckig und geringe spektrale für unsere Studien. Andere Kombinationen können verwendet werden, aber einige (zB alle hoch) führen zu unworkably lange Messzeiten. Zu beachten ist konzentriert, in denen es wichtig für die besonderen Phänomene untersucht werden ist. Bei der Wahl, um eine RGB ca. beschäftigenmera mit einem Bayer-Filter Mosaik, entwarfen wir unser Protokoll, das menschliche visuelle System entsprechen. Die RGB-Kamera ersetzt werden konnte und unser Protokoll angepasst, um die relative Farbreiz eines jeden Organismus zu messen, wird z. B. Empfindlichkeit im UV-Spektrum benötigt, um Vogelgrippe Tetra-chromatische Farbe 24,25 messen. Ein Spectral Imaging Kamera würde die meisten allgemeine Lösung 25.

Wir zeigten unser Protokoll mit Tertial Schwungfedern da sie bunt und leicht gegen eine Referenz Platte abgeflacht sind. Leider ergab die Öffnung der Metallplatte nur einen Bruchteil der Feder Oberfläche. Wenn wir gleichzeitig messen konnte die 3D-Form der Feder Oberfläche während der Messung seiner Reflexion 25, konnten wir mechanisch vermeiden Abflachung der Feder und stattdessen messen die gesamte Feder in seiner natürlichen, nicht abgeflachten Zustand.

Interactive, spezialisierte, integrierte Werkzeuge für die Visualisierung von Daten bieten haben ausal Wissenschaftler erforschen und Interpretation großer Datenmengen profitieren. Je größer die Integration und Interaktivität sind die Verbindungen leichter in den Daten beobachtet. In unserer Software kann ein Benutzer interaktiv darzustellen Average Directional Streuung als eine Funktion der Oberfläche Position (Abbildung 4). Weiterentwicklung unserer Software integrieren könnte anderen Plot-Funktionen (6, 7), um die interaktive Erfahrung zu erweitern.

Disclosures

The authors have nothing to disclose.

Acknowledgements

Diese Arbeit wurde von der National Science Foundation (NSF CAREER Award CCF-0347303 und NSF CCF-0541105) gefördert. Die Autoren bedanken sich bei Jaroslav Křivánek, Jon Mond, Edgar Velázquez-Armendáriz, Wenzel Jakob, James Harvey, Susan Suarez, Ellis Loew, und John Hermanson für ihre intellektuellen Beiträge danken. Die Cornell Sphärische Gantry wurde von einem Design durch Duane Fulk, Marc Levoy und Szymon Rusinkiewicz gebaut.

References

  1. Nicodemus, F., Richmond, J., Hsia, J., Ginsberg, I., Limperis, T. . Geometric considerations and nomenclature for reflectance. , (1977).
  2. Marschner, S. R., Jensen, H. W., Cammarano, M., Worley, S., Hanrahan, P. Light scattering from human hair fibers. ACM Transactions on Graphics (TOG). 22 (3), 780-791 (2003).
  3. Marschner, S. R., Westin, S., Arbree, A., Moon, J. Measuring and modeling the appearance of finished wood. ACM Transactions on Graphics (TOG). 24 (3), 727-734 (2005).
  4. Land, M. F. The physics and biology of animal reflectors. Progress in Biophysics and Molecular Biology. 24, 75-106 (1972).
  5. Durrer, H. Colouration. Biology of the Integument: Vertebrates. 2 (12), 239-247 (1986).
  6. Brink, D., van der Berg, N. Structural colours from the feathers of the bird Bostrychia hagedash. Journal of Physics D-Applied Physics. 37 (5), 813-818 (2004).
  7. Kinoshita, S. . Structural colors in the realm of nature. , (2008).
  8. Nakamura, E., Yoshioka, S. Structural Color of Rock Dove’s Neck Feather. Journal of the Physical Society of Japan. 77 (12), 124801 (2008).
  9. Westin, S., Arvo, J., Torrance, K. E. Predicting reflectance functions from complex surfaces. ACM SIGGRAPH Computer Graphics. 26 (2), 255-264 (1992).
  10. Shawkey, M. D., Maia, R., D’Alba, L. Proximate bases of silver color in anhinga (Anhinga anhinga) feathers. Journal of Morphology. 272 (11), 1399-1407 (2011).
  11. Maia, R., D’Alba, L., Shawkey, M. D. What makes a feather shine? A nanostructural basis for glossy black colours in feathers. Proceedings of the Royal Society B: Biological Sciences. 278 (1714), 1973-1980 (2011).
  12. Dyck, J. Structure and light reflection of green feathers of fruit doves (Ptilinopus spp.) and an Imperial Pigeon (Ducula concinna). Biologiske Skrifter (Denmark). 30, 2-43 (1987).
  13. Yoshioka, S., Kinoshita, S. Effect of macroscopic structure in iridescent color of the peacock feathers. Forma. 17 (2), 169-181 (2002).
  14. Osorio, D., Ham, A. Spectral reflectance and directional properties of structural coloration in bird plumage. Journal of Experimental Biology. 205 (14), 2017-2027 (2002).
  15. Stavenga, D. G., Leertouwer, H. L., Pirih, P., Wehling, M. F. Imaging scatterometry of butterfly wing scales. Optics Express. 1 (1), 193-202 (2009).
  16. Vukusic, P., Stavenga, D. G. Physical methods for investigating structural colours in biological systems. Journal of Royal Society Interface. 6, S133-S148 (2009).
  17. Stavenga, D. G., Leertouwer, H., Marshall, N. J., Osorio, D. Dramatic colour changes in a bird of paradise caused by uniquely structured breast feather barbules. Proceedings of the Royal Society B: Biological Sciences. 278 (1715), 2098-2104 (2010).
  18. Irawan, P. . Appearance of woven cloth [dissertation]. , (2008).
  19. Irawan, P., Marschner, S. R. Specular reflection from woven cloth. ACM Transactions on Graphics (TOG. 31 (1), 11:1-11:20 (2012).
  20. Vukusic, P. Structural colour: elusive iridescence strategies brought to light. Current Biology: CB. 21 (5), R187-R189 (2011).
  21. Dana, K., Ginneken, B., Nayar, S., Koenderink, J. Reflectance and texture of real-world surfaces. ACM Transactions on Graphics (TOG). 18 (1), 1-34 (1999).
  22. Chen, Y., Xu, Y., Guo, B., Shum, H. -. Y. Modeling and rendering of realistic feathers. ACM Transactions on Graphics (TOG). 21 (3), 630-636 (2002).
  23. Levoy, M., Zhang, Z., McDowall, I. Recording and controlling the 4D light field in a microscope using microlens arrays. Journal of microscopy. 235 (2), 144-162 (2009).
  24. Stevens, M., Párraga, C. A., Cuthill, I. C., Partridge, J. C., Troscianko, T. S. Using digital photography to study animal coloration. Biological Journal of the Linnean Society. 90 (2), 211-237 (2007).
  25. Kim, M. H., Harvey, T. A., et al. 3D imaging spectroscopy for measuring hyperspectral patterns on solid objects. ACM Transactions on Graphics (TOG). 31 (4), (2012).

Play Video

Cite This Article
Harvey, T. A., Bostwick, K. S., Marschner, S. Measuring Spatially- and Directionally-varying Light Scattering from Biological Material. J. Vis. Exp. (75), e50254, doi:10.3791/50254 (2013).

View Video