Summary

Misurare spazialmente e Directionally-variante Light Scattering da materiale biologico

Published: May 20, 2013
doi:

Summary

Presentiamo un metodo non distruttivo per il campionamento variazione spaziale nella direzione della luce diffusa da materiali di struttura complessa. Mantenendo intatto il materiale, noi preserviamo comportamento dispersione lordo scala, mentre contemporaneamente l'acquisizione contributi direzionali a scala fine con l'imaging ad alta risoluzione. I risultati sono visualizzati in software alle posizioni e scale biologicamente rilevanti.

Abstract

Luce interagisce con tegumento di un organismo su una varietà di scale spaziali. Ad esempio in un uccello iridescente: strutture nano-scala di produzione del colore; la struttura milli-scala delle barbe e barbule determina in gran parte il modello direzionale della luce riflessa, e attraverso la struttura spaziale macro-scala sovrapposte, piume curvi, questi effetti direzionali creare la texture visiva. Effetti milli scala e macro scala determinano dove sul corpo dell'organismo, e da ciò che punti di vista e in quali illuminazione, i colori iridescenti sono visti. Così, il flash altamente direzionale di colore brillante dalla gola iridescente di un colibrì è adeguatamente spiegata con la sua struttura nano-scala da solo e le domande rimangono. Da un certo punto di osservazione, quali elementi milli scala della piuma sono orientati a riflettere con forza? Do alcune specie producono più ampio "finestre" per l'osservazione di iridescenza di altri? Queste e simili domande may essere chiesto su eventuali organismi che si sono evoluti un particolare aspetto della superficie per la segnalazione, camouflage, o per altri motivi.

Per studiare i modelli direzionali di dispersione della luce da piume, e la loro relazione con milli scala morfologia degli uccelli, abbiamo sviluppato un protocollo per la misurazione della luce diffusa da materiali biologici utilizzando molte fotografie ad alta risoluzione scattate con diversa illuminazione e la visualizzazione direzioni. Dal momento che noi misuriamo luce diffusa in funzione della direzione, possiamo osservare le caratteristiche della distribuzione direzionale della luce diffusa da quel particolare piuma, e perché barbe e barbule si risolvono nelle nostre immagini, possiamo attribuire chiaramente le caratteristiche direzionali per questi diversi strutture milli scala. Mantenere il campione conserva intatto il comportamento di scattering lordo scala visto in natura. Il metodo qui descritto presenta un protocollo generalizzato per analizzare spazialmente e-direzionalmente-varying light scattering da materiali biologici complessi su scale multiple strutturali.

Introduction

Il colore e il modello di tegumento di un organismo giocano ecologicamente e socialmente funzioni critiche in più taxa animali. Queste proprietà fenotipiche sono determinati dalla interazione della luce con la struttura del tegumento, che può esibire dispersione ottica che varia spazialmente (attraverso la superficie del tegumento) e direzionalmente (con cambiamento di illuminazione e la visualizzazione direzione). Nei materiali biologici complessi, come penne, la direzione della diffusione della luce è influenzata dall'orientamento di ripetere geometria milli-scala. Queste strutture milli scala stessi possono essere integrati con le strutture su scala nanometrica, come array di melanina, che spesso ereditano l'orientamento milli-scala. Da nano-al macro-scale, la struttura del tegumento è evoluta funzionalmente per aumentare la capacità di segnalazione dell'organismo. Al fine di valutare l'influenza della morfologia di diverse scale sulla aspetto generale, strumenti permisurare e analizzare il colore delle strutture biologiche hanno bisogno di flessibilità per isolare dispersione della luce direzionale a varie scale di ingrandimento.

Abbiamo sviluppato strumenti di misurazione basati sulle immagini per studiare come le prestazioni di complessa e variegata morfologia milli-scala di una piuma (rami ardiglione, barbule distali e prossimali barbule) amplia la gamma di espressioni possibili da strutture nano-scala da solo. In un'unica immagine registrata dalla telecamera, abbiamo osservato che la luce riflessa diverse a livello della superficie della piuma, cioè, la riflettanza luce era spazialmente-variante. Quando ci siamo trasferiti alla direzione della luce e la macchina fotografica rispetto alla piuma, abbiamo osservato la riflettanza cambiato, cioè la riflessione della luce è stata direzionalmente-variante 1. A seguito di queste osservazioni, abbiamo progettato un protocollo per spostare metodicamente la luce e la macchina fotografica intorno al soggetto utilizzando un cavalletto sferica 2,3, con la quale abbiamo catturato due dimensioni suposizione rfaccia (X e Y), 2 dimensioni di direzione della luce (latitudine e longitudine), e 2 dimensioni della direzione della telecamera (latitudine e longitudine) (Figura 2). Nel software abbiamo esplorato visivamente le 6 dimensioni della luce diffusa in funzione della posizione, direzione illuminazione e direzione vista.

Precedenti ricerche in riflettanza da tegumenti è troppo spesso scontato il contributo di direzionalità – ad esempio riflessione diffusa vs speculare o isotropa vs anisotropico – per l'espressione del colore. La maggior parte delle misure di colore hanno fissato la luce incidente, oggetto, e la geometria di visione da evitare accuratamente gli effetti direzionali. Ad esempio, per eliminare la riflessione speculare da misure di colore, è comune mettere la luce normale alla superficie e registrare la riflettanza a 45 ° dalla normale. Gli studi che fanno collegamento morfologia a direzionale-variante riflettanza in genere si concentrano su scala nanometricae le sue conseguenze iridescenti 4-8. Pochi considerano il contributo delle micro, milli-e geometrie macro-scala per il campo lontano firma ottica 8-11. E 'quindi comune ad impiegare un rilevatore di luce di riflessione complessivo in un'unica area di interesse che possono includere più milli-e / o macro-scala di componenti, come rami ardiglione, barbule, e anche intere piume 6,8,11-17 . Quando la regione di interesse è o minore del limite di risoluzione del rivelatore o non conforme alla forma del campo del rilevatore di vista, il protocollo comune precisa provino dissezione per isolare la dispersione della luce dall'elemento specifico milli scala 8,10 , 13,15.

Abbiamo sviluppato un protocollo più onnicomprensiva per l'acquisizione di misurazione e visualizzazione che incoraggia l'esplorazione delle molte variabili spesso ignorati in altri studi più mirati. Misuriamo scattering di luce su una sfera di direzioni e AcrosSA regione di spazio utilizzando una serie massiccia di alta gamma dinamica, fotografie ad alta risoluzione presa da un insieme sistematico di luce e di direzioni di vista. Ci avvaliamo di un sensore di immagine ad alta risoluzione con la sua matrice 2D di rivelatori a pixel a scala fine. Aggregazione in hardware si verifica a livello di pixel, ad una scala più piccola di elementi milli scala stiamo misurando. Una seconda fase aggrega singoli pixel di software come l'utente seleziona la forma e le dimensioni della regione di interesse. Conseguentemente, un unico insieme di misura può essere ripetutamente analizzato nel software di esplorare diversi aspetti di interazione con materiale leggero per più posizioni e scale biologicamente rilevanti. Eliminando dissezione e la misurazione dell'intero piuma, nostro protocollo ha il vantaggio di lasciare la morfologia della piuma banderuola integra e conservando contesto naturale e la funzione che è, interazioni di luce tra gli elementi costitutivi milli scala.

Dispersione della luce da organismal struttura è multidimensionale e difficile da quantificare. Misurato dispersione della luce 6D non può ancora essere attribuito alla morfologia specifica all'interno di una gerarchia di scala con qualsiasi strumento singolare. Ma abbiamo fatto un passo importante in questa ricerca. Abbiamo sviluppato uno strumento che comprende tre metodi complementari – campionamento riflettanza utilizzando il cavalletto, esplorando grandi volumi di dati nel software, e la visualizzazione di sottoinsiemi di dati graficamente – di estendere la nostra capacità di misurare la dispersione della luce 6D in qualsiasi punto su un materiale, fino alla milli-scala. Come protocolli come la nostra sono impiegati, prevediamo biologi identificheranno una miriade di tratti-direzionalmente e spazialmente variabile ei corrispondenti adattamenti strutturali a più scale di sviluppo. Utilizzando i nostri strumenti siamo impegnati nel caratterizzare il potenziale di segnalazione dell'espressione direzionale e spaziale delle strutture milli-scala, e speriamo di far luce sulle loro conseguenze adattive. Ci rivolgiamo a una serie di domande, come ad esempio: da unY dato punto di osservazione, che gli elementi a scala fine o regioni lordo scala della piuma riflettono fortemente? In che modo l'orientamento degli elementi a scala fine influenzare la direzione della luce diffusa? Quali condizioni morfologiche producono un satinato lucido vs uno scintillio di paillettes dell'ornamento iridescente? Do alcune specie producono più ampio "finestre" per l'osservazione di iridescenza di altri? Queste domande possono essere chiesto di uccelli e le loro piume, ma anche di tutti gli altri organismi che si sono evoluti un particolare aspetto della superficie per la segnalazione, camouflage, o per altri motivi.

Protocol

L'impiego di nostri metodi per misurare un campione, lo sperimentatore deve decidere su una serie di telecamera e direzioni leggeri, e per ciascuna combinazione di telecamera e la luce direzioni, la fotocamera effettua diverse esposizioni con differenti tempi di posa. Spostare la fotocamera richiede ulteriori elaborazioni, perché cambia la vista del campione come si vede nell'immagine, in modo che normalmente utilizzano un piccolo numero di direzioni telecamera e un maggior numero di direzioni sorgente luminosa. Nei protocolli dettagliati di seguito, abbiamo prima descritto come eseguire una misurazione con molte direzioni fonte di luce e una sola direzione della telecamera, e come elaborare e visualizzare i dati risultanti (protocollo 1). Nel protocollo primario, che può essere utilizzato da solo quando un'unica vista è sufficiente osservare fenomeni studiati, abbiamo sempre mantenere la telecamera perpendicolarmente al campione (Routine primaria nella Figura 1). Quando sono necessarie più indicazioni della fotocamera, larisultante viste oblique del campione può essere deformato per annullare gli effetti del movimento della fotocamera e quindi allineare le immagini esattamente con la vista perpendicolare canonica. Per calcolare questi orditi, eseguiamo passaggi taratura addizionali che utilizzano osservazioni di bersagli disposti attorno al campione per determinare con precisione il movimento della telecamera rispetto al campione. Protocollo 2 dettagli questa procedura di calibrazione e spiega come selezionare i parametri ed esecuzione del protocollo 1 più volte per raccogliere dati da più punti di vista (Routine secondarie in Figura 1). Infine, il protocollo 3 dettagli gli ulteriori passi che devono essere inseriti nel protocollo 1 per rettificare le proiezioni oblique durante l'elaborazione dei dati. 1. Misurare la luce diffusa nella direzione della normale alla superficie sopra la Sfera di incidenti stradali (Routine primaria nella figura 1) Preparare e Montare il dell'oggetto da misurare Preparare una piastra di montaggio in metallo ferroso sottilecon un'apertura ½ pollice circondato da un anello di bersagli (come visto in Figura 2). Preparare il materiale da misurare. Se la misurazione di una piuma, lo sposo le barbe per correggere eventuali sezioni decompressi o disallineato della banderuola pennaceous. Deporre la superficie dell'oggetto (faccia dritto della piuma) contro il lato posteriore (opposta all'anello target) della piastra. Centro della regione di interesse sull'apertura ½ pollice nella piastra. Lay un foglio di pellicola magnetica con apertura 5/8-inch contro il lato posteriore dell'oggetto (faccia opposta della piuma), premendo così l'oggetto piatto contro la piastra. Allineare l'apertura del film alla apertura della piastra di tranciatura, senza la superficie. La superficie appiattita, riposte attorno alla circonferenza della apertura circolare, produce una superficie planare macro-approssimativamente coincidente con la superficie della piastra. Configurare il Gantry Individuare ilcentro dell'apertura circolare all'origine del sistema di coordinate a portale. Posizionare una sorgente luminosa sul braccio esterno a portale. Mirare e stretto focalizzare la luce in oggetto, assicurando che l'apertura è uniformemente illuminato per tutti gli angoli della sorgente luminosa. Mettere una telecamera sul braccio interno gantry. Regolare la distanza della telecamera e la lunghezza focale della lente macro finché l'anello di obiettivi riempie la larghezza del sensore. Calibrare i movimenti di rotazione (θ, φ) della telecamera e le braccia della lampada. Calibrare l'inclinazione (θ) rispetto alla superficie dell'oggetto normale in modo che la telecamera e la lampada sono allineati con la superficie normale quando θ = 0. Calibrare l'azimut (φ) della fotocamera per l'azimut della lampada. L'orientamento azimutale assoluto non è critica in quanto le immagini catturate possono essere ruotate in seguito nel protocollo. Configurare la messa a fuoco ed esposizione Rotate la fotocamera fino a quando l'oggetto viene visto con un angolo radente. Diminuire il numero f per minimizzare la profondità di campo (DOF), quindi impostare il piano di messa a fuoco al centro dell'apertura. Aumentare il numero f per aumentare la DOF finché l'anello di obiettivi che circondano l'apertura è a fuoco. Un compromesso tra diffrazione e DOF indotta sfocatura può essere richiesto. Fissare uno standard di colore piatto contro la piastra di montaggio. Per le immagini RGB usano un Color Checker Macbeth. Per misure UV-visibile-NIR usare Spectralon. Fotografare il colore standard in formato RAW. Calcolare i moltiplicatori dei canali colore per il bilanciamento del bianco dell'immagine. Trovare la staffa di esposizione che tocca la gamma dinamica della scena sotto la visione più estrema e direzioni illuminazione. Per ogni tempo di esposizione nella staffa, acquisire un'immagine scura rumore esponendo il sensore con il coperchio sull'obiettivo. Acquisire Misure da una sfera in campioni di incidenti stradali Posizionare l'asse telecamera normale al piano di superficie {θ, φ} = {0,0}. Passaggio attraverso la luce di una serie di posizioni uniformemente distribuite sulla sfera, utilizzando un campionamento grossolano (ad esempio, meno di 500 punti). Per ogni direzione della luce incidente nel campionamento: Catturare un immagine raw per ogni tempo di esposizione nella fascia di esposizione. Catturare una singola immagine illuminata dalla telecamera montata in flash sincronizzato ad un tempo relativamente breve esposizione per sopprimere l'illuminazione della lampada a portale. Passare alla successiva direzione della luce incidente e ripetere. Processo Misure da Sfera in campioni Utilizzando il debug (documento) modalità di dcraw una per disabilitare la funzione di demosaicizzazione, convertire dal formato RAW a scala di grigi a 16 bit, lineare, formato PGM: Ogni esposizione al rumore scuro. Ogni esposizione dell'oggetto in ciascuna direzione della luce incidente. </ Ol> Integrare tutte basso range dinamico (LDR) in scala di grigi esposizioni di cui agli cavalletto illuminazione lampada in un singolo ad alta gamma dinamica (HDR) a colori per ciascuna direzione della luce incidente. Sottrarre l'immagine corrispondente rumore scuro da ciascun LDR esposizione. Demosaicizzazione ogni LDR esposizione a produrre un'immagine scala di un quarto. Bilanciamento del bianco ogni LDR esposizione utilizzando i moltiplicatori dei canali di colore calcolato al passaggio 1.C.3. Unire dark-noise-sottratto LDR esposizioni in una singola immagine HDR sommando tutti i valori ad ogni pixel e dividendo per la somma dei tempi di esposizione, omettendo sovraesposte pixel da entrambe somme. Conservare immagine HDR in formato EXR codificati in precisione semi-galleggiante e lossless wavelet (PIZ) di compressione. Se la direzione della telecamera non è la direzione canonica o il ciclo di misura è parte di un multiplo direzione impostata telecamera (routine secondarie in figura 1 unaProtocollo ND 2): Convertire la singola esposizione LDR scala di grigi degli obiettivi di monitoraggio flash-illuminati per ciascuna direzione della luce incidente ad un demosaiced, scala un quarto, LDR un'immagine a colori in formato EXR. Seguire il protocollo 3 per utilizzare l'immagine flash-illuminato a proiettiva trasformare ogni immagine Lampada-illuminato HDR in vista canonico. Ruotare le immagini HDR in l'orientamento desiderato – ad esempio nel nostro caso un 90 ° di rotazione orienta il rachide verticale e la punta della penna su. Ritagliare le immagini HDR strettamente intorno alla apertura circolare. Mascherare gli obiettivi e la piastra metallica fuori del diaframma riduce la dimensione del file fino al 25%. Permutare i dati nel intero set di immagini HDR per creare una serie di file, uno per ciascuno dei diversi blocchi dell'immagine, che contengono tutti i valori di riflettanza direzionali organizzati da pixel. Questi file di cache di riflettanza direzionali sono organizzati per consentire un rapido accesso a unll le misurazioni del colore direzionali ad un 'unica posizione di pixel della proiezione 2D dell'oggetto 3D. Visualizza spazialmente variabile Light Scattering Attraverso una gerarchia di Scala Per navigare tra le misure, utilizzare l'applicazione SimpleBrowser personalizzata per interpretare i dati trattati in step 1.E. SimpleBrowser apre una finestra che contiene l'immagine della piuma illuminata dalla prima direzione di illuminazione incidente. Sull'immagine della paletta piuma, possono essere selezionati singoli pixel o gruppi di pixel in modalità lineare o rettangolare (Figura 3). Procedere selezionando una regione rettangolare della banderuola piuma per l'analisi. Poi, tracciare la dispersione media di luce direzionale dalla regione selezionata. Una finestra plot che mostra riflettanza come funzione di coseni direttori apre adiacente alla finestra dell'immagine (R1 in Figura 4). Per impostazione predefinita, la direzione di massima luminanza (una direzione di trasmittanza in un tymisurazione piuma pical) viene assegnato un esposizione di 1. Diminuire o aumentare l'esposizione in una metà di arresto (2 √ x), con incrementi per regolare l'esposizione della mappa dei colori di riflessione. Ciclo della mappa dei colori di riflessione tra luminanza, RGB, e cromaticità (Vedi R1, R2, R3 e in Figura 4). Per le seguenti operazioni utilizzano il sistema RGB. Per ruotare la sfera, fare clic su di esso per attivare l'interfaccia trackball. Trascinare l'interfaccia per provocare la rotazione. Per visualizzare l'emisfero riflettanza, restituire la sfera nella posizione di default (vedi R2 in Figura 4). Ruotare la sfera di 180 ° dalla posizione predefinita per visualizzare l'emisfero trasmittanza (vedere T2 nella Figura 4). Per un'altra vista dei dati, selezionare la modalità di diagramma polare di scalare i raggi di ogni direzione sulla sfera unitaria dai rispettivi valori di luminanza. Modificare la mappa di colore della sfera in scala di luminanza da RGB a cromaticità (Vedi P3, F3, S3, A3 in Figura 4 </strong>). La direzione di illuminazione dell'immagine visualizzata è cerchiata in rosso nella dispersione trama direzionale (Figura 4). Fare clic su qualsiasi altra direzione di illuminazione incidente a mostrare l'immagine della piuma illuminato da quella direzione. Diminuire o aumentare l'esposizione dell'immagine per rivelare più e sottoesposta regioni. Per indagare riflettanza attraverso una gerarchia di scale, ripristinare la modalità di rappresentazione nella sfera unitaria e la mappa dei colori in RGB. In rassegna, questa trama mostra la riflettanza media direzionale dalla regione rettangolare selezionata sull'immagine. Modificare il tipo di selezione da rettangolare lineare (Figura 3). Questo permetterà studio della riflettanza direzionale da singole strutture a scala fine nella regione rettangolare. Tracciare la riflettanza della media lineare in una nuova finestra mantenendo la media rettangolare per riferimento. Regolare l'esposizione e impostare mappa dei colori in RGB. <li> Nella media trama lineare, le barbule distali attraversati dalla regione lineare sono visti per riflettere la luce in direzioni orizzontali (Figura 8). Selezionare una delle direzioni di illuminazione nella trama lineare per visualizzare le barbule distali altamente riflettenti nell'immagine a sinistra. Passo la linea verso la punta della penna fino a raggiungere la regione della piuma dove il ramo barbule prossimale dai rami adiacenti. Nella trama media lineare le barbule prossimali sono visti per riflettere la luce in direzioni verticali (Figura 8). Selezionare una delle direzioni per visualizzare i barbule prossimali altamente riflettenti nell'immagine a sinistra. Nella trama lineare, osservare le strutture a scala fine che riflettono la luce in direzioni orizzontali e verticali si combinano per produrre il segnale di campo lontano visto nella trama rettangolare. 2. Misurare la luce diffusa in Indicazioni più videocamere (Routine secondarias in Figura 1) Viste multiple della macchina fotografica e non uniforme di campionamento direzionale permettono di studiare particolari caratteristiche della riflettanza direzionale. Con l'aggiunta di punti di calibrazione 2.A e 2.B, protocollo 1 è stata ampliata per gestire più viste della telecamera. Due esempi specifici illustrati graficamente come Secondario routine II.A e II.B in Figura 1 sono impostati in avanti nei passi 2.C e 2.D sotto. In tali casi, la direzione della telecamera viene alterato dalla sua direzione canonica (normale alla superficie), il che significa che l'oggetto viene fotografato da una direzione inclinata dalla sua normale superficie. Dal momento che le immagini devono essere classificate in uno stesso sistema di coordinate, poniamo rimedio e deformare ogni foto per adattarla all'orientamento canonico facendo riferimento agli obiettivi flash-fotografati circondano il campione (Figura 9). Calibrare proiezione fotocamera e posizione: Lo scopo di questi passaggi sono per calcolare il proj fotocameraezione e la posizione utilizzata nella trasformazione dell'immagine. Agganciare un target di calibrazione checker-patterned piatto contro la piastra di montaggio. Cattura un'immagine alla telecamera canonica (cioè {θ, φ} = {0,0}) e diverse immagini in vari altri punti di vista della macchina fotografica si sviluppa su un cono di 120 ° centrata sulla vista canonico. Caricare le immagini in Bouguet Toolbox b, una fotocamera da MATLAB toolkit di calibrazione. Estrarre gli angoli della griglia in ciascuna delle immagini per ricostruire le matrici telecamera. Esportare l'intrinseca proiezione matrice fotocamera (P) e la posizione della fotocamera estrinseca matrice (M). La fotocamera proiezione intrinseca è composto dalla lunghezza focale e il punto principale. La posizione della telecamera estrinseca è composto principalmente da una traduzione, ma traduce l'origine del mondo per la posizione della telecamera. Risolvere per la matrice che trasforma le coordinate calibrazione bersaglio a cavalletto giradischi coordinate (X), ossia Bouguet spazio al portale spazio. Sganciare la dama dalla piastra metallica. Calibrare target Posizioni e Offset di proiezione: Lo scopo di questa procedura è quello di calcolare gli offset tra il piano di calibrazione, il piano bersaglio, e il campione, e per individuare le posizioni di destinazione. Ruotare la fotocamera in cavalletto coordinate in modo che l'asse ottico è perpendicolare al piano della superficie, cioè la struttura canonica. Acquisire un'immagine dell'anello di obiettivi che circondano l'apertura con illuminazione del flash. Questa è l'immagine canonica per allineamento dell'immagine. Elaborare l'uscita Camera Raw (protocollo indicato dal passo 1.E.3.a. e 1.E.4.). Mascherare la regione all'interno e all'esterno della zona di riferimento anello, eliminando riflessi speculari randagi che possono confondere il riconoscimento di destinazione, quindi trovare i target nell'immagine. Ruotare la fotocamera a un angolo di pascolo e di catturare un'immagine. Calcola il canonico camera posa (Mc = M * Rc) e la telecamera pascolo angolo posa (Mg = M * Rg) basato sulla telecamera estrinseca matrice M in step 2.A.3. che comprende una traduzione in base alla posizione del motivo checker Bouguet. Ridefinire M mediante compensazione sua traduzione dallo spessore della carta bersaglio-ring. Iterare per tentativi (ricalcolando M utilizzando un offset per il piano di calibrazione differente) finché l'offset nel portale spazio tra il piano della scacchiera Bouguet e il piano dell'anello di obiettivi, ossia spessore della carta bersaglio-ring, è stata risolto. Verificare l'offset in ogni iterazione da parte tenti di riproiettare i target nell'immagine angolo radente di obiettivi di immagine canonica. Ridefinire M seguendo la procedura del passo precedente riproiettare l'oggetto forata nell'immagine angolo radente di oggetto forata nell'immagine canonica per tentativi finché l'offset nello spazio a portale tra il piano dell'anello di obiettivi ed il piano of l'oggetto forata, ossia spessore della lamiera, è stato risolto. Misurare Sette Hemispheres riflettanza campionati in modo non uniforme (Secondaria II A Routine nella figura 1) Esaminare la distribuzione direzionale della luce riflessa misurata dalla telecamera normale alla superficie, cioè {θ, φ} = {0,0} come descritto nel protocollo 1. Ricampionare l'emisfero riflettanza per registrare luminosità fotocamera da direzioni non speculari più scarsamente e indicazioni speculari più densamente. Applicare gli stessi criteri per assaggiare la riflettanza in 6 ulteriori direzioni fotocamera uniformemente distribuiti più di mezzo emisfero, cioè {θ, φ} = {30,0}, {30,90}, {60,0}, {60,45} , {60,90}, {60.135}. Predire le regioni speculari delle 6 corse supplementari dalla direzione di visualizzazione di ogni accoppiata con l'angolo di riflessione della corsa iniziale. Per ciascuno dei 7 non uniformely emisferi campionati, acquisire ed elaborare le misurazioni seguendo le istruzioni nella procedura 1.D. e 1.E. sopra. Visivamente sfogliare la riflettanza direzionale dalla stessa regione della piuma in ciascuna delle 7 emisferi non uniformemente campionati, seguendo le istruzioni passo 1.F. sopra. Disporre le trame di riflettanza direzionali per ciascuna delle 7 telecamere direzioni su un sistema di coordinate polari, dove il posizionamento di ogni trama si basa sulla sua direzione della telecamera (Vedi i risultati visivi di II.A Routine in figura 1; anche Figura 5). Misurare finemente nel campione percorsi semicircolari di acquisire informazioni dettagliate sul cambiamento di colore con angolo (Secondaria II B di routine in Figura 1) Avviare l'applicazione SimpleBrowser e input delle misure trasformati dell'emisfero riflettanza campionata in modo non uniforme con direzione della telecamera {θ, φ} = {0,0}, come descritto nel Passo 2.C.1. Selezionare ile pixel nell'immagine, quindi inserire un aereo per il 90 ° percentile della luminanza della riflettanza emisferica nella posizione pixel selezionato. Costruire una acquisizione conduzione 1D quali finemente campioni di riflettanza speculare sul piano speculare. Generare portale angoli braccio in ½ ° incrementi di mezzo angolo nel piano definito nel passaggio precedente. Iniziare con il mezzo angolo uguale a 0 ° e aumentare il semiangolo di 90 °. Per ogni misura nella corsa acquisizione, mantenere costante la metà-vettore e uguale alla normale alla superficie in modo che ogni direzione della telecamera si trova nella direzione speculare. Acquisire ed elaborare le misurazioni seguendo le istruzioni dei passaggi 1.D. e 1.E. sopra. Visivamente sfogliare la 1D riflettanza direzionale seguendo le istruzioni al punto 1.F., mentre il campionamento di una regione molto piccola (ad esempio 3×3 pixel) centrato sul pixel stesso utilizzato per adattare il piano speculare a passo 2.D.1. Trovare il senso di riflettanza di picco, cioèombreggiatura normale. Costrutto 3 ulteriore acquisizione viene eseguito nello stesso modo come step 2.D.2., Ma impostare il mezzo vettore per l'ombreggiatura normale anziché la normale alla superficie. Per i 3 prove aggiuntive, generare cavalletto angoli braccio che giacciono in piani contenenti l'ombreggiatura normale, ma che sono ruotate di 45 °, 90 ° e 135 ° rispetto al piano speculare definito nel passaggio 2.D.1. Acquisire ed elaborare le misurazioni seguendo le istruzioni dei passaggi 1.D. e 1.E. sopra. Visivamente sfogliare la 1D riflettanza direzionale seguendo le istruzioni al punto 1.F., mentre il campionamento di una regione molto piccola (ad esempio 3×3 pixel) centrata sul pixel utilizzati per adattare il piano speculare a passo 2.D.1. Export da SimpleBrowser la media riflette splendore di questa regione molto piccola. In MATLAB, tracciare la sua cromaticità in funzione del mezzo-angolo su un diagramma di cromaticità (Figura 6). Tracciare il suo colore, intensità, e la luminanza in funzione del mezzo-angolo (<strong> Figura 7). Costruire quattro acquisizione più 1D corre nelle stesse quattro piani di cui sopra, ma questa volta configurare la luce e la macchina fotografica indicazioni per misurare la larghezza e la decadenza della riflettanza speculare. Impostare la metà dell'angolo tra la luce e la fotocamera a una costante 10 °. Generare portale angoli del braccio di 1 ° con incrementi di mezzo vettore intorno all'asse ortogonale al piano. Iniziare con un mezzo vettore pari a -80 ° e aumentare il mezzo vettore a +80 °, in cui 0 ° è uguale alla normale ombreggiatura. Notare che non tutte le direzioni fotocamera si trovano nella direzione speculare. Acquisire, di processo e misure di esportazione seguendo le istruzioni nella procedura 1.D. e 1.E. e 2.D.6. rispettivamente. In MATLAB, tracciare la cromaticità su un diagramma di cromaticità come funzione dell'angolo tra la metà-vettore e la normale ombreggiatura. Tracciare il suo colore, intensità, e la luminanza in funzione dell'angolo tra la metà-vettore e l'ombreggiatura normale. </li> 3. Trasformazione proiettiva Proiettiva trasformare ogni immagine HDR nella vista canonica o la direzione della vista ortogonale al piano della superficie. Questo protocollo è accessibile da Passo 1.E.3.b quando un ciclo di misura è parte di una direzione prestabilita telecamera multipla, come gli esempi descritti nel protocollo 2 e illustrato graficamente come routine secondarie in Figura 1. Leggere una canonica immagine illuminata da una direzione non speculare. (At indicazioni speculari pascolo il contrasto diminuita tra la superficie bianca della carta e l'inchiostro nero può portare ad errori di rilevamento bersaglio. Confrontare la chiarezza dell'immagine A e B nella figura 9.) Individuare le coordinate del centro di ciascun bersaglio nell'immagine canonica. Caricare l'immagine bersaglio illuminato dal flash della fotocamera montata per una data coppia lampada-telecamera direzionale (B in Figura 9). Circa TRAnsform l'immagine di destinazione nella cornice della fotocamera canonica utilizzando il cavalletto fotocamera matrice M calcolato al passaggio 2.B.7. Individuare le coordinate del centro di ciascun bersaglio nell'immagine obiettivo trasformato (C in figura 9). Abbinare ogni target nel immagine target trasformato allo target di riferimento nell'immagine canonica trovando la distanza minima tra target di riferimento dell'immagine e. Eliminare eventuali obiettivi sfocate causate da DOF ad angoli di pascolo (D nella figura 9). Risolvere il 2D proiettiva trasformare quell'immagine mappe rivolge nella cornice canonica a obiettivi canonico-immagine nello stesso fotogramma. Untransform i deformati-to-fit obiettivi della cornice dell'immagine canonica indietro fino alla cornice originale attraverso il piano dell'oggetto perforato (M in step 2.b.8.) Piuttosto che il piano degli obiettivi (M al punto 2. B.7.). Salvare le coppie di coordinate di destinazione che mappano l'oggetto forata a immagine di destinazione per l'ob aperturatasoggetto nell'immagine di destinazione canonica. Caricare l'immagine HDR illuminata dalla lampada (A in Figura 9). Inferire un proiettivi trasformare da bersaglio salvato coppie di coordinate spaziali per trasformare l'immagine HDR nella cornice canonica (E nella figura 9). Tornare al protocollo principale. un Dcraw è un programma per computer open-source sviluppato da David Coffin. Si converte proprietaria delle immagini RAW in formato di una telecamera (cioè dati CCD non trasformati) in un formato di immagine standard. Vedere http://www.cybercom.net/ ~ dcoffin / dcraw / . b Bouguet Toolbox è un toolbox di calibrazione della fotocamera per MATLAB sviluppata da Jean-Yves Bouguet. Vedere http://www.vision.caltech.edu/bouguetj/calib_doc .

Representative Results

La misurazione principale del nostro protocollo (Routine I in figura 1) fissato la direzione della telecamera normale alla superficie e solo spostato la luce. Dal Light Scattering aderisce al principio di reciprocità, il risultato è lo stesso se teniamo costante la telecamera mentre si muove la luce sopra l'emisfero o viceversa. Quando fissiamo sia la fotocamera o la luce, la completa direzione impostata 4-dimensionale è sottocampionati. Un quadro completo del comportamento di scattering viene osservato quando, a differenza della misura primaria, sia la luce e la telecamera vengono allontanati dalla superficie normale e in una molteplicità di direzioni. Idealmente, si potrebbe misurare la dispersione della luce da molte direzioni della fotocamera, per quanti il ​​numero di incidenti direzioni di luce, fino ad ottenere una serie di dati simmetrica. In pratica, ciò richiederebbe troppe esposizioni. Nella nostra esperienza, siamo in grado di ottenere informazioni sufficienti su diverse posizioni di visione spostando la telecamera alcune volte assuming 180 ° simmetria rotazionale sulla superficie normale. Durante la fase di misurazione secondaria, abbiamo acquisito le misurazioni da 7 direzioni di osservazione distribuiti sopra l'emisfero ed entro il 60 ° dello zenit 18,19 (II.A routine in Figura 1). Nelle figure di questo documento, vi mostriamo dati rappresentativi misurati da una piuma di Lamprotornis purpureus (Viola Starling lucido), la riflettanza della quale è cangiante, lucido, e anisotropico (Figura 5). In ciascuna delle direzioni di osservazione 7, luce riflessa viene raccolto da centinaia di incidenti direzioni di illuminazione sul emisfero. Le indicazioni formano una stretta banda orientata ortogonalmente all'asse centrale della piuma (vedi immagine piuma in Figura 4). Il cambiamento di colore iridescenza è sottile (verde-bluastro a incidenza normale e verde-blu a incidenza radente), quando la piuma è vista normale alla sua superficie come si vede nella {0 °, 0 & deg;} RGB appezzamento di figura 5. Come l'angolo di visuale si avvicina al pascolo, gli angoli tra la direzione di osservazione e le direzioni incidenti pascolo sono massimizzati, portando ad un cambiamento di colore più evidente (verde-bluastro a 0 ° e magenta a 240 ° tra incidente e le direzioni di osservazione), come si vede nella {60 °, 0 °} RGB trama in Figura 5. Possiamo permetterci di intensificare la luce e la macchina fotografica a risoluzione angolare molto più fine, quando ci limitiamo i movimenti a 1 dimensione. Figura 6 mostra la cromaticità della riflettanza della L. purpureus piumaggio come funzione dell'angolo tra l'incidente e direzioni di osservazione, dove l'incidente e direzioni di osservazione sono nel piano contenente la banda speculare, che è perpendicolare all'asse longitudinale del barbule distale. Come gli archi a colori cangianti nello spazio di cromaticità, la tonalità passa da blu-verde al viola. Spatial Vari zione in riflettanza direzionale è visibile se diverso (X, Y) coordinate del tegumento corrispondono a diverse strutture di milli-scala. Nel caso di L. purpureus una sola struttura – la barbule distali – è visibile sulla maggior parte del territorio. Per contro, in C. cupreus, tre strutture milli scala – i Rami, barbule distali e prossimali barbule – sono chiaramente distinta nei dati, si può osservare che la riflettanza della piuma è orientato rispetto all'asse longitudinale di ogni struttura (Figura 8) . Figura 1. Questa panoramica schematica raffigura due metodi di montaggio, il sistema di coordinate gantry sferica, i tipi di campionamento acquisizione e rispettivi risultati. / Ftp_upload/50254/50254fig1large.jpg "target =" _blank "> Clicca qui per ingrandire la figura. Figura 2. La piuma appiattito è visibile attraverso un'apertura in una piastra di metallo circondato da un anello di obiettivi. Un cavalletto sferica può essere posta a misurare dispersione della luce da una penna ad multiplo illuminazione incidente e direzioni di osservazione. L = braccio di Luce (latitudine). C = braccio della telecamera (latitudine). B = Base Camera (longitudine). T = Giradischi (longitudine). F = Piuma. Figura 3. Media dispersione direzionale può essere calcolata da un punto, linea o rettangolare regione di piuma vane. p_upload/50254/50254fig4highres.jpg "src =" / files/ftp_upload/50254/50254fig4.jpg "/> Figura 4. Esempio di dispersione direzionale funzioni di plotting (R * = riflettanza, T * = trasmittanza, P * = Top, f * = anteriore, S * = Side, A * = Arbitrarie) e combinazioni di colori (* 1 = luminanza, * 2 = RGB , * 3 = cromaticità). Clicca qui per ingrandire la figura . Figura 5. La luminanza (in alto) e di colore RGB (in basso) della riflettanza emisferica in direzione dello spazio coseno come visto dalle (angolo di elevazione, azimuth angle) coppie di coordinate: {0 °, 0 °}, {30 °, 0 °}, { 30 °, 90 °}, {60 °, 0 °}, {60 °, 45 °}, {60 °, 90 °}, e {60 °, 135 °}. La riflettanza è mediati da un 25 × 25 pixel di un'area rettangolare del vano laterale di un L. TERTIAL purpureus (Viola Starling lucido) piuma. Le frecce rosse rappresentano le direzioni della fotocamera. Clicca qui per ingrandire la figura . Figura 6. Cromaticità della riflettanza in funzione del mezzo-angolo tra la luce incidente e le direzioni di osservazione:. CIE 1976 Uniform Scale cromatiche (USC) con regione ingrandita Clicca qui per ingrandire la figura . / 50254/50254fig7highres.jpg "src =" / files/ftp_upload/50254/50254fig7.jpg "/> Figura 7. Riflettanza come funzione dell'angolo tra la luce incidente e direzioni di osservazione, in-aereo con (rosso) e perpendicolare (ombreggiata) l'asse longitudinale del barbule distale: (A) lunghezza d'onda dominante, (B) Percentuale chroma, (C ) Percentuale di luminanza. L'ombreggiatura di colore nella trama A è il colore RGB della riflettanza. I valori negativi di lunghezza d'onda rappresentano i colori della non-spettrale triangolo viola. Clicca qui per ingrandire la figura . Figura 8. Media riflettanza direzionale di barbule distali e prossimali barbule tra due rami adiacenti del C. cupreus (African Emerald cuculo). Figura 9. (A) non rettificati immagine illuminata dalla lampada a portale, (B) non rettificati immagine illuminata dal flash della fotocamera, (C) candidati destinatari filtrato su affine-trasformata, immagine flash-illuminato, (D) obiettivi Acceptably taglienti all'interno profondità di campo, (E) Rettificato immagine Lampada-illuminato, (F) ruotato piuma punta in su, ritagliata e mascherati. Clicca qui per ingrandire la figura .

Discussion

Anche se le prestazioni e la funzionalità di molte colorazioni pigmentarie e strutturali sono ben riconosciuti, la morfologia di molte tegumenti è così complesso che la loro particolare struttura e la funzione sono capiti male 20. Tegumenti hanno sviluppato specializzazioni che variano spazialmente sulla superficie dell'organismo di riflettere la luce differenzialmente direzionalmente verso lo spettatore. Direzionalità ha ricevuto l'attenzione principalmente nello studio delle iridescenze per il suo cambiamento di colore con cambio di incidente e l'angolo di visione e la ricerca di iridescenza del tegumento biologico ha raccolto principalmente 1D e alcune misurazioni 2D 8,12,17. Ma misurazioni 6D generalizzate non sono stati di routine nello studio dei tegumenti 21-23, iridescenti o meno, e la letteratura su fenotipi colore organismal è limitato dalla mancanza di dati colore direzionali del tipo nostro metodo fornisce.

La piuma è un particolare rmateriale tegumentario ich costituito da un regime di struttura milli-scala la sbavatura: Rami, barbule distali, e barbule prossimali. La piccola scala degli elementi e le loro modalità complesse rendono difficile discernere le prestazioni dispersione della luce dei singoli elementi. Il nostro protocollo isolato con successo struttura milli scala dalla influenza della geometria macro-scala. Caratterizzando le conseguenze funzionali dell'espressione direzionale di strutture milli-scala per la firma campo lontano della piuma, abbiamo attivato un'indagine loro conseguenze adattive.

Abbiamo affrontato compromessi pratici tra spettrale, risoluzione spaziale e angolare. Abbiamo scelto di alta spaziale, angolare media e bassa spettrale per i nostri studi. Altre combinazioni potrebbero essere utilizzati, ma alcuni (ad esempio tutti alto) portano a tempi di misurazione unworkably lunghi. L'attenzione deve essere focalizzata in cui è importante per i fenomeni particolari in fase di studio. Nella scelta di impiegare un ca RGBmera con un mosaico filtro Bayer, abbiamo progettato il nostro protocollo per abbinare il sistema visivo umano. La telecamera RGB potrebbe essere sostituito e il nostro protocollo atto a misurare il relativo stimolo colore di qualsiasi organismo, ad esempio sensibilità nello spettro UV è necessaria per misurare aviaria colore tetra-cromatico 24,25. Una telecamera di imaging spettrale fornirebbe la soluzione più generale 25.

Abbiamo dimostrato il nostro protocollo con TERTIAL penne delle ali in quanto sono colorati e facilmente schiacciata contro una piastra di riferimento. Purtroppo, l'apertura della piastra di metallo rivelata solo una frazione della superficie piuma. Se potessimo misurare simultaneamente la forma 3D della superficie della piuma mentre si misura la riflettanza 25, potremmo evitare meccanicamente appiattendo la piuma e invece di misurare l'intera piuma nel suo stato naturale, non unito.

Specializzati interattive, strumenti, integrati per la visualizzazione dei dati forniscono substantial beneficio di scienziati che esplorano e interpretare grandi volumi di dati. La maggiore integrazione e interattività, sono osservate le connessioni più facili nei dati. Nel nostro software, un utente può tracciare interattivamente media dispersione direzionale in funzione della posizione della superficie (Figura 4). Ulteriore sviluppo del nostro software potrebbe integrare altre funzioni di plotting (figure 6, 7) per estendere l'esperienza interattiva.

Disclosures

The authors have nothing to disclose.

Acknowledgements

Questa ricerca è stata finanziata dalla National Science Foundation (NSF CARRIERA premio CCF-0.347.303 e NSF concedere CCF-0.541.105). Gli autori desiderano ringraziare Jaroslav Křivánek, Jon Luna, Edgar Velázquez-Armendáriz, Wenzel Jakob, James Harvey, Susan Suarez, Ellis Loew, e John Hermanson per il loro contributo intellettuale. La Cornell sferica Gantry è stato costruito da un disegno a causa di Duane Folco, Marc Levoy, e Szymon Rusinkiewicz.

References

  1. Nicodemus, F., Richmond, J., Hsia, J., Ginsberg, I., Limperis, T. . Geometric considerations and nomenclature for reflectance. , (1977).
  2. Marschner, S. R., Jensen, H. W., Cammarano, M., Worley, S., Hanrahan, P. Light scattering from human hair fibers. ACM Transactions on Graphics (TOG). 22 (3), 780-791 (2003).
  3. Marschner, S. R., Westin, S., Arbree, A., Moon, J. Measuring and modeling the appearance of finished wood. ACM Transactions on Graphics (TOG). 24 (3), 727-734 (2005).
  4. Land, M. F. The physics and biology of animal reflectors. Progress in Biophysics and Molecular Biology. 24, 75-106 (1972).
  5. Durrer, H. Colouration. Biology of the Integument: Vertebrates. 2 (12), 239-247 (1986).
  6. Brink, D., van der Berg, N. Structural colours from the feathers of the bird Bostrychia hagedash. Journal of Physics D-Applied Physics. 37 (5), 813-818 (2004).
  7. Kinoshita, S. . Structural colors in the realm of nature. , (2008).
  8. Nakamura, E., Yoshioka, S. Structural Color of Rock Dove’s Neck Feather. Journal of the Physical Society of Japan. 77 (12), 124801 (2008).
  9. Westin, S., Arvo, J., Torrance, K. E. Predicting reflectance functions from complex surfaces. ACM SIGGRAPH Computer Graphics. 26 (2), 255-264 (1992).
  10. Shawkey, M. D., Maia, R., D’Alba, L. Proximate bases of silver color in anhinga (Anhinga anhinga) feathers. Journal of Morphology. 272 (11), 1399-1407 (2011).
  11. Maia, R., D’Alba, L., Shawkey, M. D. What makes a feather shine? A nanostructural basis for glossy black colours in feathers. Proceedings of the Royal Society B: Biological Sciences. 278 (1714), 1973-1980 (2011).
  12. Dyck, J. Structure and light reflection of green feathers of fruit doves (Ptilinopus spp.) and an Imperial Pigeon (Ducula concinna). Biologiske Skrifter (Denmark). 30, 2-43 (1987).
  13. Yoshioka, S., Kinoshita, S. Effect of macroscopic structure in iridescent color of the peacock feathers. Forma. 17 (2), 169-181 (2002).
  14. Osorio, D., Ham, A. Spectral reflectance and directional properties of structural coloration in bird plumage. Journal of Experimental Biology. 205 (14), 2017-2027 (2002).
  15. Stavenga, D. G., Leertouwer, H. L., Pirih, P., Wehling, M. F. Imaging scatterometry of butterfly wing scales. Optics Express. 1 (1), 193-202 (2009).
  16. Vukusic, P., Stavenga, D. G. Physical methods for investigating structural colours in biological systems. Journal of Royal Society Interface. 6, S133-S148 (2009).
  17. Stavenga, D. G., Leertouwer, H., Marshall, N. J., Osorio, D. Dramatic colour changes in a bird of paradise caused by uniquely structured breast feather barbules. Proceedings of the Royal Society B: Biological Sciences. 278 (1715), 2098-2104 (2010).
  18. Irawan, P. . Appearance of woven cloth [dissertation]. , (2008).
  19. Irawan, P., Marschner, S. R. Specular reflection from woven cloth. ACM Transactions on Graphics (TOG. 31 (1), 11:1-11:20 (2012).
  20. Vukusic, P. Structural colour: elusive iridescence strategies brought to light. Current Biology: CB. 21 (5), R187-R189 (2011).
  21. Dana, K., Ginneken, B., Nayar, S., Koenderink, J. Reflectance and texture of real-world surfaces. ACM Transactions on Graphics (TOG). 18 (1), 1-34 (1999).
  22. Chen, Y., Xu, Y., Guo, B., Shum, H. -. Y. Modeling and rendering of realistic feathers. ACM Transactions on Graphics (TOG). 21 (3), 630-636 (2002).
  23. Levoy, M., Zhang, Z., McDowall, I. Recording and controlling the 4D light field in a microscope using microlens arrays. Journal of microscopy. 235 (2), 144-162 (2009).
  24. Stevens, M., Párraga, C. A., Cuthill, I. C., Partridge, J. C., Troscianko, T. S. Using digital photography to study animal coloration. Biological Journal of the Linnean Society. 90 (2), 211-237 (2007).
  25. Kim, M. H., Harvey, T. A., et al. 3D imaging spectroscopy for measuring hyperspectral patterns on solid objects. ACM Transactions on Graphics (TOG). 31 (4), (2012).

Play Video

Cite This Article
Harvey, T. A., Bostwick, K. S., Marschner, S. Measuring Spatially- and Directionally-varying Light Scattering from Biological Material. J. Vis. Exp. (75), e50254, doi:10.3791/50254 (2013).

View Video