Summary

Mesure spatialement et Directionnellement variant diffusion de la lumière à partir de matériel biologique

Published: May 20, 2013
doi:

Summary

Nous présentons une méthode non destructive pour l'échantillonnage de la variation spatiale dans la direction de la lumière diffusée à partir de matériaux de structure complexe. En gardant le matériel intact, nous préservons le comportement de diffusion brut échelle, tout en capturant simultanément contributions directionnelles à petite échelle avec l'imagerie à haute résolution. Les résultats sont visualisés dans le logiciel à des positions et des échelles biologiquement pertinents.

Abstract

La lumière interagit avec le tégument d'un organisme sur une variété d'échelles spatiales. Par exemple dans un oiseau irisé: les structures à l'échelle nanométrique produisent couleur, la structure milli-échelle de barbes et les barbules détermine en grande partie du diagramme de directivité de la lumière réfléchie, et à travers la structure spatiale à macro-échelle de chevauchement, plumes incurvées, ces effets directionnels créer la texture visuelle. Effets Milli échelle et à macro-échelle de déterminer où sur le corps de l'organisme, et de ce point de vue et sous quel éclairage, les couleurs chatoyantes sont vus. Ainsi, le flash hautement directionnel de couleur brillante de la gorge irisée d'un colibri est insuffisamment expliquée par sa structure à l'échelle nanométrique seul et questions demeurent. D'un point d'observation donné, les éléments milli-échelle de la plume sont orientés à réfléchir fortement? Ne certaines espèces produisent plus large des «fenêtres» pour l'observation des irisations que d'autres? Ceux-ci et d'autres questions semblables may être interrogé sur tous les organismes qui ont évolué un aspect de surface particulier pour la signalisation, camouflage, ou d'autres raisons.

Afin d'étudier les caractéristiques de directivité de diffusion de la lumière à partir de plumes, et leur relation à la milli-échelle de la morphologie de l'oiseau, nous avons développé un protocole de mesure de la lumière diffusée à partir de matériaux biologiques à l'aide de nombreuses photos haute résolution prises avec divers éclairage et l'affichage directions. Puisque nous mesurons la lumière diffusée en fonction de l'orientation, nous pouvons observer les caractéristiques de la distribution directionnelle de la lumière diffusée par cette plume particulière, et parce barbes et barbules sont résolus dans nos images, nous pouvons clairement attribuer les caractéristiques directionnelles à ces différents structures milli-échelle. Garder le spécimen intact préserve le comportement de diffusion brut échelle vu dans la nature. La méthode décrite ici présente un protocole généralisé pour l'analyse spatiale et directionnelle-VArying diffusion de la lumière à partir de matériaux biologiques complexes à différentes échelles structurelles.

Introduction

La couleur et le motif du tégument d'un organisme jouent écologiquement et socialement fonctions critiques dans la plupart des taxons d'animaux. Ces propriétés phénotypiques sont déterminées par l'interaction de la lumière avec la structure du tégument, qui peut présenter dispersion optique qui varie à la fois dans l'espace (à travers la surface du tégument) et directionnelle (avec changement de l'éclairage et la direction d'observation). Dans les matériaux biologiques complexes, comme les plumes, la direction de diffusion de la lumière est influencée par l'orientation de répéter géométrie milli-échelle. Ces structures milli échelle eux-mêmes peuvent être intégrés à des structures à l'échelle nanométrique, comme des tableaux de mélanine, qui héritent souvent l'orientation milli-échelle. De nano-à macro-échelle, la structure du tégument a évolué fonctionnellement à augmenter la capacité de signalisation de l'organisme. Afin d'évaluer l'influence de la morphologie des différentes échelles sur l'apparence générale, des outils pourmesurer et analyser la couleur des structures biologiques ont besoin de souplesse pour isoler diffusion de la lumière directionnelle à différentes échelles de grossissement.

Nous avons développé des outils de mesure basés sur l'image pour étudier comment la performance de la morphologie milli-échelle complexes et variées d'une plume (rami barbe, barbules distales et proximales barbules) élargit la gamme d'expression possible des structures à l'échelle nanométrique seuls. En une seule image enregistrée par la caméra, on a observé que la lumière réfléchie différemment à différents endroits sur la surface de la plume, c'est-à-réflexion de la lumière est spatialement variable. Lorsque nous avons déménagé la direction de la lumière et la caméra par rapport à la plume, nous avons observé la réflectance changé, c'est-réflexion de la lumière a été directionnelle variant 1. Suite à ces observations, nous avons conçu un protocole de passer méthodiquement la lumière et la caméra autour de l'objet à l'aide d'un portique sphérique 2,3, avec qui nous avons capturé 2 dimensions de sula position rface (X et Y), 2 dimensions de direction de la lumière (latitude et longitude), et 2 dimensions de direction de la caméra (latitude et longitude) (Figure 2). Dans le logiciel, nous avons exploré visuellement les 6 dimensions de la lumière diffusée en fonction de la position, la direction de l'éclairage et de la direction de vue.

Des recherches antérieures dans la réflexion de téguments a trop souvent écarté la contribution de directivité – par exemple, la réflexion diffuse par rapport spéculaire ou isotrope vs anisotrope – à l'expression de la couleur. La plupart des mesures de couleur ont fixé la lumière incidente, l'objet et la géométrie de visualisation d'éviter soigneusement les effets directionnels. Par exemple, pour éliminer la réflexion spéculaire à partir de mesures de la couleur, il est courant de placer la lumière normale à la surface et à enregistrer la réflectance à 45 ° par rapport à la normale. Les études qui font le lien morphologie directionnelle variant de réflexion se concentrent généralement sur l'échelle nanométriqueet ses conséquences irisées 4-8. Quelques-uns considèrent la contribution des micro, milli-et géométries macro-échelle à la signature optique en champ lointain 8-11. Il est donc courant d'utiliser un détecteur de lumière à réflexion globale sur un seul domaine d'intérêt qui peuvent inclure plusieurs milli-et / ou macro-échelle composants, tels que Rami barbe, barbules, et même des plumes entières 6,8,11-17 . Lorsque la région d'intérêt est soit inférieure à la limite de résolution du détecteur ou n'est pas conforme à la forme du champ de vision du détecteur, le protocole commun spécifie dissection du spécimen à isoler la diffusion de la lumière à partir de l'élément milli-échelle spécifique 8,10 , 13,15.

Nous avons développé un protocole plus globale pour l'acquisition de mesure et de visualisation qui encourage l'exploration des nombreuses variables souvent ignorés dans d'autres études plus ciblées. Nous mesurons la diffusion de la lumière sur une sphère de directions et acrosrégion SA de l'espace en utilisant un ensemble massif de gamme dynamique élevée, des photographies haute résolution prise à partir d'un ensemble systématique de lumière et de directions d'observation. Nous employons un capteur d'imagerie à haute résolution avec son tableau 2D de détecteurs à pixels à échelle fine. Agrégation en matériel se produit au niveau des pixels, à une plus petite échelle que les éléments milli-échelle que nous mesurons. Une deuxième étape agrégats pixels individuels dans le logiciel que l'utilisateur sélectionne la forme et la taille de la zone d'intérêt. En conséquence, un ensemble unique de mesure peut être analysé à plusieurs reprises dans le logiciel pour explorer les différents aspects de l'interaction lumière avec du matériel à plusieurs postes et les échelles biologiquement pertinents. En éliminant la dissection et la mesure de l'ensemble de plume, notre protocole a l'avantage de laisser la morphologie de la palette de plume intacte, tout en conservant le contexte et la fonction qui est, les interactions de la lumière entre les éléments constitutifs milli échelle naturelle.

Diffusion de la lumière à partir de organismal structure est multidimensionnelle et difficile à quantifier. Mesuré diffusion de la lumière 6D peut pas encore être attribuée à la morphologie spécifique au sein d'une hiérarchie d'échelle avec n'importe quel instrument singulier. Mais nous avons fait un pas important dans cette poursuite. Nous avons développé un outil qui englobe trois méthodes complémentaires – réflectance d'échantillonnage en utilisant le portique, l'exploration de grands volumes de données dans le logiciel, et la visualisation des sous-ensembles de données graphiquement – d'étendre notre capacité de mesurer la diffusion de lumière 6D à tout moment sur un matériau, jusqu'à la milli-échelle. Comme protocoles tels que le nôtre sont utilisés, nous prévoyons biologistes identifier une multitude de traits directionnelle et variant dans l'espace et les adaptations structurelles correspondant à de multiples échelles de développement. Grâce à nos outils, nous sommes engagés dans la caractérisation du potentiel de signalisation de l'expression directionnel et spatiale des structures milli-échelle, et nous espérons faire la lumière sur les conséquences d'adaptation. Nous nous adressons à une série de questions telles que: à partir d'uny donne point d'observation, quels sont les éléments à petite échelle ou régions brut échelle de la plume reflètent fortement? Comment l'orientation des éléments à échelle fine influer sur l'orientation de la lumière diffusée? Quelles sont les conditions morphologiques produisent une brillance satinée vs un éclat pailleté de l'ornement irisé? Ne certaines espèces produisent plus large des «fenêtres» pour l'observation des irisations que d'autres? Ces questions peuvent être posées sur les oiseaux et leurs plumes, mais aussi sur tous les autres organismes qui ont évolué un aspect de surface particulier pour la signalisation, camouflage, ou d'autres raisons.

Protocol

Lorsque vous utilisez nos méthodes pour mesurer un échantillon, l'expérimentateur doit se prononcer sur un ensemble de caméra et directions de la lumière, et pour chaque combinaison de directions de la caméra et la lumière, la caméra fait plusieurs expositions avec différentes vitesses d'obturation. Déplacement de la caméra nécessite un traitement supplémentaire, car il change le point de vue de l'échantillon comme on le voit dans l'image, de sorte que nous utilisons normalement un petit nombre de directions de caméra et un grand nombre de directions de source de lumière. Dans les protocoles détaillés ci-dessous, nous décrivons d'abord comment effectuer une mesure avec de nombreuses directions de source de lumière et une seule direction de la caméra, et la façon de traiter et de visualiser les données résultantes (Protocole 1). Dans le protocole primaire, qui peut être utilisé par lui-même quand une seule vue suffit d'observer les phénomènes étudiés, nous gardons toujours la vue caméra perpendiculaire à l'échantillon (Routine principale dans la Figure 1). Lorsque plusieurs directions de caméras sont nécessaires, lerésultant vues obliques de l'échantillon peut être déformé à annuler les effets du déplacement de la caméra et ainsi d'aligner les images exactement avec la vue perpendiculaire canonique. Pour calculer ces chaînes, nous effectuons des mesures d'étalonnage supplémentaires qui utilisent des observations de cibles placées autour de l'échantillon pour déterminer avec précision le mouvement de la caméra par rapport à l'échantillon. Protocole 2 détails de cette procédure d'étalonnage et explique comment sélectionner les paramètres et exécuter protocole n ° 1 plusieurs fois pour recueillir des données à partir de plusieurs vues (routines secondaires dans la figure 1). Enfin, le Protocole 3 détaille les mesures supplémentaires qui doivent être insérées dans le protocole 1 de rectifier les vues obliques au cours du traitement des données. 1. Mesurer la lumière diffusée dans la direction de la normale de surface de la sphère de l'incident Itinéraire (Routine principale dans la Figure 1) Préparer et monter l'objet à mesurer Préparer une plaque de montage en métal ferreux minceavec une ouverture ½ pouces entouré d'un anneau de cibles (comme on le voit dans la figure 2). Préparation de la matière à mesurer. Si la mesure d'une plume, toiletter les barbes pour corriger toute sections décompressés ou mal alignées de l'aube pennaceous. Placer la surface de l'objet (face du dessus de la plume) contre la face arrière (face à l'anneau cible) de la plaque. Centre de la région d'intérêt au cours de l'ouverture de ½ pouce dans la plaque. Placer une feuille de film magnétique avec une ouverture 5/8-inch contre le côté arrière de l'objet (face arrière de la plume), en appuyant de ce fait l'objet plat sur la plaque. Aligner l'ouverture de la pellicule à l'ouverture de la plaque sans cisaillement de la surface. La surface aplatie, mis autour de la circonférence de l'ouverture circulaire, on obtient une surface plane macro-coïncide approximativement avec la surface de la plaque. Configurez le portique Localisez l'le centre de l'ouverture circulaire à l'origine du système de coordonnées de portique. Placer une source lumineuse sur le bras extérieur portique. But et étroitement focaliser la lumière sur l'objet, en sorte que l'ouverture est éclairée uniformément pour tous les angles de source de lumière. Placer une caméra sur la face interne du bras portique. Régler la distance de la caméra et la distance focale de la lentille jusqu'à ce que la macro anneau de cibles remplit la largeur du capteur. Calibrer les mouvements de rotation (θ, φ) de la caméra et les bras de la lampe. Calibrer l'inclinaison (θ) par rapport à la surface de l'objet normal de telle sorte que la caméra et la lampe sont alignées avec la surface normale lorsque θ = 0. Calibrer l'azimut (φ) de la caméra à l'azimut de la lampe. L'orientation absolue azimutale n'est pas critique puisque les images capturées peuvent être tournés plus tard dans le protocole. Configurer la mise au point de l'appareil photo et l'exposition Rotate de l'appareil photo jusqu'à ce que l'objet est vu à un angle rasant. Diminuer le nombre f de minimiser la profondeur de champ (DOF), puis définir le plan de mise au point au centre de l'ouverture. Augmenter le nombre f pour augmenter le DOF jusqu'à ce que l'anneau de cibles entourant l'ouverture est au point. Un compromis entre la diffraction et DOF induite flou peut être nécessaire. Couper une norme de couleur à plat contre la plaque de montage. Pour les images RVB utiliser une couleur Checker Macbeth. Pour les mesures UV-visible-proche infrarouge utiliser Spectralon. Photographier la norme de couleur au format RAW. Calculer les multiplicateurs de canal de couleur à la balance des blancs de l'image. Trouvez le bracketing d'exposition qui s'étend sur la plage dynamique de la scène sous l'observation la plus extrême et directions d'éclairage. Pour chaque temps d'exposition dans le support, l'acquisition d'une image de bruit sombre par exposition du capteur avec le bouchon d'objectif sur. Acquérir des mesures d'une sphère échantillonnée de façon éparse des incidents Itinéraire Positionner l'axe de la caméra normale au plan de surface {θ, φ} = {0,0}. L'étape de la lumière à travers une série de positions réparties uniformément sur ​​la sphère, en utilisant un échantillonnage grossière (par exemple moins de 500 points). Pour chaque direction de la lumière incidente dans l'échantillon: Capture d'une image brute pour chaque temps d'exposition dans le support d'exposition. Capture d'une image unique illuminé par la caméra monté flash synchronisé à un temps d'exposition relativement court pour réprimer la lampe d'éclairage portique. Avancez jusqu'à la prochaine direction de la lumière incidente et de répétition. Mesures du processus de la sphère échantillonnée de façon éparse Utilisation du mode de dcraw un debug (document) pour désactiver la fonction dématriçage, convertir le format RAW en niveaux de gris, 16 bits, linéaire, le format PGM: Chaque exposition au bruit sombre. Chaque exposition de l'objet à chaque direction de la lumière incidente. </ Ol> Intégrer tout bas de gamme dynamique (LDR) les expositions en niveaux de gris sous portique lampe d'éclairage dans une image couleur pour chaque direction de la lumière incidente seule gamme dynamique élevée (HDR). Soustraire l'image de bruit sombre correspondant à chaque LDR exposition. Demosaic chaque LDR exposition pour obtenir une image d'un quart échelle. Balance des blancs chaque exposition LDR utilisant des multiplicateurs de canal de couleur calculé en 1.C.3 étape. Fusion sombre-bruit soustrait LDR exposition en une seule image HDR en additionnant toutes les valeurs à chaque position de pixel et en divisant par la somme des durées d'exposition, en omettant pixels surexposés à partir des deux sommes. Magasin image HDR au format EXR codé en précision d'un demi-flotteur et sans perte ondelettes (ZIP) compression. Si la direction de la caméra n'est pas la direction canonique ou la prise de mesure fait partie d'un ensemble de direction de caméra multiples (routines secondaires dans la figure 1 une protocole n ° 2): Convertir l'exposition LDR gris seul des objectifs de suivi éclair lumineux pour chaque direction de la lumière incidente à une échelle sans mosaïque, un quart, LDR image couleur au format EXR. Suivre le protocole 3 pour utiliser l'image flash-éclairé à projective transformer chaque image lampe éclairée HDR dans la vue canonique. Faites pivoter les images HDR dans l'orientation souhaitée – par exemple dans notre cas 90 ° oriente de rotation du rachis verticalement et le bout de la plume vers le haut. Recadrer les images HDR étroitement autour de l'ouverture circulaire. Masquer les objectifs et la plaque métallique extérieur de l'ouverture réduit la taille des fichiers pouvant aller jusqu'à 25%. Permuter des données dans l'ensemble des images HDR pour créer un ensemble de fichiers, un pour chacun de plusieurs blocs dans l'image, qui contiennent toutes les valeurs de réflectance directionnelles organisées par pixel. Ces fichiers cache de réflectance directionnelles sont organisées pour permettre un accès rapide à unll les mesures de la couleur de direction à une seule position de pixel de la projection 2D de l'objet 3D. Visualisez variation spatiale diffusion de la lumière à travers une hiérarchie de l'échelle Pour voir les mesures, utiliser l'application SimpleBrowser coutume d'interpréter les données traitées dans 1.E. étape SimpleBrowser ouvre une fenêtre contenant l'image de la plume éclairée par la première direction d'éclairage incident. Sur l'image de l'aube de plumes, des pixels ou groupes de pixels dans des arrangements linéaires ou rectangulaires individuelles peuvent être sélectionnées (figure 3). Continuez en sélectionnant une zone rectangulaire de la palette de plume pour l'analyse. Ensuite, tracer la diffusion de la lumière directionnelle moyenne de la région sélectionnée. Une fenêtre de tracé représentant la réflectance en fonction de cosinus directeurs s'ouvre adjacente à la fenêtre d'image (R1 sur la figure 4). Par défaut, la direction de la luminance maximale (un des sens de transmission dans un témesure de plumes Pical) est affectée une exposition de 1. Diminuer ou augmenter l'exposition en une demi-stop (√ 2 x) incréments pour régler l'exposition de la carte de la couleur de réflexion. Cycle de la carte de la couleur de réflexion entre la luminance, RGB, et chromatiques (voir R1, R2 et R3 dans la figure 4). Pour les étapes suivantes utilisent le système RVB. Pour faire tourner la sphère, cliquez dessus pour activer l'interface trackball. Faites glisser l'interface pour provoquer la rotation. Pour consulter l'hémisphère de réflexion, retourner la sphère de sa position par défaut (Voir R2 dans la figure 4). Tournez la sphère de 180 ° à partir de sa position par défaut pour afficher l'hémisphère de transmission (voir T2 dans la figure 4). Pour une autre vue des données, sélectionnez le mode de tracé polaire à l'échelle des rayons de chaque direction sur la sphère unité par leurs valeurs de luminance respectifs. Changer la carte de la couleur de la sphère échelle de luminance de RVB en chromatiques (Voir P3, F3, S3, A3 à la Figure 4 </strong>). La direction d'éclairement de l'image affichée est encerclé en rouge dans le diagramme de dispersion directionnelle (figure 4). Cliquez sur n'importe quelle autre direction de l'éclairage de l'incident pour montrer l'image de la plume éclairée de cette direction. Diminuer ou augmenter l'exposition de l'image de révéler plus de sur et sous-régions. Pour étudier réflexion à travers une hiérarchie d'échelles, de rétablir le mode de la parcelle à la sphère de l'unité et de la carte de couleurs RVB. En résumé, cette parcelle affiche la réflectance directionnelle moyenne de la zone rectangulaire sélectionnée sur l'image. Modifier le type de sélection rectangulaire de manière linéaire (Figure 3). Cela permettra à l'étude de la réflectance directionnelle de structures individuelles à petite échelle dans la région rectangulaire. Tracer la réflectance de la moyenne linéaire dans une nouvelle fenêtre tout en maintenant le moyen de renvoi rectangulaire. Ajuster l'exposition et un ensemble carte de couleurs RVB. <li> Dans la parcelle de moyenne linéaire, les barbules distales enjambés par la région linéaire sont vus à réfléchir la lumière dans des directions horizontales (figure 8). Sélectionnez l'une des directions d'éclairage à l'intrigue linéaire à afficher les barbules distales hautement réfléchissants dans l'image à gauche. L'étape de la ligne vers la pointe de la plume jusqu'à ce qu'il atteigne la région de la plume où la branche de barbules proximale du rami adjacente. Dans la parcelle moyenne linéaire sont perçus les barbules proximales à réfléchir la lumière dans des directions verticales (Figure 8). Sélectionnez l'une des directions pour afficher les barbules proximales hautement réfléchissants dans l'image à gauche. Dans l'intrigue linéaire, observer les structures à petite échelle qui reflètent la lumière dans les directions horizontale et verticale se combinent pour produire le signal de champ lointain vu dans la parcelle rectangulaire. 2. Mesurer la lumière diffusée dans les directions de caméra multiples (Routine secondaires sur la figure 1) Vues de caméra multiples et échantillonnage directionnel non uniforme nous permettent d'étudier les caractéristiques particulières de la réflectance directionnelle. Avec l'ajout d'étalonnage étapes 2a et 2b, protocole n ° 1 a été étendue pour gérer de multiples vues de caméra. Deux exemples concrets illustrés graphiquement que les routines secondaire II.A et II.B de la figure 1 sont fixés avant dans les étapes 2c et 2d ci-dessous. Dans ce cas, la direction de la caméra est modifié de sa direction canonique (normale à la surface), ce qui signifie que l'objet est photographié à partir d'une direction inclinée par rapport à sa position normale de la surface. Puisque les images doivent être mappées dans le même système de coordonnées, nous rectifions et la chaîne chaque photo correspondant à l'orientation canonique en référençant les objectifs flash-photographiés entourant l'échantillon (figure 9). Calibrer Projection de la caméra et la position: Le but de ces mesures est de calculer le proj caméraection et la position utilisée dans la transformation de l'image. Fixez une cible de calibrage checker à motifs à plat contre la plaque de montage. Capturer une image à la vue de la caméra canonique (c. {θ, φ} = {0,0}) et plusieurs images en divers autres points de vue de la caméra répartis sur un cône de 120 ° centrée sur le point de vue canonique. Charger les images dans le Bouguet Toolbox b, d'un appareil photo boîte à outils de calibrage MATLAB. Extraire les coins de la grille dans chacune des images pour reconstruire les matrices de la caméra. Exporter la caméra matrice de projection intrinsèque (P) et la matrice de position de caméra extrinsèque (M). La projection de la caméra intrinsèque est composée de la distance focale et le point principal. La position de la caméra extrinsèque est composé principalement d'une traduction, il traduit l'origine du monde à la position de la caméra. Résolution pour la matrice qui transforme des coordonnées cibles de calibrage-portique tournante coordonnées (X), c'est à dire Bougueespace t à portique espace. Décliper le motif de vérification à partir de la plaque métallique. Calibrer positions cibles et les compensations de projection: Le but de ces mesures est de calculer les décalages entre le plan d'étalonnage, le plan de la cible, et l'échantillon, et de localiser les positions de la cible. Faire pivoter la caméra à portique coordonnées de telle sorte que l'axe optique est perpendiculaire au plan de la surface, c'est à dire le châssis canonique. Capturer une image de l'anneau de cibles qui entourent l'ouverture d'éclairage au flash. C'est l'image canonique pour l'alignement de l'image. Traiter la sortie de Camera Raw (protocole décrit dans les étapes 1.E.3.a. et 1.E.4.). Masquer la région à l'intérieur et à l'extérieur de la zone cible de l'anneau, ce qui élimine les reflets spéculaires errants qui peuvent confondre reconnaissance de la cible, puis de trouver les cibles dans l'image. Faites pivoter la caméra à un angle rasant et capturer une image. Calculer le canonique camera pose (Mc = M * Rc) et de l'appareil de pose angle rasant (Mg = M * Rg) sur la base de l'appareil extrinsèque matrice M dans 2.A.3 de pas. qui comprend une traduction sur la base de la position du motif de damier BOUGUET. Redéfinir M en décalant sa traduction par l'épaisseur de la feuille cible torique. Itérer par essais et erreurs (recalculant M à l'aide d'un décalage pour le plan d'étalonnage est différente) jusqu'à ce que le décalage dans l'espace portique entre le plan du damier de BOUGUET et le plan de l'anneau de cibles, c'est à dire l'épaisseur de la feuille cible torique, est résolu. Vérifiez le décalage à chaque itération par reprojection les cibles dans l'image d'angle rasant sur les cibles de l'image canonique. Redéfinir M suivant la procédure de l'étape précédente pour reproject l'objet d'ouvertures dans l'image rasante sur l'objet d'ouvertures dans l'image canonique par essai et erreur jusqu'à ce que le décalage dans l'espace portique entre le plan de l'anneau d'objectifs et le plan of l'objet perforé, c'est à dire l'épaisseur de la plaque de métal, a été résolu. Mesurer Sept Hémisphères de réflectance non-uniformément échantillonnés (II.A de routine secondaire dans la figure 1) Examiner la distribution directionnelle de la lumière réfléchie mesurée à partir de la vue de la caméra normale à la surface, soit {θ, φ} = {0,0} tel que décrit dans le protocole 1. Rééchantillonnez l'hémisphère de réflexion pour enregistrer l'éclat de la caméra dans des directions non spéculaires plus faible densité et les directions spéculaire plus densément peuplées. Appliquer les mêmes critères de goûter à la réflexion dans 6 directions de caméra supplémentaires uniformément réparties sur une demi-hémisphère, soit {θ, φ} = {30,0}, {30,90}, {60,0}, {60,45} , {60,90}, {60135}. Prédire les régions spéculaire des six passages supplémentaires de la direction de visée de chacune couplée à l'angle de réflexion de la course initiale. Pour chacun des 7 non uniformely hémisphères échantillonnés, acquérir et de traiter des mesures suivant les instructions des étapes 1.D. et 1.E. ci-dessus. Visuellement parcourir la réflectance directionnelle de la même région de la plume dans chacune des 7 hémisphères non uniformément échantillonnés, suivant les instructions de 1.F. étape ci-dessus. Disposez les parcelles de réflectance directionnelles pour chacun des 7 directions de caméra sur un système de coordonnées polaires, où le placement de chaque parcelle est basée sur le sens de sa caméra (Voir les résultats visuels de II.A de routine dans la figure 1; aussi figure 5). Mesurer finement échantillonnées chemins semi-circulaires pour obtenir des informations détaillées sur le changement de couleur avec angle (point II de routine secondaire dans la figure 1) Lancez l'application et l'entrée SimpleBrowser les mesures transformés de l'hémisphère de réflectance non uniforme échantillonné avec la direction de la caméra {θ, φ} = {0,0} tel que décrit dans 2.C.1 Step. Sélectionnez lee pixel dans l'image, puis monter un plan au 90ème percentile de la luminance de la réflectance hémisphérique à la position du pixel sélectionné. Construire une course d'acquisition 1D qui des échantillons finement de réflexion spéculaire dans le plan spéculaire. Générer des angles de bras de portique ½ ° incréments d'un demi-angle dans le plan défini à l'étape précédente. Commencer avec le demi-angle égal à 0 ° et à augmenter la demi-angle à 90 °. Pour chaque mesure dans la période d'acquisition, de maintenir constant le demi-vecteur, et égale à la normale à la surface de telle sorte que chaque direction de la caméra se trouve dans la direction spéculaire. Acquérir et traiter les mesures suivant les instructions des étapes 1.D. et 1.E. ci-dessus. Visuellement parcourir la réflectance directionnelle 1D suivant les instructions 1.F. d'étape, tout en dégustant une très petite région (par exemple 3×3 pixels) centré sur le même pixel utilisé pour ajuster le plan spéculaire dans 2.D.1 étape. Trouvez la direction du sommet de réflectance, à savoirombrage normale. Construire trois acquisition supplémentaire fonctionne de la même manière que 2.D.2 de pas., Mais fixé le demi-vecteur de la trame de fond normale au lieu de la surface normale. Pour les trois séries supplémentaires, générer des angles de bras de portique qui se trouvent dans des plans contenant l'ombrage normal, mais qui sont mises en rotation de 45 °, 90 ° et 135 ° par rapport au plan spéculaire défini dans 2.D.1 de pas. Acquérir et traiter les mesures suivant les instructions des étapes 1.D. et 1.E. ci-dessus. Visuellement parcourir la réflectance directionnelle 1D suivant les instructions 1.F. d'étape, tout en dégustant une très petite région (par exemple 3×3 pixels) centré sur le pixel utilisé pour ajuster le plan spéculaire dans 2.D.1 étape. Export de SimpleBrowser la moyenne reflète l'éclat de cette région très petite. Dans MATLAB, tracer sa chromatiques en fonction du demi-angle sur un diagramme chromatique (Figure 6). Tracer sa teinte, la saturation et la luminance en fonction du demi-angle (<strong> Figure 7). Construire quatre acquisition 1D fonctionne dans les quatre mêmes plans que ci-dessus, mais cette fois configurer les directions de lumière et d'une caméra pour mesurer la largeur et la décadence de la réflexion spéculaire. Réglez le demi-angle entre la lumière et la caméra à 10 ° constant. Générer des angles de bras portiques incréments de 1 ° demi-vecteur autour de l'axe perpendiculaire au plan. Commencez avec une demi-vecteur égale à -80 ° et prolonger la demi-vecteur à +80 °, 0 ° correspond à l'ombrage normal. Notez que toutes les directions non de l'appareil se trouvent dans la direction spéculaire. Acquérir, traiter et les mesures à l'exportation suivant les instructions des étapes 1.D. et 1.E. et 2.D.6. respectivement. Dans MATLAB, tracer sa chromaticité sur un diagramme de chromaticité, en fonction de l'angle entre le demi-vecteur de la normale et d'ombrage. Tracer sa teinte, la saturation et la luminance en fonction de l'angle entre les demi-vecteur, et l'ombrage normale. </li> 3. Transformation projective Transformer par projection de chaque image HDR dans la vue canonique ou la direction de la vue orthogonale au plan de la surface. Ce protocole est accessible par étape 1.E.3.b quand une course de mesure fait partie d'un ensemble direction de la caméra multiples, tels que les exemples décrits dans le protocole 2 et illustré graphiquement que les routines secondaires dans la figure 1. Lire une image canonique éclairée par une direction non-spéculaire. (Au directions spéculaire pâturage diminue le contraste entre la surface blanche du papier et de l'encre noire peut conduire à cibler échec de détection. Comparez la clarté de l'image A et B dans la figure 9). Localiser les coordonnées du centre de chaque cible dans l'image canonique. Charger l'image de cible éclairée par le flash caméra montée sur une paire lampe-caméra directionnelle donnée (B dans la figure 9). Environ transform l'image cible dans le repère de la caméra canonique en utilisant la matrice M de portique caméra calculée en 2.B.7 de l'étape. Localiser les coordonnées du centre de chaque cible dans l'image de cible transformée (C sur la figure 9). Correspondre chaque cible dans l'image de cible transformée à sa cible de référence dans l'image canonique en trouvant la distance minimale entre l'image et les cibles de référence. Jeter toutes les cibles floues causées par DOF à des angles de pâturage (D dans la figure 9). Résoudre le 2D projective transformer cette image cartes objectifs dans le cadre canonique à des objectifs canonique-image dans le même cadre. Untransform les déformées au montage des cibles à partir de la trame d'image canonique de nouveau à la trame d'image d'origine à travers le plan de l'objet perforé (M au 2.B.8 de l'étape.) Plutôt que le plan de la cible (M à l'étape 2. B.7.). Enregistrer les paires de coordonnées de cibles qui correspondent l'objet d'ouvertures dans l'image cible à l'ob ajouréprojet dans l'image cible canonique. Charger l'image HDR éclairé par la lampe (A sur la figure 9). Inférer un espace projectif de transformer cible sauvé les couples de coordonnées pour transformer l'image HDR dans le cadre canonique (E dans la figure 9). Retour au protocole principal. un DCRAW est un programme informatique open-source développé par David Coffin. Il convertit propriétaire RAW au format image d'une caméra (données brutes CCD) à un format d'image standard. Voir http://www.cybercom.net/ ~ dcoffin / dcraw / . b Bouguet Toolbox est une boîte à outils de calibration de la caméra pour MATLAB développé par Jean-Yves Bouguet. Voir http://www.vision.caltech.edu/bouguetj/calib_doc .

Representative Results

La principale mesure de notre protocole (Routine I dans la figure 1) fixé la direction de la caméra normale à la surface et seulement déplacé la lumière. Depuis la diffusion de lumière adhère au principe de la réciprocité, le résultat est le même si nous détenons constante de l'appareil photo tout en déplaçant la lumière sur l'hémisphère ou vice versa. Lorsque nous fixons soit l'appareil photo ou la lumière, la direction set à 4 dimensions complète est sous-échantillonné. Une image plus complète du comportement de diffusion est observée lorsque, contrairement à la mesure primaire, la lumière et la caméra sont éloignés de la normale à la surface et dans une multitude de directions. Idéalement, nous pourrions mesurer diffusion de la lumière à partir de plusieurs directions de la caméra, en aussi grand nombre que le nombre de directions de lumière incidente, pour produire un ensemble de données symétrique. Dans la pratique, cela nécessiterait beaucoup trop de risques. Dans notre expérience, nous pouvons obtenir des informations suffisantes sur les différentes positions de visualisation en déplaçant la caméra quelques fois assuming 180 ° symétrie de rotation autour de la normale à la surface. Au cours de la phase de mesure secondaire, nous avons acquis des mesures à partir de 7 directions d'observation répartis sur le continent et à moins de 60 ° du zénith 18,19 (point II de routine dans la figure 1). Dans les figures de ce papier, nous montrons données représentatives mesurées à partir d'une plume de Lamprotornis purpureus (Glossy Starling violet), la réflectance qui est irisé, brillant, et anisotrope (figure 5). Dans chacun des 7 directions d'observation, la lumière réfléchie est recueillie à partir des centaines d'incident directions d'éclairage sur le continent. Les directions forment une bande étroite orientée perpendiculairement à l'axe central de la plume (voir l'image de la plume dans la figure 4). Le changement de couleur de l'iridescence est subtile (bleu-vert à l'incidence normale et bleu-vert en incidence rasante) lorsque la plume est considérée normale à sa surface comme on le voit dans le {0 °, 0 et deg;} RVB tracé de la figure 5. Comme l'angle de vue des approches pâturage, les angles entre la direction d'observation et les directions d'incidence rasante sont maximisées, ce qui conduit à un changement de couleur plus éclatante (bleu-vert à 0 ° et magenta à 240 ° entre l'incident et les directions d'observation) comme on le voit dans le {60 °, 0 °} RVB tracé de la figure 5. Nous pouvons nous permettre de renforcer la lumière et une caméra à très haute résolution angulaire plus fine lorsque nous limitons les mouvements à 1 dimension. Figure 6 montre la chromaticité de la réflexion de L. plumage purpureus en fonction de l'angle entre l'événement et de directions d'observation, dans lequel l'incident et de directions d'observation sont dans le plan contenant la bande spéculaire, qui est perpendiculaire à l'axe longitudinal de la barbule distale. Comme les arcs de couleurs irisées à travers l'espace colorimétrique, la teinte passe du bleu-vert au violet. Variabilité spatiale ation de la réflectance directionnelle est visible où différents (X, Y) les coordonnées du tégument correspondre à différentes structures milli-échelle. Dans le cas de L. purpureus une seule structure – la barbule distale – est visible sur la plupart de la région. En revanche, dans C. cupreus, trois structures milli-échelle – les barbules distales, Rami et les barbules proximales – sont clairement distinguées dans les données, nous pouvons observer que la réflectance de la plume est orienté par rapport à l'axe longitudinal de chaque structure (Figure 8) . Figure 1. Cet aperçu schématique illustre deux méthodes de montage, le système de coordonnées portique sphérique, les types d'échantillonnage d'acquisition et leurs résultats respectifs. / Ftp_upload/50254/50254fig1large.jpg "target =" _blank "> Cliquez ici pour agrandir la figure. Figure 2. La plume aplatie est visible à travers une ouverture dans une plaque métallique entouré par un anneau de cibles. Un portique sphérique peut être posée pour mesurer la diffusion de la lumière à partir d'une plume à éclairage incident multiple et les directions d'observation. L = Lumière bras (latitude). C = bras de la caméra (latitude). B = appareil de base (longitude). T = Platine (longitude). F = Feather. Figure 3. Diffusion moyenne directionnel peut être calculé à partir d'une région point, ligne ou rectangulaire de palettes de plumes. p_upload/50254/50254fig4highres.jpg "src =" / files/ftp_upload/50254/50254fig4.jpg "/> Figure 4. Exemple de diffusion directionnelle fonctions de traçage (R * = réflectance, T * = transmittance, P * = Top, F * = avant, S * = Side, A * = arbitraire) et la couleur régimes (* 1 = Luminance, * 2 = RGB , * 3 = chromatique). Cliquez ici pour agrandir la figure . Figure 5. La luminance (en haut) et de couleurs RVB (en bas) de la réflectance hémisphérique dans le sens de l'espace cosinus vu de l'(angle d'élévation, l'angle d'azimut) paires de coordonnées: {0 °, 0 °}, {30 °, 0 °}, { 30 °, 90 °}, {60 °, 0 °}, {60 °, 45 °}, {60 °, 90 °} et {60 °, 135 °}. La réflectance est moyenne d'un × 25 pixels zone rectangulaire de l'aube latérale d'un L. tertial 25 purpureus (Glossy Starling Violet) plume. Les flèches rouges représentent les directions de la caméra. Cliquez ici pour agrandir la figure . Figure 6. Chromatiques de la réflectance en fonction de la demi-angle entre la lumière incidente et les directions d'observation:. CIE 1976 Scales chromatiques uniformes (USC) avec la région agrandie Cliquez ici pour agrandir la figure . / 50254/50254fig7highres.jpg "src =" / files/ftp_upload/50254/50254fig7.jpg "/> Figure 7. Réflectance en fonction de l'angle entre la lumière incidente et les directions d'observation, dans le plan avec (rouge) et perpendiculaire à (ombragée) de l'axe longitudinal de la barbule distale: (A) Longueur d'onde dominante, (B) Pourcentage de chrominance (C ) Pourcentage de luminance. L'ombrage de couleur dans la parcelle A est la couleur RVB de la réflectance. Les valeurs de longueur d'onde négatifs représentent couleurs dans le triangle violet non-spectrale. Cliquez ici pour agrandir la figure . Figure 8. Réflectance directionnelle moyenne des barbules distales et proximales barbules entre deux rames à proximité de la C. cupreus (AfRica Emerald Cuckoo). Figure 9. (A) Image non rectifié illuminé par la lampe portique, (B) l'image non rectifié illuminé par le flash sur l'appareil photo, (C) candidats cibles filtré sur affine transformée, image flash-éclairé, (D) les objectifs netteté acceptable au sein de la profondeur de champ, (E) image rectifiée lampe éclairée, (F) Tourné plume pointe vers le haut, cultivée et masqué. Cliquez ici pour agrandir la figure .

Discussion

Bien que la performance et la fonction de nombreuses colorations pigmentaires et structurelles sont bien reconnus, la morphologie de nombreux téguments est si complexe que leur détail et la fonction structurelle sont mal comprises 20. Téguments ont développé des spécialisations qui varient spatialement sur toute la surface de l'organisme afin de refléter la lumière de manière différentielle directionnelle vers le spectateur. Directionnalité a reçu une attention principalement à l'étude des irisations en raison de son changement de couleur avec le changement de l'incident et l'angle de vision, et la recherche sur l'iridescence des téguments biologique a attiré principalement 1D et 2D quelques mesures 8,12,17. Mais les mesures 6D généralisées n'ont pas été systématique dans l'étude des téguments 21-23, irisées ou non, et la littérature sur les phénotypes de couleur organismales est limitée par le manque de données de couleur directionnelles de type notre méthode offre.

La plume est un particulier rmatériel integumentary ich comportant des dispositions de la structure milli-échelle de la barbe: Rami barbules distales et proximales barbules. La petite taille des éléments et leurs arrangements complexes, il est difficile de discerner les performances de diffusion de la lumière des éléments individuels. Notre protocole a réussi à isoler la structure milli-échelle de l'influence de la géométrie macro-échelle. En caractérisant les conséquences fonctionnelles de l'expression directionnelle des structures milli-échelle à la signature en champ lointain de la plume, nous avons permis enquête sur les conséquences d'adaptation.

Nous avons été confrontés compromis pratique entre la résolution spectrale, spatiale et angulaire. Nous avons choisi spatiale élevée, moyenne et faible angulaire spectrale pour nos études. D'autres combinaisons peuvent être utilisés, mais certains (par exemple, tous les haut) conduisent à des temps de mesure unworkably longues. Une attention particulière doit être centré là où il est important pour les phénomènes particuliers à l'étude. En choisissant d'employer un RGB camera avec un filtre mosaïque Bayer, nous avons conçu notre protocole pour correspondre au système visuel humain. La caméra RGB pourrait être remplacé et notre protocole adapté pour mesurer le stimulus de couleur relative de n'importe quel organisme, par exemple la sensibilité dans le spectre UV est nécessaire pour mesurer aviaire couleur tétra-chromatique 24,25. Une caméra d'imagerie spectrale de fournir la solution la plus générale 25.

Nous avons démontré notre protocole avec les plumes des ailes TERTIAL car ils sont colorés et facilement aplati contre une plaque de référence. Malheureusement, l'ouverture de la plaque de métal a montré qu'une fraction de la surface de la plume. Si nous pouvions mesurer simultanément la forme 3D de la surface de plume tout en mesurant sa réflectance 25, nous pourrions éviter mécaniquement aplatissement de la plume et au lieu de mesurer toute la plume dans son état ​​naturel non aplati.

, Outils spécialisés, intégrés interactifs pour visualiser les données fournissent corroborésal bénéficier aux scientifiques d'explorer et d'interpréter de grands volumes de données. Plus l'intégration et de l'interactivité, les connexions plus faciles dans les données soient respectées. Dans notre logiciel, un utilisateur peut tracer interactive diffusion directionnelle moyenne en fonction de la position de la surface (figure 4). La poursuite du développement de notre logiciel pourrait intégrer d'autres fonctions graphiques (figures 6, 7) d'étendre l'expérience interactive.

Disclosures

The authors have nothing to disclose.

Acknowledgements

Cette recherche a été financée par la National Science Foundation (NSF Career Award CCF-0347303 et NSF subvention CCF-0541105). Les auteurs tiennent à remercier Jaroslav Křivánek, Jon Lune, Edgar Velázquez-Armendáriz, Wenzel Jakob, James Harvey, Susan Suarez, Ellis Loew, et John Hermanson pour leurs contributions intellectuelles. Le Cornell sphérique portique a été construit à partir d'une conception en raison de Duane Fulk, Marc Levoy, et Szymon Rusinkiewicz.

References

  1. Nicodemus, F., Richmond, J., Hsia, J., Ginsberg, I., Limperis, T. . Geometric considerations and nomenclature for reflectance. , (1977).
  2. Marschner, S. R., Jensen, H. W., Cammarano, M., Worley, S., Hanrahan, P. Light scattering from human hair fibers. ACM Transactions on Graphics (TOG). 22 (3), 780-791 (2003).
  3. Marschner, S. R., Westin, S., Arbree, A., Moon, J. Measuring and modeling the appearance of finished wood. ACM Transactions on Graphics (TOG). 24 (3), 727-734 (2005).
  4. Land, M. F. The physics and biology of animal reflectors. Progress in Biophysics and Molecular Biology. 24, 75-106 (1972).
  5. Durrer, H. Colouration. Biology of the Integument: Vertebrates. 2 (12), 239-247 (1986).
  6. Brink, D., van der Berg, N. Structural colours from the feathers of the bird Bostrychia hagedash. Journal of Physics D-Applied Physics. 37 (5), 813-818 (2004).
  7. Kinoshita, S. . Structural colors in the realm of nature. , (2008).
  8. Nakamura, E., Yoshioka, S. Structural Color of Rock Dove’s Neck Feather. Journal of the Physical Society of Japan. 77 (12), 124801 (2008).
  9. Westin, S., Arvo, J., Torrance, K. E. Predicting reflectance functions from complex surfaces. ACM SIGGRAPH Computer Graphics. 26 (2), 255-264 (1992).
  10. Shawkey, M. D., Maia, R., D’Alba, L. Proximate bases of silver color in anhinga (Anhinga anhinga) feathers. Journal of Morphology. 272 (11), 1399-1407 (2011).
  11. Maia, R., D’Alba, L., Shawkey, M. D. What makes a feather shine? A nanostructural basis for glossy black colours in feathers. Proceedings of the Royal Society B: Biological Sciences. 278 (1714), 1973-1980 (2011).
  12. Dyck, J. Structure and light reflection of green feathers of fruit doves (Ptilinopus spp.) and an Imperial Pigeon (Ducula concinna). Biologiske Skrifter (Denmark). 30, 2-43 (1987).
  13. Yoshioka, S., Kinoshita, S. Effect of macroscopic structure in iridescent color of the peacock feathers. Forma. 17 (2), 169-181 (2002).
  14. Osorio, D., Ham, A. Spectral reflectance and directional properties of structural coloration in bird plumage. Journal of Experimental Biology. 205 (14), 2017-2027 (2002).
  15. Stavenga, D. G., Leertouwer, H. L., Pirih, P., Wehling, M. F. Imaging scatterometry of butterfly wing scales. Optics Express. 1 (1), 193-202 (2009).
  16. Vukusic, P., Stavenga, D. G. Physical methods for investigating structural colours in biological systems. Journal of Royal Society Interface. 6, S133-S148 (2009).
  17. Stavenga, D. G., Leertouwer, H., Marshall, N. J., Osorio, D. Dramatic colour changes in a bird of paradise caused by uniquely structured breast feather barbules. Proceedings of the Royal Society B: Biological Sciences. 278 (1715), 2098-2104 (2010).
  18. Irawan, P. . Appearance of woven cloth [dissertation]. , (2008).
  19. Irawan, P., Marschner, S. R. Specular reflection from woven cloth. ACM Transactions on Graphics (TOG. 31 (1), 11:1-11:20 (2012).
  20. Vukusic, P. Structural colour: elusive iridescence strategies brought to light. Current Biology: CB. 21 (5), R187-R189 (2011).
  21. Dana, K., Ginneken, B., Nayar, S., Koenderink, J. Reflectance and texture of real-world surfaces. ACM Transactions on Graphics (TOG). 18 (1), 1-34 (1999).
  22. Chen, Y., Xu, Y., Guo, B., Shum, H. -. Y. Modeling and rendering of realistic feathers. ACM Transactions on Graphics (TOG). 21 (3), 630-636 (2002).
  23. Levoy, M., Zhang, Z., McDowall, I. Recording and controlling the 4D light field in a microscope using microlens arrays. Journal of microscopy. 235 (2), 144-162 (2009).
  24. Stevens, M., Párraga, C. A., Cuthill, I. C., Partridge, J. C., Troscianko, T. S. Using digital photography to study animal coloration. Biological Journal of the Linnean Society. 90 (2), 211-237 (2007).
  25. Kim, M. H., Harvey, T. A., et al. 3D imaging spectroscopy for measuring hyperspectral patterns on solid objects. ACM Transactions on Graphics (TOG). 31 (4), (2012).

Play Video

Cite This Article
Harvey, T. A., Bostwick, K. S., Marschner, S. Measuring Spatially- and Directionally-varying Light Scattering from Biological Material. J. Vis. Exp. (75), e50254, doi:10.3791/50254 (2013).

View Video