De bottleneck voor mobiele 3D-elektronenmicroscopie is feature extractie (segmentatie) in zeer complexe 3D-density maps. We hebben een set van criteria, waarin aanbevelingen worden gedaan met betrekking tot welke segmentatie aanpak (handmatig, semi-automatisch of automatisch) is het meest geschikt voor verschillende soorten data ontwikkeld, en zo een uitgangspunt voor effectieve segmentatie.
Modern 3D elektronenmicroscopie werden er onlangs toegelaten ongekend inzicht in de 3D ultrastructurele complex van cellen en weefsels, waardoor de visualisatie van grote macromoleculaire machines, zoals hechting complexen, alsmede hogere orde structuren, zoals het cytoskelet en cellulaire organellen in hun respectieve cellen en weefsels context. Gezien de inherente complexiteit van cellulaire volumes, is het noodzakelijk om eerst de belangrijke kenmerken extract teneinde visualisatie, kwantificering en daarom begrip van hun 3D organisatie mogelijk. Elke gegevensverzameling wordt bepaald door verschillende kenmerken, bijvoorbeeld signaal-ruisverhouding, krokantheid (scherpte) van de gegevens, heterogeniteit van zijn eigenschappen, drukte kenmerken, aanwezigheid of afwezigheid van karakteristieke vormen die zorgen voor een gemakkelijke identificatie en het percentage van het totale volume dat een specifiek gebied van belang inneemt. Al deze eigenschappen moeten worden overwogenbij de beslissing over welke aanpak over te nemen voor segmentatie.
De zes verschillende 3D ultrastructureel datasets gepresenteerd werden verkregen door drie verschillende beeldvormingstechnieken: hars ingebed in lood electron tomography, gericht ion balk- en serieblok face scanning elektronenmicroscopie (FIB-SEM, SBF-SEM) van licht gekleurd en bevlekt monsters respectievelijk. Voor deze datasets, zijn vier verschillende segmentatie benaderingen zijn toegepast: (1) volledig handmatige modelbouw gevolgd alleen door visualisatie van het model, (2) handmatig opsporen segmentatie van de gegevens gevolgd door oppervlak rendering, (3) semi-geautomatiseerde wijze: door oppervlakte-rendering of (4) geautomatiseerd op maat gemaakt segmentatie algoritmen gevolgd door oppervlakte-rendering en kwantitatieve analyse. Afhankelijk van de combinatie van data set eigenschappen, bleek dat doorgaans een van deze vier categorische methoden beter presteert dan de anderen, maar afhankelijk van de exacte sequentie van criteria more dan een aanpak kan succesvol zijn. Op basis van deze gegevens stellen we een triage systeem dat zowel objectieve gegevens set kenmerken en subjectieve persoonlijke criteria categoriseert voor de analyse van de verschillende datasets.
Traditioneel, de elektronenmicroscopie (EM) veld is verdeeld in 1) de structurele biologie tak met hoge en super hoge resolutie TEM, gewoonlijk gecombineerd met impliciete of expliciete gegevens gemiddeld om de driedimensionale (3D) structuur van macromoleculaire complexen onderzoeken in een gedefinieerde samenstelling en gewoonlijk een relatief kleine omvang 1-4, en 2) de cellulaire imaging branche waarin gehele cellen decors gevisualiseerd 1,5,6. Terwijl de structurele biologie tak een spectaculaire ontwikkeling heeft doorgemaakt in de afgelopen vier decennia, is de celbiologie tak meestal beperkt tot twee dimensies, vaak op minder-dan-optimaal bewaard monsters. Alleen met de komst van elektronentomografie in het laatste decennium heeft celbiologische ultrastructurele imaging uitgebreid naar de derde dimensie 5,7, waar typische gemiddelde kan niet worden uitgevoerd als de cellulaire landschappen en daarmee de eigenschappen van belang, typisch uniek.
Hoewel gevisualiseerd cellulaire schermen vaak verbluffend om het oog, efficiënte afzuiging faciliteiten plaats en daaropvolgende kwantitatieve analyse van dergelijke zeer complexe cellulaire volumes achterblijven, mede doordat de precieze samenstelling eiwit is gewoonlijk bekend, waardoor het dus moeilijk om deze cellulaire interpreteren 3D-volumes. Tot op heden is extensieve biologische kennis vaak nodig om complexe tomogrammen interpreteren, of zelfs de belangrijke regio essentiële componenten in de 3D-volume identificeren. Een verdere complicatie visualisatie van 3D-volumes opvallend niet triviaal. 3D-volumes kunnen worden beschouwd en dus weer als stapels van 2D-beelden. Plak per segment inspectie opeenvolgende 2D beelden vermindert de complexiteit, maar beperkt ook voorzien extractie en dus kwantitatieve analyse om de twee dimensies. Voor de meeste 3D-objecten, het afbeelden van 3D-volumes als uitsluitend een stapel opeenvolgende vlakken leidt tot een onvolledige eend scheef perspectief in van een bepaald systeem 3D natuur. Alternatieve wijzen van visueel onderzoek vereisen in volume rendering of oppervlak rendering, die gegeven de vaak dichte aard van een cellulair volume kan gemakkelijk leiden tot een belemmerd uitzicht geneste objecten of overweldigen gebruiker geheel, waardoor interactieve handmatige segmentatie moeilijk.
Om deze belemmeringen, een grote verscheidenheid van geautomatiseerde feature extractie verhelpen zijn (segmentatie) benaderingen ontwikkeld die typisch ofwel density- of gradiënt gebaseerde 8-10. Echter, deze methoden vaak segment het gehele volume ongeacht welke gebieden of karakteristieken van belang voor de deskundige hoewel sommige recente methoden even specifiek belang kan richten zoals actine filamenten 11. Bovendien kan het programma uitvoert automatische segmentatie soms resulteren in de productie van een groot aantal sub-volumes (bijvoorbeeld bij de toepassing keerpunt Immersion segmentatie) die vaak de behoefte om terug te handmatig worden samengevoegd in die de hele functie van de rente of worden onderworpen aan verdere segmentatie. Dit geldt met name voor complexe en drukke datasets, dus het meest rendering algoritmes zijn niet in staat om alleen de kenmerken van belang met trouw, en substantiële curatie-inspanningen door een deskundige zijn vaak nodig om een gewenste gesegmenteerd volume produceren.
Bovendien zijn oplossingen voor een zeer specifiek probleem vaak gepubliceerd als een wetenschappelijke bijeenkomst papier, met weinig tot geen nadruk op waardoor ze een brede en uitgebreide tools toegankelijk voor onderzoekers die geen grondige kennis van het gebied van wiskunde, informatica en / of hebben computer graphics. Een aanpasbare programmeersoftware omgeving, met een bereik van beeldanalyse bibliotheken, kan een krachtige tool set zodat gebruikers efficiënt schrijven hun eigen modules voor nauwkeurige segmentatie zijn. Echter, deze aanpak vereist extensive opleiding en een achtergrond in de informatica, om te profiteren van de vele functies of mogelijkheden voor beeldanalyse. Men kan werken binnen zo'n veelzijdige software-omgeving voor bepaalde datasets waar de functies zijn nog schaars, bijvoorbeeld door gebruik te maken van krachtige vormen gebaseerde benaderingen die gebaseerd zijn op de unieke geometrie van "templates" om objecten van belang te scheiden van hun omgeving 12,13 .
Een eerlijke verscheidenheid van computer graphics visualisatie pakketten bestaan voor interactieve handmatige segmentatie en modelbouw. Sommige pakketten zijn commercieel verkrijgbaar, terwijl anderen zijn van de academische oorsprong en gratis verspreid, zoals: University of California San Francisco Chimera 14, Universiteit van Colorado IMOD 15, en de Universiteit van Texas in Austin VolumeRover 16. Echter, de grote verscheidenheid en de complexiteit van de functies en mogelijkheden van deze programma's bezitten steiler de leercurve voor each. Bepaalde visualisatie programma's eenvoudige geometrische modellen, zoals ballen en sticks van verschillende afmetingen, die in de dichtheid kaarten kunnen worden geplaatst teneinde een vereenvoudigd model van de complexe 3D volume. Deze modellen laat vervolgens eenvoudige geometrische en volumetrische metingen en daarom verder gaan dan alleen het "mooi plaatje". Dergelijke handmatige traceren van objecten werkt goed voor volumes waarbij slechts een klein aantal objecten moeten worden opgespoord en geëxtraheerd. De recente ontwikkeling van grote hoeveelheden ultrastructurele 3D beeldvorming met behulp van gefocusseerde ionenbundel scanning elektronenmicroscopie (FIB-SEM) 17-20 of serieblok gezicht scanning elektronenmicroscopie (SBF-SEM) 21 weer de extra complicatie dat de omvang van 3D data sets kan variëren van gigabytes tot tientallen en honderden gigabytes, en zelfs terabytes. Daarom is een dergelijke grote 3D volumes zijn vrijwel ontoegankelijk voor handmatige feature extractie, en dus efficiënte gebruiker begeleide semi-automatische prestatieure winning zal een van de knelpunten voor een efficiënte analyse van 3D-volumes in de nabije toekomst.
Hier gepresenteerd zijn vier verschillende segmentatie benaderingen die routinematig worden gebruikt op een groot scala van biologische soorten afbeeldingen. Deze methoden worden vervolgens vergeleken op hun effectiviteit voor verschillende soorten gegevens, waardoor een samengevoegd in een leidraad om biologen bepalen, wat de beste segmentatiebenadering doeltreffende kenmerkextractie eigen gegevens. Zoals gedetailleerd gebruikershandleidingen zijn beschikbaar voor de meeste van de beschreven programma's, is het de bedoeling de potentiële gebruikers die vertrouwd zijn met een van deze bijzondere pakketten niet te maken. In plaats daarvan, het doel is om de respectieve sterke punten en beperkingen van deze verschillende segmentatie strategieën tonen aan te brengen op zes voorbeeld data sets met verschillende kenmerken. Door deze vergelijking zijn een aantal criteria ontwikkeld die hetzij zijn gebaseerd op de doelstelling van de beeldkenmerken3D data sets, zoals data contrast, scherpte, drukte, en de complexiteit, of stam van subjectieve overwegingen, zoals het gewenste doel voor segmentatie, morfologie van de functies moeten worden onderverdeeld, de bevolkingsdichtheid van de kenmerken van belang, wat betekent dat de fractie van het volume ingenomen door de functie van belang zijn, en hoe gaat men optimaal met eindige hulpbronnen, zoals de tijd en de beschikbaarheid van personeel. Deze verschillende bijvoorbeeld gegevens illustreren hoe deze objectieve en subjectieve criteria kunnen achtereenvolgens worden toegepast in verschillende combinaties om een koppeling van bepaalde feature extractie benaderingen bepaalde datasets leveren. De gegeven zal hopelijk beginners aanbevelingen geconfronteerd met een grote verscheidenheid aan segmenteringsopties kiezen voor de meest effectieve segmentatie aanpak voor eigen 3D volume.
Hoewel de focus van dit artikel is van kenmerken, aandacht voor het verzamelen van gegevens en de pre-processing data is cruciaal voor een efficiënte segmentation. Vaak kleuring van monsters kunnen ongelijkmatig zijn, en dus, moeten potentiële vlekken artefacten worden beschouwd in de segmentatie procedure. Echter, vlek geeft meestal hoger signaal-ruis en daardoor minder filtering en andere mathematische behandeling van cellulaire volumes, die mogelijk ook kan leiden tot artefacten. De respectievelijke ruwe beeldgegevens sets moeten worden verworven op het juiste contrast en camera-instellingen voor de resolutie, uitgelijnd, en omgebouwd tot een 3D-volume. Voor tomogrammen, uitgelijnd beelden typisch gereconstrueerd met gewogen terugprojectie, en vervolgens de dataset wordt doorgaans onderworpen aan ruisonderdrukkingtechnieken zoals niet-lineaire anisotrope diffusie 22, bilaterale filtering 23 of recursieve mediaanfilter 24. FIB-SEM en SBF-SEM beeldgegevens worden uitgelijnd door de cross-correlatie van opeenvolgende plakjes in XY gebruik te maken van programma's zoals ImageJ 25. Contrast enhancement en filtering kan worden toegepast op de kenmerken van de te verhogenbelang zijn en dus ruis Dè het beeld stack. Filtering kan worden uitgevoerd op het gehele volume voorafgaand aan selectie of de geselecteerde subvolumes subvolume, filteren benaderingen computationeel duur. Down-bemonstering van de gegevens (binning), die soms wordt gebruikt voor ruisonderdrukking en / of bestandsgrootte verminderen, wordt alleen aangeraden als de gegevens is aanzienlijk overbemonsterde vergeleken met de verwachte resolutie.
Na noise-reductie, kan de verwerkte beelden vervolgens worden gesegmenteerd op basis van verschillende methoden, en de nadruk in dit onderzoek ligt op de volgende vier: (1) manual geabstraheerde generatie van het model door middel van het creëren van een bal-en-stok model, (2) handleiding tracing van de kenmerken van belang, (3) geautomatiseerde-drempel gebaseerd dichtheid, en (4) op maat gemaakte geautomatiseerde segmentatie via een script voor het project specifieke segmentatie. Boundary segmentatie 8 en meeslepende waterscheiding segmentatie 10 betere alternatieven zijn om eenvoudige drempelwaarden, maar they hoort in dezelfde categorie en zijn niet expliciet opgenomen in deze discussie.
Handmatige traceren dichtheden vereist waarin de belangrijke kenmerken, slice per segment, die het behoud van de oorspronkelijke dichtheid van de respectieve sub-cellulaire gebieden toelaat. Deze aanpak maakt maximale controle van het segmentatieproces, maar is een vervelend en arbeidsintensief proces.
Geautomatiseerde-drempel gebaseerd (en aanverwante) dichtheid segmentatie benaderingen zijn semi-automatisch, waarbij een algoritme kiest pixels op basis van een set van door de gebruiker gedefinieerde parameters. Verschillende academische (gratis) visualisatie-pakketten, zoals UCSF Chimera, IMOD, Fiji 26 en VolumeRover beschikbaar zijn, alsmede de commerciële (die betaalde licenties) pakketten, en beide types omvatten doorgaans een of meer van deze segmentatie benaderingen. De software die in dit werk om deze verschillende methoden te illustreren zowel commerciële programma's en academische geopend source programma's voor het handmatig genereren van een abstract model, evenals handmatige en geautomatiseerde dichtheid segmentatie. Echter, open source software bieden soms meer geavanceerde opties door de mogelijkheid van maatwerk.
Een vergelijking van deze technieken met behulp van verschillende soorten datasets heeft geleid tot de volgende presentatie van de regels en aanwijzingen over hoe de segmentatie van diverse biologische data 3D-volumes, die voor zover wij weten nog niet is gepubliceerd benaderen. Dit is dus de eerste systematische vergelijking van de verschillende benaderingen en de bruikbaarheid van gegevens met variabele kenmerken voor gebruikers met verschillende doelen.
Effectieve strategieën voor de extractie van relevante kenmerken van 3D EM volumes zijn dringend nodig om gelijke tred te houden met de gegevens tsunami die onlangs heeft getroffen biologische beeldvorming. Terwijl de gegevens kunnen worden gegenereerd in uren of dagen, duurt het vele maanden om de 3D-volumes in de diepte te analyseren. Daarom is het duidelijk dat het beeld analyse is de bottleneck voor wetenschappelijke ontdekkingen; zonder adequate oplossingen voor deze problemen, imaging wetenschappers het slachtoffer van hun eigen succes. Dit is gedeeltelijk te wijten aan de grote complexiteit van de data en ook de macromoleculaire crowding typisch in biologische cellen waar eiwitten en eiwitcomplexen rand elkaar en in hoofdzaak worden weergegeven als een continue gradiënt van grijstinten dichtheden. Het probleem wordt bemoeilijkt door monstervoorbereiding en imaging onvolkomenheden, en in sommige gevallen het reconstructie artefacten, wat leidt tot minder dan perfect volumetrische gegevens die uitdagingen voor de volledig geautomatiseerde aanpak kan opleverenes. Belangrijkste is echter het feit dat de deskundigen in monstervoorbereiding, beeldvorming, en de biologische interpretatie worden zelden goed thuis in computational science, en dus begeleiding nodig over hoe je effectief te benaderen feature extractie en analyse. Daarom, door het gebruik van verschillende voorbeelden, het protocol uitgelegd hoe de gegevens voor segmentatie, en de stappen voor handmatige geabstraheerd model generatie geautomatiseerde dichtheid gebaseerde segmentatie versnellingsbak traceren van kenmerken plaats, en speciaal automatische segmentatie bereiden. De handmatige en automatische methoden beschreven in de procedure kan worden gevonden in een grote verscheidenheid van segmentatiesoftware, waarvan sommige hier genoemd, maar andere gelijkaardige functies en zijn even goed geschikt.
De resultaten tonen aan dat de effectiviteit van elk van de 3D segmentatie benaderingen varieert voor elke soort data sets. Hoewel de verschillende benaderingen kwalitatief geproduceerd similar 3D renderings als het eindproduct, de hoeveelheid tijd en moeite besteed aan elke tijdens het segmentatieproces aanzienlijk gevarieerd. De aanbevelingen voor passende beeldkenmerken en persoonlijke doelen per segmentatiebenadering zijn in figuur 5, die verder toegelicht in de volgende vier secties. Deze criteria werden toegepast op de zes datasets, zoals aangegeven in het besluit stroomschema van figuur 6. Hoewel de figuren 5 pt 6 zijn slechts bedoeld om een set rationale voor elke gegevens en hoe elk van de criteria zijn gewogen in de besluitvorming, bieden ze niet een waterdicht begeleiding, maar een uitgangspunt. Er zijn simpelweg te veel criteria die de besluitvorming beïnvloeden: aantal objectieve criteria, zoals data set kenmerken, terwijl andere meer subjectieve criteria, zoals het gewenste doel. Het is veilig om te zeggen dat de datasets die een hoge lev tonenel contrast met scherpe scherpe grenzen, hebben eigenschappen die goed gescheiden en relatief homogene (niet te divers), en worden verwerkt met als doel het weergeven van een model densiteit voor een groot aantal voorwerpen, zullen geautomatiseerde benadering superieur, indien niet het feit dat handmatige methoden simpelweg middelen (tijd) -prohibitive is. Aan de andere kant, als contrast laag is, de data is wazig en derhalve vereist kennis van deskundigen, de objecten druk en de eigenschappen vertonen een grote diversiteit en dus heterogeen, kan men geen andere keuze dan handmatige feature extractie / segmentatie.
Handmatig Abstracted Model Generation
Manual samengevatte model tracering bijzonder effectief segmenteren lineaire elementen, waardoor zaden punten (kogels) die automatisch kunnen worden aangesloten (sticks). Zulke ballen en stokken-modellen kunnen zeer krachtig zijn om de lengte van een te metennd oriëntatie van een dergelijk model en zorgen voor een adequaat geabstraheerd model voor zowel kwalitatieve inspectie en kwantitatieve analyse. Handmatig geabstraheerde model generatie wordt vaak gebruikt wanneer het minimaliseren middelen besteed aan de analyse is belangrijker dan absolute trouw aan de vormen van de oorspronkelijke gegevens. Het is het meest succesvol met lineaire en homogene kenmerken van belang (bijvoorbeeld, filamenten, buizen). Daarentegen gegevens, knapperigheid en drukte geen belangrijke rol spelen bij het bepalen succes van deze werkwijze, zolang het menselijk oog het voorwerp plaats herkent. Soms zijn dergelijke modellen kunnen ook worden gebruikt als een skelet segment de 3D-kaart in een zone rondom het skelet. Hoewel het model is abstract in plaats van een exacte weerspiegeling van dichtheden, het vertegenwoordigt een skelet versie van de 3D-dichtheid en dus zorgt voor een overzichtelijk visualisatie en kwalitatieve analyse. Kwantitatieve metingen zoals lengte kan worden bepaald uit de geschatte model. Voor eenvoorbeeld van software met handleiding geabstraheerde generatie van het model, kunt u terecht op Chimera's uitgebreide gebruiksaanwijzing online op http://www.cgl.ucsf.edu/chimera/current/docs/UsersGuide/index.html .
Handmatige Tracing van functies of Interest
Manual penseel tracing werkt goed met vrijwel alle gegevens kenmerken, maar het is ook de meest tijdrovende werkwijze. Soms is de enige techniek voor het extraheren van een eigenschap plaats van een complex beeld set met een grote verscheidenheid aan functies, zoals de dunne en gedraaide celmembraan. Een handige tool die beschikbaar is in een aantal programma's zorgt voor een interpolatie tussen tussenpozen gesegmenteerd plakken wanneer de functie van de rente verandert soepel. Manual tracing kan het efficiëntst toegepast indien de data is helder en heeft een gemiddelde tot hoge contrast, maar kan ook worden gebruiktmeer uitdagende datasets, zolang de gebruiker bekend is met het object of interest. De complexiteit van gegevens kunnen variëren van discrete objecten om complexe en drukke datasets, waar objecten nauw verpakt. In het laatste geval kan handmatige segmentatie de enige keuze, automatische benaderingen hebben vaak moeite segment het gewenste volume en extract te veel of te weinig. Moeilijk feature morfologieën, zoals ingewikkelde vellen of volumes kunnen ook worden geëxtraheerd door deze werkwijze. Wel moet de gebruiker in het achterhoofd houden dat een dataset met een aantal moeilijke kenmerken alleen kan worden gesegmenteerd als de bevolkingsdichtheid van de kenmerken van de rente is laag, als de segmentering van de hoge bevolkingsdichtheid van de kenmerken van de lening rente gaat de tijd-onbetaalbaar. Voor een voorbeeld van software met handleiding tracing, kunt u terecht op Amira's uitgebreide gebruiksaanwijzing online bij http://www.vsg3d.com/sites/default/files/Amira_Users_GuidE.pdf.
Geautomatiseerde-Density gebaseerd Segmentatie
In tegenstelling tot de manuele technieken, de geautomatiseerde benaderingen algemeen minder tijdrovend, hetgeen een belangrijke factor om te overwegen bij het segmenteren van een grote stapel afbeeldingen. Echter, misschien eenvoudig drempelmethode niet zo nauwkeurig te zijn, en nog veel meer tijd kan worden besteed aan de verfijning en curatie van de automatisch gesegmenteerde volume. Geautomatiseerde dichtheid gebaseerde segmentatie werkt het best aan datasets die een groot aantal van dezelfde kenmerken van belang dat alle segmentatie geven. Als de gegevens is complexer, kan deze geautomatiseerde technieken nog steeds dienen als een eerste stap, maar zal waarschijnlijk een aantal handmatige interventie langs de lijn nodig hebben om een subvolume met de functie van belang is. Deze strategie werkt meestal goed op lineaire morfologie of ingewikkelde volumes, maar is zelden succesvol met dunne gedraaide platen zoalscelmembranen. Minimale tussenkomst van de gebruiker met geautomatiseerde aanpak maakt segmentatie door middel van kleine of grote volumes, terwijl het besteden van enkele gebruiker hulpbronnen zoals tijd in ruil voor high fidelity. Voor een voorbeeld van software met automatische dichtheid gebaseerde segmentatie, kunt u terecht op Amira's uitgebreide gebruiksaanwijzing online op http://www.vsg3d.com/sites/default/files/Amira_Users_Guide.pdf .
Op maat gemaakte Automated Segmentatie
Op maat gemaakte geautomatiseerde segmentatie maakt de kracht aanpassing van algoritmen voor een bepaalde dataset, maar het is vaak specifiek voor het instellen van gegevens of data type, geschikt voor een beperkt aantal functie kenmerken, en kunnen niet gemakkelijk worden gegeneraliseerd. De procedure hier tentoongesteld afwijkt van de algemene geautomatiseerde segmentatie benaderingen, zoals waterscheiding immersie en ander niveau set methoden, die afhankelijk zijn van een geprogrammeerde bepaling van kritische zaad punten, gevolgd door snel marcheren kubus uitbreiding van deze zaad punten. Een variatie op dit thema is grens segmentatie, waar gradiëntvector informatie informeert functie grenzen. In tegenstelling, de aangepaste script hier gebruikt berust op een trainingsfase waarin de gebruiker handmatig sporen enkele voorbeelden. Via machine learning, zullen specifieke algoritmes detecteren en vervolgens leren om zelfstandig te herkennen eigenschappen en gegevens kenmerken consistent gevonden in de sporen. Een ervaren gebruiker kan de algoritmes te scholen en het verbeteren van de nauwkeurigheid van de segmentatie door meer voorbeeld wordt naar een grotere set functie criteria bieden. Samengevat kunnen drempelwaarden en aanverwante benaderingen, of zelfs op maat gemaakte aanpak niet zo handig om een enkele eigenschap van belang te extraheren uit een beeld met complexe diversiteit van organellen of vormen zijn, zoals curation kan net zo arbeidsintensief als handleiding tracing.
">Strategieën voor triaging gegevens en het kiezen van een Segmentatie Approach
Gezien de subjectieve en objectieve criteria weergegeven in figuur 4 en de samenvatting van geschikte datasets in figuur 5, kan de besluitvorming schema weergegeven in figuur 6 een deugdelijke evaluatie van feature extractie strategieën te helpen voor een grote verscheidenheid van datasets. De gegevens worden triaged in vier opeenvolgende beschikkingen die elk een van de vier respectievelijke doelstellingen en de vier persoonlijke criteria geïntroduceerd in figuur 4, omvat. Als voorbeeld, figuur 6 is het rationeel triaging elk van de zes data sets weergegeven in figuur 3. Ongetwijfeld, voor elke dataset is er geen enkele unieke pad, maar eerder verschillende paden door deze matrix volgende verschillende criteria voor de besluitvorming die kan leiden to hetzelfde of verschillend Stuur datasegmentering. Terwijl elke dataset zijn eigen set van eigenschappen, die niet kan worden verwacht zal hebben, zijn zes voorbeelden gegeven, elk gekoppeld aan een verklaring van de grondgedachte achter de gewenste feature extractie / segmentatie aanpak. De meeste ook een voorstel voor een alternatieve route beschikking die ofwel leidt tot het gebruik van dezelfde of een andere segmentatiebenadering (figuur 6).
De kinocilium is een set met duidelijk omschreven grenzen, die geautomatiseerde aanpak meer kans van slagen maakt scherpe data. Alle kenmerken van belang zijn goed van elkaar gescheiden, weer ten gunste van een geautomatiseerde aanpak. Bovendien, de belangrijke kenmerken zijn vergelijkbaar met elkaar, waardoor het een relatief homogene dataset ideaal voor speciaal segmentatie. Ten slotte was het de bedoeling om de hele functie halen, ten gunste van een semi-automatische aanpak. Als gevolg daarvan werd geconcludeerd dat een geautomatiseerde drempelen (stevige groene lijn) en een op maat ontworpen (bv vorm begeleid segmentatie) aanpak (gestippelde groene lijn) zijn beide waarschijnlijk goed doen op deze dataset.
Vergelijkbare criteria, maar in een andere volgorde in de besluitvorming netwerk toepassing bij bacteriën. Een op maat gemaakte benadering wordt aanbevolen voor een deel omdat deze dataset was zeer groot; vandaar, beperkte middelen te verbieden een arbeidsintensieve handmatige interventie / segmentatie aanpak. Terwijl drempelen aanvaardbare resultaten zou hebben opgeleverd, de op maat gemaakte aanpak was in staat om de belangrijkste doelstelling van de studie uit te voeren naar de roundish bacteriële vormen te scheiden van de extracellulaire metalen afzettingen, bevinden zich in-tussen de bacteriën of direct naast de bacteriën, en dus de op maat gemaakte aanpak de voorkeur.
Voor stereocilia datasets, de eerste overweging is om het gewenste doel: het doel kan inhouden dat de gehele dichtheid tonenof geometrische modellen te maken. Het volume van belang was een drukke omgeving, en het doel was om segment een groot aantal objecten als gescheiden objecten om kwantitatieve volumetrische analyse, met inbegrip van lengtes, aantallen, afstanden, oriëntatie, etc. Het was nuttig vervolgens uit te voeren, dat de objecten van belang waren vooral lineair, en dit maakte geometrische model opsporen van de methode van keuze. Indien in plaats daarvan het doel is geweest om een volledige dichtheid dan de lineaire functie morfologie en relatief hoog contrast met scherp gedefinieerde grenzen ontstaat een geautomatiseerd protocol drempelwaarden haalbaar tonen.
De celmembranen en mitochondrieën gegevens gevallen zijn een uitdaging voor geautomatiseerde aanpak door hun categorieën functie morfologie: ingewikkelde sheets en volumes, respectievelijk. Het doel is om de cel of mitochondriën omtrek nauwkeurig traceren, maar er zijn slechts beperkte middelen kunnen. Bovendien, het gebruik van interest zijn complex en kunnen niet gemakkelijk worden automatisch gedetecteerd of vorm-gecodeerd, hoewel het voor de mitochondriën gegevens stelt de aangepaste scripting aanpak voor de bacteriën kunnen eventueel worden toegepast met verdere aanpassing. Gelukkig is het membraan en mitochondria zich slechts een klein deel van de totale volume en dus manueel tracing is een eenvoudig zij tijdrovende benadering. Manual tracering ook methode voor dergelijke datasets wanneer het contrast tamelijk laag en de grenzen nogal wazig. Dientengevolge, zelfs als ze een belangrijk deel van de gegevens vormen, moeten deze ingewikkelde vellen handmatig opgespoord kunnen eenvoudig door het gebrek aan beter.
De set installatiegegevens stelde zijn eigen uitdagingen, omdat het doel was om segment alle objecten, die zijn dicht afstand van elkaar en vormen een drukke omgeving. Het weergeven van de dichtheid als-is zou de metingen over de vorm en de organisatie van de objecten, maar b staatmdat handmatig segmenteren elke filamenteuze object wordt te duur, automatische drempelmethode werd in plaats daarvan gebruikt.
De verschillende stappen en de overeenkomstige resultaten voor het creëren van een 3D-model is hier weergegeven, maar zeker ook de gegevens alsmede persoonlijke criteria bleek doorslaggevend het beste pad segmentatie zijn ook toegelicht worden. De belangrijke kenmerken van de beeldgegevens zelf zijn wat hier beschreven als contrast, drukte, knapperigheid en het aantal verschillende vormen of eigenschappen (zoals organellen, filamenten, membranen). Subjectieve criteria te overwegen omvatten de gewenste doelstelling van segmentatie (meten / tellen, skeletonized representatie van de data / weergave delen in 3D renderings), morfologische kenmerken van de eigenschap van belang (lineaire, langwerpige, netwerk, complex, ingewikkeld), de dichtheid van kenmerken van belang met betrekking tot het gehele volume (de fractie van de objecten diebelangrijk en moeten worden gehaald), en het balanceren van de afwegingen van het besteden van de middelen om de trouw van de oorspronkelijke gegevens van de segmentatie en de afnemende rendement op de investering leidt tot incrementele verbeteringen voor aanzienlijk hogere toewijzing van middelen.
Het gebied van image segmentatie is sterk gegroeid in de afgelopen jaren, maar er is geen silver bullet, geen algoritme of programma dat het allemaal kan doen. Dataset maten zijn gegroeid van honderden megabytes aan routinematig tientallen gigabytes, en ze beginnen nu terabytes overschrijden, waardoor handmatige segmentatie bijna onmogelijk. Zo moeten meer middelen worden geïnvesteerd in de slimme en tijd-effectieve feature extractie benaderingen die het menselijke besluitvorming proces na te bootsen. Dergelijke inspanningen zullen moeten worden gecombineerd met (1) geografisch informatiesysteem (GIS) gebaseerde semantische hiërarchische databases (vergelijkbaar met Google Earth), (2) data-abstractie-technieken (dat wil zeggen, de overgangvan een voxel geometrische / volumetrische weergave) verenigbaar met computer ondersteunde ontwerp (CAD) software om de hoeveelheid gegevens aanzienlijk verminderen en waardoor de weergave van grote volumes 35, (3) simulatietechnieken, zoals ze vaak worden gebruikt in de technische disciplines, alsmede (4) geavanceerde animatie en het maken van films mogelijkheden, waaronder fly-through animaties (vergelijkbaar met wat wordt ontwikkeld voor de gaming-industrie).
Duidelijk, efficiënt feature extractie en segmentatie ligt in het hart van deze komende revolutie in mobiele hoge-resolutie imaging, en terwijl betere aanpak altijd nodig zal zijn, de principes die hier gepresenteerd, evenals de voorbeelden van welke aanpak werd genomen voor verschillende soorten data , zal een aantal waardevolle informatie voor het maken van een beslissing over welke aanpak is te nemen.
The authors have nothing to disclose.
We would like to acknowledge and thank Tom Goddard at University of California San Francisco for his endless help with Chimera, Joel Mancuso and Chris Booth at Gatan, Inc. for their help with SBF-SEM data collection of bacteria dataset, Doug Wei at Zeiss, Inc. for his help with the FIB-SEM data collection of epithelial cell dataset, Kent McDonald at University of California Berkeley Electron Microscopy Lab for advice on sample preparation, TEM imaging and tomography, Roseann Csencsits at Lawrence Berkeley National Laboratory for her help taking the cryo-TEM image, Elena Bosneaga for cryo-sectioning of the plant dataset, Jocelyn Krey at Oregon Health and Science University for the dissection of utricle tissue, David Skinner at National Energy Research Scientific Computing Center (NERSC) and Jitendra Malik at University of California Berkeley for their advice in software infrastructure, and Pablo Arbelaez at University of California Berkeley for his codes contributions to the custom-tailored script presented in this article.
Research was supported by the U.S. Department of Energy, Office of Science under contract No. DE-AC02-05CH11231 [David Skinner], as well as U.S. National Institutes of Health (NIH) grant No. P01 GM051487 [M.A.] for the inner ear hair cell project and microscopy instrumentation use.
Material Name | Company | Comments | |
Amira | FEI Visualization Sciences Group | http://www.vsg3d.com/amira/overview | |
Chimera | UCSF | http://www.cgl.ucsf.edu/chimera/ | |
Fiji/ImageJ | National Institute of Health | http://fiji.sc/Fiji, http://rsbweb.nih.gov/ij/ | |
IMOD | Boulder Laboratory for 3D Electron Microscopy of Cells | http://bio3d.colorado.edu/imod/ | |
Photoshop | Adobe | http://www.adobe.com/products/ photoshopfamily.html | |
MATLAB | MathWorks | http://www.mathworks.com/ | |
VLFeat | VLFeat | http://www.vlfeat.org/ |