May 07, 2023
Un alto
Volumen de biología de las comunicaciones
Biología de las comunicaciones volumen 5, Número de artículo: 1318 (2022) Citar este artículo
3014 Accesos
1 Citas
71 Altmetric
Detalles de métricas
Presentamos un sistema de imagen económico con hardware y software integrados para capturar imágenes multiespectrales de lepidópteros con alta eficiencia. Este método facilita la comparación de colores y formas entre especies en escalas taxonómicas amplias y finas y puede adaptarse a otros órdenes de insectos con mayor tridimensionalidad. Nuestro sistema puede obtener imágenes de los lados dorsal y ventral de especímenes clavados. Junto con nuestra canalización de procesamiento, los datos descriptivos se pueden utilizar para investigar sistemáticamente colores y formas multiespectrales en función de la reconstrucción de alas completas y un plano de base de aplicación universal que cuantifica objetivamente los patrones de alas para especies con diferentes formas de alas (incluidas las colas) y sistemas de venación. Las medidas morfológicas básicas, como la longitud del cuerpo, el ancho del tórax y el tamaño de la antena, se generan automáticamente. Este sistema puede aumentar exponencialmente la cantidad y la calidad de los datos de rasgos extraídos de los especímenes de museo.
Las nanoestructuras en las cutículas de los insectos han inspirado muchos diseños de ingeniería novedosos1,2,3,4,5. Dado que se sabe que los insectos pueden percibir longitudes de onda más allá del espectro visible, se pueden perder datos importantes a menos que los sistemas de imágenes utilizados para examinar las cutículas de los insectos puedan detectar una gama completa de longitudes de onda electromagnéticas potencialmente relevantes. Los estudios actuales del color de las alas de los lepidópteros (mariposas y polillas) (que en este documento usamos como abreviatura de reflectancia, agnóstico de cualquier sistema visual) y la forma a menudo se limitan a menos de 100 especímenes3,6 debido a que el espécimen único requiere mucho tiempo. procedimientos basados7,8,9 tales como la necesidad de separar las alas de los especímenes2,4,10 o acomodar e imaginar especímenes individuales con sus etiquetas. El diseño de sistemas que se adaptan a la diversidad de formas de las alas9,11 también ha presentado un serio desafío.
Los lepidópteros proporcionan un objetivo de imagen ideal ya que la naturaleza bidimensional de los especímenes fijados de la mayoría de las mariposas y muchas polillas los hace más manejables para el análisis. Se necesitan métodos adecuados que puedan procesar imágenes multiespectrales de lepidópteros de manera objetiva, sistemática y eficiente. Los principales desafíos son dos: (1) el desarrollo de un sistema de imágenes de alto rendimiento y (2) la identificación de un plano o arquetipo de aplicación universal que se pueda generalizar para capturar las características del ala entre familias.
Convencionalmente, las propiedades multiespectrales de la superficie de un objeto se pueden medir de dos formas12,13,14,15. Un espectrofotómetro hiperespectral proporciona una alta resolución espectral (~0,1 nm) para un solo punto, mientras que las imágenes multiespectrales pueden crear rápidamente imágenes bidimensionales con alta resolución espacial a un costo de resolución espectral al dividir el espectro en múltiples bandas de longitud de onda de ~100–200 nm cada uno (en lo sucesivo, "bandas") y tomar medidas similares a las de una fotografía en un área grande usando una cámara. Algunos sistemas de imágenes de última generación tienen una resolución espectral 10-20 veces más fina (~5-10 nm), pero cuestan 70 veces más que nuestro aparato (~$350,000). En la teledetección, los satélites utilizan imágenes multiespectrales para recopilar datos de manera eficiente en grandes áreas del mundo (p. ej., radiómetro avanzado de muy alta resolución [AVHRR] y espectrorradiómetro de imágenes de resolución moderada [MODIS]). De manera similar, las cámaras multiespectrales comerciales pueden proporcionar mediciones multiespectrales objetivas en superficies bidimensionales, pero las que están equipadas con alta resolución espacial son prohibitivamente costosas para la mayoría de los laboratorios individuales o colecciones de museos y tienen una eficiencia de imagen relativamente lenta, lo que complica su uso en imágenes de muestras de alto rendimiento. Por lo tanto, desarrollamos un sistema de imágenes escalable y de alto rendimiento basado en una cámara DSLR de consumo modificada que puede acomodar un cajón de muestras de museo estilo Cornell (450 × 390 × 67 mm) y es capaz de recopilar datos multiespectrales de una gran cantidad de muestras biológicas a la vez. .
Otro componente crucial para comparar un conjunto taxonómicamente diverso de insectos es el uso de un marco analítico apropiado que sea robusto para una variedad de morfologías. Hasta la fecha, el enfoque más común para comparar las formas de las alas y los patrones de color en los lepidópteros se ha basado en gran medida en la venación del ala9,16,17, que está altamente correlacionada tanto con la historia evolutiva como con el desarrollo fisiológico de las especies que se estudian. En su estudio histórico, Frederick Nijhout describió un "plan básico general" para analizar el desarrollo de patrones en Nymphalidae y otras mariposas en función de la variación en el patrón de venación y otras características morfológicas, guiado por un conjunto relativamente pequeño de reglas de desarrollo18. Los enfoques de desarrollo evolutivo más recientes se han alejado del análisis de la forma y la morfología per se y se han centrado en cambio en la identificación de genes reguladores maestros (p. ej., optix, corteza Wnt A) asociados con el patrón de color de las alas, así como los múltiples elementos reguladores cis que mejoran su efectos4,10,19,20,21.
Si bien estos avances han mejorado nuestra comprensión de los fundamentos del desarrollo de los patrones de color de las alas, no han abordado el problema práctico de cómo hacer comparaciones sólidas de morfologías de alas ampliamente variables. Por ejemplo, el número de venas de las alas varía entre las diferentes familias de mariposas16,22, por lo que no es posible emplear un solo sistema de venación en las mariposas. La forma de las alas también varía entre especies, con muchos Lycaenidae distinguidos por colas en las alas traseras que no se encuentran en parientes cercanos23,24. Como resultado, la mayoría de los estudios de la morfología del ala entre familias se han llevado a cabo solo en las alas anteriores, utilizando métricas del ala que afectan el vuelo, como la relación de aspecto y el momento del área25,26. Para colores y patrones multiespectrales, hay muchas herramientas disponibles27,28,29, pero su aplicación se limita en gran medida a clados únicos que comparten venación de alas similar2,9,28 o forma7,28.
Los museos biológicos preservan la riqueza de los especímenes biológicos del mundo, sin embargo, los estudios de los patrones de color de las alas hasta la fecha se han centrado comúnmente en especímenes que no pertenecen a museos porque dicha investigación requiere alas delanteras y traseras intactas2,4,10. Además, los métodos de imagen para estos estudios a menudo requieren muestras desarticuladas, lo que limita su utilidad para futuras investigaciones. Nuestro sistema de imágenes supera algunas de estas dificultades mediante la obtención de imágenes no destructivas de especímenes enteros fijados en un rango personalizable de bandas de longitud de onda, y procesándolos automáticamente con un marco analítico que es robusto para diversas morfologías en los lepidópteros, incluidas las formas variables de la cola y las alas.
La naturaleza bidimensional de muchos especímenes de lepidópteros fijados con alfileres nos permite omitir algunas consideraciones técnicas, como los ángulos de incidencia variables que deben considerarse cuidadosamente cuando se toman imágenes de objetos en 3D, y nuestro equipo de imágenes multiespectrales con su plataforma de diseño personalizado puede obtener imágenes de ambos. los lados dorsal y ventral de los especímenes (Figs. 1a, 2 y 3). Los datos descriptivos iniciales se pueden utilizar para la exploración general de propiedades multiespectrales y la digitalización de muestras de museos (Fig. 1b); los datos procesados, que se basan en los datos descriptivos iniciales, se pueden utilizar para investigar colores multiespectrales. Después de la reconstrucción de las alas delanteras y traseras (Fig. 1c), el diseño del marco analítico universalmente aplicable (Figs. 1d y 4a) puede cuantificar objetivamente las colas de las alas y acomodar diferentes formas de alas y sistemas de venación (Figs. 1e y 4b). El marco también se puede aplicar para estudiar sistemáticamente patrones de color multiespectrales (Figs. 1g, h y 5) mientras proporciona mediciones morfológicas básicas (Fig. 1f).
El flujo de trabajo se ejecuta de arriba a abajo y se resaltan las características principales. a Una imagen ejemplar que muestra la alta capacidad de rendimiento de nuestro sistema de imágenes. b Las imágenes multiespectrales (dos filas superiores) se pueden resumir como imágenes en color falso (fila inferior) mediante análisis de componentes principales, donde el rojo corresponde a PC1, el verde a PC2 y el azul a PC3. c La forma del ala completa se puede reconstruir virtualmente utilizando información de la segmentación dorsal y ventral. d Se puede generar automáticamente un sistema de coordenadas universal para cada ala basado en cuatro puntos de referencia (etiquetados como puntos rojos). e Formas resumidas de las alas de dos grupos de mariposas: Lycaenidae en el lado izquierdo y Papilionidae y Nymphalidae en el lado derecho. Las probabilidades de cola (Tail Prob.), la curvatura (Curv.) y el error estándar de la curvatura de la cola (SE de Tail Curv.) están codificados por colores en consecuencia. f Las morfologías del cuerpo y las antenas se pueden medir automáticamente durante el procesamiento de imágenes. g Se muestra el resumen de la reflectancia de cuatro bandas espectrales ejemplares (RGB y UV) de tres especímenes. h La variación en la reflectancia UV de un grupo de mariposas se resume como 'señal UV', que representa los contrastes promedio de la reflectancia UV. El azul indica señal baja y el rojo indica alta.
a Las ranuras precortadas ocultas se ilustran en azul. Las líneas discontinuas blancas, que indican la región que aparece en la imagen, se etiquetaron con líneas cosidas negras en la plataforma de imágenes para guiar al usuario. La barra de escala y las referencias estándar en blanco y negro se encuentran en la esquina inferior izquierda. Los detalles del respaldo de espuma multicapa se pueden encontrar en la Fig. 6. b Los ejemplos muestran cómo se colocan los lados dorsal y ventral de las muestras en la plataforma de imágenes.
a Un conjunto de siete imágenes en bruto en formato NEF; b Reconocimiento automático de la barra de escala y referencias estándar en blanco y negro; c Calibración de reflectancia según las referencias estándar de blanco y negro; d Las imágenes de especímenes individuales se extraen mediante cuadros delimitadores rojos.
a La forma del ala completa se puede reconstruir virtualmente de acuerdo con la segmentación dorsal y ventral. a, b Las rejillas de las alas se pueden generar después de c Definir las regiones de la cola. En el panel de la izquierda, el límite rojo representa la forma aproximada reconstruida de un ala trasera basada en los cinco armónicos superiores después de ser proyectada en el dominio de la frecuencia mediante el análisis elíptico de Fourier. b Las rejillas universales para alas pueden adaptarse a alas distorsionadas o rotas (p. ej., IV y VIII). I. Smerinthus cerisyi (Sphingidae); II. Catocala connubialis (Erebidae); tercero Evenus coronata (Lycaenidae); IV. Heliconius melpomene (Nymphalidae); V. Allancastria cerisyi (Papilionidae); VI. Atrophaneura hector (Papilionidae); VIII. Kallima inachus (Nymphalidae); VIII. Corades medeba (Nymphalidae).
a Las reflectancias cuadriculadas resumidas en bandas azul, verde y roja se pueden b Proyectar en las formas promedio de las alas de un grupo seleccionado de especímenes. c, d Señal UV (el contraste UV promedio entre especies) que muestra las regiones probablemente altamente variables de UV más comunes en las alas. e, f Variación de las regiones variables de UV entre especies, lo que indica regiones de patrones de UV que están altamente conservadas (azul) frente a aquellas que están cambiando más activamente (rojo).
Nuestro sistema de imágenes multiespectrales de alto rendimiento representa un compromiso entre la velocidad de las imágenes tradicionales y la necesidad de datos espectrales objetivos. El sistema consta de una cámara SLR de alta resolución (Nikon D800) con su filtro UV-IR interno retirado para permitir imágenes UV-visible-IR, equipada con un objetivo zoom Nikkor de enfoque automático de 28–80 mm f/3,3–5,6 G ( Métodos). La plataforma de imágenes personalizada se diseñó para adaptarse a ambos extremos de un alfiler, por lo que las muestras montadas se pueden colocar en la plataforma en posición dorsal o ventral (Métodos; Fig. 2). Una barra de referencia que contiene referencias estándar en blanco y negro y una barra de escala se adjunta a la plataforma de imágenes en cada ronda de imágenes mediante un cierre de velcro (Métodos; Fig. 6a). El costo aproximado excluyendo el costo computacional es de ~$4500 (Información complementaria).
a Barra de referencia y b Materiales correspondientes. c Plataforma de imágenes con las ranuras precortadas ocultas mostradas en azul y d Materiales correspondientes. (1) Referencias estándar negro (espectralon negro estándar AS-001160-960, Labsphere) y blanco (espectralon blanco estándar AS-001160-060, Labsphere); (2) tiras de bucle de gancho con adhesivo (2,4″ × 2,4″); (3) Etiquetas adhesivas para pruebas forenses (medida 2 cm; A-6243); (4) papel fotográfico impermeable resistente al desgarro adhesivo; (5) Almohadillas de espuma negra de esponja de neopreno con adhesivo (12″ × 8″ × 1/4″); (6) hilo de algodón negro; (7) Kit de barra de camilla de lona (16″ × 20″); (8) Esponja de neopreno espuma de goma negra con adhesivo (12″ × 8″ × 1/8″); (9) Almohadillas antivibración de espuma de neopreno con adhesivo (6″ × 6″ × 1/4″); (10) Espuma de polietileno (18″ × 16″ × 1,5″). La información detallada se puede encontrar en Información complementaria.
Para cada conjunto de especímenes, se toma una serie de siete imágenes (en lo sucesivo denominadas "imágenes de cajón"; Fig. 3a) en formato sin formato (*NEF) en el transcurso de dos minutos. Estas imágenes de siete cajones corresponden a los siguientes rangos de imágenes espectrales (con detalles sobre los ajustes de luz incluidos en Métodos): solo UV (λ = 360 nm; luz reflejada filtrada a través de un filtro de paso UV Hoya U-340 en la cámara; luz UV combinada reflectancia y fluorescencia visible sin filtrar (llamada UVF en lo sucesivo) compuesta por UV reflejada y toda la fluorescencia visible inducida por UV; dos bandas de IR cercano (luz reflejada sin filtrar de LED λ = 740 nm [NIR] y 940 nm [fNIR]); y tres en el visible (luz LED blanca de banda ancha reflejada, λ = 400–700 nm, una imagen RGB sin filtrar y dos imágenes RGB filtradas por polarizadores lineales en ángulos ortogonales para detectar la polarización a lo largo de ese eje), que luego se descomponen en rojo, verde y azul canales Se pueden obtener imágenes de hasta treinta y cinco especímenes clavados simultáneamente, dependiendo de sus tamaños, con los lados de las alas orientados dorsal o ventralmente.
Todas las imágenes de cajón sin procesar (multiespectrales) se cargan en un entorno informático de alto rendimiento, donde hemos desarrollado una canalización para procesar imágenes automáticamente. Sin embargo, se puede procesar una pequeña cantidad de imágenes (<5) en un escritorio con recursos razonables y un tiempo de ejecución más largo (Métodos). Para preservar el gradiente de color de los especímenes, dcraw31 (un programa de código abierto para manejar formatos de imágenes sin procesar) primero convierte las imágenes a formato TIFF linealizado de 16 bits30. Estas imágenes TIFF de 16 bits se analizan luego mediante scripts de MATLAB. Un conjunto de imágenes de siete cajones se considera una unidad informática, y el mismo grupo de especímenes en la unidad dorsal tiene una unidad ventral correspondiente (Métodos).
Cada unidad de computación (Fig. 3a) se lee en la memoria, y las referencias estándar en blanco y negro se reconocen en la imagen blanca (RGB regular) por sus formas circulares (Fig. 3b). En lugar de calcular el número exacto de fotones absorbentes en cada sensor13,27, empleamos la técnica de detección remota32 de convertir todos los valores de píxeles en unidades de reflectancia (albedo) (entre 0 y 1) de acuerdo con los estándares de referencia en blanco y negro (Métodos; Fig. 3c). La escala en la imagen del cajón se reconoce automáticamente mediante la coincidencia de características locales con una imagen de referencia de la misma escala, y se deriva el número de píxeles por centímetro (Métodos; Fig. 3b).
La variabilidad de fijación de muestras y la aberración óptica del sistema de lentes de la cámara introducirían un error de medición durante el proceso de obtención de imágenes. Estimamos que este rango de error en la medición de la longitud es inferior al 0,4% (o 0,16 mm de una mariposa de 4 cm (Métodos; Fig. 7). Aunque el error es mínimo, dejamos un margen claro de 5 cm alrededor de los bordes de la etapa cuando se toman imágenes de los especímenes para evitar una aberración relativamente alta en la vecindad de los límites de la imagen (Fig. 7d).
a Ilustración de patrones de escala colocados a diferentes alturas en pasadores. b Vista de la imagen tomada por el sistema de imágenes. c, d Distribución de frecuencia c y distribución espacial d de anomalías de tamaño en porcentaje absoluto en comparación con una mariposa de 4 cm. e, f Se proporciona el valor bruto para d & e. La línea discontinua en c y e indica mediana y cero, respectivamente. La región delimitada por la línea discontinua roja en d, f es donde colocamos nuestras muestras para obtener imágenes.
El posprocesamiento se aplica a las bandas UV, NIR (740 nm), fNIR (940 nm) y UVF para tener en cuenta la sensibilidad diferencial del sensor a estas longitudes de onda en los canales rojo, verde y azul (Métodos; Fig. 3c) , a excepción de la banda blanca RGB, que no requiere procesamiento posterior. Se calcula un índice de polarización como la diferencia absoluta entre las dos imágenes blancas RGB polarizadas ortogonalmente. Esta única medida de polarización también puede proporcionar una indicación de la aparición de coloraciones inducidas por la estructura, lo que sugiere si se deben realizar estudios adicionales para investigar la polarización en otros ángulos de visión o de luz incidente33.
Nuestras observaciones preliminares mostraron que los lepidópteros tienen el mayor contraste con el fondo en la banda fNIR (940 nm), por lo que explotamos esta propiedad para ayudar a reconocer y extraer imágenes de especímenes individuales de imágenes de cajón. (Métodos; Fig. 3d). Las imágenes multibanda de cada espécimen se alinearon en una pila de imágenes en capas (Fig. 8a, b) en función de transformaciones geométricas afines, como traslación, rotación, escala y corte. Este paso requiere relativamente mucho tiempo y el tiempo de procesamiento se escala aproximadamente con el tamaño de la muestra. En esta etapa, la pila de imágenes de especímenes multibanda registrada, nuestros datos descriptivos iniciales, se pueden archivar como parte de los datos ampliados de un espécimen o nuestra canalización puede transformarlos aún más en datos procesados de nivel superior que producen datos de rasgos de forma, color y patrón. . Para mayor comodidad, incluimos una capa de máscara binaria adicional con la información necesaria para la eliminación de fondo (Métodos).
a El formato multicapa ("formato de celda", el término técnico utilizado en MATLAB) se aplica para contener los datos descriptivos de un solo lado de una muestra. b La aparición de algunas capas ejemplares para el lycenid sudafricano, Chrysoritis pyramus. El orden real de las capas de salida se puede encontrar en la Información complementaria. c La variación en las propiedades de escala que afectan la reflectancia UV se puede encontrar dentro de un solo espécimen de Hebomoia glaucippe, en comparación aquí con C. pyramus a la izquierda y A. wildei a la derecha.
Los datos descriptivos iniciales completos contienen imágenes multibanda registradas (que incluyen UV, azul, verde, rojo, NIR, fNIR, fluorescencia [RGB] y polarización [RGB]), una máscara de eliminación de fondo y la barra de escala) (Fig. 3a y 8a, b). Aunque se requiere más análisis para extraer datos de rasgos específicos de estos conjuntos de datos, pueden ser ayudas visuales poderosas en el descubrimiento de nuevos tipos y estructuras de escamas de alas. Por ejemplo, las manchas anaranjadas en las puntas de las alas anteriores de Hebomoia glaucippe (L.) muestran una fuerte reflectancia UV14,15 (Figs. 3c y 8c), pero las manchas anaranjadas en Chrysoritis pyramus (Pennington) no, lo que sugiere una diferencia en el sustrato subyacente. mecanismo físico que produce estos colores. De manera similar, el fondo blanco de Hebomoia glaucippe muestra poca reflectancia UV14, pero las manchas blancas de Arhopala wildei Miskin (y muchas otras especies con manchas blancas) muestran una reflectancia UV significativa. (Figura 8c). Con un convertidor adecuado, estos datos descriptivos iniciales se pueden utilizar en paquetes de software27,29 para análisis que tengan en cuenta una variedad de sistemas visuales de animales. Existe un inmenso potencial para el descubrimiento de fenómenos multiespectrales actualmente ocultos dentro de las colecciones de los museos de todo el mundo durante siglos utilizando solo estos datos descriptivos iniciales.
Se diseñó una serie de canalizaciones analíticas más complejas para cuantificar aún más la reflectancia multiespectral y los rasgos de forma. Después de una segmentación detallada de diferentes partes del cuerpo, se aplican canalizaciones personalizadas de "cuantificación de cola" y "coordenada de cuadrícula de ala" para registrar información sobre colas, forma de ala y rasgos de reflectancia multibanda.
Nuestros datos descriptivos iniciales incluyen un contorno general del espécimen, pero para segmentar este contorno en diferentes partes del cuerpo, se identifican puntos de referencia clave en función de la geometría convencional, que incluye, entre otros, la búsqueda matemática de la topología del contorno del espécimen (etiquetado como cruces y círculos). en la figura 9b). Incluimos dos métodos de segmentación. La segmentación básica (segmentación completamente automatizada de las formas de las muestras de acuerdo con puntos de referencia con líneas rectas) se puede utilizar en ausencia de datos de la segmentación manual anterior y posterior que requiere más tiempo. El canal de segmentación de las alas delanteras y traseras definido manualmente está semiautomático, con entrada humana a través de un paquete de software independiente adaptado de un repositorio de GitHub llamado "moth-graphcut"32, y las segmentaciones derivadas de él tienen un aspecto más natural (Fig. 9c). La segmentación básica es muy eficiente y no requiere intervención humana, pero es menos precisa (la inspección y la corrección se analizan más adelante). Por el contrario, la segmentación manual de las alas delanteras y traseras proporciona una alta precisión de la forma natural del ala y la reconstrucción del ala completa, con un rendimiento de aproximadamente 100 imágenes de muestras procesadas por hora. En ambos métodos, la información morfológica adicional, como el tamaño del cuerpo, la longitud del cuerpo, el ancho del tórax, la longitud de las antenas, el ancho de las antenas y la curvatura de las antenas, también se miden y recopilan automáticamente junto con la segmentación de las partes del cuerpo (Métodos; Fig. 1f).
a Eliminación de fondo basada en una imagen fNIR. b Con puntos de referencia primarios (representados por cruces y círculos) y vectores que identifican los ejes simétricos (representados por segmentos en la línea roja sólida y la línea discontinua azul), la máscara de la muestra se puede segmentar automáticamente c Con o sin división anterior-posterior definida manualmente de la región de superposición. La especie que se muestra en (a–c) es Oxylides faunus. d Se puede calcular el resumen estadístico (media, variación y tamaño del parche) de todas las bandas para ambos lados (dorsal y ventral) de todas las partes del cuerpo (cuatro alas y el cuerpo). e Resultados estadísticos de bandas ejemplares basados en 17 especímenes de 7 familias diferentes. La línea central representa la mediana; límites de caja, cuartiles superior e inferior; bigotes, rango intercuartílico 1,5x; puntos, valores atípicos. Los niveles estadísticamente significativos de diferencia entre los lados dorsal y ventral (bajo la prueba t de dos colas) están marcados con asteriscos: *, 0,05; **. 0.01.
Una vez que las muestras se segmentan en partes del cuerpo, se puede resumir la reflectancia multiespectral de cada parte del cuerpo (Fig. 9d). Además de los análisis que se pueden hacer a nivel individual con los datos descriptivos iniciales, se pueden hacer comparaciones más detalladas entre los lados dorsal y ventral de diferentes partes del cuerpo. Por ejemplo, al analizar la reflectancia de 17 especímenes de 7 familias diferentes, podemos observar que el ala trasera dorsal muestra una reflectancia UV significativamente mayor que su lado ventral (Fig. 9e), posiblemente para ayudar en la señalización, mientras que el lado ventral del cuerpo y las alas anteriores muestran una reflectancia fNIR más alta que el lado dorsal (Fig. 9e), posiblemente para ayudar en la termorregulación. Sin embargo, se necesita procesamiento adicional para producir datos de rasgos coherentes dentro de partes del cuerpo individuales que sean comparables entre taxones relacionados más distantes.
Para comparar los rasgos multiespectrales de las alas en diferentes formas de alas, desarrollamos una canalización generalizable que consta de cuatro componentes principales (Fig. 4): (1) reconstrucción completa de la forma del ala, (2) identificación de puntos de referencia secundarios, (3) generación de rejilla del ala y ( 4) resumen de la cola del ala trasera. Este sistema supera la dificultad particular de tener en cuenta y cuantificar diversas colas traseras, y los datos procesados generados a partir de esta tubería también se pueden aplicar directamente en análisis de forma.
En los lepidópteros y muchos otros insectos alados, una región del ala trasera a menudo se superpone a una parte del ala anterior, lo que complica la reconstrucción automatizada de la forma. En nuestro paradigma de imágenes, el ala trasera de un espécimen se superpone con el ala anterior en la imagen del lado dorsal, y el ala anterior se superpone con el ala trasera en la imagen del lado ventral (Fig. 4a). En nuestro algoritmo, los límites de las alas delanteras y traseras definidos manualmente se utilizan para reconstruir el borde trasero que falta en el lado dorsal y el borde delantero incompleto en el lado ventral de un espécimen. Después de reconstruir un ala completa, los puntos de referencia secundarios se identifican automáticamente (Fig. 1d y 4a). Las colas de las alas traseras se separan computacionalmente de los cuerpos de las alas antes de su posterior procesamiento (los detalles sobre los análisis de la cola se pueden encontrar en Métodos). Luego se crea un conjunto de cuadrículas de ala de acuerdo con los puntos de referencia secundarios de cada ala (Fig. 1d y 4a). Este sistema de cuadrícula, que divide la silueta de un espécimen según el centroide de un conjunto de cuatro esquinas, es resistente a las diferencias de forma entre diferentes especies, incluso para lepidópteros lejanamente relacionados (p. ej., Sphingidae y Lycaenidae; Fig. 4b). Además, la mayoría de estas cuadrículas permanecen estables incluso en presencia de daños moderados en las alas (IV y VIII en la Fig. 4b). La resolución predeterminada de estas matrices es 32 × 32, pero también se puede ajustar para acomodar especímenes con áreas de ala más grandes.
La cuantificación de las colas de las alas traseras y las formas de las alas también se basa en este sistema cuadriculado (Métodos; Figs. 1e y 4c), y se puede aplicar a todos los lepidópteros (Fig. 1e), sin necesidad de una identificación a priori de la presencia o ausencia de colas. . A diferencia de otros paquetes28, nuestra tubería de rejilla de ala permite comparaciones de diversas formas de alas, especialmente alas traseras, con diferentes sistemas de venación y colas (Fig. 4b). El número par de anclas cuadriculadas (p. ej., 128 puntos en un sistema de cuadrícula de 32 × 32) en la silueta de un ala puede usarse como "puntos de referencia" para comparar formas en otras aplicaciones9,11,34 (Fig. 4b). También se puede utilizar para resumir patrones de alas multiespectrales.
Con base en este sistema de cuadrícula de ala, se puede calcular la reflectancia promedio y la variación de cada cuadrícula (Figs. 1g y 5a), y los resultados de un análisis de ala se pueden almacenar en una matriz de 32 × 32 por N (donde N es el número de bandas de longitud de onda). La resolución de 32×32 estuvo determinada por el tamaño de los pequeños especímenes que manejamos; por ejemplo, no tiene sentido resumir los datos de un ala con 50 × 50 píxeles usando una resolución más fina (por ejemplo, 64 × 64). Este formato estándar facilita más análisis estadísticos entre una amplia variedad de grupos de lepidópteros con diferentes formas de alas.
Los resultados de los análisis de patrones de alas se pueden proyectar aún más en una forma de ala promedio de un grupo para una interpretación más intuitiva (Figs. 1h y 5b). Por ejemplo, la reflectancia promedio promedio identifica regiones de ala generalmente más brillantes (Fig. 5b) para bandas RGB. Las regiones de alto contraste de UV parecen ser importantes en la señalización intraespecífica de UV35, y encontramos que es más probable que tales regiones se vean en el lado dorsal de Lycaenidae, pero en el lado ventral de Papilionidae (Fig. 5c, d). También podemos comparar la variabilidad en la ubicación de estas regiones variables de alta UV para un grupo determinado de taxones para mostrar dónde están altamente conservados (valores bajos) versus dónde son más lábiles (valores altos; Fig. 5e, f). Tales regiones conservadas indican que la variación UV (que podría estar involucrada en la señalización) en esa región del ala (ya sea que esté presente o no) está altamente restringida y, por lo tanto, es estable en diferentes especies. Aunque estos son ejemplos elegidos para ilustrar una amplia variedad de formas de alas en lugar de abordar una pregunta científica específica, ya comienzan a proporcionar conocimientos biológicos para estudios posteriores, lo que demuestra la utilidad de llevar a cabo estudios sistemáticos de los rasgos de los lepidópteros utilizando este enfoque.
Dados los tamaños de archivo relativamente grandes (~240 Mb por imagen) y las canalizaciones de posprocesamiento que requieren mucho tiempo, la mayoría de nuestros protocolos están diseñados para ejecutarse en entornos informáticos de alto rendimiento (es decir, clústeres); sin embargo, inspeccionar y corregir manualmente las imágenes es un inconveniente en dichos entornos. Por lo tanto, diseñamos la tubería para permitir que una pequeña proporción del conjunto de datos se descargara a una máquina local para su inspección y corrección manual. En total, nuestra tubería tiene cinco puntos potenciales donde la inspección y la corrección manual son posibles (Métodos). En cada punto de inspección, también desarrollamos las secuencias de comandos correspondientes y las interfaces de usuario para corregir manualmente el conjunto de datos en máquinas locales con requisitos mínimos de recursos (requisitos bajos de almacenamiento, memoria y CPU). También se desarrollaron guiones para configuraciones de visualización personalizadas para la forma del ala (incluidas las colas) y los patrones del ala (métodos, información complementaria y disponibilidad de datos).
Este sistema permite a los investigadores producir y archivar de manera eficiente imágenes multiespectrales informativas y de alta calidad de especímenes de museo. Después de haberlo aplicado a más de 10 000 muestras hasta la fecha, hemos descubierto que se pueden obtener imágenes de un cajón de muestras de Cornell (~60–80 individuos) en 2 horas con nuestro flujo de trabajo actual. Esta estimación incluye el manejo, la recuperación y la reintegración de especímenes en las colecciones, aunque el tiempo de obtención de imágenes suele ser inversamente proporcional al tamaño de los especímenes. La digitalización de colecciones de museos se ha convertido en una misión de instituciones en todo el mundo, con un gran número de especímenes procesados en las últimas décadas36,37. Estos registros digitalizados se aplicaron con fines científicos y sociales con el apoyo de gobiernos y ciudadanos a través de diferentes sistemas y plataformas de curación, como GBIF (http://www.gbif.org), iDigBio (http://www.idigbio.org) , MCZBase (https://mcz.harvard.edu/database), Atlas of Living Australia (http://www.ala.org.au/), Mapa de la vida (https://mol.org/) y ButterflyNet (http://www.butterflynet.org/). Los sistemas de imágenes y las canalizaciones, que van desde la fotografía tradicional en 2D37 hasta la tomografía computarizada en 3D38,39 y la fotogrametría en 3D39,40 con o sin interfaces de usuario convenientes, también han visto grandes mejoras, a menudo con precios correspondientemente elevados. Nuestro sistema de imágenes multiespectrales proporciona un importante paso adelante para aquellos interesados en el fenotipado espectral de alto rendimiento o la digitalización de especímenes de manera rentable, que esperamos seguir adaptando a medida que madura el campo de la digitalización de archivos.
Anticipamos una serie de posibles mejoras en el sistema actual. En cuanto al hardware, la incorporación de un plano de rotación en nuestra plataforma de imágenes actual permitirá a los investigadores estudiar la reflectancia en diferentes ángulos de incidencia33, que inicialmente no incluimos debido a la naturaleza bidimensional de la mayoría de los especímenes de lepidópteros. Las alas que se han desprendido del cuerpo de un insecto no pueden ser acomodadas por nuestra tubería actual, por lo que el desarrollo de una plataforma de imágenes para montar alas individuales también aumentará la utilidad potencial de este sistema.
En el lado del software, la eficiencia mejoraría enormemente al reducir la necesidad de entrada manual41. Por ejemplo, con un número suficientemente grande de imágenes previamente procesadas como un conjunto de entrenamiento, se puede desarrollar un sistema de autocorrección e inspección automática basado en el aprendizaje automático. Se podría aplicar un enfoque similar en el caso de la segmentación anterior-posterior. La utilidad de este protocolo de imágenes en estudios morfológicos a gran escala de lepidópteros será más avanzada si también se podría desarrollar una segmentación de partes del cuerpo más detallada (por ejemplo, ojos, piernas y probóscide).
La versión actual solo admite aquellos especímenes con cabezas colocadas hacia la parte superior de una imagen. Una corrección rotacional automática podría ayudar a orientar las muestras para un procesamiento posterior óptimo. La interfaz de usuario también podría mejorarse, ya que el diseño actual requiere una comunicación de ida y vuelta entre un clúster informático y la máquina local del usuario. Una interfaz de usuario unificada podría ayudar a simplificar el funcionamiento de los protocolos complejos.
Para conectar los resultados de los análisis de imágenes descritos aquí con el conocimiento existente en los campos de la evolución y la biología del desarrollo, parece esencial la integración de los datos con los conocimientos evolutivos de los sistemas de venación del ala. El sistema de cuadrícula de ala proporciona coordenadas de aplicación universal para la comparación de forma y reflectancia entre diversos taxones de lepidópteros. Al registrar los sistemas de venación de las alas en estas rejillas de alas, se pueden explorar más a fondo las relaciones entre la venación, la reflectancia multiespectral y las formas.
Las colecciones de los museos son vastos depósitos de información biológica de valor básico y aplicado, que simplemente esperan ser extraídos. El hardware de imágenes relativamente económico y fácil de usar y el software de procesamiento de cuadrículas de alas que se presentan aquí permitirán a los investigadores del museo explorar con alta eficiencia las propiedades multiespectrales no solo de los lepidópteros sino también de muchos otros grupos de insectos. También facilitará la comparación de colores y formas entre especies con formas de alas muy diversas, en contraste con otros paquetes disponibles para el estudio de colores y patrones. Estos métodos se pueden adaptar fácilmente para estudiar otros temas bidimensionales similares, como las hojas de las plantas o los microorganismos cultivados. Nuestros métodos tienen el potencial de revolucionar la eficiencia y la accesibilidad de la recolección de datos de reflectancia y forma para especímenes biológicos, proporcionando una rica fuente de información para la bioinnovación de colecciones en todo el mundo.
El sistema consta de una cámara SLR de alta resolución (Nikon D800), equipada con un objetivo zoom Nikkor de enfoque automático de 28–80 mm f/3,3–5,6 G. La cámara está montada dentro de una caja de luz rectangular construida con láminas de aluminio 6061 de 0,125″ de espesor (McMaster-Carr: 89015K18), montada en una extrusión de estructura de aluminio con ranuras en T (McMaster-Carr: 47065T101), que mide 36 pulgadas de alto y 24 pulgadas ancha y profunda, y abierta por abajo. Dentro de la caja de luz, 4 bancos de emisores LED están montados a los lados de 18 pulgadas de alto, en disipadores de calor de aluminio grueso que se pueden girar hacia arriba y hacia abajo para proporcionar iluminación directa o indirecta. Cada banco de LED se compone de placas de circuito impreso con núcleo de metal de 4 estrellas (MCPCB, OSRAM Opto Semiconductors Inc.), una para cada banda de longitud de onda y cada una con 6 LED individuales. Las cuatro bandas de longitud de onda son ultravioleta (UV 365 nm: LZ1-30UV00-0000), blanco (blanco frío: LZ1-10CW02-0065), IR de 740 nm (rojo de 740 nm: LZ4-40R308-0000) e IR de 940 nm ( 940nm Rojo: LZ1-10R702-0000). La cámara está montada con tornillos en un monopié (Sinvitron Q-555) unido a una pieza de extrusión de encuadre que se extiende por el centro de la caja de luz, con la lente sostenida a 28,25 pulgadas de la parte inferior. Una rueda de filtro motorizada con cuatro ranuras está montada directamente debajo de la lente, con una ranura vacía para imágenes en blanco RGB, UVF, NIR y fNIR sin filtrar, un filtro de paso UV Hoya U-340 para imágenes solo UV y dos B + W Polarizadores circulares KSM montados en ángulos ortogonales, para imágenes polarizadas diferenciales en blanco.
Un microcontrolador (PJRC, Teensy ++ 2.0) y un controlador paso a paso (Sparkfun, ROB-12779) controlan un motor (Mercury Motor, SM-42BYG011-25) que hace girar una rueda de filtro a medida con referencia a un interruptor de inicio de origen. Los LED son controlados por bancos de controladores de corriente (LEDdynamics, 3021-DI-100) con un microcontrolador que coordina el tiempo de iluminación (PJRC, Teensy 3.2). La cámara está controlada por el software DigiCamControl de código abierto (DigiCamControl V2.0.0). La coordinación del funcionamiento de la cámara, la iluminación LED, el posicionamiento de la rueda de filtros y la transferencia de imágenes se realiza mediante una computadora de escritorio que ejecuta un programa LabView personalizado42. Todos los diseños de software y hardware están disponibles a pedido.
Para minimizar la reflectancia de fondo, el material utilizado en la construcción de la plataforma se eligió cuidadosamente y se probó la neutralidad espectral desde el ultravioleta hasta las bandas del infrarrojo cercano (Fig. 1a y 6). Incluimos una serie de ranuras precortadas en el respaldo de espuma multicapa subyacente para que las muestras sujetas con alfileres pudieran empujarse fácilmente y sujetarse con la parte superior o la punta del alfiler, para permitir una imagen dorsal y ventral eficiente (Fig. 2b ). Se adjunta una barra de referencia que contiene referencias estándar negras (spectralon 2 % de reflectancia AS-001160-960, Labsphere) y blancas (spectralon 99 % de reflectancia AS-001160-060, Labsphere) en colores de fondo contrastantes y una escala (Fig. 6). Probamos el sistema utilizando especímenes de lepidópteros de la colección de entomología del Museo de Zoología Comparada. La superficie de imagen de cada espécimen se ajustó aproximadamente a la misma altura que la barra de referencia estándar.
Un conjunto de imágenes de siete cajones se considera una unidad informática, y el mismo grupo de especímenes en la unidad dorsal tiene una unidad ventral correspondiente. Cada unidad se procesa de forma independiente, de modo que todas las unidades se pueden procesar en paralelo en el clúster. Los recursos asignados para cada trabajo/unidad se establecen en dos núcleos con una memoria de veinticuatro gigabytes durante doce horas. La mayoría de las imágenes se pueden procesar por completo en seis horas, pero los especímenes más grandes (p. ej., Papilionidae, Nymphalidae y Saturniidae) tardan más. Aquí, se eligieron múltiples enfoques para maximizar el grado de automatización para condiciones de muestra muy variadas, aumentando el tiempo de procesamiento de imágenes de minutos a horas. Si bien los algoritmos simples pueden ser eficientes, no son generalizables. En condiciones más rápidas pero más simples, aumentaría la cantidad de valores atípicos que tendrían que manejarse manualmente, lo que en última instancia consumiría más tiempo y trabajo humano que el que se dedica a la computación en una situación de alto rendimiento.
Para cada unidad, se procesa un conjunto de siete imágenes de cajones (Fig. 3a) después de reconocer las referencias estándar en blanco y negro (Fig. 3b). La reflectancia de un parche circular en el centro de cada estándar se puede extraer para todas las bandas (evitando los márgenes, que pueden distorsionarse o contaminarse accidentalmente más fácilmente como un subproducto de las imágenes frecuentes) (Fig. 3b). Al comparar la intensidad de los píxeles de la imagen con los valores de reflectancia conocidos de los estándares de calibración, podemos volver a escalar y calibrar todos los píxeles de la imagen13,30 (Fig. 3c) con las reflectancias de las referencias estándar proporcionadas por el proveedor (Información complementaria). Los valores pueden diferir ligeramente de un estándar a otro, por lo que cada uno debe medirse de forma independiente para proporcionar una línea de base inicial. La escala en la imagen del cajón se puede reconocer automáticamente mediante la coincidencia de características locales con una imagen de referencia dada de la misma escala. Los puntos característicos de las dos imágenes (la imagen de referencia y del cajón) se pueden extraer, y los puntos coincidentes se identifican mediante el descriptor de características robustas aceleradas (SURF)43, que es una versión avanzada de la transformación de características invariantes de escala (SIFT)44 . Luego se aplican otros procedimientos convencionales de procesamiento de imágenes (p. ej., erosión, dilatación y filtrado de objetos) a la escala detectada para derivar el número de píxeles representados en un centímetro (Fig. 3b).
El posprocesamiento de cada una de las bandas restantes es el siguiente: debido al diseño de mosaico no superpuesto de los filtros RGB Bayer, hay más receptores de luz verde que roja y azul en las cámaras SLR de consumo13,30,45. En entornos con poca luz RGB, es más probable que las señales recibidas por los sensores verdes se utilicen para estimar los valores de color que faltan, lo que compensa las señales insuficientes detectadas en los sensores rojo y azul. Este fenómeno se manifestó en nuestras imágenes UV, por lo que el canal verde se excluyó cada vez que se calibró una imagen UV. Para NIR (740 nm), que no está lejos del rango espectral detectado por los sensores azules de una cámara, el canal azul no se incluyó al derivar el producto NIR (740 nm), porque los sensores azules de la cámara aún pueden detectar minutos señales NIR y, por lo tanto, introducen ruido. Por el contrario, fNIR (940 nm) está más alejado de la detección de sensores azules, por lo que se aplicó la calibración RGB normal. Para la fluorescencia en todos los canales RGB, calculamos la diferencia de reflectancia entre las imágenes UVF y UV (UVF deduce UV). No evitamos el canal verde de las imágenes UV en este caso, o no hubiéramos obtenido valores de intensidad razonables para la fluorescencia verde. La fluorescencia cuantificada por nuestro enfoque solo debe compararse con objetos medidos con un enfoque similar. Dado que la fluorescencia y algunas bandas de longitud de onda (por ejemplo, UV y polarización) suelen ser tenues en comparación con otras longitudes de onda, las imágenes que se muestran en este documento se han ajustado para una mejor visibilidad humana.
Usamos lentes convencionales en nuestro sistema de imagen por rentabilidad y facilidad de uso, pero tales lentes son propensos a distorsiones ópticas y espaciales, generalmente hacia los límites de la imagen. Para cuantificar la magnitud de estas distorsiones en las medidas tomadas por nuestro sistema de imágenes, se fijaron treinta barras de escala a diferentes alturas (para simular la variabilidad extrema en la altura de fijación) y se extendieron sobre la plataforma de imágenes (Fig. 7a, b). Se incluyeron diferentes alturas fijadas para cada columna y fila, aunque esto dio como resultado que las barras de escala en las cuatro esquinas estuvieran todas cerca de la parte superior del pin. Luego, la imagen RGB (Fig. 7b) se analizó en la tubería de procesamiento de imágenes. Para cada barra de escala, se registraron la ubicación en la plataforma de imágenes y el número promedio de píxeles que indican un centímetro.
Dado que nuestro enfoque fue diseñado para adaptarse a la gran diversidad de lepidópteros, los especímenes con diversas formas de alas se pueden fotografiar juntos (Fig. 3). La posición aproximada de cada espécimen se determina de acuerdo con la imagen fNIR, y se genera un cuadro delimitador rectangular con la inclusión de zonas de amortiguamiento en los cuatro bordes (1/5 de altura del espécimen hacia arriba; 1/15 de altura hacia abajo; 1 /20 ancho a los límites izquierdo y derecho). Los especímenes se recortan de acuerdo con los cuadros delimitadores correspondientes (Fig. 3d), y los objetivos difíciles (p. ej., patas y antenas, y manchas formadas por escamas caídas) en la plataforma de imágenes se filtran automáticamente mediante el algoritmo de recorte. Esta función puede eliminar accidentalmente especímenes diminutos, por lo que el valor umbral está diseñado para especificarse manualmente de acuerdo con el tamaño mínimo del espécimen que se va a fotografiar en la plataforma de imágenes. Los esfuerzos para automatizar este paso no fueron factibles. Si el procedimiento de filtrado está automatizado, las muestras pequeñas se filtrarán automáticamente como un objeto que no es una muestra cuando se tomen imágenes de muestras grandes y pequeñas juntas. Por ejemplo, el tamaño de una parte del cuerpo de un papiliónido caído puede ser tan grande como el tamaño de un pequeño licénido al que le falta un ala, y nos gustaría filtrar el primero pero conservar el segundo.
La eliminación de fondo, donde una muestra se recorta selectivamente del fondo de la imagen, es parte del proceso de segmentación e implica muchos pasos, por lo que aquí solo se proporciona una descripción general del procedimiento. Dado que la intensidad de la reflectancia difiere de una especie a otra, se utilizó un enfoque de consenso basado en tres técnicas de segmentación para manejar la diversa gama de lepidópteros: agrupamiento de k-medias28,46, filtrado gaussiano29,47 y contorno activo48,49. La técnica de agrupamiento de K-means divide una imagen RGB de color falso compuesta por una banda NIR y dos fNIR, en cinco grupos (k = 5). Luego se identifican el color de fondo y la ubicación, y las regiones restantes se etiquetan como el espécimen. La técnica de filtro gaussiano utiliza un filtro gaussiano en toda la imagen para suavizar variaciones relativamente menores dentro de una muestra mientras mantiene un alto contraste entre los límites de una muestra y el fondo, lo que facilita las técnicas de segmentación convencionales. La técnica de contorno activo (también conocida como serpientes) también se aplicó para encontrar un contorno objetivo de un espécimen al crecer iterativamente desde la región especificada inicial hacia los límites del objeto (Fig. 9a).
Las antenas y el abdomen a veces requieren atención adicional durante la etapa de segmentación, particularmente cuando se superponen o tocan otras partes del cuerpo que se están segmentando. Las patas que se extienden desde debajo del abdomen pueden interferir con el corte preciso de las alas traseras. Usando erosión de imagen simple (deducción con alguna lógica básica), las antenas que tocan el borde de ataque del ala anterior se conservan tanto como sea posible sin dañar la forma del ala anterior. Sin embargo, las patas que se cruzan con otras partes del cuerpo se eliminan automáticamente para conservar la forma de las alas traseras. En casos excepcionales, las máscaras delimitadoras de rectángulo se generaron como máscaras de marcador de posición cuando la muestra no se podía eliminar del fondo en una sola pieza o cuando se producían errores graves en el proceso de formación de máscaras de muestra. Se pueden encontrar ejemplos y descripciones detalladas en la Información complementaria.
Los códigos de barras de muestras se utilizaron como nombre de archivo para un conjunto de imágenes de muestras (lados dorsal y ventral). En la etapa de procesamiento de imágenes, se requirió un conjunto de datos (en formato csv) que contiene la información de todos los nombres de imágenes y especímenes en imágenes, que se pueden generar manualmente (busque el Protocolo en Información complementaria); de lo contrario, se asignaron automáticamente códigos de barras temporales (p. ej., "Tmp-1" y "Tmp-2") para nombrar un conjunto de imágenes de muestras.
La información sobre el tamaño del cuerpo, la longitud del cuerpo y el ancho del tórax se miden después de la eliminación virtual de las cuatro alas (Fig. 1f). Para una antena, se desarrollaron una serie de medidas (Fig. 1f): la longitud de un camino seguido a lo largo de una máscara de antena curva corresponde a la longitud de la antena; el ancho promedio de una antena se puede derivar del área de máscara de una antena dividida por su longitud; y la curvatura antenal se calcula como la longitud antenal dividida por la distancia lineal directa entre su punta y su base. El tamaño de un bulbo de antena también se puede obtener a partir del ancho de la punta de una antena. Estas morfologías también se cuantificaron para una antena rota, por lo que en la aplicación de rasgos antenales, se deben filtrar cuidadosamente los datos de la antena rota de forma manual o sistemática. Para comparar razonablemente este rasgo entre diferentes individuos, sugerimos usar la relación entre el tamaño del bulbo antenal y el ancho antenal total como la cuantificación comparable significativa.
Primero se aplicó una erosión general de N píxeles (que se escala algorítmicamente según el tamaño del espécimen; un valor de alta frecuencia es 5 en nuestros especímenes fotografiados) para eliminar las pequeñas características de la silueta creadas por los pelos y los accesorios (p. ej., productos químicos cristalizados y grandes granos de polvo). El contorno de la máscara del espécimen se proyecta luego en el dominio de la frecuencia mediante un análisis elíptico de Fourier50, y los cinco armónicos superiores se utilizan para reconstruir la forma aproximada de un ala trasera. Las áreas que se extienden desde estas regiones de alas reconstruidas se definen como colas (Fig. 4c). La morfología (longitud y curvatura) de esas áreas independientes se puede cuantificar y registrar más de acuerdo con el sistema de cuadrícula del ala (Fig. 4c).
En total, nuestra canalización tiene cinco puntos potenciales en los que la inspección y la corrección manual son posibles: (1) el cuadro delimitador; (2) la máscara del espécimen; (3) la segmentación de las alas delanteras y traseras; (4) la identificación de puntos de referencia primarios; y (5) la aplicación de rejillas en las alas. El módulo que genera imágenes para la inspección está integrado en la canalización de procesamiento de imágenes, por lo que estas imágenes se pueden encontrar fácilmente en los directorios de resultados especificados. La mayoría de las herramientas de corrección manual para la computadora local se han escrito en MATLAB, a excepción de la corrección de máscara de muestra que requiere un software de pintura comercial (como Adobe Photoshop) y la tarea de segmentación de las alas delantera y trasera (escrita en Python). También se prepararon los scripts correspondientes para actualizar el conjunto de datos en el clúster con la información corregida manualmente.
Muchas visualizaciones se generan automáticamente dentro de la tubería de procesamiento de imágenes. Sin embargo, algunas especies tienen tamaños y formas de alas especiales, por lo que es posible que se requieran configuraciones más personalizadas para una mejor visualización. También se proporciona un script desarrollado para la visualización personalizada de la cola y la forma del ala (Información complementaria).
Las estructuras de datos de los datos descriptivos iniciales, así como los datos procesados y la matriz de resumen del grupo se proporcionan en Información complementaria.
Al seguir la tubería con los datos sin procesar proporcionados en la Información complementaria, todos los productos intermedios y finales son fácilmente reproducibles. Las figuras y las leyendas de las figuras dan los tamaños de muestra, el número de especímenes y especies, así como el enfoque estadístico aplicado.
Más información sobre el diseño de la investigación está disponible en el Resumen de informes de Nature Portfolio vinculado a este artículo.
Los conjuntos de datos generados y/o analizados durante el presente estudio están disponibles en DryAd (https://doi.org/10.5061/dryad.37pvmcvp5)51.
Las instrucciones detalladas paso a paso están documentadas en Protocols.io con videos tutoriales para algunos pasos cruciales. Todos los códigos fuente se proporcionan en GitHub. Encuentre información complementaria para obtener más detalles.
Mandal, J. et al. Recubrimientos poliméricos jerárquicamente porosos para enfriamiento radiativo diurno pasivo altamente eficiente. Ciencia 362, 315–319 (2018).
Artículo CAS PubMed Google Académico
Mazo-Vargas, A. et al. Los cambios macroevolutivos de la función WntA potencian la diversidad de patrones de alas de mariposa. proc. Academia Nacional. ciencia EE. UU. 114, 10701–10706 (2017).
Artículo CAS PubMed PubMed Central Google Scholar
Osotsi, MI et al. Las arquitecturas de alas de mariposa inspiran aplicaciones de sensores y energía. ciencia nacional Rev. 8, nwaa107 (2021).
Artículo CAS PubMed Google Académico
Reed, RD et al. optix impulsa la evolución convergente repetida del mimetismo del patrón de alas de mariposa. Ciencia 333, 1137–1141 (2011).
Artículo CAS PubMed Google Académico
Shi, NN et al. Mantenerse fresco: reflexión óptica mejorada y disipación de calor radiativo en hormigas plateadas saharianas. Ciencia 349, 298–301 (2015).
Artículo CAS PubMed Google Académico
Pomerantz, AF et al. Bases de desarrollo, celulares y bioquímicas de la transparencia en mariposas de alas claras. Exp. J. Biol. 224, https://doi.org/10.1242/jeb.237917 (2021).
Hegedus, M., DeVries, P. & Penz, CM La influencia del mimetismo en la evolución de la forma del ala en la mariposa Papilio dardanus (Lepidoptera: Papilionidae). Ana. Sociedad Entomológica. Soy. 112, 33–43 (2019).
Artículo Google Académico
Le Roy, C. et al. Evolución adaptativa del vuelo en mariposas Morpho. Ciencia 374, 1158–1162 (2021).
Artículo PubMed Google Académico
Owens, HL, Lewis, DS, Condamine, FL, Kawahara, AY y Guralnick, RP La filogenética comparativa de la forma y el tamaño del ala de la mariposa papilio demuestra una evolución independiente de las alas traseras y delanteras. sist. Biol. 69, 813–819 (2020).
Artículo CAS PubMed Google Académico
Zhang, L., Mazo-Vargas, A. & Reed, RD Un gen regulador maestro único coordina la evolución y el desarrollo del color y la iridiscencia de las mariposas. proc. Academia Nacional. ciencia EE. UU. 114, 10707–10712 (2017).
Artículo CAS PubMed PubMed Central Google Scholar
Cespedes, A., Penz, CM & DeVries, PJ Navegando por el suelo de la selva tropical: evolución de la forma del ala de mariposa y efecto de deslizamiento en el suelo. J. Anim. Ecol. 84, 808–816 (2015).
Artículo PubMed Google Académico
Imafuku, M., Hirose, Y. & Takeuchi, T. Colores de las alas de las mariposas Chrysozephyrus (Lepidoptera; Lycaenidae): reflejo ultravioleta de los machos. Zool. ciencia 19, 175–183 (2002).
Artículo Google Académico
Stevens, M., Párraga, CA, Cuthill, IC, Partridge, JC & Troscianko, TS Uso de la fotografía digital para estudiar la coloración animal. Biol. J. Linn. Soc. 90, 211–237 (2007).
Artículo Google Académico
Wijnen, B., Leertouwer, HL & Stavenga, DG Colores y pigmentación de pterina de alas de mariposas piéridas. J. Fisiología de insectos. 53, 1206–1217 (2007).
Artículo CAS PubMed Google Académico
Wilts, BD, Pirih, P. & Stavenga, DG Propiedades de reflectancia espectral de las alas de mariposa piéridas iridiscentes. J.Comp. Fisiol. Un Neuroetol. Sens Neural Behav. Fisiol. 197, 693–702 (2011).
Artículo PubMed PubMed Central Google Académico
Borror, DJ, Triplehorn, CA & Johnson, NF Una introducción al estudio de los insectos. (Publicación de la universidad de Saunders, 1989).
McKenna, KZ, Kudla, AM & Nijhout, HF Patrón anteroposterior en alas de lepidópteros. Frente. Ecol. Evolución 8, 146 (2020).
Artículo Google Académico
McMillan, WO, Monteiro, A. & Kapan, DD Desarrollo y evolución sobre el vuelo. Tendencias Ecol. Evolución 17, 125–133 (2002).
Artículo Google Académico
Lewis, JJ et al. La evolución paralela de potenciadores pleiotrópicos antiguos subyace en el mimetismo del patrón de alas de mariposa. proc. Academia Nacional. ciencia EE. UU. 116, 24174–24183 (2019).
Artículo CAS PubMed PubMed Central Google Scholar
Martín, A. et al. Diversificación de patrones complejos de alas de mariposa mediante la evolución regulatoria repetida de un ligando Wnt. proc. Academia Nacional. ciencia EE. UU. 109, 12632–12637 (2012).
Artículo CAS PubMed PubMed Central Google Scholar
Nadeau, Nueva Jersey y col. La corteza genética controla el mimetismo y la cripsis en mariposas y polillas. Naturaleza 534, 106–110 (2016).
Artículo CAS PubMed PubMed Central Google Scholar
Patil, S. & Magdum, S. Información sobre la venación del ala en mariposas pertenecientes a las familias Papilionidae, Nymphalidae y Pieridae de Dang Dist Gujarat, India. J. Entomol. Zool. Semental. 5, 1596-1607 (2017).
Google Académico
Novelo, EG, Luis, MM & Cordero, C. Complejidad de cabeza falsa y evidencia de ataques de depredadores en machos y hembras de mariposas rayadas (Lepidoptera: Theclinae: Eumaeini) de México. PeerJ 7, e7143–e7143 (2019).
Artículo Google Académico
Robbins, RK La hipótesis de la "cabeza falsa": depredación y variación del patrón de alas de las mariposas lycenid. Soy. Naturalista 118, 770–775 (1981).
Artículo Google Académico
Betts, C. & Wootton, R. Forma del ala y comportamiento de vuelo en mariposas (Lepidoptera: Papilionoidea y Hesperioidea): un análisis preliminar. Exp. J. Biol. 138, 271–288 (1988).
Artículo Google Académico
Le Roy, C., Debat, V. & Llaurens, V. Evolución adaptativa de la forma del ala de mariposa: de la morfología al comportamiento. Biol. Rev. 94, 1261–1281 (2019).
Académico de Google de PubMed
Maia, R., Gruson, H., Endler, JA & White, TE pavo 2: nuevas herramientas para el análisis espectral y espacial del color en R. Methods Ecol. Evol. 10, 1097–1107 (2019).
Artículo Google Académico
Van Belleghem, SM et al. patternize: un paquete R para cuantificar la variación del patrón de color. Métodos Ecol. Evol. 9, 390–398 (2018).
Artículo PubMed Google Académico
van den Berg, CP, Troscianko, J., Endler, JA, Marshall, NJ & Cheney, KL Análisis cuantitativo de patrones de color (QCPA): un marco integral para el análisis de patrones de color en la naturaleza. Métodos Ecol. Evolución 11, 316–332 (2020).
Artículo Google Académico
Troscianko, J. & Stevens, M. Caja de herramientas de análisis y calibración de imágenes: un paquete de software gratuito para medir objetivamente la reflectancia, el color y el patrón. Métodos Ecol. Evol. 6, 1320–1331 (2015).
Artículo PubMed PubMed Central Google Académico
Ataúd, D. dcraw v9.28, https://www.dechifro.org/dcraw/ (2018).
Wu, S. et al. La inteligencia artificial revela las limitaciones ambientales en la diversidad de colores en los insectos. Nat. común 10, 4554 (2019).
Artículo PubMed PubMed Central Google Académico
Pirih, P., Wilts, BD y Stavenga, DG Patrones de reflexión espacial de alas iridiscentes de mariposas piéridas macho: las escamas curvas se reflejan en un ángulo más amplio que las escamas planas. J.Comp. Fisiol. Un Neuroetol. Sens Neural Behav. Fisiol. 197, 987–997 (2011).
Artículo PubMed PubMed Central Google Académico
Breuker, CJ, Gibbs, M., Van Dongen, S., Merckx, T. y Van Dyck, H. en Morfometría para no morfométricos 271–287 (Springer, 2010).
Bybee, SM et al. Los fotorreceptores UV y los pigmentos de las alas UV-amarillo en las mariposas Heliconius permiten que una señal de color sirva tanto para el mimetismo como para la comunicación intraespecífica. Soy. Naturalista 179, 38–51 (2012).
Artículo Google Académico
Blagoderov, V., Kitching, IJ, Livermore, L., Simonsen, TJ & Smith, VS Ningún espécimen se queda atrás: digitalización a escala industrial de colecciones de historia natural. ZooKeys, 133 (2012).
Flemons, P. & Berents, P. Digitalización basada en imágenes de colecciones de entomología: aprovechamiento de voluntarios para aumentar la capacidad de digitalización. Zookeys, 203–217, (2012).
Faulwetter, S., Vasileiadou, A., Kouratoras, M., Dailianis, T. & Arvanitidis, C. Microtomografía computarizada: introducción de nuevas dimensiones a la taxonomía. ZooKeys, 1 (2013).
Metallo, A. & Rossi, V. El futuro de las aplicaciones de imágenes y museos tridimensionales. Curador.: Mus. J. 54, 63–69 (2011).
Artículo Google Académico
Medina, JJ et al. Una tubería rápida y rentable para la digitalización de especímenes de museo con fotogrametría 3D. PLoS ONE 15, e0236417 (2020).
Artículo CAS PubMed PubMed Central Google Scholar
Lürig, MD, Donoughe, S., Svensson, EI, Porto, A. & Tsuboi, M. Visión por computadora, aprendizaje automático y la promesa de la fenómica en ecología y biología evolutiva. Frente. Ecol. Evolución 9, 148 (2021).
Artículo Google Académico
Bitter, R., Mohiuddin, T. & Nawrocki, M. Técnicas avanzadas de programación de LabVIEW™. (Prensa CRC, 2017).
Bay, H., Ess, A., Tuytelaars, T. & Van Gool, L. SURF-Características robustas aceleradas Visión artificial y comprensión de imágenes (CVIU). (2008).
Lowe, DG en Actas de la séptima conferencia internacional IEEE sobre visión artificial. 1150-1157 (Ieee).
Gunturk, BK, Altunbasak, Y. & Mersereau, RM Interpolación de planos de color usando proyecciones alternas. Trans. IEEE. Proceso de imagen. 11, 997–1013 (2002).
Artículo PubMed Google Académico
Arthur, D. & Vassilvitskii, S. k-means++: The Advantages of Careful Seeding, SODA'07 Actas del decimoctavo simposio anual ACM-SIAM sobre algoritmos discretos, Nueva Orleans, Luisiana, 2007. https://theory.stanford. edu/~sergei/papers/kMeansPP-soda.pdf, 1027–1035.
Deng, G. y Cahill, L. en 1993, la conferencia IEEE registró un simposio de ciencia nuclear y una conferencia de imágenes médicas. 1615-1619 (IEEE).
Caselles, V., Kimmel, R. & Sapiro, G. Contornos activos geodésicos. En t. J. Computadora Vis. 22, 61–79 (1997).
Artículo Google Académico
Chan, TF & Vese, LA Contornos activos sin aristas. Trans. IEEE. Proceso de imagen. 10, 266–277 (2001).
Artículo CAS PubMed Google Académico
Crampton, JS Análisis de forma elíptica de Fourier de bivalvos fósiles: algunas consideraciones prácticas. Lethaia 28, 179–186 (1995).
Artículo Google Académico
Chan, W.-P. et al., Un sistema de imágenes multiespectrales de alto rendimiento para especímenes de museo, Dryad, Dataset. https://doi.org/10.5061/dryad.37pvmcvp5 (2022).
Descargar referencias
Agradecemos a Chen-Ming Yang por compartir el código fuente y asesorarnos cuando desarrollamos la herramienta para la segmentación manual de alas delanteras y traseras; Zoe Flores por probar todas las canalizaciones y guiones; Josh Sanes por sus consejos y aliento a través del Centro para la Ciencia del Cerebro de Harvard; y David Lohman por su asesoramiento y asistencia en la identificación del personal adecuado para la entrada de datos, así como para determinar la nomenclatura adecuada. Damos las gracias a Joel Greenwood por su ayuda en el desarrollo temprano del sistema de imágenes. Agradecemos a Sarah Maunsell, Jalen Winstanley, Amy Wu, Even Dankowicz, Clayton Ziemke, Christian Alessandro Perez, Ling Fang, Avalon Owens, Zhengyang Wang, Cong Liu, Katherine Angier, Evan Hoki, Francisco Matos, Beaziel Ombajen, Zoe Flores, Jocelyn Wang , Han-Ting Yang, Jingqian Wang, Jiale Chen, Annina Kennedy-Yoon, Atreyi Mukherji por probar y ayudar a optimizar diferentes protocolos y herramientas para inspección y corrección manual. W-PC recibió el apoyo de una beca de posgrado del Departamento de Biología Evolutiva y Orgánica de la Universidad de Harvard; SA recibió el apoyo de una subvención Herchel-Smith de la Universidad de Harvard; RARC recibió el apoyo de una beca de investigación de posgrado (GRFP) de la Fundación Nacional de Ciencias (NSF), C-CT recibió el apoyo de una beca de posgrado del Departamento de Física Aplicada y Matemáticas de la Universidad de Columbia. Esta investigación fue apoyada por la Oficina de Investigación Científica de la Fuerza Aérea FA9550-14-1-0389 (Iniciativa de Investigación Universitaria Multidisciplinaria) y FA9550-16-1-0322 (Programa de Instrumentación de Investigación de la Universidad de Defensa) a NY, y por NSF PHY-1411445 a NY y NSF PHY-1411123 según NEP y NSF DEB-0447242 según NEP. Publicado con una subvención de Acceso Abierto del Fondo Wetmore Colles del Museo de Zoología Comparada.
Estos autores contribuyeron igualmente: Wei-Ping Chan, Richard Rabideau Childers, Sorcha Ashe.
Departamento de Biología Orgánica y Evolutiva, Universidad de Harvard, Cambridge, MA, EE. UU.
Wei-Ping Chan, Richard Rabideau Childers, Sorcha Ashe, Caroline Elson y Naomi E. Pierce
Museo de Zoología Comparada, Universidad de Harvard, Cambridge, MA, EE. UU.
Wei-Ping Chan, Richard Rabideau Childers, Rachel L. Hawkins Sipe, Crystal A. Maier y Naomi E. Pierce
Departamento de Física Aplicada y Matemáticas Aplicadas, Universidad de Columbia, Nueva York, NY, EE. UU.
Cheng-Chia Tsai y Nanfang Yu
Departamento de Silvicultura y Recursos Ambientales, Universidad Estatal de Carolina del Norte, Raleigh, NC, EE. UU.
Kirsten J. Keleher
Departamento de Neurobiología y Comportamiento, Universidad de Cornell, Ithaca, NY, EE. UU.
Kirsten J. Keleher
Centro McGuire para Lepidópteros y Biodiversidad, Museo de Historia Natural de Florida, Universidad de Florida, Gainesville, FL, EE. UU.
andréi sourakov
Oficina de Sistemas Informáticos y División de Entomología, Museo Peabody de Historia Natural, Universidad de Yale, New Haven, CT, EE. UU.
Lawrence F Gall
Departamento de Ingeniería Eléctrica e Informática, Universidad de Washington, Seattle, WA, EE. UU.
Gary D.Bernardo
Centro de Ciencias del Cerebro, Universidad de Harvard, Cambridge, MA, EE. UU.
Edward R. Soucy
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
También puede buscar este autor en PubMed Google Scholar
Conceptualización: RRC, C.-CT, GDB, ERS, NY, NEP, Recopilación de datos: W.-PC, SA, CE, KJK, RRC, ERS, Curación de datos: RLHS, CAM, AS, LFG, Desarrollo de hardware: RRC , ERS, Desarrollo de software: W.-PC, Análisis formal: W.-PC, Visualización: W.-PC, Validación: W.-PC, SA, Redacción: borrador original: W.-PC, RRC, SA, NEP , Redacción—revisión y edición: Todos los autores
Correspondencia a Wei-Ping Chan o Naomi E. Pierce.
Los autores declaran no tener conflictos de intereses.
Communications Biology agradece a Bodo Wilts y a los otros revisores anónimos por su contribución a la revisión por pares de este trabajo. Editores principales de manejo: Veronique van den Berghe y Luke R. Grinham. Los informes de los revisores están disponibles.
Nota del editor Springer Nature se mantiene neutral con respecto a los reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.
Acceso abierto Este artículo tiene una licencia internacional Creative Commons Attribution 4.0, que permite el uso, el intercambio, la adaptación, la distribución y la reproducción en cualquier medio o formato, siempre que se otorgue el crédito correspondiente al autor o autores originales y a la fuente. proporcionar un enlace a la licencia Creative Commons e indicar si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la regulación legal o excede el uso permitido, deberá obtener el permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.
Reimpresiones y permisos
Chan, WP., Rabideau Childers, R., Ashe, S. et al. Un sistema de imágenes multiespectrales de alto rendimiento para especímenes de museo. Comun Biol 5, 1318 (2022). https://doi.org/10.1038/s42003-022-04282-z
Descargar cita
Recibido: 04 Agosto 2022
Aceptado: 18 de noviembre de 2022
Publicado: 01 diciembre 2022
DOI: https://doi.org/10.1038/s42003-022-04282-z
Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:
Lo sentimos, un enlace para compartir no está disponible actualmente para este artículo.
Proporcionado por la iniciativa de intercambio de contenido Springer Nature SharedIt
Al enviar un comentario, acepta cumplir con nuestros Términos y Pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.