Aprendizaje profundo para la evaluación de la calidad de la imagen de la angiografía por tomografía de coherencia óptica

Gracias por visitar Nature.com.Está utilizando una versión del navegador con soporte CSS limitado.Para obtener la mejor experiencia, le recomendamos que utilice un navegador actualizado (o deshabilite el Modo de compatibilidad en Internet Explorer).Además, para garantizar un soporte continuo, mostramos el sitio sin estilos ni JavaScript.
Controles deslizantes que muestran tres artículos por diapositiva.Utilice los botones Atrás y Siguiente para moverse por las diapositivas, o los botones del controlador de diapositivas al final para moverse por cada diapositiva.
La angiografía por tomografía de coherencia óptica (OCTA) es un nuevo método para la visualización no invasiva de los vasos retinianos.Aunque OCTA tiene muchas aplicaciones clínicas prometedoras, determinar la calidad de la imagen sigue siendo un desafío.Desarrollamos un sistema basado en aprendizaje profundo utilizando el clasificador de redes neuronales ResNet152 previamente entrenado con ImageNet para clasificar imágenes del plexo capilar superficial de 347 exploraciones de 134 pacientes.Las imágenes también fueron evaluadas manualmente como verdaderas por dos evaluadores independientes para un modelo de aprendizaje supervisado.Debido a que los requisitos de calidad de imagen pueden variar según los entornos clínicos o de investigación, se entrenaron dos modelos, uno para el reconocimiento de imágenes de alta calidad y el otro para el reconocimiento de imágenes de baja calidad.Nuestro modelo de red neuronal muestra un excelente área bajo la curva (AUC), IC del 95 %: 0,96-0,99, \(\kappa\) = 0,81), que es significativamente mejor que el nivel de señal informado por la máquina (AUC = 0,82, 95). % IC).0,77–0,86, \(\kappa\) = 0,52 y AUC = 0,78, IC del 95 %: 0,73–0,83, \(\kappa\) = 0,27, respectivamente).Nuestro estudio demuestra que los métodos de aprendizaje automático se pueden utilizar para desarrollar métodos de control de calidad flexibles y sólidos para imágenes OCTA.
La angiografía por tomografía de coherencia óptica (OCTA) es una técnica relativamente nueva basada en la tomografía de coherencia óptica (OCT) que se puede utilizar para la visualización no invasiva de la microvasculatura retiniana.OCTA mide la diferencia en los patrones de reflexión de pulsos de luz repetidos en la misma área de la retina, y luego se pueden calcular reconstrucciones para revelar vasos sanguíneos sin el uso invasivo de tintes u otros agentes de contraste.OCTA también permite obtener imágenes vasculares con resolución profunda, lo que permite a los médicos examinar por separado las capas de los vasos superficiales y profundos, lo que ayuda a diferenciar entre la enfermedad coriorretiniana.
Si bien esta técnica es prometedora, la variación de la calidad de la imagen sigue siendo un desafío importante para el análisis de imágenes confiable, lo que dificulta la interpretación de las imágenes y evita su adopción clínica generalizada.Debido a que OCTA utiliza múltiples exploraciones OCT consecutivas, es más sensible a los artefactos de la imagen que la OCT estándar.La mayoría de las plataformas OCTA comerciales proporcionan su propia métrica de calidad de imagen llamada Intensidad de la señal (SS) o, a veces, Índice de intensidad de la señal (SSI).Sin embargo, las imágenes con un valor alto de SS o SSI no garantizan la ausencia de artefactos en la imagen, lo que puede afectar cualquier análisis de imagen posterior y conducir a decisiones clínicas incorrectas.Los artefactos de imagen comunes que pueden ocurrir en las imágenes OCTA incluyen artefactos de movimiento, artefactos de segmentación, artefactos de opacidad de los medios y artefactos de proyección1,2,3.
Dado que las medidas derivadas de OCTA, como la densidad vascular, se utilizan cada vez más en la investigación traslacional, los ensayos clínicos y la práctica clínica, existe una necesidad urgente de desarrollar procesos de control de calidad de imagen sólidos y confiables para eliminar artefactos de imagen4.Las conexiones de salto, también conocidas como conexiones residuales, son proyecciones en la arquitectura de redes neuronales que permiten que la información evite las capas convolucionales mientras almacena información en diferentes escalas o resoluciones5.Debido a que los artefactos de la imagen pueden afectar el rendimiento de la imagen a pequeña escala y general a gran escala, las redes neuronales de conexión por salto son muy adecuadas para automatizar esta tarea de control de calidad5.Un trabajo publicado recientemente ha demostrado ser prometedor para las redes neuronales convolucionales profundas entrenadas utilizando datos de alta calidad de estimadores humanos6.
En este estudio, entrenamos una red neuronal convolucional de salto de conexión para determinar automáticamente la calidad de las imágenes OCTA.Nos basamos en trabajos anteriores mediante el desarrollo de modelos separados para identificar imágenes de alta calidad e imágenes de baja calidad, ya que los requisitos de calidad de imagen pueden diferir para escenarios clínicos o de investigación específicos.Comparamos los resultados de estas redes con redes neuronales convolucionales sin perder conexiones para evaluar el valor de incluir características en múltiples niveles de granularidad dentro del aprendizaje profundo.Luego comparamos nuestros resultados con la intensidad de la señal, una medida comúnmente aceptada de la calidad de imagen proporcionada por los fabricantes.
Nuestro estudio incluyó pacientes con diabetes que asistieron al Yale Eye Center entre el 11 de agosto de 2017 y el 11 de abril de 2019. Se excluyeron los pacientes con cualquier enfermedad coriorretiniana no diabética.No hubo criterios de inclusión o exclusión basados ​​en edad, sexo, raza, calidad de imagen o cualquier otro factor.
Las imágenes OCTA se adquirieron utilizando la plataforma AngioPlex en un Cirrus HD-OCT 5000 (Carl Zeiss Meditec Inc, Dublin, CA) con protocolos de imágenes de 8\(\times\)8 mm y 6\(\times\)6 mm.Se obtuvo el consentimiento informado para participar en el estudio de cada participante del estudio, y la Junta de Revisión Institucional de la Universidad de Yale (IRB) aprobó el uso del consentimiento informado con fotografía global para todos estos pacientes.Siguiendo los principios de la Declaración de Helsinki.El estudio fue aprobado por el IRB de la Universidad de Yale.
Las imágenes de la placa de superficie se evaluaron en función de la puntuación de artefacto de movimiento (MAS) descrita anteriormente, la puntuación de artefacto de segmentación (SAS) descrita anteriormente, el centro foveal, la presencia de opacidad de los medios y la buena visualización de los capilares pequeños según lo determinado por el evaluador de imágenes.Las imágenes fueron analizadas por dos evaluadores independientes (RD y JW).Una imagen tiene una puntuación de 2 (elegible) si se cumplen todos los criterios siguientes: la imagen está centrada en la fóvea (a menos de 100 píxeles del centro de la imagen), MAS es 1 o 2, SAS es 1 y la opacidad de los medios es inferior a 1. Está presente en imágenes de tamaño / 16 y se observan pequeños capilares en imágenes mayores de 15/16.Una imagen se califica con 0 (sin calificación) si se cumple alguno de los siguientes criterios: la imagen está descentrada, si MAS es 4, si SAS es 2 o la opacidad promedio es mayor que 1/4 de la imagen, y los capilares pequeños no se pueden ajustar más de 1 imagen/4 para distinguirlos.Todas las demás imágenes que no cumplen con los criterios de puntuación 0 o 2 se puntúan como 1 (recorte).
En la fig.1 muestra imágenes de muestra para cada una de las estimaciones escaladas y artefactos de imagen.La confiabilidad entre evaluadores de las puntuaciones individuales se evaluó mediante la ponderación kappa de Cohen8.Las puntuaciones individuales de cada evaluador se suman para obtener una puntuación general para cada imagen, que oscila entre 0 y 4. Las imágenes con una puntuación total de 4 se consideran buenas.Las imágenes con una puntuación total de 0 o 1 se consideran de baja calidad.
Se generó una red neuronal convolucional de arquitectura ResNet152 (Fig. 3A.i) previamente entrenada en imágenes de la base de datos ImageNet utilizando fast.ai y el marco PyTorch5, 9, 10, 11. Una red neuronal convolucional es una red que utiliza lo aprendido Filtros para escanear fragmentos de imágenes para estudiar características espaciales y locales.Nuestra ResNet entrenada es una red neuronal de 152 capas caracterizada por brechas o "conexiones residuales" que transmiten simultáneamente información con múltiples resoluciones.Al proyectar información a diferentes resoluciones a través de la red, la plataforma puede aprender las características de imágenes de baja calidad en múltiples niveles de detalle.Además de nuestro modelo ResNet, también entrenamos AlexNet, una arquitectura de red neuronal bien estudiada, sin que falten conexiones para comparar (Figura 3A.ii)12.Sin conexiones faltantes, esta red no podrá capturar funciones con una granularidad más alta.
El conjunto de imágenes OCTA13 original de 8\(\times\)8 mm se ha mejorado utilizando técnicas de reflexión horizontal y vertical.Luego, el conjunto de datos completo se dividió aleatoriamente a nivel de imagen en conjuntos de datos de entrenamiento (51,2%), prueba (12,8%), ajuste de hiperparámetros (16%) y validación (20%) utilizando la caja de herramientas scikit-learn python14.Se consideraron dos casos, uno basado en detectar solo las imágenes de mayor calidad (puntuación general 4) y el otro basado en detectar solo las imágenes de menor calidad (puntuación general 0 o 1).Para cada caso de uso de alta y baja calidad, la red neuronal se vuelve a entrenar una vez con nuestros datos de imagen.En cada caso de uso, la red neuronal se entrenó durante 10 épocas, todos los pesos de las capas excepto los más altos se congelaron y los pesos de todos los parámetros internos se aprendieron durante 40 épocas utilizando un método de tasa de aprendizaje discriminativo con una función de pérdida de entropía cruzada 15. dieciséis..La función de pérdida de entropía cruzada es una medida de la escala logarítmica de la discrepancia entre las etiquetas de red previstas y los datos reales.Durante el entrenamiento, se realiza un descenso de gradiente en los parámetros internos de la red neuronal para minimizar las pérdidas.Los hiperparámetros de tasa de aprendizaje, tasa de abandono y reducción de peso se ajustaron mediante optimización bayesiana con 2 puntos de partida aleatorios y 10 iteraciones, y el AUC en el conjunto de datos se ajustó utilizando los hiperparámetros como objetivo de 17.
Ejemplos representativos de imágenes OCTA de 8 × 8 mm de plexos capilares superficiales obtuvieron una puntuación de 2 (A, B), 1 (C, D) y 0 (E, F).Los artefactos de la imagen que se muestran incluyen líneas parpadeantes (flechas), artefactos de segmentación (asteriscos) y opacidad del medio (flechas).La imagen (E) también está descentrada.
Luego se generan curvas de características operativas del receptor (ROC) para todos los modelos de redes neuronales y se generan informes de intensidad de la señal del motor para cada caso de uso de alta y baja calidad.El área bajo la curva (AUC) se calculó utilizando el paquete pROC R, y los intervalos de confianza del 95 % y los valores p se calcularon utilizando el método DeLong18,19.Las puntuaciones acumuladas de los evaluadores humanos se utilizan como base para todos los cálculos de la República de China.Para la intensidad de la señal informada por la máquina, el AUC se calculó dos veces: una vez para el límite de puntuación de escalabilidad de alta calidad y otra para el límite de puntuación de escalabilidad de baja calidad.La red neuronal se compara con la intensidad de la señal AUC, lo que refleja sus propias condiciones de entrenamiento y evaluación.
Para probar más a fondo el modelo de aprendizaje profundo entrenado en un conjunto de datos separado, se aplicaron modelos de alta y baja calidad directamente a la evaluación del rendimiento de 32 imágenes de losa de superficie de 6\(\times\) 6 mm de cara completa recopiladas de la Universidad de Yale.La masa del ojo se centra al mismo tiempo que la imagen 8 \(\times \) 8 mm.Las imágenes de 6\(\×\) 6 mm fueron evaluadas manualmente por los mismos evaluadores (RD y JW) de la misma manera que las imágenes de 8\(\×\) 8 mm, se calculó el AUC, así como la precisión y el kappa de Cohen. .igualmente .
La relación de desequilibrio de clases es 158:189 (\(\rho = 1,19\)) para el modelo de baja calidad y 80:267 (\(\rho = 3,3\)) para el modelo de alta calidad.Debido a que la relación de desequilibrio de clases es inferior a 1:4, no se han realizado cambios arquitectónicos específicos para corregir el desequilibrio de clases20,21.
Para visualizar mejor el proceso de aprendizaje, se generaron mapas de activación de clases para los cuatro modelos de aprendizaje profundo entrenados: modelo ResNet152 de alta calidad, modelo ResNet152 de baja calidad, modelo AlexNet de alta calidad y modelo AlexNet de baja calidad.Los mapas de activación de clase se generan a partir de las capas convolucionales de entrada de estos cuatro modelos, y los mapas de calor se generan superponiendo mapas de activación con imágenes fuente de los conjuntos de validación de 8 × 8 mm y 6 × 6 mm22, 23.
Se utilizó R versión 4.0.3 para todos los cálculos estadísticos y las visualizaciones se crearon utilizando la biblioteca de herramientas de gráficos ggplot2.
Recopilamos 347 imágenes frontales del plexo capilar superficial que medían 8 \(\times \)8 mm de 134 personas.La máquina informó la intensidad de la señal en una escala de 0 a 10 para todas las imágenes (media = 6,99 ± 2,29).De las 347 imágenes adquiridas, la edad media en el momento de la exploración fue de 58,7 ± 14,6 años y el 39,2% eran de pacientes masculinos.De todas las imágenes, el 30,8% eran de caucásicos, el 32,6% de negros, el 30,8% de hispanos, el 4% de asiáticos y el 1,7% de otras razas (Tabla 1).).La distribución por edades de los pacientes con OCTA difirió significativamente según la calidad de la imagen (p <0,001).El porcentaje de imágenes de alta calidad en pacientes más jóvenes de 18 a 45 años fue del 33,8% frente al 12,2% de imágenes de baja calidad (Tabla 1).La distribución del estado de la retinopatía diabética también varió significativamente en la calidad de la imagen (p <0,017).Entre todas las imágenes de alta calidad, el porcentaje de pacientes con PDR fue del 18,8% en comparación con el 38,8% de todas las imágenes de baja calidad (Tabla 1).
Las calificaciones individuales de todas las imágenes mostraron una confiabilidad entre calificaciones de moderada a fuerte entre las personas que leyeron las imágenes (kappa ponderada de Cohen = 0,79, IC del 95 %: 0,76-0,82), y no hubo puntos de imagen en los que los evaluadores difirieran en más de 1 (Fig. 2A)..La intensidad de la señal se correlacionó significativamente con la puntuación manual (correlación del momento del producto de Pearson = 0,58, IC del 95 %: 0,51 a 0,65, p <0,001), pero se identificó que muchas imágenes tenían una intensidad de señal alta pero una puntuación manual baja (Fig. 2B).
Durante el entrenamiento de las arquitecturas ResNet152 y AlexNet, la pérdida de entropía cruzada en la validación y el entrenamiento cae en 50 épocas (Figura 3B,C).La precisión de la validación en la época de capacitación final es superior al 90 % para casos de uso tanto de alta como de baja calidad.
Las curvas de rendimiento del receptor muestran que el modelo ResNet152 supera significativamente la potencia de señal informada por la máquina en casos de uso de baja y alta calidad (p <0,001).El modelo ResNet152 también supera significativamente a la arquitectura AlexNet (p = 0,005 y p = 0,014 para casos de baja y alta calidad, respectivamente).Los modelos resultantes para cada una de estas tareas pudieron alcanzar valores AUC de 0,99 y 0,97, respectivamente, lo que es significativamente mejor que los valores AUC correspondientes de 0,82 y 0,78 para el índice de intensidad de la señal de la máquina o 0,97 y 0,94 para AlexNet. ..(Fig. 3).La diferencia entre ResNet y AUC en la intensidad de la señal es mayor cuando se reconocen imágenes de alta calidad, lo que indica beneficios adicionales de usar ResNet para esta tarea.
Los gráficos muestran la capacidad de cada evaluador independiente para puntuar y comparar con la intensidad de la señal informada por la máquina.(A) La suma de los puntos a evaluar se utiliza para crear el número total de puntos a evaluar.A las imágenes con una puntuación de escalabilidad general de 4 se les asigna alta calidad, mientras que a las imágenes con una puntuación de escalabilidad general de 1 o menos se les asigna baja calidad.(B) La intensidad de la señal se correlaciona con las estimaciones manuales, pero las imágenes con alta intensidad de señal pueden ser de peor calidad.La línea de puntos roja indica el umbral de calidad recomendado por el fabricante en función de la intensidad de la señal (intensidad de la señal \(\ge\)6).
El aprendizaje por transferencia de ResNet proporciona una mejora significativa en la identificación de la calidad de la imagen para casos de uso de baja y alta calidad en comparación con los niveles de señal informados por máquina.(A) Diagramas de arquitectura simplificados de arquitecturas (i) ResNet152 y (ii) AlexNet previamente entrenadas.(B) Historial de entrenamiento y curvas de rendimiento del receptor para ResNet152 en comparación con la intensidad de la señal informada por la máquina y los criterios de baja calidad de AlexNet.(C) Historial de entrenamiento del receptor ResNet152 y curvas de rendimiento en comparación con la intensidad de la señal informada por la máquina y los criterios de alta calidad de AlexNet.
Después de ajustar el umbral del límite de decisión, la precisión máxima de predicción del modelo ResNet152 es del 95,3% para el caso de baja calidad y del 93,5% para el caso de alta calidad (Tabla 2).La precisión máxima de predicción del modelo AlexNet es del 91,0% para el caso de baja calidad y del 90,1% para el caso de alta calidad (Tabla 2).La precisión máxima de predicción de la intensidad de la señal es del 76,1 % para el caso de uso de baja calidad y del 77,8 % para el caso de uso de alta calidad.Según kappa de Cohen (\(\kappa\)), la concordancia entre el modelo ResNet152 y los estimadores es de 0,90 para el caso de baja calidad y de 0,81 para el caso de alta calidad.AlexNet kappa de Cohen es 0,82 y 0,71 para casos de uso de baja y alta calidad, respectivamente.La intensidad de la señal kappa de Cohen es 0,52 y 0,27 para los casos de uso de baja y alta calidad, respectivamente.
La validación de modelos de reconocimiento de alta y baja calidad en imágenes de 6\(\x\) de una placa plana de 6 mm demuestra la capacidad del modelo entrenado para determinar la calidad de la imagen en varios parámetros de imagen.Cuando se utilizaron losas poco profundas de 6\(\x\) 6 mm para la calidad de imagen, el modelo de baja calidad tuvo un AUC de 0,83 (IC del 95 %: 0,69–0,98) y el modelo de alta calidad tuvo un AUC de 0,85.(IC 95%: 0,55-1,00) (Tabla 2).
La inspección visual de los mapas de activación de clase de la capa de entrada mostró que todas las redes neuronales entrenadas utilizaron características de imagen durante la clasificación de imágenes (Fig. 4A, B).Para imágenes de 8 \(\times \) 8 mm y 6 \(\times \) 6 mm, las imágenes de activación de ResNet siguen de cerca la vasculatura retiniana.Los mapas de activación de AlexNet también siguen los vasos de la retina, pero con una resolución más gruesa.
Los mapas de activación de clases para los modelos ResNet152 y AlexNet resaltan características relacionadas con la calidad de la imagen.(A) Mapa de activación de clase que muestra la activación coherente después de la vasculatura retiniana superficial en imágenes de validación de 8 \(\times \) 8 mm y (B) extensión en imágenes de validación más pequeñas de 6 \(\times \) 6 mm.Modelo LQ entrenado con criterios de baja calidad, modelo HQ entrenado con criterios de alta calidad.
Anteriormente se ha demostrado que la calidad de la imagen puede afectar en gran medida cualquier cuantificación de las imágenes OCTA.Además, la presencia de retinopatía aumenta la incidencia de artefactos en la imagen7,26.De hecho, en nuestros datos, de acuerdo con estudios previos, encontramos una asociación significativa entre el aumento de la edad y la gravedad de la enfermedad de la retina y el deterioro de la calidad de la imagen (p <0,001, p = 0,017 para la edad y el estado de DR, respectivamente; Tabla 1) 27 Por lo tanto, es fundamental evaluar la calidad de la imagen antes de realizar cualquier análisis cuantitativo de las imágenes OCTA.La mayoría de los estudios que analizan imágenes OCTA utilizan umbrales de intensidad de señal informados por máquinas para descartar imágenes de baja calidad.Aunque se ha demostrado que la intensidad de la señal afecta la cuantificación de los parámetros OCTA, una intensidad de señal alta por sí sola puede no ser suficiente para descartar imágenes con artefactos de imagen2,3,28,29.Por tanto, es necesario desarrollar un método más fiable de control de calidad de imagen.Con este fin, evaluamos el rendimiento de los métodos de aprendizaje profundo supervisados ​​frente a la intensidad de la señal informada por la máquina.
Hemos desarrollado varios modelos para evaluar la calidad de la imagen porque diferentes casos de uso de OCTA pueden tener diferentes requisitos de calidad de imagen.Por ejemplo, las imágenes deberían ser de mayor calidad.Además, también son importantes parámetros cuantitativos específicos de interés.Por ejemplo, el área de la zona avascular foveal no depende de la turbiedad del medio no central, pero afecta la densidad de los vasos.Si bien nuestra investigación continúa enfocándose en un enfoque general de la calidad de la imagen, no vinculado a los requisitos de ninguna prueba en particular, pero destinado a reemplazar directamente la intensidad de la señal reportada por la máquina, esperamos brindar a los usuarios un mayor grado de control para que puedan Puede seleccionar la métrica específica de interés para el usuario.Elija un modelo que corresponda al grado máximo de artefactos de imagen considerado aceptable.
Para escenas de baja y alta calidad, mostramos un rendimiento excelente de las redes neuronales convolucionales profundas sin conexión, con AUC de 0,97 y 0,99 y modelos de baja calidad, respectivamente.También demostramos el rendimiento superior de nuestro enfoque de aprendizaje profundo en comparación con los niveles de señal informados únicamente por las máquinas.Las conexiones saltadas permiten que las redes neuronales aprendan características en múltiples niveles de detalle, capturando aspectos más finos de las imágenes (por ejemplo, contraste), así como características generales (por ejemplo, centrado de imágenes30,31).Dado que los artefactos de imagen que afectan la calidad de la imagen probablemente se identifican mejor en un amplio rango, las arquitecturas de redes neuronales a las que les faltan conexiones pueden exhibir un mejor rendimiento que aquellas sin tareas de determinación de la calidad de la imagen.
Al probar nuestro modelo en imágenes OCTA de 6\(\×6 mm), notamos una disminución en el rendimiento de clasificación tanto para los modelos de alta como de baja calidad (Fig. 2), en contraste con el tamaño del modelo entrenado para la clasificación.En comparación con el modelo ResNet, el modelo AlexNet tiene una caída mayor.El rendimiento relativamente mejor de ResNet puede deberse a la capacidad de las conexiones residuales para transmitir información a múltiples escalas, lo que hace que el modelo sea más robusto para clasificar imágenes capturadas en diferentes escalas y/o aumentos.
Algunas diferencias entre imágenes de 8 \(\×\) 8 mm y 6 imágenes de \(\×\) 6 mm pueden dar lugar a una clasificación deficiente, incluida una proporción relativamente alta de imágenes que contienen áreas foveales avasculares, cambios en la visibilidad, arcadas vasculares y sin nervio óptico en la imagen 6×6 mm.A pesar de esto, nuestro modelo ResNet de alta calidad pudo lograr un AUC del 85% para imágenes de 6 \(\x\) 6 mm, una configuración para la cual el modelo no fue entrenado, lo que sugiere que la información de calidad de la imagen codificada en la red neuronal es adecuado.para un tamaño de imagen o configuración de máquina fuera de su entrenamiento (Tabla 2).De manera tranquilizadora, los mapas de activación similares a ResNet y AlexNet de imágenes de 8 \(\times \) 8 mm y 6 \(\times \) 6 mm pudieron resaltar los vasos retinianos en ambos casos, lo que sugiere que el modelo tiene información importante.son aplicables para clasificar ambos tipos de imágenes OCTA (Fig. 4).
Lauerman et al.La evaluación de la calidad de la imagen en imágenes OCTA se realizó de manera similar utilizando la arquitectura Inception, otra red neuronal convolucional de conexión por salto6,32 que utiliza técnicas de aprendizaje profundo.También limitaron el estudio a imágenes del plexo capilar superficial, pero sólo utilizando las imágenes más pequeñas de 3×3 mm de Optovue AngioVue, aunque también se incluyeron pacientes con diversas enfermedades coriorretinianas.Nuestro trabajo se basa en sus bases, incluidos múltiples modelos para abordar varios umbrales de calidad de imagen y validar resultados para imágenes de diferentes tamaños.También informamos la métrica AUC de los modelos de aprendizaje automático y aumentamos su ya impresionante precisión (90%)6 tanto para los modelos de baja calidad (96%) como para los de alta calidad (95,7%).
Esta formación tiene varias limitaciones.Primero, las imágenes se adquirieron con una sola máquina OCTA, incluidas solo imágenes del plexo capilar superficial a 8\(\times\)8 mm y 6\(\times\)6 mm.La razón para excluir imágenes de capas más profundas es que los artefactos de proyección pueden hacer que la evaluación manual de las imágenes sea más difícil y posiblemente menos consistente.Además, las imágenes sólo se han adquirido en pacientes diabéticos, para quienes OCTA se está convirtiendo en una importante herramienta de diagnóstico y pronóstico33,34.Aunque pudimos probar nuestro modelo en imágenes de diferentes tamaños para garantizar que los resultados fueran sólidos, no pudimos identificar conjuntos de datos adecuados de diferentes centros, lo que limitó nuestra evaluación de la generalización del modelo.Aunque las imágenes se obtuvieron de un solo centro, se obtuvieron de pacientes de diferentes orígenes étnicos y raciales, lo cual es una fortaleza única de nuestro estudio.Al incluir la diversidad en nuestro proceso de capacitación, esperamos que nuestros resultados se generalicen en un sentido más amplio y que evitemos codificar prejuicios raciales en los modelos que entrenamos.
Nuestro estudio muestra que las redes neuronales que saltan conexiones se pueden entrenar para lograr un alto rendimiento en la determinación de la calidad de la imagen OCTA.Proporcionamos estos modelos como herramientas para futuras investigaciones.Debido a que diferentes métricas pueden tener diferentes requisitos de calidad de imagen, se puede desarrollar un modelo de control de calidad individual para cada métrica utilizando la estructura establecida aquí.
Las investigaciones futuras deberían incluir imágenes de diferentes tamaños desde diferentes profundidades y diferentes máquinas OCTA para obtener un proceso de evaluación de la calidad de la imagen de aprendizaje profundo que pueda generalizarse a las plataformas y protocolos de imágenes OCTA.La investigación actual también se basa en enfoques de aprendizaje profundo supervisado que requieren evaluación humana y evaluación de imágenes, lo que puede requerir mucho trabajo y tiempo para grandes conjuntos de datos.Queda por ver si los métodos de aprendizaje profundo no supervisados ​​pueden distinguir adecuadamente entre imágenes de baja calidad e imágenes de alta calidad.
A medida que la tecnología OCTA continúa evolucionando y las velocidades de escaneo aumentan, la incidencia de artefactos en la imagen y de imágenes de mala calidad puede disminuir.Las mejoras en el software, como la función de eliminación de artefactos de proyección introducida recientemente, también pueden aliviar estas limitaciones.Sin embargo, persisten muchos problemas, ya que las imágenes de pacientes con una fijación deficiente o una turbidez significativa del medio producen invariablemente artefactos en la imagen.A medida que OCTA se utiliza más ampliamente en ensayos clínicos, se necesita una cuidadosa consideración para establecer pautas claras para niveles aceptables de artefactos de imagen para el análisis de imágenes.La aplicación de métodos de aprendizaje profundo a imágenes OCTA es muy prometedora y se necesita más investigación en esta área para desarrollar un enfoque sólido para el control de la calidad de la imagen.
El código utilizado en la investigación actual está disponible en el repositorio octa-qc, https://github.com/rahuldhodapkar/octa-qc.Los conjuntos de datos generados y/o analizados durante el estudio actual están disponibles a través de los respectivos autores previa solicitud razonable.
Spaide, RF, Fujimoto, JG y Waheed, NK Artefactos de imagen en angiografía de coherencia óptica.Retina 35, 2163–2180 (2015).
Fenner, BJ y cols.Identificación de características de imagen que determinan la calidad y reproducibilidad de las mediciones de densidad del plexo capilar retiniano en angiografía OCT.BR.J. Oftalmol.102, 509–514 (2018).
Lauerman, JL y cols.Influencia de la tecnología de seguimiento ocular en la calidad de imagen de la angiografía OCT en la degeneración macular relacionada con la edad.Arco de tumba.clínico.Exp.oftalmología.255, 1535-1542 (2017).
Babyuch AS et al.Las mediciones de densidad de perfusión capilar OCTA se utilizan para detectar y evaluar la isquemia macular.cirugía oftálmica.Imágenes láser de retina 51, S30 – S36 (2020).
He, K., Zhang, X., Ren, S. y Sun, J. Aprendizaje residual profundo para el reconocimiento de imágenes.En 2016 en la Conferencia IEEE sobre Visión por Computadora y Reconocimiento de Patrones (2016).
Lauerman, JL y cols.Evaluación automatizada de la calidad de la imagen angiográfica OCT mediante algoritmos de aprendizaje profundo.Arco de tumba.clínico.Exp.oftalmología.257, 1641-1648 (2019).
Lauermann, J. y col.La prevalencia de errores de segmentación y artefactos de movimiento en la angiografía por OCT depende de la enfermedad de la retina.Arco de tumba.clínico.Exp.oftalmología.256, 1807–1816 (2018).
Pask, Adam y cols.Pytorch: una biblioteca imperativa de aprendizaje profundo de alto rendimiento.Procesamiento avanzado de información neuronal.sistema.32, 8026–8037 (2019).
Deng, J. y col.ImageNet: una base de datos de imágenes jerárquica a gran escala.Conferencia IEEE 2009 sobre visión por computadora y reconocimiento de patrones.248–255.(2009).
Krizhevsky A., Sutzkever I. y Hinton GE Clasificación de Imagenet utilizando redes neuronales convolucionales profundas.Procesamiento avanzado de información neuronal.sistema.25, 1 (2012).


Hora de publicación: 30 de mayo de 2023
  • chatear
  • chatear