Segmentación totalmente automatizada de la neuroanatomía en TC de cráneo usando el aprendizaje profundo

Artículo original: Cai, J. C., Akkus, Z., Philbrick, K. A., Boonrod, A., Hoodeshenas, S., Weston, A. D., et al. Fully Automated Segmentation of Head CT Neuroanatomy Using Deep Learning. Radiology: Artificial Intelligence. 2020; 2(5).

DOI: https://doi.org/10.1148/ryai.2020190183

Sociedad: Radiological Society of North America (RSNA) (@radiology_rsna)

Palabras clave: N/A.

Abreviaturas y acrónimos utilizados: IA (Inteligencia Artificial), TC (tomografía computarizada), ROI (Region Of Interest), BC (brainstem and cerebrum), CA (internal capsule), CE (cerebellum), CN (caudate nucleus), CO  (insular cortex), CS (central sulcus), DV (dural folds and venous sinuses), LN (lentiform nucleus), SP (septum pellucidum), SS (subarachnoid space), VS (ventricular system)

Línea editorial del número: Con los mismos estándares editoriales que Radiology, Radiology: Artificial Intelligence, es una nueva revista de la RSNA lanzada a principios de 2019 en la cual se ponen en relieve las aplicaciones emergentes del aprendizaje automático (AA) y la inteligencia artificial (IA) en el campo de la imagen médica. Se publica cada dos meses y está disponible exclusivamente on line. Pretende dar cabida a manuscritos que muestren el impacto de la IA en el diagnóstico, extracción de información o flujo de trabajo en radiología. En general, manifiesta su intención de plasmar trabajos sobre aplicaciones novedosas o metodologías innovadoras de IA en radiología. De una manera secundaria también persigue reflejar, a través de reseñas y artículos de opinión, temas candentes en relación a la educación sobre IA en radiología, al papel de la IA para formar a los radiólogos o a los problemas éticos, legales y sociales que rodean a la IA.

Motivo para la selección: He elegido este artículo porque me resulta especialmente interesante que esté creciendo, de manera tan vertiginosa, el interés en este tipo de temas que creo que acercan el mundo de la ingeniería al de la radiología. De entre el resto de artículos me ha llamado especialmente la atención porque creo que, para el resto de lectores, si no están muy vinculados con el mundo de la inteligencia artificial, puede resultar más comprensible y atrayente.

Resumen:

Varios estudios han demostrado que las características estructurales de neuroanatomía que muestra la TC, podrían ser predictivas de enfermedades neurológicas. Sin embargo, la segmentación automática masiva de estructuras neurales, imposible hasta hace poco tiempo, ha impedido el uso rutinario en la práctica clínica de las funciones derivadas de la imagen volumétrica; así como el descubrimiento de nuevas asociaciones y predictores poblacionales para estas características.

Este trabajo busca desarrollar un modelo de aprendizaje profundo que segmente las estructuras intracraneales en TC craneales. En este estudio retrospectivo, se utilizó para el desarrollo del modelo un conjunto de datos primario que contiene 62 TC craneales sin contraste, clasificados por el informe radiológico como normales (edad media, 73 años; rango de edad, 27 a 95 años) adquirido entre agosto y diciembre de 2018. Las estructuras intracraneales se etiquetaron manualmente en la serie de adquisición axial oblicua.

Se dividió el conjunto de datos primario en 40 TC (1738 cortes) para el propio entrenamiento, 10 (397 cortes) para validación y 12 (530 cortes) para la parte de test. Cada TC se segmentó en 11 regiones de interés (ROI) por un equipo de técnicos de radiología, previamente instruidos por dos radiólogos. Las ROI fueron: tronco del encéfalo y cerebro (BC, como una clase), núcleo caudado (CN), surco central (CS), cerebelo (CE), senos venosos (DV), corteza insular (CO), cápsula interna (CA), núcleo lentiforme (LN), septum pellucidum (SP), espacio subaracnoideo (SS) y sistema ventricular (VS). El programa empleado para la segmentación de estructuras intracraneales fue: RIL-Contour.

De cada TC se seleccionaron de 4 a 6 cortes para representar los 11 ROI. Un corte debía contener CE, otro corte contenía CS en el nivel de su máxima superficie subjetiva visible, y de 2 a 4 cortes contiguos contenían CA, CN, CO, LN y SP. El sistema de elección de cortes así como las etiquetas se eligieron por la mayoría de votación entre radiólogos.

La red neuronal tenía como entrada una matriz de dos dimensiones de 512x512x1, que finalmente acababa transformándose en un tensor de características de 32x32x1024. La salida de la red consistía en una máscara de segmentación de 512x512x12 (donde el tercer canal correspondía a las 11 ROI etiquetadas automáticamente). El modelo contenía 31.042.499 parámetros entrenables. Después de experimentar con varias configuraciones, el modelo final se basó en emplear transfer learning sobre la U-Net, desarrollada por Ronneberger; pero se distinguía del mismo en el uso de una capa de normalización y la rectified linear unit activation function entre cada convolución de 3×3. Se empleó la función softmax con cathegorical cross entrophy loss para la predicción multiclase. Se empleó también la técnica de attenuated weighting.

Entrenamiento de modelos

Los pesos de todas las sesiones de entrenamiento se inicializaron aleatoriamente usando el método informado por He et al. Se seleccionó el optimizador Adam con learning rate inicial de 0,0001. Se usaron técnicas de Data Augmentation como el volteo de izquierda a derecha, volteo anteroposterior, escalado (+-8%), rotación (+-7 °), y traslación (+-20 vóxeles). La monitorización del entrenamiento se realizó a través de dos parámetros: la validation loss y per-class soft dice coefficients. Se decidió parar el entrenamiento cuando el promedio de los soft dice coefficients disminuyó en menos de 0.001 durante cinco épocas consecutivas. El entrenamiento se realizó en Keras 2.2.4 (Google, Mountain View, California) con TensorFlow 1.12 (https://www.tensorflow.org/). Se usó una GPU NVIDIA GTX 1080Ti de 11 GB (Nvidia, Santa Clara, California) con un Batch size de tres.

Test del modelo

Se expuso el modelo entrenado a la parte del conjunto de datos primario reservado para este propósito; así como a otros dos nuevos conjuntos de datos seleccionados secundariamente: 12 TC craneales patológicos diagnosticados de hidrocefalia normotensiva del adulto y 30 provenientes de un dataset público, revisados y etiquetados por radiólogos. En el único caso de los 12 TC patológicos no se seleccionaron cortes aislados, sino que se evaluó sobre el volumen completo del TC etiquetado por radiólogos. Esta parte del test se estableció para evaluar también la robustez del modelo propuesto.

El desempeño del modelo no fue significativamente diferente desde el punto de vista estadístico al de los observadores para la mayoría de estructuras. En trabajos futuros se deberían investigar en profundidad los posibles beneficios de la segmentación tridimensional y multiplanar. Por otro lado, cabe destacar que el Transfer Learning es una técnica bien establecida que permite optimizar rápidamente los modelos de aprendizaje profundo sobre nuevos conjuntos de datos nunca antes vistos. En conclusión, dada la creciente cantidad de datos de imágenes, algoritmos que extraigan automáticamente información cuantitativa del contexto espacial de la TC craneal pueden ayudar en la decisión clínica.

Valoración personal: El artículo está bien estructurado y es de fácil comprensión. Incluye suficientes imágenes para ilustrar los conceptos del texto. En mi opinión es adecuado para un nivel inicial o medio ya que, aunque los conceptos que maneja en una parte significativa del artículo, son, quizás, demasiado técnicos para un radiólogo general, el tema del que trata el trabajo es bastante accesible una vez se tienen claros los conceptos más básicos de la IA aplicada a la imagen médica.

Pablo Sanz Bellón

Hospital Universitario Marqués de Valdecilla, R3

pablosb22@gmail.com

Tagged with: , , , , , , ,
Publicado en Radiology: Artificial Intelligence

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

Publicaciones del Club
Residentes SERAM
Autores
A <span>%d</span> blogueros les gusta esto: