Flujo de trabajo del Deep Learning en radiología

Artículo original: Montagnon E, Cerny M, Cadrin-Chênevert A, Hamilton V, Derennes T, Ilinca A, et al. Deep Learning workflow in radiology: a premier. Insights Imaging. 2020;11.

DOI: https://doi.org/10.1186/s13244-019-0832-5

Sociedad: European Society of Radiology (@ESR)

Palabras clave: Review article, Deep learning, Medical imaging, Cohorting, Convolutional neural network.

Abreviaturas y acrónimos utilizados: DL (deep learning), IA (inteligencia artificial), GPUs (unidades de procesamiento gráfico), DNN (deep neural networks).

Línea editorial del número:

Insights into Imaging es una revista de acceso abierto revisada por pares y publicada bajo la marca SpringerOpenque es propiedad de la Sociedad Europea de Radiología (ESR). Se trata de una revista especializada en la educación y las estrategias en radiología. Actualiza continuamente los conocimientos científicos en radiología a través de la publicación de artículos originales y revisiones, junto con recomendaciones y declaraciones de las principales sociedades radiológicas de Europa. Además, como dato curioso, merece la pena saber que es el doctor español Luis Martí Bonmatí (Jefe de Servicio de Radiodiagnóstico del Hospital La Fe de Valencia entre otros cargos), la persona que ocupa el cargo de Editor en Jefe de Insights in Imaging desde Enero de 2018.

Cabe la pena destacar de este 10º volumen el artículo titulado: “Evaluación de neuroimagen en el síndrome de Down: una revisión pictórica”. Los autores de este artículo se propusieron revisar y sistematizar las características y anormalidades distintivas que se pueden encontrar en pacientes con síndrome de Down, en el sistema nervioso central, cabeza y cuello y columna vertebral.

Motivo para la selección:

La principal motivación para destacar este artículo por encima del resto no es otra que la incandescencia en el panorama científico y radiológico actual de su temática principal. Es por esto que este trabajo llamó mi atención y, lo que decantó la balanza a la hora de elegirlo definitivamente, fue su carácter docente y ánimo educativo, características, desde mi punto de vista, idóneas para el tema a tratar así como para el momento formativo en el que me encuentro en la actualidad.

Resumen:

Introducción:

El DL se ha convertido en la punta de lanza de las técnicas en IA aplicadas al mundo de la visión humana/animal en el ámbito de la computación; gracias al desarrollo de potentes hardwares basados en las GPUs, así como a la disponibilidad de enormes cantidades de datos. A lo largo de este texto, se describirá el lugar y la función que ocupan cada uno de los agentes del flujo de trabajo en investigación de técnicas basadas en DL aplicadas al campo de la radiología, en este caso,  empleando el ejemplo de la radiología abdominal y, más concretamente, de la lesiones hepáticas.

Usos clínicos del DL:

  • Procesado de la imagen médica: reconstrucción de imagen o optimización/mejora de la resolución de la imagen.
  • Detección: resaltar o señalar una subregión específica que contenga una probable lesión focal o anomalía.
  • Segmentación: delinear un órgano o lesión, siendo también posible llegar a una extracción de volumen de los mismos.
  • Clasificación: categorización de lesiones en, por ejemplo, benignas o malignas.
  • Monitorización: seguimiento y valoración de los cambios de una lesión o lesiones en el tiempo.
  • Predicción: anticipar la evolución de una lesión o patología.

Tipos de aprendizaje/Machine Learning:

  • Supervisado: se necesita una etiqueta o estándar de referencia por cada imagen introducida en el sistema.
  • Semi-supervisado: el conjunto de imágenes incluye ejemplos etiquetados y no.
  • No supervisado: ninguno de los ejemplos está etiquetado.

Construcción del equipo multidisciplinar

El equipo debe esta constituido por 4 partes estrechamente interrelacionadas. La primera de ellas es la parte clínica, en este ejemplo personificada en  digestólogos y/o cirujanos de aparato digestivo. La segunda de ellas debe ser la parte especialista en imagen médica, es decir, radiólogos con la ayuda de los técnicos de radiodiagnóstico. Elapartado técnico sería la tercera de estas partes, y estaría constituida expertos en computación y manejo de datos. Por último, cabe destacar la necesidad de que la iniciativa está encabezada por un director de proyecto que coordine las partes en torno a una hoja de ruta común.

Selección de la cohorte de pacientes para el estudio

En este apartado hay que prever posibles sesgos en los que podemos incurrir. Hay que prestar especial atención tanto al ground truth (verdad fundamental/gold standar), como a los criterios de exclusión que vayamos a usar.

Deidentificación de los datos de las pruebas médicas

Este apartado aborda los aspectos relacionados con el enmascaramiento de la información del paciente en el procesado de los datos provenientes de la imagen médico-radiológica. Se pueden distinguir dos tipos o grados de enmascaramiento:

  • Anonimización: se trata de la retirada irreversible de la información relacionada con el paciente.
  • Pseudoanonimización o encriptado: a diferencia del anterior esta si es reversible.

Hay sistemas de anonimización de los datos DICOM disponibles de manera gratuita, pero hay que usarlos con cautela ya que no todos anonimizan de manera completa.

Recolección y curación de datos

Esta es la parte que más tiempo y trabajo supone pero es de vital importancia mantener un estándar de calidad elevado si no se quiere penalizar seriamente la calidad del trabajo final. En este apartado debemos recabar todos los datos de manera correcta y posteriormente someterlos a un proceso de criba de cara a obtener la máxima calidad de información.

Después de esto el siguiente paso es el etiquetado, es decir, la localización de las lesiones y anotaciones de las mismas de manera manual, con complejidad variable en función de la tarea para la que se pretenda aplicar el sistema de DL.

  • Estrategias de muestreo de los datos: El concepto de generalización en este ámbito se define como la habilidad de realizar una tarea específica sobre datos/imágenes que no se han visto previamente. La forma de dividir el conjunto de datos a lo largo del proceso de entrenamiento del sistema de IA, debe estar orientado a buscar la potenciación de esta característica. La partición más común para los datos es: 80% entrenamiento, 10 % validación y 10% test. K-fold cross-validation es otro tipo de estrategia de distribución pero más indicada en conjuntos de datos de dimensiones

En este punto también es importante retomar el concepto de ground truth y es que, debemos tener claro si va a ser el resultado histopatológico, el diagnóstico de estudios posteriores en el tiempo, otra técnica de imagen o bien el diagnóstico o valoración de un radiólogo experto; en este último escenario deberíamos considerar, por ejemplo, la necesidad de interpretación de uno versus de varios radiólogos en la investigación.

Librerías de DL

Son interfaces de programación orientadas a definir y entrenar DNN. Las más empleadas son Tensorflow y PyTorch. Keras por ejemplo es una interfaz de aplicaciones de redes neuronales que se ejecutan a través de Tensorflow. Por otro lado, Python es el lenguaje de programación más empleado.

Arquitecturas y parámetros

Las redes neuronales convolucionales son el paradigma de la interpretación visual de las computadoras desde aproximadamente el año 2012 y, más concretamente, destacan en tareas de detección y predicción. Las U-Nets se erigen mejores en tareas de segmentación mientras que las fully conected destacan más en cuestiones de clasificación.

Los pesos internos de las capas de las redes pueden comenzar el proceso siendo aleatorios, si bien hay técnicas como Gorot o el trasfer learning orientadas a mejorar y acortar tiempos iniciales de entrenamiento. Se recomienda almacenar periódicamente y por separado los pesos de la red a modo de distintas etapas de desarrollo, permitiendo así actualizar y modificar las versiones más cómodamente.

El área bajo la curva y la precisión se usan frecuentemente para comparar la ejecución de varios algoritmos aplicados a una tarea concreta de clasificación y predicción. La intersección sobre la unión es más empleada en detección y segmentación.

Hardware

GPUs y TPUs son de elección para la computación masiva en paralelo. A más memoria de estos componentes, mayor facilidad de entrenamiento de sistemas más profundos con mayor número de parámetros entrenables. Por otro lado, la computación en la nube ofrece multitud de ventajas como un mayor poder computacional, almacenamiento ilimitado y bajo costes de mantenimiento; si bien tiene limitaciones directamente derivadas de la ciberseguridad.

Valoración personal:

Me parece un artículo idóneo para un nivel medio-bajo de conocimientos en torno al Machine Learning, ya que explica brevemente los conceptos sin entrar en especificaciones técnicas demasiado farragosas. Además, aporta una serie de diagramas e ilustraciones que aportan ligereza a la lectura y complementan el ánimo didáctico evidente del trabajo. No lo recomiendo como primera toma de contacto con el mundo de la IA, pero sí de cara a ir avanzando dentro de un nivel básico.

 

Pablo Sanz Bellón

Hospital Universitario Marqués De Valdecilla, R2.

pablosb22@gmail.com

Tagged with: , , , , , ,
Publicado en Insights into Imaging, Revistas

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Publicaciones del Club
Residentes SERAM
A %d blogueros les gusta esto: