Deep Learning aplicado en imágenes fotoacústicas para la Identificación del cáncer de seno

Estefanía Ruíz1*; Jesús Emmanuel Domínguez1

Correspondence: *. Autor para la correspondencia: E-mail:
* Declaro que con motivo del empleo, cargo o comisión no tengo Interés o alguna situación de conflicto en relación con un tercero, que pueda tener un interés personal o comercial en los asuntos o trámite propios de mi empleo, cargo o comisión.
* Los autores participaron por igual en la revisión de la literatura científica y redacción del manuscrito.


RESUMEN

La Imagen Fotoacústica (PAI por sus siglas en inglés), es una modalidad de imagen híbrida que fusiona la iluminación óptica y la detección por ultrasonido. Debido a que los métodos de imágenes ópticas puras no pueden mantener una alta resolución, la capacidad de lograr imágenes de contraste óptico de alta resolución en tejidos biológicos hace que la fotoacústica (PA por sus siglas en inglés) sea una técnica prometedora para varias aplicaciones de imágenes clínicas. En la actualidad el Aprendizaje Profundo (Deep Learning) tiene el enfoque más reciente en métodos basados en la PAI, donde existe una gran cantidad de aplicaciones en análisis de imágenes, en especial en el área del campo biomédico, como lo es la adquisición, segmentación y reconstrucciones de imágenes de tomografía computarizada. Esta revisión describe las últimas investigaciones en PAI y un análisis sobre las técnicas y métodos basados en Deep Learning, aplicado en diferentes modalidades para el diagnóstico de cáncer de seno.

Received: 2021 August 7; Accepted: 2022 March 31

rcim. 2022 Jun 1; 14(1): e506

Keywords: Palabras clave: imágenes fotoacústicas, tomografía fotoacústica, deep learning, machine learning, cáncer de seno, cáncer de mama, reconstrucción de Imágenes.
Keywords: Keywords: photoacoustic images, photoacoustic tomography, deep learning, machine learning, breast cancer, image reconstruction.

Introducción

En la actualidad el cáncer de seno (cáncer de mama) es una de las afecciones que se presenta con mayor frecuencia en mujeres de todo el mundo, el fatídico desenlace de algunos casos es el deceso del paciente. De acuerdo con investigaciones, en 2015 se registró un mayor número de muertes a consecuencia de esta enfermedad. 1

Este tipo de cáncer ocurre cuando las células del seno comienzan a crecer sin control debido a una mutación en los genes esenciales. 2 Varios factores además del genético conducen a tales mutaciones y al crecimiento de la masa tumoral. La masa puede no presentar síntomas, sin embargo, en ocasiones se logra palpar mediante una exploración física. El tumor se considera maligno cuando la masa empieza a invadir el tejido circundante. Si el cáncer de mama es detectado en una etapa temprana, esto podría reducir la mortalidad por esta causa. 3 De la misma manera, si se busca un tratamiento exitoso, debe detectarse en una etapa temprana, cuando la masa tumoral aún es pequeña y no se ha extendido. Estudios científicos han demostrado que una detección precoz del cáncer de seno puede mejorar significativamente las tasas de supervivencia. 4) Para la detección del cáncer existen algunas modalidades de imágenes médicas disponibles, tales como la mamografía de rayos X, imágenes por ultrasonido e imágenes por resonancia magnética (RMI por sus siglas en inglés), las cuales se pueden emplear por separado o de manera conjunta para la detección del cáncer de seno.

A pesar de que todas ellas proporcionan información de utilidad para el diagnóstico en etapas tempranas, existen otros signos y síntomas que pueden ser estudiados para proporcionar información adicional. Aun así, todas estas técnicas tienen sus limitaciones: para obtener la calidad de imagen que se necesita en la mamografía, hay que dar una exposición de radiación mayor que en otros tipos de estudios radiológicos. Esto se debe a que el seno está compuesto de tejido blando (sin huesos ni aire) y la técnica no proporciona un contraste de tejidos blandos con el nivel de detalle que se obtiene en la PAI. Ello provoca altas tasas de falsos positivos y depende de la habilidad del operador en la adquisición de imágenes bidimensionales. Finalmente, la RMI tiene una alta sensibilidad, no emplea radiación ionizante y tiene una buena resolución espacial. Sin embargo, tiene una especificidad limitada y requiere agentes de contraste. 5

Dado que muchas de estas limitaciones están relacionadas con la naturaleza fundamental de las técnicas, existe una gran necesidad de una modalidad alternativa de imagenología mamaria para detectar y diagnosticar las primeras etapas del cáncer con alta sensibilidad y especificidad. Por ello, los estudios preliminares sugieren que usar la técnica fotoacústica o PA para revelar la neovascularización, puede ser más efectiva que la mamografía por ultrasonido para la detección del cáncer de seno. 5 Este puede detectarse al exponer el seno a radiaciones infrarrojas, pero desafortunadamente estas imágenes ópticas puras sufren la degradación de la resolución espacial con un aumento de la profundidad en tejidos blandos, mientras que la PA es capaz de mantener una buena resolución espacial dentro del tejido. 6

La tomografía fotoacústica (PAT por sus siglas en inglés) es una modalidad de imagen híbrida tridimensional (3D) que detecta acústicamente contraste de absorción óptica basado en el efecto fotoacústico por generar ondas acústicas a partir de la absorción de radiación. La PAT proporciona una penetración mucho mayor, con una resolución espacial escalable, que la óptica microscópica. 7 Además, esta modalidad de imagen tiene gran potencial en aplicaciones de investigaciones en el área de óptica biomédica, en especial la generación de imágenes de tejidos in vivo. Incluyendo la generación de imagen tomográfica en la detección de cáncer mamario en etapas tempranas. 8

Recientemente, Deep Learning o Red Neuronal Profunda (Deep Neural Network) es un área de investigación emergente que produce un rendimiento significativamente mejorado de muchas aplicaciones de aprendizaje automático (Machine Learning) y reconocimiento de patrones. 9 A diferencia de los enfoques puramente basados en modelos, las técnicas basadas en datos y, en particular, el Deep Learning, son cada vez más utilizadas para la reconstrucción de imágenes tomográficas.10 Es importante mencionar que existen algunos factores que se consideran indeseables en imágenes biomédicas y problemas inversos; en recientes investigaciones se ha comenzado a brindar información sobre por qué ciertas arquitecturas de red funcionan bien para ciertas tareas,11) y de la misma manera proporcionan justificación para el uso de enfoques de Deep Learning en la solución de diversos problemas, incluida la reconstrucción de imágenes.

En este artículo, se examinan las técnicas de Deep Learning en PA emergente, resumiendo las tendencias de las combinaciones de Deep Learning, donde hay un potencial para lograr un impacto importante en el diagnóstico del cáncer de seno. En la sección 1 se introduce el Deep Learning en PAI con algunos conceptos básicos importantes y también se identifican los aspectos relevantes. En la sección 2 se describen las técnicas de procesamiento de imagen para PAI y revisiones de la literatura. En la sección 3 se mencionan los métodos basados en aprendizaje para el diagnóstico de patologías mamarias y un análisis comparativo de dichos métodos. Se discuten y se analizan algunos hallazgos; y finalmente, se concluye con indicaciones de posibles trabajos en el futuro.

Resultados

1. Imágenes fotoacústicas y Deep Learning

La PAT es una modalidad de imagen biomédica con la capacidad de proporcionar imágenes de múltiples estructuras del cuerpo, dichas imágenes son una representación 3D del tejido estudiado, otra propiedad de estas imágenes es su alta resolución debido a que están basadas en la absorción óptica. Este tipo de procedimiento ha avanzado de tal manera que en la actualidad es posible llevarlo a la práctica en el entorno clínico.

Para la reconstrucción de imágenes fotoacústicas hay dos procesos fundamentales que deben cumplirse:

En primer lugar, la inversión acústica de la serie de tiempo y posteriormente una inversión óptica espectroscópica para recuperar los coeficientes de absorción óptica o las cantidades derivadas de ellos. 12

El problema acústico inverso se puede resolver de una manera relativamente simple, se requiere de una única condición conocida como “circunstancia ideal” y esto implica una completa disposición de los datos y que el medio tenga una velocidad de sonido uniforme y conocida. Sin embargo, en el caso de requerir una solución a la inversión óptica, la tarea de reconstrucción de la imagen se vuelve aún más desafiante, ya que el operador de avance no es lineal.

En los últimos años se han desarrollado enfoques iterativos los cuales se basan en modelos que gestionan la complejidad mayor que estos procesos implican y al mismo tiempo proporcionan una manera flexible de enmarcar el problema y de esta manera incorporar el conocimiento que se ha adquirido previamente. 13 Sin embargo, estos enfoques, aunque atractivos, suelen ser computacionalmente intensivos en consumo de tiempo, lo que lo hace una alternativa poco viable en muchas aplicaciones.

Recientemente surgen nuevos desafíos para la reconstrucción de imágenes y las restricciones prácticas en la adquisición de datos; sin embargo, perfeccionar los efectos de los datos incompletos o imperfectos mediante la incorporación de antecedentes precisos es un desafío y conduce a algoritmos lentos, pero la aplicación del Deep Learning o Deep Neural Networks ha recibido mucha atención en este problema.

Una Deep Neural Networks mapea un vector de entrada a un vector de salida. La red consta de varias "capas", cada una de las cuales es una composición de una función lineal afín con parámetros que se pueden aprender y una función no lineal. El término Deep Learning hace referencia a las redes que constan de múltiples capas, en contraste con las redes poco profundas que constan de solo unas pocas capas. Un atributo importante de una red es la velocidad con la que puede procesar una entrada. Para redes pequeñas, esto puede ser muy rápido, lo que puede ser útil en entornos donde se requieren reconstrucciones en escalas de tiempo cortas, como imágenes en tiempo real o dinámicas. Sin embargo, la velocidad de evaluación dependerá del tamaño de la red y del tamaño de los datos de entrada.

Actualmente, existe poca literatura en la que se emplea Deep Learning para abordar el problema de la inversión óptica en la reconstrucción de imágenes fotoacústicas. Los métodos ya existentes suponen que la inversión acústica ya se ha resuelto.

2. Técnicas de procesamiento de Imágenes fotoacústicas

Las técnicas de procesamiento de imágenes como lo son: la reconstrucción y segmentación, son esenciales para PAI o PAT con alta relación señal-ruido (SNR), alta resolución y pocos artefactos, especialmente cuando se trata de reconstruir en PAI con señales débiles de gran profundidad. En esta sección, mencionaremos algunas técnicas de reconstrucción y segmentación de imágenes basados en Deep Learning en lo que respecta a las técnicas de reconocimiento de patrones y algoritmos típicos de Deep Learning como la Red Neuronal (Neural Network), que representa la relación no lineal entre entrada y salida donde este realiza varias optimizaciones en diferentes etapas basados en datos de conjuntos de entrenamientos. La reconstrucción de imágenes basada en Deep Learning está creciendo rápidamente y ha mostrado una gran promesa de mejorar aún más la calidad de imagen a profundidad.

Reconstrucción de imagen iterativa y no iterativa (Métodos analíticos)

La reconstrucción no iterativa como la retroproyección y la retroproyección filtrada, son métodos analíticos de reconstrucción de imagen que comprenden la solución directa de sistemas de ecuaciones lineales donde hay varias limitaciones de reconstrucción que reducen su rendimiento, como es, ignorar la medición de ruido y para eso se usan, por ejemplo, post-filtros, la retroproyección filtrada se caracteriza por hacerlo eficiente, pero tiene la desventaja de ser incapaz de manejar factores complicados como la dispersión. 13) Por otro lado, la reconstrucción iterativa, como se puede intuir, son diferentes formas de obtener una imagen a partir de información analógica. El método iterativo fue el primero que se usó en los viejos tomógrafos y se abandonó por su lentitud, ya que requería la coincidencia de todos los datos. Durante muchos años se usó la retroproyección filtrada por ser más rápida: se iba formando la imagen a medida que se disponía de datos. 14

En la actualidad, se ha vuelto al uso de los algoritmos iterativos puesto que se muestra como una alternativa beneficiosa, porque se produce un menor ruido y menor dosis para la emisión de radiación. A continuación, se mencionan algunos antecedentes de la reconstrucción de imagen iterativa y no iterativa, así como sus comparaciones.

Reconstrucción iterativa

Las técnicas de reconstrucción iterativas se basan generalmente en métodos estadísticos, buscando la imagen cuya proyección sea más compatible con los datos adquiridos. Esta imagen se va actualizando mientras se minimiza una función que penaliza las diferencias entre los datos y las proyecciones de la imagen estimada. Los algoritmos iterativos de reconstrucción de imágenes obtenidas en PAT tienen la capacidad de mejorar la calidad de la imagen sobre los algoritmos analíticos debido a su potencial para incorporar modelos precisos de la física de imágenes, la respuesta del instrumento y ruido de medición. También se ha trabajado en el uso de métodos iterativos para la reconstrucción de imágenes, reduciendo los tiempos de procesamiento para la adquisición de imágenes con valor de diagnóstico. Sin embargo, hasta la fecha, hay pocos intentos en el empleo de métodos avanzados de algoritmos iterativos para la reconstrucción y la mejora en la calidad de las imágenes en tres dimensiones (3D). 15

Los algoritmos de reconstrucción iterativa de imágenes generalmente poseen varias limitaciones que afectan su rendimiento, debido a que tienden a ser más lentos porque requieren de repetidas aplicaciones del operador de reenvío PAT y su adjunto. Estos algoritmos al ser lentos consumen mucho tiempo, ya que los problemas posteriores y adjuntos deben resolverse repetidamente.

Para mitigar las limitaciones computacionales de la PAT con algoritmo iterativo, un estudio ha propuesto un método de búsqueda de líneas de múltiples cuadrículas para la reconstrucción de imágenes iterativas de onda completa en PAT, de modo que algunas iteraciones de búsqueda recursiva se calculan por medio de la minimización de la función objetivo en algunos niveles más generales. 16

Los algoritmos analíticos a menudo se basan en la discretización de una fórmula de reconstrucción continua y requieren que los datos medidos sean muestreados densamente en una abertura que encierra el objeto. Mientras que el uso de algoritmos iterativos para reconstrucción de imágenes puede eludir todas estas deficiencias cuando se combina con diseños adecuados de generadores de imágenes PAT, el algoritmo de reconstrucción de imágenes iterativo puede mejorar la calidad de la imagen y permitir reducciones en los tiempos de adquisición de datos en comparación con los obtenidos mediante el uso de algoritmos de reconstrucción analítica. Debido a esto, el desarrollo e investigación de algoritmos iterativos de reconstrucción de imágenes obtenidas en PAT es un importante tema de investigación de interés actual. 17

Estudios recientes han buscado desarrollar modelos mejorados de imágenes, así como algoritmos de reconstrucción avanzados. La mayoría de estos estudios utilizan modelos de imágenes 2D aproximados y geometrías de medición en las que los transductores enfocados se emplean para suprimir señales acústicas, porque la reconstrucción de imágenes de los objetos extendidos en PAT son inherentemente un problema 3D, los enfoques de reconstrucción de imágenes 2D pueden no producir valores precisos de la densidad de energía óptica absorbida, incluso cuando los datos de medición se muestrean densamente. 17

Reconstrucción no iterativa (Métodos analíticos)

Los algoritmos no iterativos estiman los datos no medidos y luego reconstruyen las imágenes con el algoritmo de retroproyección filtrada. El objetivo de dicho algoritmo es generar una máscara de imágenes de píxeles. La imagen es dividida en varias regiones o partes en función de las características de los píxeles. Estos algoritmos no utilizan ninguna restricción en la dirección temporal. En otras palabras, se supone que las imágenes en diferentes marcos de tiempo son independientes. La idea principal de este algoritmo no iterativo es primero extender las mediciones de un espacio de vista dispersa a vistas más sintéticas para reducir los artefactos de aliasing de submuestreo y luego reconstruir la imagen con un algoritmo de retroproyección filtrada. 18

Los métodos de reconstrucción analíticos son algoritmos simples y rápidos con bajo costo computacional. Sin embargo, son propensos a la aparición de artefactos y en ocasiones presentan baja resolución espacial. Además, se requiere de un número elevado de proyecciones sin ruido para que la solución de la reconstrucción sea de calidad, mientras que los algoritmos iterativos son menos sensibles a conjuntos incompletos de datos, el ruido y los artefactos que surgen en el proceso de reconstrucción pueden reducirse o incluso eliminarse. 14 Esto significa que el método iterativo entrega una mejor calidad en la reconstrucción de las imágenes con respecto a los métodos de reconstrucción analíticos. A pesar de ello, la principal limitación que presenta esta técnica con relación a los métodos de reconstrucción analíticos es su alto costo computacional.

Estudios recientes han presentado la forma de lidiar con la limitación de largos tiempos computacionales paralelizando el algoritmo de reconstrucción de imágenes utilizando la Unidad de Procesamiento Gráfico (GPU por sus siglas en inglés). También algunos estudios presentan una solución no iterativa, basada en Redes Neuronales Convolucionales (CNN por las siglas en inglés de Convolutional Neural Networks), al problema de la reconstrucción de imágenes en detección de compresión (CS por sus siglas en inglés), se trata del uso de un algoritmo extremadamente rápido para reconstruir imágenes de mediciones aleatorias de CS. Con este fin, proponen una nueva arquitectura de CNN que toma medidas CS de una imagen como entrada y produce una reconstrucción intermedia. A esta red la llamaron ReconNet. La reconstrucción intermedia se introduce en un eliminador de ruido estándar para obtener la imagen reconstruida final. En un conjunto de datos estándar de imágenes, muestra mejoras significativas en los resultados de la reconstrucción sobre algoritmos de CS iterativos de última generación a varias velocidades de medición. Además, mediante experimentos con datos reales se demostró que la red es muy resistente al ruido del sensor y puede recuperar una mejor aplicación de la CNN entrenada para la reconstrucción de imágenes con algoritmos analíticos. Por lo tanto, se probó que el algoritmo analítico aporta reconstrucciones eficientes y de alta calidad. 18

Reconstrucción de imagen por Red Neuronal (Neural Network)

Los métodos de Deep Learning de la CNN pueden procesar enormes cantidades de datos a través de una red de nodos o neuronas para la toma de decisiones, y son bien considerados por su excelente rendimiento en aplicaciones basadas en el reconocimiento de imágenes. 19

Las CNN se han utilizado con éxito para reconstruir la profundidad de objetos en escenas generales; sin embargo, estos trabajos no se han adaptado para el problema particular de la reconstrucción de la profundidad a partir de la perspectiva. Investigaciones recientes han propuesto construir una CNN computacional eficiente centrada en Neural Network completamente Convolucionales (RNCC), cuyo entrenamiento requiere de una sola etapa. Se comparó la CNN con el estado del arte actual en reconstrucción de profundidad, obteniendo mejoras en niveles globales para imágenes viales con perspectiva presente. Hasta donde se conoce, no hay trabajos específicos dedicados al problema de la reconstrucción de la profundidad utilizando RNCC. Varias arquitecturas de CNN en el estado del arte proponen redes de múltiples etapas que requieren entrenamiento separado para cada una de ellas, lo cual hace que el proceso de entrenamiento tome más tiempo. 20 Uno de los primeros trabajos en utilizar esta técnica, citado por Valdez Rodríguez y colaboradores, 20 es el de Eigen, Puhrsch y Fergus, que proponen el uso de dos CNN: la primera reconstruye la profundidad a nivel global y la segunda refina los detalles locales. Establecen una CNN que puede ser aplicada a la reconstrucción de profundidad y proponen una función de error.

En este trabajo se propone una arquitectura de RNCC capaz de reconstruir la profundidad a partir de una sola imagen, utilizando únicamente capas convolucionales, y por tanto requiere solo una etapa de entrenamiento. 20

Segmentación de imagen

La segmentación es la etapa en la cual se localizan y se busca aislar regiones sospechosas de pertenecer a una anormalidad, la segmentación de imágenes tomográficas puede utilizarse como etapa de preprocesamiento en el análisis asimétrico de cáncer de seno. Previo a la etapa de segmentación, considerando el hecho de que algunas mamografías presentan un bajo contraste que dificulta la tarea de detección de masas, se procede a realizar dicho preprocesamiento de las imágenes, lo cual incluye una selección del área del seno y realce de contraste. Los métodos de segmentación se pueden clasificar en:

a) métodos basados en píxeles, que a su vez pueden ser: locales, basados en las propiedades de píxeles y su entorno, y globales, basados en la información global como histogramas de imágenes, b) métodos basados en bordes, se basan en el cambio rápido del valor de intensidad, los mismos que se conectan entre sí para completar los límites de regiones, c) métodos basados en regiones, que utilizan las nociones de homogeneidad y proximidad geométrica, como las técnicas de crecimiento, fusión o división, d) métodos basados en modelos y e) sobre-segmentación y bajo-segmentación. A continuación, se describen las técnicas de segmentación de imágenes utilizadas para detectar cáncer de seno. La segmentación se puede clasificar en i) el método de discontinuidad (cambios de intensidad) basada en región y ii) similitud (regiones similares) basada en umbrales y bordes, estas técnicas por lo general se combinan para resolver problemas que satisfagan un determinado criterio y que permitan encontrar los límites entre tejidos que se observan en el momento de obtener una imagen por mamografía.

Estudios recientes, sobre la segmentación del dominio de imágenes obtenidas en PAT utilizan el Deep Learning donde a menudo implementan algoritmos de segmentación que permiten aislar las regiones sospechosas como las masas en una mamografía, así como implementar un procedimiento para detectar aquellas regiones que contengan dichas masas. 21 También hay estudios que combinan la segmentación de umbral con la programación dinámica. En primer lugar, la segmentación del umbral se utiliza para localizar el borde del tumor, y luego el borde inicial se corrige mediante programación dinámica de modo que el borde final estaría más cerca del borde real del tumor. 22 En el ámbito computacional, la tarea de segmentación de masas se ha abordado desde diferentes enfoques, siendo el agrupamiento uno de los más utilizados. Más aún, debido a la posibilidad de acceder o adquirir información adicional, en forma de restricciones que permitan un mejor agrupamiento, ha surgido el campo del agrupamiento semi-supervisado o agrupamiento restringido el cual permite incluir dicha información adicional. 23

En el análisis de imágenes de mamografía, la tarea de segmentación tiene mucha importancia, pues una segmentación incorrecta de una lesión (masa) puede derivar en diagnósticos erróneos para una paciente. Por esta razón, diversos trabajos han centrado su atención en la investigación y/o desarrollo de nuevos métodos de segmentación y detección de masas en imágenes de mamografías. Es así como en el contexto del problema del cáncer de seno, la segmentación de masas se ha abordado desde diferentes perspectivas. 24

3. Métodos de Machine Learning

Entre las ciencias de la computación y de la inteligencia artificial, algunos de los campos más prometedores son el Machine Learning y el subcampo de las técnicas Deep Learning. Estas técnicas, que hoy concentran la atención, son métodos importantísimos en inteligencia artificial para procesar datos algorítmicamente, de modo que el algoritmo pueda reconocer en esos datos determinadas pautas. 25 Conviene hacer la diferencia entre Machine Learning y Deep Learning. Machine Learning selecciona previamente las características y el clasificador, mientras que el Deep Learning extrae características y las modela de manera automática. En Machine Learning se llega a una convergencia a medida que aumenta la fuente de datos, mientras que en Deep Learning se va mejorando el aprendizaje. 26

El cáncer de seno es una de las causas más frecuentes de mortalidad en las mujeres. Con la llegada de los sistemas inteligentes, la detección automática de tumores en mamografías se ha convertido en un gran reto y puede jugar un papel crucial para mejorar el diagnóstico médico. Actualmente, muchos trabajos proponen sistemas de diagnóstico asistido por computadora que se basan en técnicas de Deep Learning, específicamente en CNN. 27 Existen diferentes tipos de redes de Deep Learning, por ejemplo, una Neural Network con una profundidad de más de tres capas ocultas es considerado un modelo de Deep Learning. Otro modelo de Deep Learning es la Red Neuronal Recurrente (Recurrent Neural Network), compuesta por conexión entre neuronas de capas delanteras y traseras, permitiendo que a través de ellas la información persista durante algunos pasos o épocas de entrenamiento. Las dos redes neuronales más usadas en la clasificación de imágenes son Convolutional Neural Networks y Red neuronal adversarial (ANN por las siglas en inglés de Adversarial Neural Network). 25

En el artículo Sistema de diagnóstico de cáncer de seno mediante neuroevolución adaptativa simbiótica (SANE por sus siglas en inglés), 26 se desarrolló un sistema inteligente híbrido para el diagnóstico, el pronóstico y la predicción del cáncer de seno utilizando SANE y se compara con el conjunto ANN, la red neuronal modular, la red neuronal evolutiva de arquitectura fija (F-ENN) y la red neuronal evolutiva de arquitectura variable (V-ENN). También en el proyecto Modelos gráficos probabilísticos y Redes de creencias profundas para el pronóstico del cáncer de seno, implementan un modelo gráfico probabilístico (PGM), el cual es un clasificador bayesiano y Aprendizaje múltiple (Manifold Learning) para la reducción dimensional en el pronóstico y diagnóstico de cáncer de seno, que puede ayudar a los médicos a tomar mejores decisiones sobre el mejor tratamiento. 26

El Deep Learning se ha utilizado ampliamente en las aplicaciones clínicas para ayudar a los médicos a obtener mejores diagnósticos, así como también el uso de Machine Learning para aplicaciones populares en la investigación del cáncer de seno; en los últimos años el rendimiento de la predicción del cáncer ha ido aumentando y el Deep Learning todavía muestra grandes perspectivas de aplicaciones para segmentación y clasificación de enfermedades. 22

Recientemente, el Deep Learning en PAT ha contribuido en la exploración y en la búsqueda de métodos y aplicaciones para obtener un diagnóstico preciso del cáncer de seno. Uno de los métodos empleados para la precisión del diagnóstico, es la combinación del algoritmo de clasificación de Machine Learning tradicional con el método Deep Learning en el estudio de simulación, concluyendo que los enfoques de diagnóstico automatizado tienen un gran potencial para detectar rápidamente el cáncer de seno en poco tiempo, y de este modo, aumentar la eficiencia en la detección de la enfermedad y en la disminución de la tasa de mortalidad. 28

Otros métodos Deep Learning para detección de cáncer de seno se mencionan a continuación:

Aprendizaje de Transferencia Profundo (Transfer Learning)

El Transfer Learning es una mejora del aprendizaje mediante la transferencia de conocimientos de una tarea relacionada que ya se ha aprendido. El Transfer Learning es un tema de interés continuo en el Machine Learning. 29

Este algoritmo se basa en el principio del conocimiento aprendido previamente y puede ser implementado para resolver nuevos problemas de una manera más eficiente y efectiva. Transfer Learning requiere enfoques establecidos de Machine Learning que retienen y reutilizan el conocimiento aprendido previamente, el cual se centra en el proceso de aprendizaje Transfer Learning para detectar cáncer de seno. Desde el 2016, tras la aparición de varios modelos de Neural Network como el CNN, incluidos AlexNet (nombre de una arquitectura de red neuronal convolucional (CNN)), VGGNet (tipo de red neuronal convolucional), GoogLeNet (tipo de red neuronal convolucional), ResNet (red residual) e Inception (red convolucional), para resolver tareas de clasificación visual en imágenes naturales que se entrenan en base de datos de imágenes como ImageNet (base de datos de imágenes organizada según la jerarquía de WordNet), este modelo de Neural Network juega un papel importante en el análisis de imágenes médicas; sin embargo, obtener los conjuntos de datos de imágenes de entrenamiento adecuados para los algoritmos de Machine Learning puede ser un desafío. Aunque, muchos estudios han intentado emplear el Transfer Learning en el análisis de imágenes médicas, hasta ahora, hay pocos artículos sobre la aplicación del Transfer Learning para este propósito. 29

Otra aplicación del Transfer Learning para el diagnóstico de cáncer de seno, según Hyunh et al. En 2016 se evaluó el rendimiento logrado mediante el uso de características transferidas de CNN profundos previamente entrenados para clasificar cáncer de seno mediante diagnóstico asistido por computadora (CADx). Además, también propusieron la implementación de una arquitectura de Neural Network predefinida y verificada para el reconocimiento modificado visual de imágenes (MVGG), en conjuntos de datos de 2D e imágenes en 3D de mamografías. Los resultados experimentales mostraron que el híbrido propuesto con el método de Transfer Learning, es decir, la fusión de MVGG e ImageNet proporciona una mayor precisión y eficacia como herramienta para que los radiólogos disminuyan las tasas de falsos negativos y falsos positivos, por lo tanto, se mejorará la eficiencia del análisis de mamografías. 30

Hay estudios en los que se menciona el uso de algoritmos de Deep Learning en PAT emergente para el diagnóstico del cáncer de seno. Específicamente realizan un preprocesamiento al algoritmo para mejorar la calidad y uniformidad de las imágenes de entrada de cáncer de seno usando el Transfer Learning para lograr un mejor rendimiento de clasificación. Se utilizaron Máquinas de Soporte Vectorial (Support Vector Machine (SVM)) para clasificar las características finales; AlexNet y GoogLeNet se utilizaron para realizar el Transfer Learning, logrando una alta precisión en las imágenes. Se pudo concluir que la combinación de Transfer Learning y PAI puede lograr mayor precisión de diagnóstico que el Machine Learning tradicional. 28

Las principales ventajas del Transfer Learning incluyen la reducción del tiempo de formación, proporcionando un mejor rendimiento para las Neural Networks y que requieren datos limitados. Por lo tanto, el Transfer Learning es útil en el caso de que no haya datos suficientes para un nuevo dominio que va a ser manejado por una Neural Network. 31

Redes Neuronales Convolucionales profundas (Deep Convolutional Neural Network)

Este tipo de red tiene la capacidad de combinar dos codificadores con una ruta de decodificador, que utiliza de manera óptima más información de los datos sin procesar y la imagen formada realizando comparaciones entre este tipo de algoritmo y los algoritmos de reconstrucción convencionales. Esté método ha demostrado ser más eficiente.

La mayoría de la arquitectura de CNN solo establece un único flujo de entrada-salida para la reconstrucción de imágenes. De acuerdo con las investigaciones existentes, el esquema con entrada de únicamente señales o en lugar de señales únicamente imágenes tiene sus propios inconvenientes. Por lo tanto, se supone que puede ser una buena solución combinar las señales de PAI sin procesar y las imágenes formadas por haz como datos de entrada. Las señales de PAI sin procesar y la imagen en forma de haz tienen diferentes tamaños y características, por esta razón se ha trabajado en el diseño de Neural Networks con más de una entrada. Este esquema incorpora más información de textura en comparación con el esquema de procesamiento directo y más información física en comparación con el esquema de post-procesamiento. Dado que estos esquemas no se basan en modelos complejos, este método tiene la capacidad de satisfacer los requisitos de imágenes en tiempo real.

La mayoría de las imágenes médicas se procesan mediante extracción de características artificiales, el cual requiere que el investigador tenga una visión sólida del campo de experiencia relevante, y tales anotaciones llevarán una gran cantidad de tiempo. La clasificación automática y de precisión de la imagen histopatológica del cáncer de seno tiene una gran importancia en la aplicación clínica. Los avances recientes en el procesamiento de intercambio basado en datos y el aprendizaje de características jerárquicas de múltiples niveles han hecho disponible una oportunidad considerable para solucionar este problema.

Proyectos anteriores han propuesto nuevos métodos de clasificación de imágenes histopatológicas de cáncer de seno basado en Deep Convolutional Neural Network, para abordar la clasificación de cáncer de seno de dos clases en la imagen patológica. Este modelo de Machine Learning considera las etiquetas de clase y subclase del cáncer de seno como conocimiento previo, lo que puede restringir la distancia de las características de diferentes imágenes patológicas del cáncer de seno. 29

El método de Transfer Learning y ajuste fino se adopta como una estrategia de entrenamiento óptima para mejorar la precisión de la clasificación de imágenes histopatológicas del cáncer de seno. Los resultados del experimento muestran que el método propuesto conduce a una mayor precisión de clasificación (hasta el 97%) y muestra una buena solidez y generalización, lo que proporciona herramientas eficientes para el diagnóstico clínico del cáncer de seno. 29

Al emplear los distintos métodos de Deep Learning se puede evitar el uso de extracción de características de manera manual, lo que requiere un conocimiento profundo del campo de experiencia, y dicho etiquetado consumirá mucho tiempo. Además, las características obtenidas pueden no ser necesariamente las mejores características. Considerando esto, se ha adoptado una combinación de Machine Learning y Transfer Learning para lograr resultados rápidos y sólidos con conjuntos de datos de PAI limitados.

Mediante la introducción de AlexNet previamente entrenado la modificación de su capa completamente conectada, puede cumplir con los requisitos sobre la clasificación de tumores normales y malignos. Si bien la cantidad de datos es pequeña, solo se necesita cambiar la capa completamente conectada. 32 Al introducir AlexNet previamente entrenado, la capa completamente conectada se modifica para cumplir con la clasificación de tumores benignos y malignos. Después de un determinado número de pruebas, se mejora la precisión del Transfer Learning basado en AlexNet en comparación con el método SVM tradicional. En detalle, se dividió en ocho capas: cinco capas convolucionales y tres capas conectadas, donde muestra que cada capa contiene la normalización de respuesta local (LRN) y luego se somete a muestreo descendente (procesamiento conjunto). Posteriormente utilizan el Transfer Learning basado en GoogLeNet para la clasificación PA del cáncer de seno. Este núcleo de convolución de diferentes tamaños en GoogLeNet puede extraer características de diferentes tamaños, por lo que se mejora la capacidad de extracción de características de la capa única y también se aumenta la extracción de información sobre el cáncer de seno. 28

Además, la Neural Network tradicional utiliza convolución-convolución de muestreo hacia abajo. Aunque esto puede extraer diferentes tamaños de información, es inevitable que la información se pierda debido al muestreo descendente.

Aprendizaje Automático (Machine Learning)

Los algoritmos de reconstrucción convencionales, utilizados en PAI proporcionan una solución rápida sin embargo quedan muchos artefactos, especialmente para visión limitada con problemas mal planteados.

Los métodos de Machine Learning se refieren al entrenamiento de programas informáticos para completar tareas digitales utilizando funciones de pérdida y pesos de cálculo que cambian iterativamente. Las Neural Networks y el Machine Learning se refieren a redes artificiales de neuronas que actúan como ecuaciones con pesos cambiantes y redes neuronales con al menos una capa oculta entre las capas de entrada y salida, respectivamente 32. Un trabajo más reciente ha sugerido que el Machine Learning y los enfoques de Neural Networks pueden resolver de manera rápida y precisa el problema de estimación de la fluencia o evitarlo por completo, calculando directamente la concentración de foto absorvedores a partir de señales de PAT. 33 Si bien el tiempo inicial y la cantidad necesaria de datos de PAI necesarios para entrenar adecuadamente dichos modelos de Machine Learning son altos, la promesa de predicciones rápidas de las propiedades funcionales del tejido, así como una alta precisión, justifican este costo inicial.

En recientes investigaciones el uso de Machine Learning en el campo de las imágenes médicas, ha sido efectivo para ayudar en el diagnóstico y se ha estudiado ampliamente para evitar errores subjetivos de los médicos y aumentar la eficiencia del diagnóstico. Por ejemplo, el SVM es un modelo de clasificación binaria en el que su idea básica es clasificar un conjunto de muestras que contienen ejemplos positivos y negativos. Su objetivo es encontrar un hiperplano para segmentar muestras de acuerdo con ejemplos positivos y negativos. Previamente al uso de SVM para la clasificación, es de suma importancia usar la “transformación de características invariantes de escala” (SIFT por sus siglas en inglés) para extraer las características locales de imágenes en algoritmos de visión por computadora. 34

Este algoritmo encuentra puntos extremos en la escala espacial y extrae su información de posición, escala y rotación para convertirla en una característica general para diferentes imágenes. Debido a que SIFT extrae características parciales, es mucho más efectivo que los algoritmos generales para detectar objetos ocluidos. Además, la función SIFT se basa en el punto de interés de alguna apariencia local del objeto, independientemente del tamaño y la rotación de la imagen y también es muy robusto para diferentes escenarios complejos. Generalmente, unos diez puntos característicos de SIFT son suficientes para determinar un objeto y calcular la posición del objeto. 32

Todo el proceso de clasificación de SVM se puede resumir de la siguiente manera:

El primer paso es utilizar el modelo de bolsa de palabras (BoW) para la clasificación de imágenes tratando las características de la imagen como palabras. En la clasificación de documentos, una bolsa de palabras visuales es un vector de ocurrencia de un vocabulario de características de imágenes locales. En el proceso de diagnóstico de cáncer de seno, se extrae el vocabulario visual independiente de la imagen, los tres pasos generales son a) detección de características, b) representación de características, c) generación de libros de palabras. 32

En el diagnóstico de cáncer de seno, aunque los senos con tumores benignos y malignos son diferentes, todavía existen muchos motivos comunes que comparten características similares. Por ejemplo, en áreas donde no hay tumor, no se pueden observar diferencias significativas entre tumores de mamas benignas o malignas, por lo que pueden extraerse como vocabulario visual para identificar tales dianas. El algoritmo SIFT extrae las características invariantes de la imagen en una lista de palabras y las utiliza para volver a mostrar la imagen. 34

El segundo paso es construir una lista de palabras usando el algoritmo K-Means. Este algoritmo es un método de agrupamiento indirecto basado en la medida de similitud entre muestras tomando a K como parámetro, que divide N objetos en K grupos, lo que hace que los grupos tengan una alta similitud y la similitud entre los grupos sea baja. El tercer paso es usar las palabras de la lista de palabras para representar la imagen. De acuerdo con el algoritmo SIFT, se puede extraer una gran cantidad de puntos característicos de cada imagen, y estos puntos característicos se pueden reemplazar por aproximaciones de palabras en la lista de palabras, 34

Entre otras investigaciones que han aplicado algoritmos de Machine Learning para la reconstrucción de imágenes se puede citar a Kirchner y colaboradores (2017), que utilizaron bosques aleatorios para calcular la fluencia tisular, estimar la absorción óptica y, posteriormente, calcular los parámetros funcionales del tejido a partir de datos multiespectrales. Si bien su trabajo fue el primer enfoque basado en el Machine Learning para la obtención cuantitativa de PAI, los múltiples pasos entre la estimación de la fluencia y el cálculo de la oxigenación podrían propagar errores, que se pueden prevenir calculando directamente la SO2 en lugar de la fluencia. 35

Un grupo independiente, Cai y colaboradores presentó un modelo de extremo a extremo para el cálculo de SO2 a partir de datos de PA llamado ResU-net en 2018. El grupo implementó una Neural Network más profunda que en trabajos desarrollados posteriormente y adoptó un mecanismo de aprendizaje residual para evitar una desaparición gradiente de pérdida que impide la convergencia del modelo durante el entrenamiento. Si bien el modelo se desempeñó con errores medios por debajo del 1% y muy por debajo de los de una línea de base, el rendimiento del modelo se deterioró a medida que aumentaba el nivel de ruido dentro de la imagen de PAT; es decir, ResU-net no manejó de manera óptima el ruido de la imagen de PA por debajo de una relación señal / ruido (SNR) de 20 dB al reconstruir la SO2 para un tejido dado. El uso de una Neural Network menos profunda podría disminuir el tiempo de entrenamiento de horas a minutos, y el entrenamiento con datos más ruidosos (SNR por debajo de 40 dB) podría aumentar el rendimiento de un modelo Machine Learning en datos ruidosos, 36

Aprendizaje supervisado y no supervisado

Los algoritmos de Machine Learning pueden dividirse en dos métodos de clasificación: supervisados y no supervisados, dependiendo de las preguntas a las que responden y el tipo de información disponible para su entrenamiento. A la hora de elegir un algoritmo también es importante tener en cuenta qué tipo de aprendizaje se está utilizando dentro del Machine Learning, Es decir, si se está hablando de aprendizaje supervisado o no supervisado. De acuerdo con el tipo de aprendizaje se utilizan diferentes algoritmos. 35 Los algoritmos con mejores resultados para el diagnóstico de enfermedades en esta rama de la medicina: con el uso de aprendizaje supervisado, es común usar las Neural Networks y las redes bayesianas, y con el aprendizaje no supervisado, el método de agrupamiento k-medias (k-means). 28

El Machine Learning comprende una amplia gama de modelos destinados a resolver problemas de la vida real utilizando algoritmos supervisados y no supervisados capaces de encontrar incluso las mejores causalidades y correlaciones entre cualquier fenómeno dado representado en los datos. Dadas las extraordinarias capacidades actuales del software, podemos explotar esta herramienta en prácticamente cualquier campo, la Oncología, por ejemplo, una especialidad médica que se centra en el tratamiento del cáncer puede utilizar estos modelos para proporcionar un diagnóstico más preciso en lo que respecta a la detección del cáncer de seno. 37

A continuación, se detallan los dos métodos de clasificación:

Aprendizaje Supervisado (Supervised Learning): Los datos en estos casos disponen de atributos adicionales que son los que se intentan predecir. Dentro de esta categoría destacan los algoritmos en los que las muestras están etiquetadas como pertenecientes a dos o más clases, y se quiere aprender a predecir la clase de datos sin etiquetar 38. A través de esta, se entrena un algoritmo otorgándole las preguntas, que se denominan características, y las respuestas conocidas como etiquetas. Lo anterior se realiza con el fin de que el algoritmo las combine y se puedan hacer predicciones.

El Supervised Learning consta de dos pasos esenciales: El primero es un entrenamiento, donde se utiliza el conjunto de entrenamiento con un algoritmo que permita crear una hipótesis y el segundo es la prueba, en donde se utiliza la hipótesis obtenida en el paso anterior para generar nuevas predicciones con objetos nuevos. 36

Los métodos de aprendizaje supervisado automático (Supervised Machine Learning)​​particularmente potentes se basan en Neural Networks, y para el diagnóstico de cáncer de seno se ha empleado el método tradicional de Supervised Learning aplicándose en primer lugar a PAI de cáncer de seno generadas en onda K Simulación de PAI. Se extrae la función escala invariante que transforma las características (SIFT) y luego usa la agrupación en clústeres de K-means para obtener el diccionario de funciones logrando así una alta precisión para la clasificación del cáncer de seno en PAI. 27

Proyectos recientes tienen como objetivo principal la aplicación y evaluación del desempeño de tres modelos de Supervised Machine Learning utilizando datos de origen biomédico en problemas de clasificación. Estos tres modelos son k-vecinos más próximos (KNN), bosques aleatorios (RF) y máquinas de soporte vectorial (SVM). Se utilizaron dos conjuntos de datos para el entrenamiento de estos modelos. El primero de ellos está formado por medidas volumétricas de gliomas de grado bajo. El segundo está formado por características morfológicas extraídas de imágenes de núcleos de células de cáncer de seno. Los resultados revelan que la calidad y abundancia de los datos es fundamental para el desarrollo de un buen modelo predictivo. Diferentes modelos pueden ser funcionales para un mismo problema de clasificación. Los análisis demuestran una clara relación entre algunas de las características y el resultado clínico. 39

El SVM es un conjunto de algoritmos de Supervised Learning relacionados con problemas de regresión y clasificación. Una de las ventajas de este algoritmo de clasificación es que resulta más fácil de utilizar que una Neural Network, además de su alta precisión. Por el contrario, una desventaja es que puede ser lento de entrenar, sobre todo si los datos de entrada tienen muchos parámetros. 38

Aprendizaje No Supervisado (Unsupervised Learning): Los datos de este tipo de entrenamiento consisten en un conjunto de vectores de entrada sin ningún valor o etiqueta correspondiente. En este caso, los algoritmos trabajan de forma parecida a los supervisados, con diferencia de que estos solo ajustan su modelo predictivo a través de la toma de datos de entrada, dejando de lado los datos de salida. En otras palabras, a diferencia del supervisado, los datos correspondientes a la entrada no se encuentran clasificados ni etiquetados, por lo que no son necesarias estas características para entrenar el modelo. 34 En esta variedad de algoritmo, el agrupamiento o clustering, es el más utilizado, puesto que divide los datos en grupos que tengan características similares entre sí. El agrupamiento busca clasificar un conjunto de objetos en grupos, de tal manera que los objetos que se encuentren dentro de cada grupo sean altamente semejantes. 36

El algoritmo K-means es uno de los métodos de clustering más usados, tiene como objetivo la partición de un conjunto de n observaciones en k grupos en el que cada observación pertenece al grupo cuyo valor medio es más cercano. El problema de este tipo de algoritmo es que es computacionalmente difícil y para poder abordarlo se debe recurrir a heurísticas que permiten converger más rápidamente a un óptimo local. 38

Frecuentemente, para evaluar el desempeño de un método de este tipo se suele combinar con trabajos de Supervised Learning posteriores para comprobar si esos nuevos patrones son útiles de alguna forma. Últimamente, se han estado aplicando algoritmos, tanto supervisados como no supervisados, que son capaces de clasificar la presencia del cáncer y, además, diagnosticar la agresividad. En este caso, puesto que se trata de imágenes, las técnicas más populares se centran en realizar las agrupaciones midiendo la distancia entre píxeles de manera que, aquellos píxeles cuyo valor de intensidad sea parecido, se agrupan dentro de la misma clase (clúster). También, están resurgiendo nuevos modelos para el aprendizaje de la agrupación en los modelos no supervisados, ya que el etiquetado de las imágenes es una tarea muy tediosa y, por lo tanto, una de las ventajas que presenta este tipo de modelo frente a los modelos supervisados es la reducción del tiempo para el desarrollo del modelo.

Se ha demostrado que el Unsupervised Learning basado en modelos puede discriminar subpoblaciones unicelulares por sus distribuciones de expresión génica, que a su vez permiten identificar genes específicos para estudios funcionales enfocados. 40 Muchos de los resultados proporcionan una prueba de concepto para el uso de metabolómica de Unsupervised Machine Learning (Aprendizaje automático no supervisado) que permite la estratificación y el manejo personalizado de los pacientes con cáncer de seno. El diseño de métodos computacionales novedosos que incorporen Machine Learning y técnicas bioinformáticas debería poner a disposición herramientas especialmente adecuadas para mejorar el resultado del tratamiento del cáncer y reducir la mortalidad relacionada con este. 41 También se puede utilizar método automático, para predecir si una persona tiene cáncer de seno o no basado en imágenes de ultrasonido o rayos X. Este tipo de problema se podría abordar con Supervised Learning de clasificación ya que se quiere saber si existe cáncer o no (una etiqueta discreta binaria). En el Supervised Learning el algoritmo de Machine Learning busca un conjunto de reglas que le permitan deducir características generales de los elementos del grupo con el objetivo de aplicar una misma etiqueta a elementos similares. De esta forma, cuando se le presente al computador una imagen completamente nueva, éste tendrá la capacidad de predecir la etiqueta correcta (por ejemplo, la presencia o no de cáncer) basándose en la “experiencia pasada adquirida”.

Análisis y discusiones

El objetivo de este trabajo es conocer el funcionamiento de las distintas técnicas de procesamiento de imágenes obtenidas por PA y los métodos Machine Learning para la identificación de anomalías en el seno. En cuanto a las técnicas para procesamiento de imagen por PA, los algoritmos iterativos son los más precisos para la reconstrucción de imágenes mamarias digitales, ya que está caracterizada por tener un comportamiento convergente. Las implementaciones sugeridas en los diferentes artículos que hablan sobre el tema de las técnicas de procesamiento de imagen están basadas en modelos que están específicamente alineadas con las imágenes digitales de seno y que cumplen con los requisitos clínicos. También es evidente que sintonizan diferentes estrategias automáticas para establecer parámetros de regularización adecuados. Evaluando las diferentes técnicas de imagen para llevar a cabo un preprocesamiento se pudo observar en los diferentes estudios realizados que la mayoría de sus resultados confirman la efectividad en la reconstrucción de los volúmenes de los senos, con especial atención a las masas y microcalcificaciones, en pocas iteraciones y en la mejora de la calidad de imagen en una ejecución prolongada.

Los algoritmos iterativos de reconstrucción de imágenes para PAT también tienen la capacidad de mejorar la calidad de la imagen sobre los algoritmos analíticos debido a su capacidad para incorporar modelos precisos de la física de imágenes, la respuesta del instrumento y ruido de medición. Sin embargo, hasta la fecha, se han informado pocos intentos de emplear métodos avanzados en los algoritmos iterativos de reconstrucción de imágenes para mejorar la calidad de la imagen en 3D. El conjunto de datos en el proceso de reconstrucción es muy grande, especialmente en 3D y 4D. Por esta razón y porque las operaciones básicas de cómputo son de tipo píxel/vóxel, las arquitecturas modernas masivamente paralelas, basadas en GPU, son las más apropiadas.

En los últimos años los esfuerzos han ido dirigidos a optimizar la reconstrucción de la imagen. Actualmente el algoritmo de reconstrucción más empleado es la retroproyección filtrada, que resulta rápido y adecuado en la mayoría de las situaciones. Sin embargo, al reducir la dosis de radiación o examinar pacientes obesos, genera imágenes con mayor nivel de ruido y artefactos. El algoritmo de retroproyección filtrada es el método más empleado por su sencillez y velocidad, como alternativa, la reconstrucción iterativa permite disminuir la dosis de radiación y/o mejorar la calidad de la imagen. La mayor potencia de hardware de las estaciones de reconstrucción actuales ha permitido que las principales compañías proveedoras introduzcan nuevos algoritmos de reconstrucción iterativa.

En cuanto a la reconstrucción de imagen por medio de Neural Networks es capaz de reconstruir partes de imágenes que estén incompletas, y lo hace muy bien. Es decir, podemos tener una imagen en la que hemos borrado un obstáculo de delante, y esta será capaz de reconstruir la parte que falta. No puede adivinar con exactitud qué hay detrás, por supuesto, pero puede predecirlo con un grado de acierto considerablemente alto, dando como resultado algo muy realista.

Por otro lado, la segmentación de una imagen es uno de los problemas más importantes de la visión artificial. En la actualidad, no existen métodos o algoritmos que puedan realizar la segmentación universal de imágenes, sino que debe realizarse un algoritmo ex profeso para cada caso, siendo muy relevante la iluminación y la información previa de lo que va a aparecer en la escena. En el caso concreto de análisis de imágenes médicas, el objetivo es ofrecer un análisis cuantificado de características existentes en un determinado órgano o lesión.

Cada caso exige un procesamiento específico. Muchos grupos de investigación están trabajando en esta línea para conseguir la segmentación automática de la escena, con la menor intervención posible por parte del usuario, para su interpretación posterior.

Finalmente, cada uno de los métodos de inteligencia artificial de acuerdo con lo planteado tiene ventajas muy específicas en procesos de optimización, recursividad, velocidad de respuesta, costo computacional, flexibilidad, entre otras. Cada uno se enfoca en métodos de trabajo diferentes que pueden ayudar en la solución de diversos problemas, pero, así como tienen grandes ventajas también poseen desventajas en su funcionamiento e implementación. Para mejorar esto en años recientes se han integrado las diferentes técnicas para poder trabajar con modelos híbridos y disminuir las dificultades que estos presentan individualmente. De esta forma es posible abordar nuevos campos de estudio y análisis como el procesamiento digital de imágenes, un campo joven con grandes potenciales en el área de pavimentos.

Por lo tanto, aunque la investigación sobre el uso del Machine Learning para resolver algunos de los problemas en PAI ha avanzado enormemente, todavía hay mucho por mejorar. A medida que los investigadores y los médicos del Machine Learning obtengan más experiencia, será más fácil resolver los problemas clínicos actuales utilizando soluciones razonables. Una vez que haya suficientes sistemas de solución maduros, basados en matemáticas, informática, física e ingeniería al ingresar al flujo de trabajo diario en la clínica, la medicina computacional se convertirá en la corriente principal de Machine Learning.

Los algoritmos de Deep Learning son especialmente útiles para tratar gran cantidad de datos, especialmente de naturaleza compleja, poco documentados y generalmente no estructurados, como por ejemplo imágenes, registros médicos electrónicos, datos de sensores, entre otros. El Deep Learning tradicional requiere la extracción de características de los datos antes de ser implementado sobre los modelos, esto adiciona el problema de la necesidad de un profundo conocimiento del área, y que, aun teniendo al personal idóneo, la gran cantidad de variables pueden desbordar la capacidad del profesional para encontrar nuevos patrones. En este escenario, el Deep Learning puede irrumpir al crear modelos que descubren de forma automática las características predictoras de una gran cantidad de datos complejos.

Conclusiones

Para la redacción de este documento se han revisado y analizado múltiples investigaciones de distintos autores y se puede apreciar la diversidad del trabajo existente acerca de la reconstrucción de PAI sobre todo en los últimos años y su incremento constante hace inevitable el desarrollo de esta modalidad de imagen. Con la evidencia experimental obtenida hasta ahora se puede concluir que las imágenes de PAT pueden usarse para la detección del cáncer de seno de una manera efectiva, sin ser un procedimiento invasivo además de que no emplea radiación ionizante.

Las imágenes de PAT también poseen una buena perspectiva de aplicación para la diferenciación automática benigna y maligna de tumores de cáncer de seno. En particular se ha notado que ya existen aplicaciones sencillas de prueba que emplean el concepto de Deep Learning y Machine Learning. Sin embargo, aún existen cuestiones que abordar, tal como la reconstrucción independiente de modelos que emplean enfoques totalmente aprendidos, o las reconstrucciones aprendidas que emplean un modelo físico combinado con una red neuronal, los cuales han demostrado ser más estables y requieren una menor cantidad de datos para entrenamiento, pero tienen la desventaja de ser un poco más lentos.

Un desafío importante que afronta la reconstrucción de imágenes en todas las aplicaciones biomédicas es, cómo garantizar que las masas extrañas (tumor), aparezcan de manera precisa en la imagen sin que haya algo similar en los datos de entrenamiento. Existen técnicas como el aprendizaje zero-shot, el cual consiste en aprender a reconocer nuevos conceptos con solo tener una descripción de ellos, dicho de otra manera, que pueden clasificar objetos que no hayan sido proporcionados a la hora de entrenar el modelo, simplemente con una descripción de los atributos de dicho objeto.

Trabajo futuro en PAI y Deep Learning

Para concluir esta revisión, a continuación, se describe la dirección de nuevos regímenes de entrenamiento o combinaciones de modelos físicos con Neural Network. Diversos enfoques en la actualidad aún carecen de un término de coherencia de datos y, por lo tanto, las reconstrucciones obtenidas pueden parecer realistas, pero no hay forma de evaluar su exactitud. Existen algunos enfoques que consideran dicha consistencia de datos durante la reconstrucción y por lo tanto proporcionan una posible dirección para desarrollos posteriores, como reconstrucciones iterativas y no iterativas, segmentación de imagen, etc.

Otra manera factible de abordar esta limitación es el uso de Neural Network que consideren la incertidumbre o proporcionen una estimación de la incertidumbre además de la reconstrucción. Existen actualmente algunas investigaciones que se encaminan en esa dirección, 42 pero existe un creciente interés en distintos campos para incorporar tales estimaciones de incertidumbre en un marco de reconstrucción aprendido. 43

Un desafío adicional para la reconstrucción de imágenes es la alta complejidad computacional que produce la naturaleza inherente del 3D de PAI, debido a que los modelos computacionales tienden a consumir mucho tiempo y almacenar los datos requiere grandes cantidades de memoria. En algunas investigaciones se han discutido posibles métodos para superar estos desafíos, una alternativa sugiere el uso de redes invertibles, 44 lo cual no requiere el almacenamiento de estados intermedios en la red para calcular los gradientes para el entrenamiento. Una alternativa para escalar los esquemas iterativos aprendidos a 3D sugiere el cálculo del modelo directo en múltiples resoluciones más bajas en el proceso de reconstrucción.

En el futuro, la capacidad de reconstrucción de imágenes funcionales de las PAI espectroscópicas debe explotarse con más estudios in vivo realizados en múltiples longitudes de onda. Esto con un único propósito, lograr una introducción total del sistema PA en el campo clínico para la toma de imágenes médicas. Es importante mencionar que para reducir el costo del sistema de PAI funcional, el costoso láser de múltiples longitudes de onda se puede reemplazar con diodos láser con diferentes longitudes de onda de acuerdo con ciertas investigaciones. (45)

Con un costo menos elevado en el equipo para la generación de este tipo de imágenes, la introducción al campo clínico sería mucho más factible, logrando así una mayor accesibilidad para las personas, además de brindar todas las ventajas que posee esta modalidad de imagen respecto a las existentes, esto representaría un avance significativo para las ciencias biomédicas que tendría como consecuencia una mejora en el diagnóstico médico.


Referencias
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.


Licencia de Creative Commons
Esta obra está bajo una licencia de Creative Commons Reconocimiento-NoComercial 4.0 Internacional.