El nuevo diseño de red neuronal químico puede distinguir entre piel sana y enferma: ScienceDaily

0 1


El presidente fundador del departamento de ingeniería biomédica de la Universidad de Houston informa sobre una nueva arquitectura de red neuronal profunda que proporciona un diagnóstico temprano de esclerosis sistémica (ES), una enfermedad autoinmune poco común caracterizada por piel y órganos internos endurecidos o fibrosos. La red propuesta, implementada utilizando una computadora portátil estándar (Intel Core i7 de 2.5 GHz), puede diferenciar inmediatamente entre imágenes de piel sana y piel con esclerosis sistémica.

“Nuestro estudio preliminar, destinado a demostrar la eficacia de la arquitectura de red propuesta, es prometedor para caracterizar la SSc”, informa Metin Akay, profesor de ingeniería biomédica John S. Dunn Endowed Chair. El trabajo está publicado en IEEE Open Journal of Engineering in Medicine and Biology.

“Creemos que la arquitectura de red propuesta se puede implementar fácilmente en un entorno clínico, proporcionando una herramienta de detección sencilla, rentable y precisa para la ES”.

Para los pacientes con SSc, el diagnóstico temprano es fundamental, pero a menudo es difícil de alcanzar. Varios estudios han demostrado que la afectación de órganos podría ocurrir mucho antes de lo esperado en la etapa temprana de la enfermedad, pero el diagnóstico temprano y la determinación del grado de progresión de la enfermedad plantea un desafío significativo para los médicos, incluso en centros especializados, lo que resulta en retrasos en la terapia y administración.

En inteligencia artificial, el aprendizaje profundo organiza los algoritmos en capas (la red neuronal artificial) que pueden tomar sus propias decisiones inteligentes. Para acelerar el proceso de aprendizaje, la nueva red se entrenó utilizando los parámetros de MobileNetV2, una aplicación de visión móvil, previamente entrenada en el conjunto de datos ImageNet con 1,4 millones de imágenes.

“Al escanear las imágenes, la red aprende de las imágenes existentes y decide qué nueva imagen es normal o está en una etapa temprana o tardía de la enfermedad”, dijo Akay.

Entre las diferentes redes de aprendizaje profundo, las redes neuronales convolucionales (CNN) se utilizan con mayor frecuencia en ingeniería, medicina y biología, pero su éxito en aplicaciones biomédicas ha sido limitado debido al tamaño de los conjuntos de formación y las redes disponibles.

Para superar estas dificultades, Akay y su socio Yasemin Akay combinaron UNet, una arquitectura CNN modificada, con niveles adicionales, y desarrollaron un módulo de capacitación móvil. Los resultados mostraron que la arquitectura de aprendizaje profundo propuesta es superior y mejor que CNN para la clasificación de imágenes SSc.

“Después del ajuste, nuestros resultados mostraron que la red propuesta logró un 100% de precisión en el conjunto de imágenes de entrenamiento, un 96,8% de precisión en el conjunto de imágenes de validación y un 95,2% en el conjunto de imágenes de prueba”, dijo Yasmin Akay, profesora asociada de biomedicina. ciencias en la ingeniería de la UH.

El tiempo de formación fue de menos de cinco horas.

Junto con Metin Akay y Yasemin Akay, el artículo fue escrito en colaboración con Yong Du, Cheryl Shersen, Ting Chen y Chandra Mohan, todos de la Universidad de Houston; y Minghua Wu y Shervin Assassi del Centro de Ciencias de la Salud de la Universidad de Texas (UT Health).

Fuente de la historia:

Materiales proporcionados por Universidad de Houston. Original escrito por Laurie Fickman. Nota: El contenido se puede cambiar por estilo y longitud.

También podría gustarte
Deja una respuesta

Su dirección de correo electrónico no será publicada.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More