Novasinergia 2026, 9(1), 41-58. https://doi.org/10.37135/ns.01.17.03 http://novasinergia.unach.edu.ec
Artículo de Investigación
Aplicación web para la detección de cáncer de piel basada en aprendizaje
profundo
Web application for skin cancer detection based on deep learning
Fátima Katiuska Farías Rivera1, Nancy Magaly Loja Mora1, Fausto Juvenal Loja Mora
1Carrera de Tecnologías de la Información, Universidad Técnica de Machala, Machala, Ecuador, 070151;
ffarias_est@utmachala.edu.ec; faustol@gmail.com
*Correspondencia: nmloja@utmachala.edu.ec
Citación: Farías, F.; Loja, N. & Loja,
F., (2026). Aplicación web para la
detección de cáncer de piel basada
en aprendizaje profundo.
Novasinergia. 9(1). 41-58.
https://doi.org/10.37135/ns.01.17.03
Recibido: 10 mayo 2025
Aceptado: 22 septiembre 2025
Publicado: 08 enero 2026
Novasinergia
ISSN: 2631-2654
Resumen: El desarrollo de tecnologías avanzadas en salud es una de
las áreas más apasionantes y desafiantes del siglo XXI. La aplicación
del aprendizaje profundo para el diagnóstico médico representa un
avance significativo en la capacidad de los sistemas automatizados
para asistir a los profesionales en la toma de decisiones. Este trabajo
presenta una aplicación web para la detección temprana de cáncer
de piel mediante redes neuronales convolucionales, específicamente
ResNet; la misma permite la detección automática de ocho tipos de
cáncer de piel: Melanoma, Nevo melanocítico, Carcinoma de células
basales, Queratosis actínica, Dermatofibroma, Carcinoma de células
escamosas, Lesión vascular y Queratosis seborreica. La metodología
CRISP-DM utilizada en este estudio incluye el preprocesamiento de
datos utilizando TensorFlow y la evaluación del desempeño del
modelo mediante métricas como: precisión, sensibilidad, pérdida
promedio y mAP (mean Average Precision). Se trabaja con un
conjunto de datos de 25,331 imágenes, divididas en 20,265 para
entrenamiento y 5,066 para prueba. Con los resultados de este
trabajo se obtuvo, el 94% de precisión y 87% de sensibilidad. Se
plantea como trabajo futuro la optimización del modelo y la
exploración de su aplicación en otras patologías dermatológicas, con
el objetivo de ampliar su utilidad en contextos clínicos asistidos por
inteligencia artificial.
Palabras clave: Aplicación web, Aprendizaje profundo, ncer de
piel, Redes neuronales convolucionales, TensorFlow.
Copyright: 2026 derechos otorgados por
los autores a Novasinergia.
Este es un artículo de acceso abierto
distribuido bajo los términos y
condiciones de una licencia de Creative
Commons Attribution (CC BY NC).
(http://creativecommons.org/licenses/by
/4.0/).
Abstract: Developing advanced healthcare technologies is one of the most
exciting and challenging areas of the 21st century. The application of deep
learning to medical diagnosis represents a significant advance in the ability
of automated systems to assist professionals in critical decision-making.
This work presents a web application for early skin cancer detection using
convolutional neural networks, specifically ResNet. It enables the
automatic detection of eight types of skin cancer: melanoma, melanocytic
nevus, basal cell carcinoma, actinic keratosis, dermatofibroma, squamous
cell carcinoma, vascular lesion, and seborrheic keratosis. The CRISP-DM
methodology used in this study includes data preprocessing using
TensorFlow and model performance evaluation using metrics such as
accuracy, sensitivity, average loss, and mAP (mean average precision). The
model uses a dataset of 25,331 images, divided into 20,265 for training and
5.066 for testing. The results of this study yielded 94% accuracy and 87%
sensitivity. Future work is proposed to optimize the model, explore its
application in other dermatological pathologies, and expand its usefulness
in clinical contexts assisted by artificial intelligence.
Keywords: Web Application, Deep Learning, Skin Cancer, Convolutional
Neural Networks, TensorFlow.
Novasinergia 2026, 9(1), 41-58 42
1. Introducción
Los informes de la Organización Mundial de la Salud (OMS) muestran que una de
las principales causas de decesos a nivel mundial es el cáncer [1], y se prevé que el número
de casos diagnosticados se duplique en las próximas dos décadas. El cáncer de piel afecta a
millones de personas [2] debido a su capacidad de desarrollarse en cualquier tipo de piel,
especialmente en aquellos individuos que están expuestos de manera frecuente o
prolongada a la radiación ultravioleta. Se genera cuando hay un crecimiento anormal y
descontrolado de las células de la piel. Este proceso puede ser desencadenado por varios
factores, los cuales alteran el ADN de las células cutáneas. Durante las últimas tres décadas,
se ha observado un aumento progresivo, diagnosticándose más de 132,000 casos en todo el
mundo [3].
Las lesiones cutáneas se pueden agrupar en melanocíticos y no melanocíticos. Las lesiones
melanocíticas incluyen melanoma y nevos melanocíticos [4]. Del mismo modo, las lesiones
no melanocíticas incluyen: el carcinoma de células basales, la queratosis actínica (forma
anticipada de carcinoma de células escamosas y también conocida como enfermedad de
Bowen), dermatofibroma y lesión vascular. Tanto las lesiones melanocíticas como las no
melanocíticas tienen tipos malignos y benignos [5]. Las lesiones cutáneas malignas son
cancerosas e incluyen melanoma, carcinoma de células basales y queratosis actínica. Para
[6], la dermatoscopia es una técnica de imagen popular entre los dermatólogos, mejora la
visualización de la superficie y estructura de las lesiones cutáneas para un examen más
preciso. Sin embargo, esta técnica requiere de profesionales capacitados, ya que depende de
la agudeza visual y experiencia del médico [7].
Actualmente, también existen diversos métodos asistidos por computador, como los
enfoques basados en el aprendizaje profundo que han evidenciado resultados alentadores
en la segmentación y clasificación de lesiones cutáneas, gracias a su habilidad para extraer
características complejas de las imágenes de manera más detallada. Los algoritmos de
aprendizaje profundo también tienen la capacidad de aprender características específicas
para la tarea, lo que los hace mucho más eficientes que otros métodos [8]. La tecnología DL
(Deep Learning) se considera uno de los temas más relevantes dentro del área del
aprendizaje automático, así como la ciencia y el análisis de datos, debido a sus capacidades
de aprendizaje a partir de los datos proporcionados [9]. Recientemente, se han utilizado
redes neuronales convolucionales (CNN) y enfoques basados en el aprendizaje profundo
para la detección del cáncer [10]. Estudios han demostrado que las CNN tienen un
rendimiento de alto nivel en la detección de cáncer de piel. En particular, el modelo
ResNet50 alcanzó una especificidad del 93% y una sensibilidad del 79%, evaluado con un
conjunto de datos limitado. Además, la combinación de modelos como InceptionV3 y
ResNet50 mejoró aún más la precisión, logrando un área bajo la curva (ROC-AUC)
comparable o incluso superior a la de dermatólogos certificados [11]. Otro estudio mostró
que un enfoque basado en múltiples modelos de CNN logró una precisión significativa en
la clasificación de lesiones cutáneas, con un rendimiento similar al de los dermatólogos en
la detección de melanoma y otras lesiones cutáneas, destacando la robustez y eficacia de las
CNN en aplicaciones de diagnóstico médico [12]. A pesar de estos avances en el uso de
inteligencia artificial, detectar y tratar esta enfermedad en etapas tempranas sigue siendo
Novasinergia 2026, 9(1), 41-58 43
crucial para reducir las tasas de mortalidad, por lo que el diagnóstico debe ser lo más preciso
[13]. Sin embargo, la identificación del cáncer de piel continúa representando un desafío
para los dermatólogos, lo que puede provocar retrasos en el tratamiento y, en consecuencia,
resultados subóptimos para los pacientes. Debido a ello, los investigadores están enfocados
en desarrollar estrategias de detección como una prioridad, generando la siguiente
problemática: ¿Cómo puede el aprendizaje profundo ayudar a la detección de cáncer de
piel, superando los obstáculos actuales y ofreciendo resultados más efectivos para los
pacientes? Se justifica que la detección a tiempo del cáncer de piel es crucial, dado que la
identificación precoz de la enfermedad puede incrementar las oportunidades de
recuperación. Estos desafíos han motivado a la comunidad investigadora a desarrollar
nuevas técnicas de visualización y detección del cáncer de piel que puedan superar las
limitaciones de la dermatoscopia y brindar opciones más efectivas y accesibles para la
detección de esta enfermedad, es aquí en donde el entrenamiento de un modelo
automatizado basado en Aprendizaje Profundo para detectar cáncer de piel puede
desempeñar un papel fundamental.
En este contexto, el objetivo de este estudio fue desarrollar una aplicación web que
implemente un modelo basado en redes neuronales convolucionales (CNN) para la
detección automática de cáncer de piel a partir de imágenes dermatoscópicas. El modelo fue
entrenado para identificar ocho tipos específicos de lesiones cutáneas: melanoma, nevo
melanocítico, carcinoma de células basales, queratosis actínica, dermatofibroma, carcinoma
de células escamosas, lesión vascular y queratosis seborreica. La aplicación fue diseñada
para operar en dispositivos tecnológicos, con el fin de facilitar su integración en contextos
clínicos y no clínicos.
2. Metodología
Para el presente estudio se adoptó un enfoque metodológico de tipo cuantitativo y
experimental, orientado a evaluar el desempeño de un modelo de aprendizaje profundo
para la detección de cáncer de piel a partir de imágenes dermatológicas. El proceso de
desarrollo siguió la metodología CRISP-DM (Cross Industry Standard Process for Data
Mining), la cual es un modelo de proceso independiente de la industria para la minería de
datos que proporciona un enfoque sistemático y adaptable que guía desde la comprensión
del problema de negocio hasta la implementación de soluciones basadas en datos. [14]. La
Figura 1 muestra la estructura de la metodología empleada.
Se implementó una red neuronal convolucional (CNN) utilizando el lenguaje de
programación Python y las bibliotecas TensorFlow, Keras, OpenCV y NumPy. El conjunto
de datos utilizado fue el ISIC 2019 Challenge Dataset, obtenido de la plataforma Kaggle, el
cual contiene 25,331 imágenes de lesiones cutáneas etiquetadas por expertos. Como parte
del preprocesamiento de los datos, se aplicaron técnicas de normalización de imágenes,
aumento de datos (data augmentation) para mitigar el sobreajuste, y ajuste de tamaños de
entrada para cumplir con los requisitos del modelo CNN. Además, se realizaron pruebas
para determinar la cantidad óptima de épocas necesarias para el entrenamiento del modelo,
con el objetivo de alcanzar un alto porcentaje de aciertos en la detección de cáncer de piel.
Las métricas utilizadas para la evaluación del desempeño incluyeron precisión (accuracy),
Novasinergia 2026, 9(1), 41-58 44
sensibilidad (recall), especificidad, y la puntuación F1, con el objetivo de medir de manera
integral la capacidad del modelo para identificar las lesiones sospechosas de cáncer. Las
fases de entrenamiento y validación se diseñaron para reproducir los resultados y la
evaluación del modelo después de aplicar técnicas de ajuste y optimización.
Figura 1. Estructura de la Metodología CRISP-DMCRTV.
2.1. Comprensión del negocio
Evaluación de la situación
La aplicación de CNN en la interpretación de imágenes dermatológicas, como las
proporcionadas por el dataset ISIC-2019 de Kaggle [15] permite combinar la capacidad de
datos del conjunto con el aprendizaje automático para identificar patrones complejos
asociados con diversas condiciones de la piel. Con el fin de realizar el desarrollo de la
aplicación web para la detección de cáncer de piel, se identificaron las principales partes
interesadas del sistema, junto con sus responsabilidades específicas (Tabla 1).
Tabla 1. Partes interesadas del sistema.
ROL
APLICACIÓN WEB PARA DETECTAR
CÁNCER DE PIEL
Responsabilidades:
Precisión y Fiabilidad: El sistema debe ser capaz de identificar los casos de cáncer de
piel, minimizando tanto los falsos positivos como los falsos negativos. Debe someterse
a pruebas de validación continua para asegurar su fiabilidad.
Accesibilidad: Debe ser accesible para una amplia gama de usuarios, incluyendo
aquellos con diferentes niveles de habilidad tecnológica y aquellos que utilizan
tecnologías asistidas.
Soporte al Usuario: Debe ofrecer soporte para ayudar a los usuarios a entender cómo
utilizar el sistema correctamente.
ROL
USUARIO FINAL
Responsabilidades:
Uso Adecuado: Los usuarios deben seguir las instrucciones de uso del sistema,
incluyendo la preparación para la toma de imágenes de la piel.
Comprensión de Limitaciones: Los usuarios deben comprender que el sistema es una
herramienta de apoyo a la decisión y no debe ser utilizado como sustituto de la consulta
médica profesional.
Consulta dica Profesional: En caso de un resultado positivo o si existen
preocupaciones, los usuarios deben buscar evaluación y confirmación por parte de un
profesional de la salud.
Novasinergia 2026, 9(1), 41-58 45
2.2. Comprensión de datos
En esta investigación se utilizó el conjunto de datos ISIC-2019, que es parte de la
competición ISIC Challenge en la detección automática de lesiones cutáneas. Como se puede
observar en la Figura 2, incluye ocho categorías de diagnóstico dermatológico: Melanoma,
Nevo melanocítico, Carcinoma de células basales, Queratosis actínica, Dermatofibroma,
Carcinoma de células escamosas, Lesión vascular y Queratosis seborreica. Estas categorías
fueron seleccionadas por estar contenidas de forma oficial y estructurada dentro del dataset,
con disponibilidad y confiabilidad de los datos para fines de entrenamiento y evaluación de
modelos computacionales. Además, el conjunto incluye 25,331 imágenes dermatoscópicas
que abarcan lesiones tanto benignas como malignas, lo que proporciona una base sólida
para el desarrollo de modelos de aprendizaje profundo con buen desempeño y capacidad
de generalización.
Figura 2. Ejemplos de cada categoría del conjunto de datos [15].
Las imágenes del conjunto de datos están en formato PNG con 300 DPI [16], lo que permite
el procesamiento y análisis posterior. Esta estructura de datos, con imágenes etiquetadas y
metadatos, facilita el entrenamiento y evaluación de modelos de aprendizaje profundo para
la detección y clasificación de las 8 lesiones cutáneas.
De acuerdo con [17] cada imagen está acompañada de metadatos que proporcionan
información adicional relevante para el análisis. Estos metadatos incluyen:
Edad del paciente: Indica la edad en años (Figura 3). se observa que las lesiones están
distribuidas principalmente entre personas de 40 a 80 años, siendo el rango más
común entre los 60 y 70 años.
Sexo del paciente: El conjunto de datos contiene imágenes de hombres y mujeres, con
una representación ligeramente mayor de pacientes masculinos en lesiones como
carcinoma basocelular y queratosis actínica, mientras que en nevus melanocíticos y
melanoma predomina la participación femenina (Figura 4).
Novasinergia 2026, 9(1), 41-58 46
Ubicación anatómica: Detalla la parte del cuerpo donde se tomó la imagen de la
lesión (Figura 5). Las ubicaciones s frecuentes incluyen el tórax anterior,
extremidades superiores e inferiores y la región de cabeza/cuello.
Figura 3. Edad promedio por tipo de lesión del conjunto de datos.
Figura 4. Sexo por tipo de lesión del conjunto de datos.
0
10
20
30
40
50
60
70
80
Edad promedio
Tipo de lesión
Edad promedio por tipo de lesión
Edad promedio
Novasinergia 2026, 9(1), 41-58 47
Figura 5. Ubicación anatómica por tipo de lesión del conjunto de datos.
2.3. Preparación de datos
Integración de datos:
La preparación de datos involucró la consolidación de imágenes dermatológicas junto con
su metadata asociada, que puede incluir información demográfica del paciente, detalles de
la lesión y anotaciones específicas de diagnóstico. La integración efectiva aseguró que cada
imagen esté vinculada a su información relevante, facilitando un análisis holístico y la
aplicación de técnicas de aprendizaje automático.
Formateo de datos
Esta etapa se centró en asegurar que todas las imágenes y sus correspondientes metadatos
estén en un formato homogéneo y listo para ser procesado por el modelo. Esto implicó
estandarizar las dimensiones, dado que las CNN requieren que todas las entradas tengan el
mismo tamaño. Esto se logró mediante técnicas de redimensionamiento aplicando padding
para mantener la proporción de aspecto sin distorsionar la imagen original.
Para optimizar el rendimiento del modelo en la detección de cáncer de piel, se aplicó un
proceso de preprocesamiento y aumento de datos utilizando la clase ImageDataGenerator
de TensorFlow Keras [18]. Este procedimiento permitió normalizar las imágenes y aplicar
transformaciones aleatorias, lo que ayudó a mejorar la capacidad de generalización del
modelo y a reducir el sobreajuste. El conjunto de entrenamiento fue sometido a diversas
transformaciones, incluyendo reescalado de los valores de los píxeles (rescale=1./255),
rotaciones de hasta 40 grados, desplazamientos en el eje horizontal y vertical, cortes
diagonales (shear), zoom aleatorio y volteo horizontal. Estas modificaciones permitieron
que el modelo aprenda a reconocer patrones de lesiones cutáneas en distintas orientaciones
0
500
1000
1500
2000
2500
Cantidad de personas
Tipo de lesión
Ubicación anatómica por tipo de lesión
Tórax anterior
Extremidad superior
Extremidad inferior
Cabeza/Cuello
Palmas/Plantas
Zona Oral/Genital
No reportado
Novasinergia 2026, 9(1), 41-58 48
y condiciones. Para el conjunto de validación, se aplicó el reescalado, asegurando que las
imágenes se mantuvieran en su formato original sin alteraciones adicionales.
2.4. Modelado
Selección de técnicas
Para seleccionar los modelos preentrenados se tomó como referencia el estudio [10], en
donde se evalúan los modelos ResNet152V2, VGG19 y MobileNetV3Large, obteniendo
métricas de precisión mayores al 70% en la detección de cáncer de piel. Estos modelos,
preentrenados en grandes conjuntos de datos como ImageNet, permiten aplicar técnicas de
transferencia de aprendizaje, adaptando el conocimiento adquirido a la detección de
lesiones cutáneas con conjuntos de datos más pequeños, mejorando la eficiencia del
entrenamiento y la precisión del modelo [4].
Es por ello, que para este estudio se seleccionaron los modelos preentrenados ResNet, VGG
y DenseNet para la detección de los ocho tipos de cáncer de piel; estos modelos alcanzaron
un rendimiento superior al 90 % en la clasificación de imágenes médicas.
Construcción del modelo
La construcción del modelo para la detección de cáncer de piel se desarrolló en varias etapas,
comenzando con la preparación y procesamiento de los datos. Se utilizó el conjunto de datos
ISIC-2019, dividido en 80 % para entrenamiento y 20 % para validación, siguiendo una
práctica ampliamente aceptada en el desarrollo de modelos de aprendizaje profundo. Esta
proporción permite que el modelo aprenda a identificar patrones de las lesiones cutáneas,
mientras se evalúa su capacidad de generalización en datos no vistos. Aunque las divisiones
entrenamiento/prueba pueden parecer arbitrarias, estudios recientes [19] respaldan que
proporciones como 80/20 ofrecen un balance adecuado entre entrenamiento efectivo y
validación confiable, especialmente cuando se cuenta con un volumen de datos
considerable. Antes del entrenamiento, las imágenes pasaron por un proceso de
preprocesamiento con el objetivo de mejorar la calidad visual y estandarizar su formato para
la entrada al modelo. Para ello, se utilizó la biblioteca OpenCV para realizar el ajuste de
tamaño de cada imagen a una dimensión uniforme de 224×224 píxeles, asegurando así la
compatibilidad con las arquitecturas de redes neuronales utilizadas. A través de NumPy, se
aplicó la normalización de los valores de los píxeles, transformándolos al rango [0, 1], lo
cual facilitó la convergencia del modelo durante el entrenamiento al mantener una escala
numérica estable. Asimismo, se implementaron técnicas de aumento de datos (data
augmentation) como: rotaciones, volteos horizontales y variaciones leves de brillo y zoom,
con el objetivo de incrementar la diversidad del conjunto de datos y mejorar la capacidad
de generalización del modelo frente a nuevas imágenes.
Una vez preprocesadas las imágenes, se seleccionaron y compararon diferentes
arquitecturas de redes neuronales convolucionales preentrenadas, entre ellas ResNet,
VGG16 y DenseNet. Estas redes, previamente entrenadas con grandes conjuntos de datos
como ImageNet, permiten reutilizar pesos aprendidos y detectar características visuales
complejas desde las primeras capas [20], optimizando así el rendimiento en tareas
específicas como la clasificación de imágenes dermatológicas. Tras la experimentación con
Novasinergia 2026, 9(1), 41-58 49
todas las arquitecturas, ResNet fue la que alcanzó el mejor desempeño en términos de
precisión y capacidad de generalización, por lo que fue seleccionada como la arquitectura
base para la fase final del entrenamiento y evaluación del modelo.
El modelo se entrenó ajustando los pesos durante 10 épocas, con una estrategia de
validación cruzada para evaluar su rendimiento. Finalmente, se evaluó el modelo con los
datos de validación, obteniendo métricas de pérdida y precisión, y se guardó el modelo
entrenado en un archivo con formato .h5 para su posterior implementación y análisis en la
detección de cáncer de piel. Finalmente, el modelo entrenado se integró en una aplicación
web que permite a los usuarios cargar imágenes de lesiones cutáneas para su análisis.
Utilizando tecnologías como Python, TensorFlow y Keras, el sistema procesa las imágenes
y proporciona un diagnóstico preliminar de cáncer de piel. El código fuente asociado al
entrenamiento está disponible en el siguiente repositorio: [21]
Arquitectura de la Red Neuronal
El modelo implementado para la detección de cáncer de piel se basó en una red neuronal
convolucional (CNN) de tipo funcional, estructurada en múltiples capas especializadas para
la extracción de características y clasificación. La arquitectura se compone por una serie de
capas convolucionales, de normalización por lotes (BatchNormalization), funciones de
activación, capas de pooling y conexiones residuales, siguiendo la estructura de ResNet. El
modelo comienza con una capa de entrada (InputLayer), que acepta imágenes de tamaño
variable con tres canales de color (RGB). Luego, se aplican capas de convolución inicial
(Conv2D) con 64 filtros y un tamaño de kernel de 7x7, seguidas de una normalización por
lotes para estabilizar el aprendizaje y mejorar la convergencia. Posteriormente, se aplica una
función de activación ReLU (Rectified Linear Unit) y una capa de max pooling para reducir
la dimensionalidad de los datos sin perder información relevante.
Después de la extracción de características, el modelo incorpora una capa de Global Average
Pooling (GAP) que reduce las dimensiones del tensor de características, convirtiéndolo en
un vector de tamaño 2,048. Esta estrategia ayuda a disminuir la cantidad de parámetros y
mejora la generalización del modelo. Finalmente, la fase de clasificación está compuesta por
una capa totalmente conectada (Dense) de 1,024 neuronas, seguida de una capa de dropout
para prevenir el sobreajuste. La salida del modelo se realiza a través de una capa densa de
8 neuronas, correspondiente a las ocho clases de cáncer de piel, utilizando la función de
activación softmax, que permite obtener probabilidades normalizadas para cada una de las
categorías.
El modelo cuenta con un total de 76,976,026 parámetros, de los cuales 25,640,968 son
entrenables, mientras que 53,120 permanecen congelados debido a la reutilización de pesos
preentrenados de ResNet. Esta configuración permite aprovechar el aprendizaje previo en
imágenes médicas y mejorar la capacidad de clasificación. Para la optimización del modelo,
se empleó un optimizador eficiente con más de 51,281,938 parámetros destinados a mejorar
la convergencia durante el entrenamiento.
Esta arquitectura, basada en ResNet y mejorada con técnicas de transfer learning,
proporciona la capacidad de generalización y rendimiento en la detección de cáncer de piel,
Novasinergia 2026, 9(1), 41-58 50
permitiendo la clasificación de las lesiones dermatológicas en imágenes médicas como se
visualiza en la Tabla 2.
Tabla 2. Modelo Funcional de la Red Neuronal Convolucional.
Layer (type)
Output Shape
Param #
Connected to
input_layer (InputLayer)
(None, None, Nones, 3)
0
-
conv1_pad
(ZeroPadding2D)
(None, None, None, 3)
0
input_layer[0][0]
conv1_conv (Conv2D)
(None, None, None, 64)
9,472
conv1_pad[0][0]
conv1_bn
(BatchNormalization)
(None, None, None, 64)
256
conv1_conv[0][0]
conv5_block3_add (Add)
(None, None, None, 2,048)
0
conv5_block2_out[0][0],
conv5_block3_3_bn[0][0]
conv5_block3_out
(Activation)
(None, None, None, 2,048)
0
conv5_block3_add[0][0]
global_average_pooling2d
(GlobalAveragePooling2D)
(None, 2,048)
0
conv5_block3_out[0][0]
dense (Dense)
(None, 1,024)
2,098,176
global_average_pooling2d[0][0]
dropout (Dropout)
(None, 1,024)
0
dense[0][0]
dense_1 (Dense)
(None, 8)
8.2
dropout[0][0]
Total params:
76,976,026 (293.64 MB)
Trainable params:
25,640,968 (97.81 MB)
Non-trainable params:
53,120,872 (202.51 MB)
Optimizer params:
51,281,938 (195.63 MB)
3. Resultados
3.1. Evaluación
Matriz de confusión
Para la evaluación de la precisión de la red neuronal se utilizó la matriz de confusión (Tabla
3), esta matriz permite una visualización detallada del comportamiento del modelo, al
comparar las etiquetas predichas con las verdaderas etiquetas de un conjunto de datos.
Cada fila de la matriz corresponde a las instancias en una clase real, mientras que cada
columna representa las instancias en una clase predicha [22]. Los elementos diagonales de
la matriz reflejan las predicciones correctas, y los elementos fuera de la diagonal, los errores.
Esto facilita la identificación de tipos específicos de errores y proporciona patrones cruciales
para optimizar la red, como el ajuste de hiperparámetros y la mejora del equilibrio entre
sensibilidad y especificidad del modelo.
Novasinergia 2026, 9(1), 41-58 51
Tabla 3. Matriz de Confusión
Predicción
Positivos
Negativos
Observación
Positivos
Verdadero Positivo
Falso Negativo
Negativos
Falso Positivo
Verdadero Negativo
Métricas
A partir de la matriz se obtienen las métricas de calidad para la detección de cáncer de piel:
𝑃𝑟𝑒𝑐𝑖𝑠𝑖ó𝑛 = 𝑉𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜 𝑃𝑜𝑠𝑖𝑡𝑖𝑣𝑜
(𝑉𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜 𝑃𝑜𝑠𝑖𝑡𝑖𝑣𝑜 + 𝐹𝑎𝑙𝑠𝑜 𝑃𝑜𝑠𝑖𝑡𝑖𝑣𝑜)
(1)
𝑆𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑 = 𝑉𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜 𝑃𝑜𝑠𝑖𝑡𝑖𝑣𝑜
𝑉𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜 𝑃𝑜𝑠𝑖𝑡𝑖𝑣𝑜 + 𝐹𝑎𝑙𝑠𝑜 𝑁𝑒𝑔𝑎𝑡𝑖𝑣𝑜
(2)
𝑉𝑎𝑙𝑜𝑟 𝑑𝑒 𝑅𝑒𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎 = 2 𝑥 𝑃𝑟𝑒𝑐𝑖𝑠𝑖ó𝑛 𝑥 𝑆𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑
𝑃𝑟𝑒𝑐𝑖𝑠𝑖ó𝑛 + 𝑆𝑒𝑛𝑠𝑖𝑏𝑖𝑙𝑖𝑑𝑎𝑑
(3)
La matriz de confusión obtenida reflejó el desempeño del modelo ResNet (Figura 6), el cual
fue seleccionado por su alta precisión después del entrenamiento y comparación con los
modelos VGG16 y Densenet. Para este análisis, se realizó una evaluación utilizando un
subconjunto de 500 imágenes con el fin de verificar su capacidad de generalización y
analizar su comportamiento en distintas clases. El modelo demostró 69 clasificaciones
correctas en la identificación de "Melanoma", aunque con confusión con "Melanocytic
Nevus" (5 errores) y "Actinic Keratosis" (8 errores). Asimismo, "Basal Cell Carcinoma" se
clasificó correctamente en 38 casos, con errores hacia "Actinic Keratosis" (9 errores) y
"Benign Keratosis-like Lesion" (7 errores).
Novasinergia 2026, 9(1), 41-58 52
Figura 6. Matriz de Confusión.
Resultados de la evaluación
Cada modelo se entrenó bajo condiciones homogéneas; se analizaron métricas como:
precisión, sensibilidad, pérdida promedio y mAP (mean Average Precision), con el
propósito de determinar qué arquitectura ofrece el mejor rendimiento en la clasificación de
imágenes dermatológicas. Esta comparación permitió identificar el modelo para ser
aplicado en este estudio.
Como se observa en la Tabla 4, que presenta los indicadores de desempeño de los modelos
ResNet, VGG16 y DenseNet, cada arquitectura mostró distintos niveles de precisión,
sensibilidad, pérdida y mAP al ser evaluadas con el conjunto de datos ISIC-2019. ResNet
obtuvo una precisión de 0.94, una sensibilidad de 0.87 y un mAP del 94.01% y una pérdida
promedio del 14.04%, lo que refleja un desempeño equilibrado. Aunque VGG16 alcanzó un
mAP ligeramente más alto (77.28%), su precisión fue menor (0.69). DenseNet registró
resultados cercanos, pero con la mayor pérdida entre los tres modelos (15.67%).
Tabla 4. Resultados de los modelos preentrenados.
Modelo
Precisión
Sensibilidad
Valor de Referencia
Pérdida Promedio
mAP (%)
ResNet
0.94
0.87
0.90
14.04%
94.01
VGG16
0.69
0.79
0.75
13.67%
77.28
DenseNet
0.72
0.76
0.74
15.67%
74.28
El modelo seleccionado en este estudio para la detección de ocho tipos de cáncer de piel fue
ResNet, dado que en los resultados obtenidos (Figura 7), en comparación a los otros modelos
presentó una mejor relación entre precisión, sensibilidad y el valor de referencia en la
clasificación de imágenes dermatológicas, con una precisión del 94%.
Novasinergia 2026, 9(1), 41-58 53
Figura 7. Resultados en estadística de la red neuronal.
La tabla 5, muestra que el modelo ResNet consiguió la clasificación de los ocho tipos de
cáncer de piel, con valores mínimos de 0.84 y máximos de 0.96 para las métricas evaluadas
de: precisión, sensibilidad y valor de referencia. En general, los resultados indican que el
modelo logró diferenciar las lesiones de piel, aunque con algunas confusiones en clases con
características similares.
Tabla 5. Pruebas de observación.
Precisión
Sensibilidad
Valor de
Referencia
Cantidad de
imágenes
Melanoma
0.95
0.87
0.91
66
Nevus melanocítico
0.98
0.89
0.94
71
Carcinoma basocelular
0.91
0.86
0.89
58
Queratosis actínica
0.94
0.85
0.90
66
Lesión benigna queratósica
0.96
0.90
0.93
80
Dermatofibroma
0.90
0.84
0.87
44
Lesión vascular
0.92
0.85
0.89
53
Carcinoma de células
escamosas
0.96
0.90
0.93
62
Promedio Global
0.94
0.87
0.90
500
Promedio macro
0.92
0.91
0.94
500
Promedio de pesos
0.92
0.91
0.94
500
Los resultados obtenidos son consistentes con la literatura investigada, en concordancia con
lo descrito en [23] que presenta los siguientes hallazgos (Tabla 6) sobre la aplicación de redes
neuronales convolucionales (CNN) en el diagnóstico automatizado de enfermedades
cutáneas.
Tabla 6. Modelos.
Data
Clasificador
Precisión
Sensibilidad
Valor de
Referencia
Promedio
ISIC2017
Resnet152
0.91
0.33
0.99
0.90
VGG16
0.91
0.43
0.99
0.91
EfficientNetB2
0.90
0.02
1.00
0.81
ISIC2018
Resnet152
0.76
0.91
0.97
0.90
VGG16
0.76
0.94
0.96
0.90
EfficientNetB2
0.76
0.06
1.00
0.89
Novasinergia 2026, 9(1), 41-58 54
Finalmente, a este modelo se lo exportó en formato JSON para su compatibilidad con la
aplicación web (Figura 8). Las imágenes son cargadas por el usuario, ya sea a través de la
cámara o seleccionadas desde su dispositivo, para luego proceder con la inferencia del
modelo, proporcionando un diagnóstico probabilístico sobre la posible presencia de
lesiones cancerígenas en la piel.
Figura 8. Implementación de la aplicación.
4. Discusión
Según investigaciones como las de [24], el uso de redes neuronales profundas ha
demostrado superar la precisión de dermatólogos en la clasificación de ciertos tipos de
lesiones. En este contexto, los resultados obtenidos en nuestro estudio refuerzan la
viabilidad de modelos de deep learning como ResNet para la detección automatizada de
cáncer de piel con una precisión superior a los métodos tradicionales. De acuerdo con los
resultados obtenidos, ResNet superó a los demás modelos en precisión y capacidad de
generalización. Este hallazgo coincide con trabajos previos como el de Attallah [25], quien
desarrolló el sistema SCaLiNG utilizando una combinación de Gabor wavelets y modelos
compactos como ResNet-18, alcanzando una precisión del 91.7% en la clasificación de siete
tipos de cáncer de piel. Asimismo, el algoritmo HASCC propuesto por Niño-Rondón et al.
[26] combinó VGG16, PCA y XGBoost para su ejecución en un entorno embebido, logrando
resultados de hasta 93.2% de precisión, aunque con limitaciones de escalabilidad para
plataformas web.
Otros estudios también confirman la eficacia de las redes neuronales convolucionales para
esta tarea. Riaño et al. [27] emplearon una CNN de arquitectura básica entrenada con el
dataset ISIC, obteniendo un 88.75% de precisión en la clasificación binaria de melanoma. En
[28], se propuso un modelo basado en CNN combinado con técnicas de mejora de imágenes
como ESRGAN, logrando una precisión del 85.7% con la arquitectura InceptionV3 al
clasificar lesiones benignas y malignas en el conjunto de datos ISIC 2018. Por su parte, en
[29], se exploraron diversas arquitecturas CNN optimizadas por técnicas de transferencia,
destacando el impacto del preprocesamiento y la normalización en el desempeño del
modelo. Finalmente, el estudio presentado en [30] utilizó un enfoque híbrido entre
aprendizaje automático tradicional y modelos de deep learning para segmentar y clasificar
Novasinergia 2026, 9(1), 41-58 55
imágenes de lesiones cutáneas, destacando el valor del análisis de características y su
integración con arquitecturas como MobileNetV2 y ResNet.
El rendimiento del modelo ha sido particularmente alto en la clasificación de Melanocytic
Nevus y Squamous Cell Carcinoma, con precisiones de 0.95 y 0.94, respectivamente. Esto
indica que el modelo ha logrado diferenciar estas clases con exactitud, lo que es crucial en
el ámbito clínico, dado que el Melanoma a menudo puede confundirse con Nevus benignos
y otros tipos de cáncer de piel. Sin embargo, algunas clases presentan un desempeño
ligeramente inferior, como Dermatofibroma, con una precisión de 0.88, lo que sugiere que
el modelo puede estar enfrentando dificultades para distinguir esta categoría de otras
lesiones con características visuales similares.
Según [13], la combinación de pruebas clínicas tradicionales con modelos de IA basados en
imágenes dermatológicas puede mejorar la detección temprana y la estratificación de riesgo
en pacientes con lesiones sospechosas. En este estudio, la capacidad del modelo para
identificar correctamente múltiples tipos de cáncer de piel respalda la idea de que los
sistemas de IA pueden complementar y mejorar la precisión del diagnóstico dermatológico.
Un aspecto relevante de los resultados es que, a pesar de la variabilidad en el número de
imágenes utilizadas para cada categoría, el modelo mantiene una precisión estable en la
mayoría de las clases. Esto sugiere que el uso de técnicas de aumento de datos y ajuste fino
del modelo (fine-tuning) ha permitido mejorar su capacidad de generalización [31]. Sin
embargo, en clases con menor cantidad de imágenes, como Dermatofibroma y Vascular
Lesion, se observan niveles de sensibilidad más bajos, lo que indica que el modelo puede
beneficiarse de técnicas adicionales para equilibrar mejor la distribución de clases y mejorar
su capacidad de detección en condiciones de datos desbalanceados.
Además, estudios como los de [7], han demostrado que el transfer learning, empleado en
este estudio a través del uso de ResNet, permite mejorar la precisión de los modelos en
conjuntos de datos limitados, sin necesidad de grandes volúmenes de imágenes de
entrenamiento. La capacidad del modelo para alcanzar un rendimiento alto en la
clasificación de cáncer de piel con un conjunto de entrenamiento de 20,265 imágenes y
validación con 5,066 imágenes sugiere que el enfoque basado en deep learning es adecuado
para este tipo de problemas de clasificación médica.
A pesar de los resultados favorables, existen ciertos desafíos que deben considerarse. La
sensibilidad del modelo a características específicas de las imágenes y la posible variabilidad
en las predicciones para distintos casos clínicos sugieren que n puede haber margen de
mejora en términos de generalización y robustez. Investigaciones como las de [32] han
señalado la importancia de utilizar enfoques multimodales que combinen imágenes clínicas
con otros datos biomédicos (como información genética o antecedentes clínicos del paciente)
para mejorar la precisión de los modelos predictivos.
5. Conclusiones
El La aplicación web desarrollada para la detección de cáncer de piel, basada en el
modelo ResNet, alcanzó una precisión del 94%, tal como se muestra en el promedio global
de la Tabla 5. Estos resultados indican la capacidad de las redes neuronales convolucionales
Novasinergia 2026, 9(1), 41-58 56
(CNN) para procesar imágenes dermatoscópicas y clasificar lesiones cutáneas en diferentes
categorías clínicas. La incorporación de este tipo de modelos en herramientas digitales
permite automatizar el análisis de imágenes médicas, con posibles aplicaciones en contextos
clínicos y de apoyo diagnóstico.
Se identificaron y analizaron diversas técnicas y algoritmos, como la segmentación de
imágenes, la detección de bordes y el uso de modelos de redes neuronales convolucionales
(CNN). Estas técnicas se evaluaron en términos de su precisión, eficiencia y aplicabilidad en
la detección de tipos de cáncer de piel, proporcionando una base sólida para la
implementación en la aplicación web.
Los modelos de CNN fueron entrenados y evaluados utilizando un dataset de imágenes de
tipos de cáncer de piel y lesiones benignas. Los resultados mostraron una alta precisión en
la detección, validando la eficacia de este enfoque. Además, se identificaron áreas de mejora,
como el aumento de la diversidad del conjunto de datos de entrenamiento para mejorar la
generalización del modelo.
El modelo fue entrenado para identificar ocho tipos de lesiones cutáneas relacionadas con
el cáncer de piel, además la interfaz web implementada permite su despliegue en
plataformas digitales disponibles para los usuarios. Entre las principales limitaciones del
presente trabajo, tenemos que el modelo no ha sido validado con datos clínicos externos o
en entornos hospitalarios.
Contribuciones de los autores
Conceptualización: F.K.F., N.M.L.y F.J.L.; curación de datos: F.K.F.; análisis formal:
N.M.L.; adquisición de financiamiento: N.M.L.; investigación: F.K.F.; metodología: F.K.F.,
N.M.L.; administración de proyectos: F.J.L.; recursos: F.J.L.; software: F.K.F.; supervisión:
N.M.L.; validación: F.J.L.; visualización: F.J.L.; escritura borrador original: F.K.F.y N.M.L.;
escritura revisión y edición: F.K.F. y N.M.L. Todos los autores han leído y aprobado la
versión publicada del manuscrito.
Conflicto de Interés
Los autores no reportan conflictos de interés relacionados con esta investigación.
Declaración sobre el uso de Inteligencia Artificial Generativa
No se utilizó inteligencia artificial generativa en la preparación de este artículo.
Referencias
[1] A. Naeem, M. S. Farooq, A. Khelifi, y A. Abid, Malignant Melanoma Classification Using Deep
Learning: Datasets, Performance Measurements, Challenges and Opportunities,” IEEE Access, vol. 8,
pp. 110575110597, 2020, doi: https://doi.org/10.1109/ACCESS.2020.3001507.
[2] H. Zanddizari, N. Nguyen, B. Zeinali, y J. M. Chang, “A new preprocessing approach to improve the
performance of CNN-based skin lesion classification,” Med. Biol. Eng. Comput., vol. 59, no. 5, pp.
1123 1131, abr. 2021, doi: https://doi.org/10.1007/s11517-021-02355-5.
Novasinergia 2026, 9(1), 41-58 57
[3] A. Esteva et al., “Dermatologist-level classification of skin cancer with deep neural networks,” Nature,
vol. 542, no. 7639, pp. 115118, ene. 2017, doi: https://doi.org/10.1038/nature21056.
[4] S. Kaymak, P. Esmaili, y A. Serener, Deep Learning for Two-Step Classification of Malignant
Pigmented Skin Lesions,” 2018 14th Symp. Neural Networks Appl. NEUREL 2018, pp. 1–6, nov. 2018,
doi: https://doi.org/10.1109/NEUREL.2018.8587019.
[5] A. K. Morales, D. R. Lepe, y J. F. Díaz, “Redes Neuronales Convolucionales para Detección de
Carcinoma Basocelular (Cáncer de Piel) por Medio de Imágenes para Pacientes Adultos en la Región
Facial,” Ciencia Latina, vol. 8, no. 4, pp. 582-599, ago. 2024, doi:
https://doi.org/10.37811/cl_rcm.v8i4.12300.
[6] Y. Fontaine Pérez, D. Sotolongo Díaz, I. Espinosa Carballosa, M. Roque Morgado, M. Montes de Oca
Álvarez, y M. Figueroa García, “Utilidad del dermatoscopio en la correlación clínica e histológica de
nevus pigmentados,” Rev Cubana Inv Bioméd, vol. 40, no. 2, ago. 2021.
[7] B. S. Ankad, S. S. Mukherjee, y B. Pralhadrao, Dermoscopy - Histopathology Correlation. Springer
Singapore, 2021. doi: https://doi.org/10.1007/978-981-33-4638-3.
[8] S. Rajarajeswari, J. Prassanna, M. Abdul Quadir, J. Christy Jackson, S. Sharma, y B. Rajesh, “Skin
Cancer Detection using Deep Learning,” Res. J. Pharm. Technol., vol. 15, no. 10, pp. 45194525, oct.
2022, doi: https://doi.org/10.52711/0974-360X.2022.00758.
[9] I. H. Sarker, Deep Learning: A Comprehensive Overview on Techniques, Taxonomy, Applications
and Research Directions,” SN Comput. Sci., vol. 2, no. 6, ago. 2021, doi: https://doi.org/10.1007/s42979-
021-00815-1.
[10] A. A. Adegun y S. Viriri, “Deep learning-based system for automatic melanoma detection,” IEEE
Access, vol. 8, pp. 71607172, 2020, doi: https://doi.org/10.1109/ACCESS.2019.2962812.
[11] C. K. Juan et al., “Deep convolutional neural network with fusion strategy for skin cancer recognition:
model development and validation,” Sci. Rep., vol. 13, no. 1, oct. 2023, doi:
https://doi.org/10.1038/s41598-023-42693-y.
[12] K. Thurnhofer-Hemsi y E. Domínguez, “A Convolutional Neural Network Framework for Accurate
Skin Cancer Detection,” Neural Process. Lett., vol. 53, no. 5, pp. 30733093, oct. 2021, doi:
https://doi.org/10.1007/s11063-020-10364-y.
[13] K. M. Hosny, M. A. Kassem, y M. M. Foaud, “Skin Cancer Classification using Deep Learning and
Transfer Learning,” 2018 9th Cairo Int. Biomed. Eng. Conf. CIBEC 2018 - Proc., pp. 9093, dic. 2018,
doi: https://doi.org/10.1109/CIBEC.2018.8641762.
[14] C. Schröer, F. Kruse, y J. M. Gómez, “A systematic literature review on applying CRISP-DM process
model,” Procedia Comput. Sci., vol. 181, pp. 526534, 2021, doi:
https://doi.org/10.1016/j.procs.2021.01.199.
[15] A. Maranhão, “Skin Lesion Analysis Dataset,” Kaggle, 2020. [En línea]. Disponible en:
https://www.kaggle.com/datasets/andrewmvd/isic-2019/data
[16] P. Tschandl, C. Rosendahl, y H. Kittler, The HAM10000 dataset, a large collection of multi-source
dermatoscopic images of common pigmented skin lesions,” Sci. Data, vol. 5, no. 1, ago. 2018, doi:
https://doi.org/10.1038/sdata.2018.161.
[17] C. Hernández-Pérez et al., “BCN20000: Dermoscopic Lesions in the Wild,” Sci. Data, vol. 11, no. 1, jun.
2024, doi: https://doi.org/10.1038/s41597-024-03387-w.
[18] J. Muñoz-Ordóñez, C. Cobos, M. Mendoza, E. Herrera-Viedma, F. Herrera, y S. Tabik, "Framework for
the Training of Deep Neural Networks in TensorFlow Using Metaheuristics, Lecture Notes in
Computer Science. Springer International Publishing, pp. 801-811, 2018. doi:
https://doi.org/10.1007/978-3-030-03493-1_83.
[19] V. R. Joseph, “Optimal ratio for data splitting,” Statistical Analysis, vol. 15, no. 4, pp. 531-538, abr.
2022, doi: https://doi.org/10.1002/sam.11583.
Novasinergia 2026, 9(1), 41-58 58
[20] M. Anour Naoui, “Transferir el enfoque de aprendizaje basado en la detección del cáncer de piel,vol.
16, no. 4, pp. 117, dic. 2022. Disponible en: http://ref.scielo.org/k754wb.
[21] F. Farías Rivera y N. M. Loja Mora, “Entrenamiento para la detección de ncer de piel,” ago. 13, 2025,
Zenodo. doi: https://doi.org/10.5281/ZENODO.16827475.
[22] S. E. Cerminara et al., “Diagnostic performance of augmented intelligence with 2D and 3D total body
photography and convolutional neural networks in a high-risk population for melanoma under
realworld conditions: A new era of skin cancer screening?,” European Journal of Cancer, vol. 190, p.
112954, sep. 2023, doi: https://doi.org/10.1016/j.ejca.2023.112954.
[23] S. Kim, E. Gaibor, y D. Haehn, Web-based Melanoma Detection,” 2024, arXiv. doi:
https://doi.org/10.48550/ARXIV.2403.14898.
[24] D. Palacios-Martínez y R. A. Díaz-Alonso, “Dermatoscopia para principiantes (I): características
generales,” Semergen, vol. 43, no. 3, pp. 216–221, abr. 2017, doi:
https://doi.org/10.1016/j.semerg.2015.11.009.
[25] O. Attallah, Skin cancer classification leveraging multi-directional compact convolutional neural
network ensembles and gabor wavelets,” Sci. Rep., vol. 14, no. 1, sep. 2024, doi:
https://doi.org/10.1038/s41598-024-69954-8.
[26] C. V. Niño-Rondón, D. A. Castellano-Carvajal, S. A. Castro-Casadiego, B. Medina-Delgado, y K. C.
Puerto-López, HASCC: A Hybrid Algorithm for Skin Cancer Classification,” Rev. Fac. Ing., vol. 33,
no. 67, p. e16943, mar. 2024, doi: https://doi.org/10.19053/uptc.01211129.v33.n67.2024.16943.
[27] J. Guillermo Guarnizo, S. Riaño Borda, E. C. Camacho Poveda, y A. Mateus Rojas, “Automated
Malignant Melanoma Classification Using Convolutional Neural Networks,” Cien. Ing.
Neogranadina, vol. 32, no. 2, pp. 171185, dic. 2022, doi: https://doi.org/10.18359/rcin.6270.
[28] W. Gouda, N. U. Sama, G. Al-Waakid, M. Humayun, y N. Z. Jhanjhi, “Detection of Skin Cancer Based
on Skin Lesion Images Using Deep Learning,” Healthcare, vol. 10, no. 7, p. 1183, jun. 2022, doi:
https://doi.org/10.3390/healthcare10071183.
[29] A. Bello, S. C. Ng, y M. F. Leung, “Skin Cancer Classification Using Fine-Tuned Transfer Learning of
DENSENET-121,” Applied Science, vol. 14, no. 17, p. 7707, ago. 2024, doi:
https://doi.org/10.3390/app14177707.
[30] O. Akinrinade y C. Du, “Skin cancer detection using deep machine learning techniques,”
IntelligenceBased Medicine, vol. 11, p. 100191, 2025, doi: https://doi.org/10.1016/j.ibmed.2024.100191.
[31] A. T. Ibrahim, M. Abdullahi, A. F. Donfack Kana, M. T. Mohammed, y I. H. Hassan, “Categorical
classification of skin cancer using a weighted ensemble of transfer learning with test time
augmentation Aliyu,” Data Sci. Manag., vol. 8, no. 2, pp. 174-184, jun. 2025, doi:
https://doi.org/10.1016/j.dsm.2024.10.002.
[32] S. A. Alshawi y G. F. K. AI Musawi, “Skin Cancer Image Detection and Classification by CNN based
Ensemble Learning,” IJACSA, vol. 14, no. 5, 2023, doi: https://doi.org/10.14569/IJACSA.2023.0140575.