Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.uan.edu.co/handle/123456789/3155
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorDuarte González, Mario Enrique-
dc.creatorVivas Gasca, María Camila-
dc.creatorCediel Sánchez, Erlyn Julián-
dc.date.accessioned2021-03-10T20:13:50Z-
dc.date.available2021-03-10T20:13:50Z-
dc.date.created2020-11-27-
dc.identifier.urihttp://repositorio.uan.edu.co/handle/123456789/3155-
dc.descriptionPropiaes_ES
dc.description.abstractFrom engineering, different technological tools have been proposed to support the exercise of health professionals, in such developments large volumes of medical information are analyzed and processed with which the populations that are intended to be beneficiaries are characterized. However, to access a person's medical record data, it is necessary to have their permission, as it is private and confidential information, so obtaining several miles of data can become tedious, delay the investigative process or limit the results. Such is the case of several projects that have been developed in the area of Dentistry, particularly work related to the use of digital image processing algorithms and artificial intelligence techniques, in which the authors raise the need to access banks more images to improve the performance of your solutions. An alternative is the creation of realistic synthetic images through digital editing and recently through the implementation of antagonistic generative neural networks. For this reason, in this document, the performance of an Antagonic Generative Neural Network is evaluated in the generation of an image bank of panoramic human dental radiographs from 300 real images, which verified the quality of the images generated by the algorithm of machine learning through a survey that was carried out to dental health professionals and people who do not know whatsoever on the subject,es_ES
dc.description.sponsorshipOtroes_ES
dc.description.tableofcontentsDesde la ingeniería se han planteado diferentes herramientas tecnológicas para apoyar el ejercicio de los profesionales de la salud, en tales desarrollos se analizan y procesan grandes volúmenes de información médica con la que se caracterizan las poblaciones que se pretenden beneficiar. Sin embargo, para acceder a los datos de registros médicos de una persona es necesario tener su permiso, pues es información privada y confidencial, por lo que la consecución de varios miles de datos puede tornarse tediosa, demorar el proceso investigativo o limitar los resultados. Tal es el caso de varios proyectos que se han desarrollado en el área de Odontología, en particular los trabajos relacionados con el uso de algoritmos de procesamiento digital de imágenes y técnicas de inteligencia artificial, en los que los autores plantean la necesidad de acceder a bancos de imágenes más numerosos para mejorar el rendimiento de sus soluciones. Una alternativa es la creación de imágenes sintéticas realistas por medio de la edición digital y recientemente a través de la implementación de redes neuronales generativas antagónicas. Por tal motivo, en este documento, se evalúa el rendimiento de una Red Neuronal Generativa Antagónica en la generación de un banco de imágenes de radiografías panorámicas dentales humanas a partir de 300 imágenes reales, verificando la calidad de las imágenes generadas del algoritmo de aprendizaje automático por medio de una encuesta que se les realizó a profesionales de la salud dental y personas que no tienen conocimiento alguno sobre el tema;es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Antonio Nariñoes_ES
dc.rightsAtribución 3.0 Estados Unidos de América*
dc.rightsAtribución 3.0 Estados Unidos de América*
dc.rightsAtribución 3.0 Estados Unidos de América*
dc.rightsAtribución 3.0 Estados Unidos de América*
dc.rights.urihttp://creativecommons.org/licenses/by/3.0/us/*
dc.sourceinstname:Universidad Antonio Nariñoes_ES
dc.sourcereponame:Repositorio Institucional UANes_ES
dc.sourceinstname:Universidad Antonio Nariñoes_ES
dc.sourcereponame:Repositorio Institucional UANes_ES
dc.subjectGANes_ES
dc.subjectRadiografías Panorámicas Dentaleses_ES
dc.subjectBanco de Imágeneses_ES
dc.titleEvaluación del rendimiento de una Red Neuronal Generativa Antagónica en la Generación de un banco de imágenes de radiografías panorámicas dentales humanases_ES
dc.publisher.programIngeniería Electrónicaes_ES
dc.rights.accesRightsopenAccesses_ES
dc.subject.keywordGANes_ES
dc.subject.keywordPanoramic Dental Radiographses_ES
dc.subject.keywordImage Bankes_ES
dc.type.spaTrabajo de grado (Pregrado y/o Especialización)es_ES
dc.type.hasVersioninfo:eu-repo/semantics/acceptedVersiones_ES
dc.source.bibliographicCitationAzuar Alonso, D. (2019). Transformación de emociones mediante redes generativas antagónicas.es_ES
dc.source.bibliographicCitationAlmeida Lucas, E. (2019). Pronóstico de energía eólica para horizontes temporales de corto plazo en base a modelo numérico de mesoescala y redes neuronales artificiales.es_ES
dc.source.bibliographicCitationBilkis, M. (2018). Entropía condicional y correlaciones cuánticas (Doctoral dissertation, Universidad Nacional de La Plata).es_ES
dc.source.bibliographicCitationBogotá, C. D. C. (2012). Ley 1581 de 2012.es_ES
dc.source.bibliographicCitationCreswell, A., White, T., Dumoulin, V., Arulkumaran, K., Sengupta, B., & Bharath, A. A. (2018). Generative adversarial networks: An overview. IEEE Signal Processing Magazine.es_ES
dc.source.bibliographicCitationCondicional, C. I. D. L. P., & Independencia, E. (2005). Razonamiento sobre probabilidad condicional e implicaciones para la enseñanza de la estadística. Epsilon, 59, 245-260.es_ES
dc.source.bibliographicCitationChoi, E., Biswal, S., Malin, B., Duke, J., Stewart, W. F., & Sun, J. (2017). Generating multi-label discrete patient records using generative adversarial networks. arXiv preprint arXiv:1703.06490.es_ES
dc.source.bibliographicCitationColombia, L. E. 1581 de 2012, por la cual se dictan disposiciones generales para la protección de datos personales, 48.587 Diario Oficial, 18 de octubre de 2012.es_ES
dc.source.bibliographicCitationChuquicusma, M. J., Hussein, S., Burt, J., & Bagci, U. (2018, April). How to fool radiologists with generative adversarial networks? a visual Turing test for lung cancer diagnosis. In 2018 IEEE 15th international symposium on biomedical imaging (ISBI 2018) (pp. 240-244). IEEE.es_ES
dc.source.bibliographicCitationChi, C., Du, Y., Ye, J., Kou, D., Qiu, J., Wang, J., ... & Chen, X. (2014). Intraoperative imaging-guided cancer surgery: from current fluorescence molecular imaging methods to future multi-modality imaging technology. Theranostics, 4(11), 1072es_ES
dc.source.bibliographicCitationDenton, E. L., Chintala, S., & Fergus, R. (2015). Deep generative image models using a laplacian pyramid of adversarial networks. In Advances in neural information processing systems (pp. 1486-1494).es_ES
dc.source.bibliographicCitationDumoulin, V., & Visin, F. (2016). A guide to convolution arithmetic for deep learning. arXiv preprint arXiv:1603.07285.es_ES
dc.source.bibliographicCitationDurugkar, I., Gemp, I., & Mahadevan, S. (2016). Generative multi-adversarial networks. arXiv preprint arXiv:1611.01673.es_ES
dc.source.bibliographicCitationFernández Blanco, R. (2019). Deep Learning para la generación de imágenes histopatológicas realistas mediante aritmética de vectores conceptuales.es_ES
dc.source.bibliographicCitationFrid-Adar, M., Diamant, I., Klang, E., Amitai, M., Goldberger, J., & Greenspan, H. (2018). GAN-based synthetic medical image augmentation for increased CNN performance in liver lesion classification. Neurocomputing, 321, 321-331.es_ES
dc.source.bibliographicCitationFranco, E. F., & Ramos, R. J. (2019). Aprendizaje de máquina y aprendizaje profundo en biotecnología: aplicaciones, impactos y desafíos. Ciencia, Ambiente y Clima, 2(2), 7-26.es_ES
dc.source.bibliographicCitationGonzález-Islas, J. C. (2019). Aprendizaje Automático en Aplicaciones Fisioterapéuticas. Pädi Boletín Científico de Ciencias Básicas e Ingenierías del ICBI, 7(Especial), 104-110.es_ES
dc.source.bibliographicCitationGoodfellow, I. J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., ... & Bengio, Y. (2014). Generative Adversarial Networks. jun 2014a. URL http://arxiv. org/abs/1406.2661.es_ES
dc.source.bibliographicCitationGAN’S. (2018). GitHub. https://github.com/hindupuravinash/the-gan-zoo/blob/master/gans.tsves_ES
dc.source.bibliographicCitationGrau Romero, M. (2020). Clasificador de modelos de movilidad mediante Deep Learning.es_ES
dc.source.bibliographicCitationGadermayr, M., Li, K., Müller, M., Truhn, D., Krämer, N., Merhof, D., & Gess, B. (2019). Domain‐specific data augmentation for segmenting MR images of fatty infiltrated human thighs with neural networks. Journal of Magnetic Resonance Imaging, 49(6), 1676-1683.es_ES
dc.source.bibliographicCitationIBM. (2020). Inteligencia artificial. https://www.ibm.com/ar-es/analytics/machine-learning?p1=Search&p4=43700053692634426&p5=b&cm_mmc=Search_Google-_-1S_1S-_-LA_ISA-_-datos%20%2Bmachine%20%2Blearning_b&cm_mmca7=71700000065289299&cm_mmca8=kwd-1097762210552&cm_mmca9=CjwKCAjwrKr8BRB_EiwA7eFapopIBXhOjyB0gi1Tzdft5sS0nEeMRpTLXrAMBd6Ka1ermUjkH5SqVxoCSLgQAvD_BwE&cm_mmca10=451404725204&cm_mmca11=b&gclid=CjwKCAjwrKr8BRB_EiwA7eFapopIBXhOjyB0gi1Tzdft5sS0nEeMRpTLXrAMBd6Ka1ermUjkH5SqVxoCSLgQAvD_BwE&gclsrc=aw.ds. https://www.ibm.com/ar-es/analytics/machine-learning?p1=Search&p4=43700053692634426&p5=b&cm_mmc=Search_Google-_-1S_1S-_-LA_ISA-_-datos%20%2Bmachine%20%2Blearning_b&cm_mmca7=71700000065289299&cm_mmca8=kwd-1097762210552&cm_mmca9=CjwKCAjwrKr8BRB_EiwA7eFapopIBXhOjyB0gi1Tzdft5sS0nEeMRpTLXrAMBd6Ka1ermUjkH5SqVxoCSLgQAvD_BwE&cm_mmca10=451404725204&cm_mmca11=b&gclid=CjwKCAjwrKr8BRB_EiwA7eFapopIBXhOjyB0gi1Tzdft5sS0nEeMRpTLXrAMBd6Ka1ermUjkH5SqVxoCSLgQAvD_BwE&gclsrc=aw.dses_ES
dc.source.bibliographicCitationIrala, J., Martínez-González, M. Á., & Grima, F. G. (2001). ¿ Qué es una variable de confusión?. Medicina clínica, 117(10), 377-385.es_ES
dc.source.bibliographicCitationLi, R., Zhang, W., Suk, H. I., Wang, L., Li, J., Shen, D., & Ji, S. (2014, September). Deep learning based imaging data completion for improved brain disease diagnosis. In International Conference on Medical Image Computing and Computer-Assisted Intervention (pp. 305-312). Springer, Cham.es_ES
dc.source.bibliographicCitationLitjens, G., Kooi, T., Bejnordi, B. E., Setio, A. A. A., Ciompi, F., Ghafoorian, M., ... & Sánchez, C. I. (2017). A survey on deep learning in medical image analysis. Medical image analysis, 42, 60-88.es_ES
dc.source.bibliographicCitationMiyato, T., Kataoka, T., Koyama, M., & Yoshida, Y. (2018). Spectral normalization for generative adversarial networks. arXiv preprint arXiv:1802.05957.es_ES
dc.source.bibliographicCitationMantilla Mendez, A., & Vega Arango, J. S. (2011). Magi: Sistema Basado En Técnicas De Inteligencia Artificial Y De Tratamiento Digital De Imágenes Para La Detección De Tumores Cerebrales (Doctoral dissertation, Universidad Industrial de Santander, Escuela De Ing. De Sistemas).es_ES
dc.source.bibliographicCitationOnishi, Y., Teramoto, A., Tsujimoto, M., Tsukamoto, T., Saito, K., Toyama, H., ... & Fujita, H. (2019). Automated pulmonary nodule classification in computed tomography images using a deep convolutional neural network trained by generative adversarial networks. BioMed research international, 2019.es_ES
dc.source.bibliographicCitationRadford, A., Metz, L., & Chintala, S. (2015). Unsupervised representation learning with deep convolutional generative adversarial networks. arXiv preprint arXiv:1511.06434.es_ES
dc.source.bibliographicCitationRuss, T., Goerttler, S., Schnurr, A. K., Bauer, D. F., Hatamikia, S., Schad, L. R., ... & Chung, K. (2019). Synthesis of CT images from digital body phantoms using CycleGAN. International Journal of Computer Assisted Radiology and Surgery, 14(10), 1741-1750.es_ES
dc.source.bibliographicCitationRudas, J., & Sánchez Torres, G. (2013). Detección de patologías derivadas de las afecciones diabéticas: una revisión del análisis digital de imágenes de retina. Revista Científica Ingeniería y Desarrollo, 31(2), 316-338.es_ES
dc.source.bibliographicCitationSandoval, T. C. N., Pérez, S. V. G., González, F. A., Jaque, R. A., & Infante, C. (2016). Uso de redes neuronales artificiales en predicción de morfología mandibular a través de variables craneomaxilares en una vista posteroanterior/Use of Artificial Neural Networks for Mandibular Morphology Prediction through Craniomaxillar Variables... Universitas Odontológica, 35(74), 21-28.es_ES
dc.source.bibliographicCitationSilva, G., Oliveira, L., & Pithon, M. (2018). Corrigendum to" Automatic segmenting teeth in X-ray images: Trends, a novel data set, benchmarking and future perspectives"[Expert Systems with Applications, Vol. 107 (2018) 15-31]. Expert Syst. Appl., 112, 61.es_ES
dc.source.bibliographicCitationSorin, V., Barash, Y., Konen, E., & Klang, E. (2020). Creating Artificial Images for Radiology Applications Using Generative Adversarial Networks (GANs)–A Systematic Review. Academic Radiology.es_ES
dc.source.bibliographicCitationTorres, J. (2020). Python Deep Learning, Introducción práctica con Keras y TensorFlow 2. alphaeditorial.es_ES
dc.source.bibliographicCitationXu, L., Ren, J. S., Liu, C., & Jia, J. (2014). Deep convolutional neural network for image deconvolution. In Advances in neural information processing systems (pp. 1790-1798).es_ES
dc.source.bibliographicCitationYang, G., Yu, S., Dong, H., Slabaugh, G., Dragotti, P. L., Ye, X., ... & Firmin, D. (2017). DAGAN: Deep de-aliasing generative adversarial networks for fast compressed sensing MRI reconstruction. IEEE transactions on medical imaging, 37(6), 1310-1321.es_ES
dc.source.bibliographicCitationYi, X., Walia, E., & Babyn, P. (2019). Generative adversarial network in medical imaging: A review. Medical image analysis, 58, 101552.es_ES
dc.source.bibliographicCitationZhao, X., Liu, L., Qi, S., Teng, Y., Li, J., & Qian, W. (2018). Agile convolutional neural network for pulmonary nodule classification using CT images. International journal of computer assisted radiology and surgery, 13(4), 585-595.es_ES
dc.description.degreenameIngeniero(a) Electrónico(a)es_ES
dc.description.degreelevelPregradoes_ES
dc.publisher.facultyFacultad de Ingeniería Mecánica, Electrónica y Biomédicaes_ES
dc.description.funderLos recursos de financiación fueron: Estudiantes $ 8.261.680 COP UAN Por concepto de Asesoría docente trabajo de grado $ 679.175 COPes_ES
dc.description.notesPresenciales_ES
dc.creator.cedula1080297940es_ES
dc.creator.cedula1117528937es_ES
dc.creator.cedula1020713756es_ES
dc.publisher.campusNeiva Buganviles-
Aparece en las colecciones: Ingeniería electrónica

Ficheros en este ítem:
Fichero Tamaño  
2020_ MaríaCamilaVivasGasca_Autorización
  Restricted Access
583.16 kBVisualizar/Abrir  Request a copy
2020_ ErlynJuliánCedielSánchez_ Autorización
  Restricted Access
815.7 kBVisualizar/Abrir  Request a copy
2020_MaríaCamilaVivasGasca1.81 MBVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons