Mi DSpace
Usuario
Contraseña
Please use this identifier to cite or link to this item: http://hdl.handle.net/20.500.12590/16647
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorMora Colque, Rensso Victor Hugo-
dc.contributor.authorJaita Aguilar, Jose Hugo-
dc.date.accessioned2021-03-05T15:29:00Z-
dc.date.available2021-03-05T15:29:00Z-
dc.date.issued2020-
dc.identifier.other1073055-
dc.identifier.urihttp://hdl.handle.net/20.500.12590/16647-
dc.description.abstractHoy en día, los modelos de aprendizaje profundo representan el estado del arte en muchas tareas, lo que ha motivado a utilizarse en distintas aplicaciones reales. Varias de ellas se encuentran en campos como: la medicina, seguridad, finanzas, etc. en donde una predicción errónea puede llegar a ser fatal. Por lo tanto, necesitamos que los modelos no solo den una predicción, sino que además un grado de certeza acerca de ella, es decir, la incertidumbre en la predicción. En esta tesis se estudian dos tipos de incertidumbre: la epistémica (la cual captura la falta de certeza del modelo) y la aleatoria (generada por el ruido en los datos). La estimación de la incertidumbre epistémica es un desafío, siendo el enfoque bayesiano el más utilizado para abordarla (debido a las herramientas que nos ofrece), pero este viene con un costo computacional prohibitivo, evidenciado aún más en modelos de aprendizaje profundo. Nosotros proponemos el método SVGD-A, utilizando como base al método SVGD, para realizar la inferencia bayesiana. Nuestra propuesta se enfoca en acelerar el proceso de convergencia de SVGD, permitiendo el escalamiento a modelos profundos. En cuanto a la incertidumbre aleatoria, nosotros proponemos un método basado en la extracción de características de bajo nivel en modelos ya entrenados, para luego aplicarles (a las características) una reducción de dimensionalidad con t-SNE, volviendo as ́ı el problema en una tarea de cauterización. Además, proponemos un segundo método el cual utiliza el mismo esquema descrito anteriormente, pero con la novedad que se le agrega un Autoencoder Variacional. Y por último, aportamos con un novedoso enfoque para realizar inferencia usando t-SNE. Finalmente, mostramos la eficiencia de nuestros métodos en la tarea de detectar muestras out-of-distribution en distintas bases de datos, logrando resultados muy superiores al estado del arte.es_PE
dc.description.uriTesises_PE
dc.formatapplication/pdfes_PE
dc.language.isospaes_PE
dc.publisherUniversidad Católica San Pabloes_PE
dc.rightsinfo:eu-repo/semantics/openAccesses_PE
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/es_PE
dc.sourceUniversidad Católica San Pabloes_PE
dc.sourceRepositorio Institucional - UCSPes_PE
dc.subjectIncertidumbrees_PE
dc.subjectInferencia variacionales_PE
dc.subjectRedes neuronales profundases_PE
dc.titleEstimación de la incertidumbre en redes neuronales profundases_PE
dc.typeinfo:eu-repo/semantics/masterThesises_PE
thesis.degree.nameMaestro en Ciencia de la Computaciónes_PE
thesis.degree.grantorUniversidad Católica San Pablo. Departamento de Ciencia de la Computaciónes_PE
thesis.degree.levelMaestríaes_PE
thesis.degree.disciplineCiencia de la Computaciónes_PE
thesis.degree.programEscuela Profesional de Ciencia de la Computaciónes_PE
renati.author.dni47718830-
dc.publisher.countryPEes_PE
dc.type.versioninfo:eu-repo/semantics/publishedVersiones_PE
dc.subject.ocdehttp://purl.org/pe-repo/ocde/ford#1.02.01es_PE
renati.advisor.orcidhttps://orcid.org/0000-0003-4734-8752es_PE
renati.advisor.dni42846291-
renati.typehttps://purl.org/pe-repo/renati/type#tesises_PE
renati.levelhttps://purl.org/pe-repo/renati/level#maestroes_PE
renati.discipline611017es_PE
renati.jurorJosé Eduardo Ochoa Lunaes_PE
renati.jurorGuillermo Cámara Chávezes_PE
renati.jurorEdwin Rafael Villanueva Talaveraes_PE
renati.jurorDaniel Alexis Gutiérrez Pachases_PE
Appears in Collections:Tesis Postgrado - Maestría en Ciencia de la Computación

Files in This Item:
File Description SizeFormat 
JAITA_AGUILAR_JOS_EST.pdf7.31 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.