Tesis Pregrado - Ciencia de la computación

URI permanente para esta colección

Examinar

Envíos recientes

Mostrando 1 - 20 de 62
  • Ítem
    Asesor de índices de base de datos usando algoritmos genéticos
    (Universidad Católica San Pablo, 2023) Ttito Amezquita, Josue Joel; Túpac Valdivia, Yván Jesús
    En la actualidad, la mayoría de aplicaciones o sistemas requieren una base de datos. De acuerdo al tipo, tamaño y/o carga de trabajo de la aplicación es que se suele escoger entre bases de datos relacionales y no relacionales. Por ejemplo, las aplicaciones mas conocidas en redes sociales, como Twitter, Facebook, LinkedIn, etc, tienden a usar bases de datos no relacionales, mientras que sistemas profesionales como aplicaciones de banca, utilizan Base de Datos relacionales, debido a que necesitan cumplir las propiedades de Atomicidad, Consistencia, Insolación y Duración (ACID). Una de las características principales de las bases de datos relacionales, es la capacidad de crear índices. Los índices son estructuras de datos que ayudan a agilizar las consultas. La tarea de crear índices es usualmente un trabajo manual, y es el Administrador de la Base de Datos, el encargado en realizarlo. Hay que considerar que cada índice creado, requiere un espacio en disco adicional. Así que indexar toda las Base de Datos no es tan buena idea. El presente trabajo, busca generar de manera autómatica índices en una Base de Datos haciendo uso de los Algoritmos Genéticos. Para ello se considera el problema de la indexación de las tablas, como una tarea a optimizar, donde el resultado deseado es un equilibrio entre reducir el espacio generado por los archivos de los índices y reducir el tiempo de la ejecución de consultas.
  • Ítem
    Implementación paralela en GPU del modelo oculto de Markov para el alineamiento múltiple de secuencias
    (Universidad Católica San Pablo, 2023) Cervantes Carrasco, Edward Jhosep; Tupac Valdivia, Yvan Jesus
    Actualmente las secuencias de Acido Desoxirribonucleico (ADN) se han convertido en un objeto de estudio amplio, los avances tecnológicos han permitido a los investigadores conocer que el ADN contiene una amplia información, que nos permite conocer las evoluciones biológicas, relaciones de parentesco entre seres vivos, polimorfismos genéticos, predicción de estructuras proteicas, causas y soluciones a diversos problemas biológicos. Las bases de datos con información biológica como colecciones de nucleótidos, aminoácidos, proteinas, genomas, dominios y más estructuras de diferentes especies, se incrementan constantemente y con este crecimiento hacen falta mejorar o crear nuevos métodos tecnológicos que puedan analizar esta informacion. Uno de los procesos más importantes es el alineamiento simultaneo de un conjunto de secuencias biológicas. Esto es conocido como un Alineamiento Múltiple de Secuencias (AMS), el cual es una técnica que consiste en comparar y alinear tres o más secuencias biológicas. El objetivo es encontrar regiones comunes que indiquen una similitud estructural, lo cual es importante para determinar diversas funciones biológicas en la especie. En esta tesis se utiliza el método probabilístico del Hidden Model Markov (HMM) para encontrar un alineamiento de calidad en función del número de secuencias, mínimo crecimiento original de cada secuencia, identidad de secuencias y tiempo completo de la ejecución del método. Para conseguir el objetivo se realizará la implementación en Graphics Processing Unit (GPU), lo que permitirá optimizar el tiempo de construcción del modelo de Markov, entrenamiento de los datos, para lo cual se utilizará el algoritmo de Baum-Welch, con sus respectivos sub-algoritmos que lo conforman. El desarrollo en GPU, también permitirá realizar las pruebas con secuencias biológicas de mayor tamaño. Finalmente los resultados son comparados con Múltiple Alignment using Fast Fourier Transform (MAFFT), el cual ha sido seleccionado como método de comparación por ser actualmente uno de los mejores programas para el AMS.
  • Ítem
    Desarrollo de un bot conversacional médico de dominio cerrado usando conocimiento de enfermedades integrado en BERT
    (Universidad Católica San Pablo, 2022) Nuñez Montes, Sebastian Alberto; Ochoa Luna, Jose Eduardo
    No disponible.
  • Ítem
    Construcción de un corpus académico para la generación automática de respuestas a preguntas puesto a prueba en el modelo BETO
    (Universidad Católica San Pablo, 2023) Meza Lovon, Graciela Lecireth; Ochoa Luna, Jose Eduardo
    En años recientes, se han publicado una variedad de modelos de aprendizaje profundo que se han destacado en diferentes tareas del procesamiento de lenguaje natural, como la generación automática de respuestas a preguntas. Una de las razones de este éxito, se debe a que dichos modelos incluyen estrategias de aprendizaje, que se enfocan en el uso de mecanismos de atención y transferencia de aprendizaje. A pesar de que el español es uno de los idiomas más hablados del mundo, la mayoría de estos modelos usan corpus en inglés, por lo cual, la comunidad científica que desea experimentar con estos modelos, en español, se ve limitada. En este contexto, esta tesis tiene por objetivo la creación de un corpus en español, y su posterior prueba usando un modelo para la generación automática de respuestas a preguntas. Dicho corpus, llamado Académico, fue creado usando la información de los sílabos de los cursos de la Escuela Profesional de Ciencia de la Computación. El corpus está compuesto por dos subconjuntos: Académico A y Académico B, que contienen 467 y 639 ejemplos, respectivamente. Con el propósito de garantizar la calidad del conjunto creado, se utilizaron métricas para evaluar el corpus, obteniéndose que, para el subconjunto Académico A, el CFR=100%, HQI de las buenas preguntas es 100%, MoOV=0%, Psi=100% y el coeficiente Kappa es 0.8478; mientras que, para el subconjunto Académico B, los valores de las métricas obtenidas fueron: CFR=100%, HQI de 100% para preguntas buenas, MoOV=0%, Psi=100% y un coeficiente Kappa de 0.8092. De esta evaluación, se puede concluir que el corpus Académico posee la calidad necesaria para realizar experimentos en modelos de generación automática de respuestas a preguntas. Además, en esta tesis se realizó un estudio de los modelos para la generación automática de respuestas a preguntas. De dicho estudio, se determinó que BETO es la mejor opción para poner a prueba el corpus creado. A fin de evaluar la implementación del modelo BETO, se diseñaron tres experimentos, a partir de los cuales se obtuvo que, EM=0.987 y F1=0.998, para Académico A; y que EM=0.831 y F1=0.91, para Académico B. En ambos conjuntos de datos, las métricas fueron mejores que las de BETO zero-shot.
  • Ítem
    Foreground detection using attention modules and a video encoding
    (Universidad Católica San Pablo, 2023) Benavides Arce, Anthony Alessandro; Mora Colque, Rensso Victor Hugo
    Foreground detection is the task of labelling the foreground (moving objects) or background (static scenario) pixels in the video sequence and it depends on the context of the scene. For many years, methods based on background model have been the most used approaches for detecting foreground; however, their methods are sensitive to error propagation from the first background model estimations. To address this problem, we proposed a U-net-based architecture with a feature attention module, where the encoding of the entire video sequence is used as the attention context to get features related to the background model. Furthermore, we added three spatial attention modules with the aim of highlighting regions with relevant features. We tested our network on sixteen scenes from the CDnet2014 dataset, with an average F-measure of 97.84. The results also show that our model outperforms traditional and neural networks methods. Thus, we demonstrated that feature and spatial attention modules on a U-net based architecture can deal with the foreground detection challenges.
  • Ítem
    Análisis de técnicas de deep learning para el reconocimiento de atropellos en videos
    (Universidad Católica San Pablo, 2022) Sanchez Moreno Muñoz, Analuz Kylene; Gutiérrez Cáceres, Juan Carlos
    Uno de los factores más importantes de muerte son los accidentes automovilísticos, un caso particular son los atropellos donde los vehículos colisionan con los peatones, evento que ocurre en unos instantes y en varios casos los vehículos se dan a la fuga dejando heridos a los peatones, una alerta automática de dichos eventos ayudaría a disminuir el factor de muerte de los atropellados. En ese sentido la presente investigación propone usar los videos registrados por las cámaras de vigilancia para realizar el reconocimiento de atropellos mediante el uso de técnicas de Deep Learning analizando las diferentes arquitecturas y propuestas para determinar la técnica mas adecuada para el reconocimiento automático de atropellos.
  • Ítem
    Clasificación de la personalidad utilizando procesamiento de lenguaje natural y aprendizaje profundo para detectar patrones de notas de suicidio en redes sociales
    (Universidad Católica San Pablo, 2022) Lazo Vasquez, Ricardo Manuel; Ochoa Luna, Jose Eduardo
    La Clasificación automática de Personalidad es un campo de estudio reciente en el área de Inteligencia Artificial. En los últimos años, surgieron diversas aplicaciones en la misma como detección de patologías psicológicas/ psiquiátricas, avances en asistentes personales, criminología, etc. Por otro lado, los modelos de aprendizaje profundo denominados Transformers han tenido un avance importante en el Procesamiento de Lenguaje Natural (NLP) siendo el estado del arte en diversas tareas. Sin embargo, estos modelos han sido poco aprovechados en la tarea de Clasificación automática de Personalidad. En ese sentido, en la presente investigación se propuso investigar los modelos Transformers para la tarea de detección automática de trazos de personalidad basados en la categorización de Myers-Briggs. Asimismo, se usó los modelos de detección de personalidad para identificar tendencias suicidas de personas en redes sociales. Los resultados obtenidos indican que el mejor modelo Transformer para realizar la detección de suicidios es RoBERTa Distil.
  • Ítem
    Segmentación 3D de tumores cerebrales eficiente en memoria
    (Universidad Católica San Pablo, 2022) Maldonado Quispe, Percy; Gutiérrez Cáceres, Juan Carlos
    El diagnóstico temprano y la segmentación precisa de los tumores cerebrales son imprescindibles para un tratamiento exitoso. Desafortunadamente, la segmentación manual es lenta, costosa y, a pesar de la amplia experiencia humana, a menudo es inexacta. En este documento, presentamos una arquitectura para la segmentación de tumores basado en imágenes MRI utilizando una red neuronal convolucional 3D regularizada con autoencoder. Entrenamos el modelo con imágenes Magnetic Resonance Imaging (MRI) segmentadas manualmente: T1, T1ce, T2 y Flair de 285 pacientes con tumores de gravedad, tamaño y ubicación variables. Luego probamos el modelo utilizando datos independientes de 66 pacientes y segmentamos con éxito los tumores cerebrales en tres subregiones: el núcleo del tumor (TC), el tumor potenciador (ET) y el tumor completo (WT). También se explora pasos de preprocesamiento para mejorar el rendimiento de la segmentación. Es importante destacar que nuestro modelo se implementó en una sola unidad gráfica y, por lo tanto, optimiza la segmentación tumoral para un hardware ampliamente asequible. En resumen, se trata de presentar una solución económica y eficiente en memoria para la segmentación tumoral para respaldar el diagnóstico preciso de los tumores cerebrales.
  • Ítem
    Riesgos del internet de las cosas y su relación con los usuarios
    (Universidad Católica San Pablo, 2022) Aguirre Flores, Jose Alonso Vides; Túpac Valdivia, Yván Jesús
    El presente estudio tiene por objetivo determinar los riesgos del Internet de las cosas y su relación con los usuarios, con el fin de disminuir los riesgos asociados al uso del Internet de las Cosas (IoT), ya que su funcionamiento no depende de la intervención humana sino de sensores inteligentes que recogen información, la comunican, analizan y actúan ofreciendo nuevas formas de interacción con los usuarios. Sin embargo, esto crea nuevas oportunidades para que esa información se vea comprometida exponiendo información sensible y confidencial de los usuarios y como resultado, podría estar expuesto a riesgos cibernéticos. En este sentido, el IoT radica en la capacidad de agregar datos, que actualmente se generan en diferentes formatos; donde aplicativos y/o sensores se conectan a las redes utilizando diferentes protocolos de comunicación, y sin estándares comunes que rijan el funcionamiento de los dispositivos habilitados para IoT. Según lo expuesto, se considera viable esta investigación ya que busca conocer del IoT, sus generalidades, comunicación, amenazas y vulnerabilidades para determinar los riesgos relacionados a IoT y proporcionar metodologías que optimicen la protección de los datos y la intimidad de los usuarios, así como contrarrestar el espionaje de los datos del IoT, a través de una revisión sistemática, basado en la metodología de Barbara Kitchenham.
  • Ítem
    Una herramienta de visualización interactiva para la generación de ensambles óptimos de clasificadores
    (Universidad Católica San Pablo, 2022) Diaz Espino, Dany Mauro; Gomez Nieto, Erick Mauricio
    En la actualidad existen muchos avances en el área de aprendizaje de máquina. A veces los modelos usados para realizar una determinada tarea no proporcionan los mejores resultados. Una alternativa de solución a este problema es el uso de ensambles de clasificadores, ya que la decisión final estará basada en el conjunto de probabilidades generadas por varios modelos. De esta forma, aunque uno de los clasificadores falle, los resultados tendrán cierto grado de confiabilidad si es que los demás clasificadores aciertan. Con este enfoque también surge la demanda por herramientas que permitan realizar un análisis detallado de cada clasificador perteneciente al ensamble. Es por este motivo que la presente tesis propone el desarrollo de una herramienta de generación y comparación de ensambles óptimos en términos de rendimiento. La herramienta propuesta se apoya en técnicas de visualización para realizar dos tareas principales: proporcionar un análisis detallado de cada clasificador y mostrar las métricas asociadas a cada clasificador para ayudar al usuario en la toma de decisiones.
  • Ítem
    SCVis: Una herramienta de análisis interactivo del crimen espacio - temporal basado en un enfoque a nivel de calle y bloque para centros urbanos.
    (Universidad Católica San Pablo, 2022) Masca Vilca, Bryan David; Gomez Nieto, Erick Mauricio
    Los centros de seguridad pública, incluso privados, presentan múltiples problemas con la interacción entre el análisis espacial y temporal de los crímenes. La gran cantidad de datos multidimensionales, la variabilidad de tipos criminales, así como la infraestructura y dinamismo urbano complica su análisis. Los principales métodos dentro del análisis del crimen permiten a los analistas de criminología identificar áreas de alto riesgo y asignar recursos tecnológicos y humanos para combatir los delitos de manera asertiva. Aunque estos mantengan su propósito inicial, no están diseñados para permitir un análisis detallado a nivel de calle y bloque. Hemos identificado una nueva forma de visualización a nivel de calle y bloque cuyo fin es analizar la relación de los patrones encontrados a escala fina con la oportunidad delictiva. Comprender estos patrones es crucial a la hora de formular acciones preventivas. Presentamos una herramienta interactiva para la visualización criminal que permite el análisis espacio-temporal de los patrones a nivel de calle y bloque. Esta se basa en una estrategia de agregación de crímenes con un enfoque a nivel de calle, bloque y otros recursos de visualización que permiten analizar relaciones espaciales y temporales, descubriendo puntos críticos donde radica la delincuencia. Por lo tanto, estos hallazgos proporcionan un indicador sobre cómo un diagnóstico a escala fina ayuda a comprender por qué el crimen se desenvuelve, persiste y evoluciona en ubicaciones específicas de las ciudades y por qué ciertos tipos de crímenes aparecen de forma recurrente.
  • Ítem
    Empaquetado de esferas paralelo indexado para dominios arbitrarios
    (Universidad Católica San Pablo, 2022) Cuba Lajo, Ruben Adrian; Loaiza Fernández, Manuel Eduardo
    Los empaquetados de partículas son métodos que se utilizan para llenar de partículas un contenedor. Estos son usados para simular materia granular, la cual tiene varios usos. Los empaquetados de partículas buscan ser densos, sin embargo, los empaquetados de partículas son lentos, no llegan a ser completamente densos y la mayoría solo funcionan en contenedores simples. En la actualidad se han propuesto varias técnicas para lograr un empaquetado denso, disminuyendo significativamente el tiempo de construcción del empaquetado, pero se ha visto poco avance en aumentar la densidad de un empaquetado. Los empaquetados de partículas llegan en promedio a una densidad máxima aproximada de 70% en contenedores rectangulares y cilíndricos, y de 60% en contenedores arbitrarios. La densidad de los empaquetados también se conoce como compactación o fracción sólida. El objetivo de este trabajo es realizar un empaquetado compacto que en contenedores arbitrarios alcance entre el 60% y 70% de compactación. Para ello se toma como base un empaquetado de esferas periódico compacto, que basado en el uso de esferas del mismo tamaño, logra la compactación más alta, es decir, es el más denso. El empaquetado buscado se realiza siguiendo un patrón periódico hexagonal, a este se le añade dos tamaños de esferas, los cuales son menores al tamaño inicial, estas esferas van en los espacios vacíos que deja el empaquetado hexagonal. El método propuesto alcanza densidades en contenedores arbitrarios entre 60% y 70% en tiempos menores a 5 minutos utilizando una optimización paralela sobre el recurso GPU.
  • Ítem
    Análisis comparativo de técnicas de aprendizaje automático para detectar fraude en tarjetas de crédito
    (Universidad Católica San Pablo, 2022) Tong Chabes, Luis; Ochoa Luna, Jose Eduardo
    Este estudio resalta la importancia de llevar un control para detectar fraudes en tarjetas de crédito para prevenir diferentes riesgos hacia nuestros bienes. Las técnicas de Aprendizaje Automático han demostrado ser la solución para aprendizaje supervisado. Este trabajo identifica técnicas como Máquinas de Vectores de Soporte, Clasificador Bayesiano Ingenuo, Bosques Aleatorios, Red Neuronal y Extreme Gradiente Boost como las mejores técnicas según los trabajos relacionados. Este trabajo se enfocó en realizar todo el proceso que aborda un proyecto como este, es decir ingeniería de características, preparar los datos, lidiar con el desbalance de datos, entre otros. Se usó como herramienta de evaluación de rendimiento la validación cruzada k-fold para encontrar la mejor parametrización de cada una de estas técnicas, que son evaluadas con métricas de desempeño como exactitud y puntaje f1. A continuación se realiza una comparación de estos resultados agregando pruebas estadísticas como t de estudiante para obtener la técnica más adecuada. Finalmente se obtiene la mejor técnica Red Neuronal que por sus resultados es realmente superior a las técnicas restantes.
  • Ítem
    Reducción de ruido de una nube de puntos densa 3D, basado en el regularizador de grafo laplaciano y preservando las características de forma fina
    (Universidad Católica San Pablo, 2022) Cutire Sivincha, Wilber Eder; Loaiza Fernández, Manuel Eduardo
    La nube de puntos 3D ha ganado cada vez más atención como representación de objetos para realizar la reconstrucción de superficies. La nube de puntos generada por sistemas de cámaras binoculares son fácilmente corrompidas ya sea cambios de iluminación en la captura, vibraciones de los sistemas o por errores computacionales en la triangulación. Obtener una adecuada nube de puntos ayuda a conocer de forma más precisa el volumen del objeto a reconstruir. Para ello se busca eliminar el ruido que la nube de puntos presenta, manteniendo las características y los detalles de la superficie a reconstruir. En este trabajo proponemos un método que aprovecha de la estructura de la nube de puntos, para la construcción basada en grafo y usarlo como señal, además usamos un nuevo vector de características que representen a los nodos. Nos basamos en el regularizador de grafo laplaciano, construyendo un método con convergencia definida y realizamos una evaluación experimental para la demostrar robustez, y calidad de nuestro método, comparándolo con los métodos más relevantes del estado del arte.
  • Ítem
    Una estructura de datos para la consulta visual interactiva por similitud de grandes volúmenes de datos multidimensionales mixtos georeferenciados
    (Universidad Católica San Pablo, 2021) Reyna Garcia, Victor Raul Stanilao; Gomez Nieto, Erick Mauricio
    Actualmente, la visualization de big data representa un gran desafío a los analistas. La mixtura y el alto número de dimensiones en los datos, dificulta realizar consultas en tiempo real. Frente a ello, se propone una nueva forma de indizar grandes volúmenes de datos estáticos multidimensionales de tipos mixtos. Con el propósito de ejecutar simples consultas visuales de similitud sobre estos conjuntos de datos, las cuales estarán asociadas a una ubicación geográfica. Nuestra propuesta presenta una versión inicial donde se utilizó métodos de reducción de dimensionalidad con el propósito de mapear nuestro conjunto de datos a un espacio unidimensional, para luego organizarlos por su similitud. Posteriormente, se desarrolló una siguiente versión, mejorando las desventajas de la anterior. El cual mantiene el cálculo de la matriz de distancias de Gower, pero a partir de este se construye un árbol de similitud, que está conectado a una estructura espacial conocida como QuadTree. Adicionalmente, se presenta un prototipo de análisis exploratorio, que nos permite explotar al máximo las capacidades a ser incluidas en la estructura de datos.
  • Ítem
    Evaluación del desempeño de algoritmos bioinspirados adaptados a la generación de barajas en Hearthstone
    (Universidad Católica San Pablo, 2021) Nuñez Montes, Luis Enrique; Túpac Valdivia, Yván Jesús
    Inspirados en los fenómenos que ocurren en la naturaleza, los algoritmos bioinspirados han demostrado ser altamente eficientes en resolver problemas de optimización, especialmente cuando la cantidad de los datos hace inviable un algoritmo determinista más complejo. Gracias a dichas características, estos algoritmos se adaptan perfectamente al vasto dominio de los videojuegos, los cuales plantean importantes desafíos con múltiples estrategias exitosas. En este trabajo se propone la adaptación de Coyote Optimization Algorithm (COA) y Monarch Butterfly Optimization (MBO) para la generación y mejora de barajas en Hearthstone, un popular videojuego de cartas coleccionables que, precisamente, plantea esta clase de desafíos. Para evaluar el desempeño de estas adaptaciones, se les compara con Map Elites with Sliding Boundaries (MESB), obteniendo resultados alentadores.
  • Ítem
    Calibración de cámara usando invariantes proyectivas
    (Universidad Católica San Pablo, 2021) Vilca Vargas, Jose Rodrigo; Loaiza Fernández, Manuel Eduardo
    Los sistemas de seguimiento son un factor clave en diversas áreas, como la realidad virtual y aumentada, reconstrucción 3D, navegación, etc. La tecnología óptica es ampliamente usada debido a su disponibilidad a bajos costos y a que el objeto a seguir no se sobrepone de cables u otros componentes. Es por esto que uno de los principales objetivos en esta área es incrementar el campo de seguimiento sin perder precisión en la captura y respuesta de la posición y orientación 3D de los objetos y, esta precisión está relacionada directamente a una calibración correcta y precisa de cámara. En el método propuesto, buscamos realizar una calibración ´optima usando el reconocimiento de patrones para la calibración inicial. Posteriormente, usaremos las propiedades invariantes proyectivas para obtener patrones proyectivos invariantes en el proceso de adquisición de datos. Luego, usaremos un modelo híbrido de calibración fotogramétrica y autocalibración con los datos obtenidos anteriormente. Y, por ´ultimo, generaremos una optimización de parámetros de la cámara en relación a la información procesada.
  • Ítem
    Introduciendo rolling window a los métodos de planeamiento de caminos fast marching para robots autónomos
    (Universidad Católica San Pablo, 2021) Sucapuca Diaz, Angel Jose; Barrios Aranibar, Dennis
    Moverse de un lugar a otro para cumplir una determinada tarea sin intervención humana es uno de los mayores retos que debe superar un robot autónomo. Para lograrlo, el robot debe encontrar el camino más corto desde un punto inicial hasta un punto final en un mapa que representa su entorno haciendo uso de los métodos de Planeamiento de Caminos. Un problema común a varios métodos de Planeamiento de Caminos es la necesidad de explorar un área considerable del mapa lo cual implica un mayor uso de los recursos computacionales del robot. En este trabajo se propone introducir Rolling Window a los métodos de Planeamiento de Caminos Fast Marching para disminuir considerablemente el área de exploración necesaria. En consecuencia, un robot autónomo podría usar de forma más eficiente sus limitados recursos computacionales para encontrar el camino más corto.
  • Ítem
    Entrenando una red neuronal Mask R-CNN con imágenes sintéticas para la detección y segmentación de objetos en imágenes reales de maquinaria
    (Universidad Católica San Pablo, 2021) Cerpa Salas, Alonso Jesus; Meza Lovon, Graciela Lecireth
    En los últimos años, las redes neuronales convolucionales se han utilizado ampliamente para resolver problemas como la clasificación de imágenes, la detección de objetos y la segmentación de objetos. Sin embargo, estas redes neuronales requieren de una gran cantidad de datos correctamente etiquetados para funcionar adecuadamente. Por este motivo, los procesos de etiquetado de datos se llevan a cabo reclutando personas que etiquetarán los datos manualmente. Esto es un problema, ya que consume mucho tiempo y dinero, por lo que algunos investigadores han estudiado el uso de sistemas que generan datos sintéticos y a la vez, los etiquetan. Dada esta problemática, en el presente trabajo se plantea un sistema para generar datos sintéticos mediante un renderizador, que utiliza fondos aleatorios (imágenes) y 3 modelos 3D de piezas de maquinaria. Luego, dichos datos sintéticos son etiquetados por nuestro sistema, para las tareas de detección y segmentación de objetos. Adicionalmente, aplicamos un filtro de Gaussian Blur a nuestras imágenes sintéticas para que den mejores resultados en el entrenamiento posterior. Después, nuestro sistema entrena una red neuronal Mask R-CNN (pre-entrenada con el conjunto de datos COCO) con los datos sintéticos con Gaussian Blur generados y etiquetados anteriormente. Finalmente, nuestro sistema realiza pruebas de la red neuronal con datos reales (fotografías de las 3 piezas de maquinaria en el mundo real), donde se consiguen resultados óptimos.
  • Ítem
    A multi-modal emotion recogniser based on the integration of multiple fusion methods
    (Universidad Católica San Pablo, 2021) Heredia Parillo, Juanpablo Andrew; Ticona Herrera, Regina Paola
    People naturally express emotions in simultaneous different ways. Thus, multimodal methods are becoming popular for emotion recognition and analysis of reactions to many aspects of daily life. This research work presents a multimodal method for emotion recognition from images. The multi-modal method analyses facial expressions, body gestures and the characteristics of the body and the environment to determine an emotional state, processing each modality with a specialised deep learning model and then applying the proposed fusion method. The fusion method, called EmbraceNet+, consists of a branched architecture that integrates the EmbraceNet fusion method with other fusion methods. The tests carried out on an adaptation of the EMOTIC dataset show that the proposed multi-modal method is effective and improves the results obtained by individual processings, as well as competing with other state-ofthe-art methods. The proposed method has many areas of application because it seeks to recognise emotions in any situation. Likewise, the proposed fusion method can be used in any multi-modal deep learning-based model.