Mostrar el registro sencillo del ítem

dc.contributor.advisorCrespo-Mariño, Juan Luises
dc.contributor.authorLainer-Alfaro, Jose Manuel
dc.date.accessioned2021-08-04T23:21:14Z
dc.date.available2021-08-04T23:21:14Z
dc.date.issued2021-06-21
dc.identifier.urihttps://hdl.handle.net/2238/13267
dc.descriptionProyecto de Graduación (Licenciatura en Ingeniería Mecatrónica) Instituto Tecnológico de Costa Rica. Área Académica de Ingeniería Mecatrónica, 2021es
dc.description.abstractPara proporcionar del conocimiento semántico sobre los objetos con los que van a interactuar los sistemas robóticos, se debe abordar el problema del aprendizaje de las representaciones semánticas a partir de las modalidades del lenguaje y la visión. El conocimiento semántico se refiere a la información conceptual, incluida la información semántica (significado) y léxica (palabra), y que proporciona la base para muchos de nuestros comportamientos no verbales cotidianos. Por lo tanto, es necesario desarrollar métodos que permitan a los robots procesar oraciones en un entorno del mundo real, por lo que este proyecto presenta un enfoque novedoso que utiliza Redes Convolucionales Gráficas para aprender representaciones de palabras basadas en el significado. El modelo propuesto consta de una primera capa que codifica representaciones unimodales y una segunda capa que integra estas representaciones unimodales en una para aprender una representación desde ambas modalidades. Los resultados experimentales muestran que el modelo propuesto supera al estado del arte en similitud semántica y que tiene la capacidad de simular juicios de similitud humana. Hasta donde sabemos, este enfoque es novedoso en el uso de Redes Convolucionales Gráficas para mejorar la calidad de las representaciones de palabras.es
dc.description.abstractTo provide semantic knowledge about the objects that robotic systems are going to interact with, you must address the problem of learning semantic representations from modalities of language and vision. Semantic knowledge refers to conceptual information, including semantic (meaning) and lexical (word) information, and that provides the basis for many of our everyday non-verbal behaviors. Therefore, it is necessary to develop methods that enable robots to process sentences in a real-world environment, so this project introduces a novel approach that uses Graph Convolutional Networks to learn grounded meaning representations of words. The proposed model consists of a first layer that encodes unimodal representations, and a second layer that integrates these unimodal representations into one to learn a representation from both modalities. Experimental results show that the proposed model outperforms that state-of-the-art in semantic similarity and that can simulate human similarity judgments. To the best of our knowledge, this approach is novel in its use of Graph Convolutional Networks to enhance the quality of word representations.es
dc.language.isoenges
dc.publisherInstituto Tecnológico de Costa Ricaes
dc.rightsAttribution-NonCommercial-ShareAlike 4.0 International*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/*
dc.subjectRobóticaes
dc.subjectRedes neuronaleses
dc.subjectAprendizaje de representaciones semánticases
dc.subjectSistemas robóticoses
dc.subjectProcesamiento de lenguaje naturales
dc.subjectConocimientoes
dc.subjectRoboticses
dc.subjectNeural networkses
dc.subjectLearning semantic representationses
dc.subjectRobotic systemses
dc.subjectNatural language processinges
dc.subjectKnowledgees
dc.subjectResearch Subject Categories::TECHNOLOGYes
dc.titleLearning semantic representations through multimodal graph neural networkses
dc.typelicentiateThesises


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-ShareAlike 4.0 International
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-ShareAlike 4.0 International