Please use this identifier to cite or link to this item: https://repositorio.utn.edu.ec/handle/123456789/16718
Citar este ítem

Full metadata record
DC FieldValueLanguage
dc.contributor.advisorCuzme Rodríguez, Fabián Geovanny-
dc.contributor.authorHinojosa González, David Santiago-
dc.date.accessioned2024-12-10T16:27:26Z-
dc.date.available2024-12-10T16:27:26Z-
dc.date.created2024-12-03-
dc.date.issued2024-12-10-
dc.identifier.other04/TEL/ 032es_EC
dc.identifier.urihttps://repositorio.utn.edu.ec/handle/123456789/16718-
dc.descriptionDesarrollar un prototipo funcional de traducción de lenguaje de señas basado en visión artificial que permitirá a las personas con discapacidad auditiva comunicarse con personas que desconocen este lenguaje.es_EC
dc.description.abstractLa visión artificial es una rama dentro de la inteligencia artificial, con la cual un dispositivo busca simular la visión humana permitiendo extraer información relevante de imágenes mediante un proceso de entrenamiento previo. Por lo cual, la visión artificial puede ser aplicada a distintos campos para brindar varios beneficios. En este contexto, en el presente documento se presenta el desarrollo de un prototipo funcional de traducción de lenguaje de señas basado en visión artificial que permite a las personas con discapacidad auditiva comunicarse con personas que desconocen este lenguaje, promoviendo así la inclusión social. Para ello el sistema es implementado en la placa NVIDIA Jetson Nano para realizar la detección de letras del ASL (Lenguaje de Señas Americano) mediante una inferencia en tiempo real, haciendo uso de librerías destinadas a tareas de visión artificial y compatibles con el lenguaje de programación Python, como OpenCV y MediaPipe, además de la Red Neuronal Convolucional (CNN) “yolov8n.pt” del modelo YOLOv8, misma que fue entrenada con el dataset “Real-Time-SignLanguage”, que ofrece diversas imágenes de cada letra del alfabeto ASL. El proceso de desarrollo del presente proyecto incluye la detección en tiempo real de los gestos de la mano y la reproducción de la traducción mediante un sintetizador de voz. Este trabajo representa un aporte en accesibilidad y aprendizaje del lenguaje de señas, siendo una base para ser optimizada mediane modelos más complejos en futuros proyectos.es_EC
dc.language.isospaes_EC
dc.rightsopenAccesses_EC
dc.rightsAtribución-NoComercial-CompartirIgual 3.0 Ecuador*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/ec/*
dc.subjectTELECOMUNICACIÓNes_EC
dc.subjectPERSONAS CON DISCAPACIDADes_EC
dc.subjectINCLUSIÓN SOCIALes_EC
dc.subjectVISIÓNes_EC
dc.titleTraductor de lenguaje de señas para personas con discapacidad auditiva basado en visión artificiales_EC
dc.typebachelorThesises_EC
dc.description.degreeIngenieríaes_EC
dc.contributor.deparmentTelecomunicacioneses_EC
dc.coverageIbarra. Ecuadores_EC
dc.identifier.mfn0000043800es_EC
Appears in Collections:Telecomunicaciones

Files in This Item:
File Description SizeFormat 
04 TEL 032 logo.jpgLogo57.51 kBJPEGThumbnail
View/Open
04 TEL 032 TRABAJO GRADO.pdfTrabajo de Grado15.7 MBAdobe PDFThumbnail
View/Open


This item is protected by original copyright



This item is licensed under a Creative Commons License Creative Commons