• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1094
  • 101
  • 7
  • 1
  • Tagged with
  • 1204
  • 519
  • 382
  • 382
  • 382
  • 382
  • 382
  • 337
  • 330
  • 315
  • 270
  • 238
  • 169
  • 150
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
941

Estudio de la productividad de un proyecto tipo help desk: aumento de la productividad aplicando el estudio del trabajo

Loaiza Inga, Christian Alfredo Benigno January 2013 (has links)
Publicación a texto completo no autorizada por el autor / Se realiza con el objetivo de descubrir cómo se puede reducir los costos de mano de obra aplicando los conocimientos del estudio del trabajo, para lo cual se elige el proyecto más representativo de la línea de negocio help desk de la empresa GMD, el proyecto MDA – BBVA. Se observa que el servicio más importante y representativo de este proyecto era la gestión de incidentes por el soporte de nivel 1; y se procede a realizar los estudios de métodos y medición del trabajo para determinar posible mejoras en el diseño y ejecución de los procesos. Luego de aplicar una reestructuración de la distribución del personal y reducción de tiempo ocioso se obtiene una solución que permite ahorrar $ 3 480.07 mensuales al proyecto, que representan un 15% aproximadamente de la utilidad operativa media observada en el año 2012. Se concluye además, que para poder mejorar el rendimiento de los proyectos de GMD es necesario realizar estudio del trabajo en las líneas de negocio de GMD, de este modo se asegura el mantener la competitividad de la empresa. / Tesis
942

Automatización del proceso de carga y descarga de metales en un electroimán de una planta minera

Nuñez Cornejo, Ivanovha Grace 24 August 2022 (has links)
En el sector minero se privilegian los proyectos orientados a disminuir los accidentes laborales y a optimizar los procesos de extracción y tratamiento de mineral, iniciativas propuestas en esta línea son ampliamente aceptadas y beneficiadas con la asignación de recursos para su implementación. El siguiente trabajo presenta la automatización del proceso de carga y descarga de forma automática de los metales (inchancables), acumulados en el electroimán de una planta de chancado del sector minero, disminuyendo de esta forma la exposición del personal a posibles accidentes laborales y optimizando el proceso de separación de inchancables. Durante la extracción de mineral, se utilizan aceros para la perforación y sostenimiento del macizo rocoso, que finalmente después de la voladura se mezcla con el mineral que es transportado hacia chancado. Este material inchancable debe ser retirado de forma eficiente para evitar daños a los equipos de chancado y cortes longitudinales y/o transversales en las fajas transportadoras. Para alcanzar el objetivo principal del presente trabajo, se definieron los requisitos del usuario, requerimientos del proyecto; además, del estado del arte actual para conocer las tecnologías y equipos existentes para el proyecto, se siguió la metodología de diseño mecatrónico donde, a través de una matriz, se realizó la selección de la solución conceptual; asimismo, se realizaron los cálculos de la estructura y simulación, así como la selecciónde los componentes eléctricos y electrónicos del sistema; finalmente se elaboraron los planos mecánicos, eléctricos y de control. La inversión del proyecto está plenamente justificada, desde el punto de vista de seguridad del personal, al disminuir la exposición de los operadores, así como también de lo económico al evitar paradas no programadas prolongadas del circuito de chancado y transporte de mineral al usar medios alternos para alimentar de mineral a la planta de beneficio.
943

Propuesta para introducir al mercado el ecógrafo portátil Sonic Care aplicando el método Lean Startup en establecimientos de salud ubicados en distritos del cono norte y este de Lima Metropolitana

Ruiz Bravo, Gabriela Ariana, Sánchez Sánchez, Ingrid Katherine 27 November 2017 (has links)
El objetivo del presente proyecto profesional es diseñar una propuesta para introducir al mercado el ecógrafo portátil Sonic Care a partir de pruebas de producto aplicando el método Lean Startup en 30 centros de salud privados en los conos este y norte de Lima Metropolitana. El primer capítulo, delimita el proyecto profesional centrando la problemática en la tercera causa de la exclusión social de los servicios de salud: Las fallas en la gestión y/o asignación de los recursos, específicamente en el caso del equipamiento y tecnología adecuados. Se decidió centralizar la investigación en los distritos de la zona norte: Comas, Carabayllo, Puente Piedra y un distrito de la zona este: San Juan de Lurigancho. Esta decisión se tomó considerando tres características importantes de los distritos: Demografía, Nivel Socioeconómico y Ubicación Geográfica. El segundo capítulo contiene el Marco Teórico usado para realizar este proyecto profesional. El tercer capítulo, corresponde a la metodología utilizada. Con respecto a este último punto, al alcance del proyecto es exploratorio descriptivo, asimismo, el enfoque que se adoptó es el mixto. Se utilizó el método Lean Startup y su herramienta transversal Experiment Board a lo largo de cinco iteraciones. Las herramientas para el recojo de información que se utilizaron son el Cardsorting, Malla Receptora de Información y Entrevistas Semi-Estructuradas. En el capítulo cuatro, mediante las dos iteraciones realizadas, se encontró el problema específico que atravesaban los centros de salud con respecto a las fallas en la gestión y/o asignación de los recursos. De esta manera, utilizando Cardorting y entrevistas semiestructuradas pudimos encontrar que el problema principal de estos centros de salud era el uso de ecógrafos antiguos que por tener esta característica, pueden contribuir a la generación de diagnósticos herrados. Por último, la posible solución al problema encontrado viene a ser un ecógrafo nuevo y a bajo costo. En el quinto capítulo, definimos a los posibles clientes potenciales del ecógrafo portátil Sonic Care: Centros de salud ubicados en zonas de NSE D. Asimismo, en este capítulo se describe cual es el producto mínimo viable utilizado en la quinta iteración: El ecógrafo portátil Sonic Care. A su vez, a través de la herramienta de maya receptora de información se determinó cuáles son las características que debería tener el producto mínimo viable para tener éxito con los clientes potenciales que se están eligiendo y generar un prototipo 2.0. En el último capítulo, se detalla la propuesta final del proyecto profesional plasmada en un Lean Canvas. Los elementos descritos en el Lean Canvas son el problema, la solución, las métricas, la propuesta de valor, las ventajas competitivas, los canales de comunicación y el segmento de clientes a los que atenderemos. El resultado de este ejercicio serán los lineamientos básicos en los que, en el futuro, debe basarse un plan de negocios para comercializar el ecógrafo Sonic Care.
944

Implementación de algoritmos para la identificación automática de lenguas originarias peruanas en un repositorio digital

Espichán Linares, Alexandra Mercedes 12 February 2019 (has links)
Debido a la revitalización lingüística en el Perú a lo largo de los últimos años, existe un creciente interés por reforzar la educación bilingüe en el país y aumentar la investigación enfocada en sus lenguas nativas. Asimismo, hay que considerar que en el Perú actualmente alrededor de 4 millones de personas hablan alguna de las 47 lenguas nativas conservadas. Por tanto, hay una gran variedad de lenguas con las cuales trabajar, por lo que sería de utilidad contar con herramientas automáticas que permitan agilizar algunas tareas en el estudio e investigación de dichas lenguas. De este modo, y desde el punto de vista de la informática, una de las primeras y principales tareas lingüísticas que incorporan métodos computacionales es la identificación automática de lenguaje, la cual se refiere a determinar el lenguaje en el que está escrito un texto dado, el cual puede ser un documento, un párrafo o incluso una oración. Este además es un paso esencial en el procesamiento automático de los datos del mundo real, donde una multitud de lenguajes pueden estar presentes, ya que las técnicas de procesamiento del lenguaje natural típicamente presuponen que todos los documentos a ser procesados están escritos en un lenguaje dado. Por lo tanto, este trabajo se enfoca en tres pasos: (1) en construir desde cero un corpus anotado digital para 49 lenguas y dialectos indígenas peruanos, (2) en adaptarse a los enfoques de aprendizaje de máquina estándar y profundo para la identificación de lenguas, y (3) en comparar estadísticamente los resultados obtenidos. Los resultados obtenidos fueron prometedores, el modelo estándar superó al modelo de aprendizaje profundo tal como se esperaba, con una precisión promedio de 95.9%. En el futuro, se espera que se aproveche el corpus y el modelo para tareas más complejas.
945

Generación automática de un corpus de comprensión lectora para el español a partir de un conjunto de datos en lengua inglesa

Monsalve Escudero, Fabricio Andrés 02 September 2019 (has links)
Desde la aparición del computador, la comprensión lectora automática ha sido un tema de interés científico, resultando en diversas investigaciones y técnicas que le permitan a una máquina “comprender” diversos textos. La introducción del aprendizaje de máquina originó un gran cambio en este ámbito de estudio. Esto debido a que mientras los algoritmos de aprendizaje de máquina y procesamiento de lenguaje natural iban evolucionando, se necesitaba mayores cantidades de datos o ejemplos para poder aprender correctamente. Este problema fue abordado por varios estudios científicos, dando origen a un grupo significativo de conjuntos de datos enfocados a distintos tipos de comprensión lectora. Sin embargo, estos conjuntos de datos fueron creados solo para el idioma inglés ya que, hasta la actualidad, los trabajos relacionados a este ámbito se desarrollan en ese idioma. Por ello, hay pocas investigaciones enfocadas en comprensión lectora para otros idiomas como el español, ya que la creación de los conjuntos de datos necesarios demanda una gran cantidad de recursos (horas-hombre de expertos) para lograr un resultado de calidad, lo que hace muy costoso este objetivo. Por lo tanto, se propone una solución de menor costo, apoyándonos en la traducción y validación automática de un conjunto de datos de inglés a español. Específicamente, el conjunto de datos Stanford Question Answering Dataset (SQuAD), desarrollado por la Universidad de Stanford para la tarea de comprensión de lectura en inglés, cuenta con más de 100,000 pares de preguntas-respuestas planteadas sobre múltiples artículos de Wikipedia, y donde la respuesta a cada pregunta es un segmento de texto contenido explícitamente en los párrafos del artículo. Para lograr este objetivo, se usarán modelos de traducción automática y métricas de validación automática para traducción, para consecuentemente poder entrenar un modelo algorítmico de comprensión lectora en español, el cual podría permitir alcanzar los resultados del estado del arte para el inglés. Posteriormente, se desarrollará una interfaz de programación de aplicaciones (API), la cual servirá para la presentación de los resultados obtenidos. Esta solución representa un desafío computacional e informático debido al gran volumen de datos a tratar, para lo cual se deben realizar procesos eficientes y una correcta utilización de recursos, manteniendo así la viabilidad del proyecto. Asimismo, el uso y aplicación de los resultados obtenidos en este proyecto es de gran variedad, ya que, a partir del entrenamiento de un modelo algorítmico de comprensión lectora, se puede aplicar en sistemas de extracción de información, sistemas de tutoría inteligente, preguntas frecuentes, entre otros. Además, este proyecto busca dejar un precedente y brindar un punto de partida en futuras investigaciones sobre generación automática de conjuntos de datos para comprensión lectora en español, utilizando un enfoque en aprendizaje de máquina y procesamiento de lenguaje natural.
946

Implementación de una aplicación para el análisis y visualización de eventos en español usando extracción automática de ontologías

Valeriano Loli, Enrique 12 February 2019 (has links)
La globalización y la aparición de diferentes tecnologías como las redes sociales han ocasionado que la información relacionada a noticias y eventos se propague de una manera más rápida. Ahora las empresas deben estar siempre pendientes a los datos generados para así ser más eficaces en su relación con ellos. Sin embargo, esta es una tarea difícil debido a la gran cantidad de datos y a la falta de procesos automáticos para analizar estos, sobre todo en el idioma español. Como objetivo de este proyecto, se busca brindar una aplicación la cual de manera automática pueda realizar análisis de datos de eventos en español y permitan visualizar los aspectos más importantes relacionados a estos datos. Para esto se implementarán algoritmos de Análisis de Formal de Conceptos y Análisis de Patrones Léxico-Sintácticos. Además, se usarán ontologías para poder estructurar la información recolectada a partir de los algoritmos. Se concluye que los algoritmos desarrollados permiten obtener las entidades y relaciones más relevantes encontradas en los datos con porcentajes relativamente altos de precisión y exhaustividad sobre todo usando datos limpios. Además, es posible mostrar la información recolectada de manera adecuada debido a la flexibilidad de las ontologías.
947

Implementación de un lematizador para una lengua de escasos recursos: caso shipibo-konibo

Pereira Noriega, José Humberto 15 February 2019 (has links)
Desde que el Ministerio de Educación oficializó el alfabeto shipibo-konibo, existe la necesidad de generar una gran cantidad de documentos educativos y oficiales para los hablantes de esta lengua, los cuales solo se realizan actualmente mediante el apoyo de traductores o personas bilingües. Sin embargo, en el campo de la lingüística computacional existen herramientas que permiten facilitar estas labores, como es el caso de un lematizador, el cual se encarga de obtener el lema o forma base de una palabra a partir de su forma flexionada. Su realización se da comúnmente mediante dos métodos: el uso de reglas morfológicas y el uso de diccionarios. Debido a esto, este proyecto tiene como objetivo principal desarrollar una herramienta de lematización para el shipibo-konibo usando un corpus de palabras, la cual se base en los estándares de anotación utilizados en otras lenguas, y que sea fácil de utilizar mediante una librería de funciones y un servicio web. Esta herramienta final se realizó utilizando principalmente el método de clasificación de los k-vecinos más cercanos, el cual permite estimar la clase de un nuevo caso mediante la comparación de sus características con las de casos previamente clasificados y dando como resultado la clase más frecuente para valores similares. Finalmente, la herramienta de lematización desarrollada logró alcanzar una precisión de 0.736 y de esta manera superar a herramientas utilizadas en otros idiomas.
948

Diseño de un reverberador digital

Carrasco Saavedra, Jonathan 17 December 2018 (has links)
La presente tesis pretende demostrar que es posible diseñar un reverberador digital que permita controlar el tiempo de reverberación de forma eficiente utilizando algoritmos digitales desarrollados bajo un enfoque sensorial, que pueda brindar al oyente una sensación psicoacústica satisfactoria, y que sirva como base para brindar en el futuro una alternativa al mercado de procesadores de sonido. Entendemos por reverberación a la persistencia del sonido debido a las múltiples reflexiones y al decaimiento de las ondas estacionarias del cuarto después que la fuente ha dejado de emitir sonido. Este fenómeno acústico otorga mayor belleza a expresiones sonoras como la música y el canto, y la existencia de los reverberadores tiene como objetivo imitar esa característica acústica para agregársela a un sonido que carezca de ella. A lo largo de la historia se han desarrollado reverberadores electromecánicos, electrónicos con tecnología analógica, y en las últimas décadas los reverberadores digitales están marcando la tendencia gracias al gran avance que ha tenido el procesamiento digital de audio. Para el desarrollo de esta tesis, ha sido necesaria la comprensión del fenómeno acústico de la reverberación y de las principales técnicas de procesamiento digital de señales que permiten el modelamiento digital del reverberador. Finalmente con el diseño del reverberador se demostró que es posible controlar el tiempo de reverberación manteniendo la calidad en la percepción del sonido procesado.
949

Diseño de un sistema mecatrónico para medir el nivel de fatiga neuromuscular en deportistas utilizando el salto en contramovimiento

Rojas Carrasco, Ivan Alexis 03 August 2022 (has links)
Hoy en día, es evidente el crecimiento de la práctica deportiva en el Perú. De hecho, esta actividad se ve impulsada por la infraestructura y la moderna tecnología deportiva implementada con miras a los Juegos Panamericanos Lima 2019. Sin embargo, si bien estos complejos poseen la ventaja de beneficiar a la mayor cantidad de atletas por su capacidad, la tecnología no se proyecta de la misma manera debido a la aún limitada oferta existente. Ante este panorama, resulta importante identificar una oportunidad de mejora que pueda reducir la brecha tecnológica que existe en el deporte peruano. Por esto, se propone diseñar una solución tecnológica que optimice el proceso de control de la fatiga neuromuscular (FN) durante la preparación deportiva. Sobre el control de la FN, existen alrededor de 6 métodos convencionales para medir el nivel de la fatiga. Algunos de estos, recientemente, han variado con el fin de reducir su complejidad. Prueba de ello es un nuevo estudio que ha demostrado que la altura máxima del centro de masa en el salto en contramovimiento (CMJ, por sus siglas en inglés) puede ser utilizado como una herramienta moderna y práctica para determinar el nivel de la FN. Entonces, con base en este método, se propone diseñar un sistema mecatrónico que obtenga el nivel de dispersión de la potencia mecánica máxima del CMJ, variable física directamente relacionada con la altura del centro de masa, para que se utilice como herramienta para medir el nivel relativo de la FN. Así mismo, el sistema a diseñar debe ser capaz de verificar la ejecución del CMJ. El sistema mecatrónico se compone de un subsistema que utiliza 8 celdas de carga para medir las fuerzas pie-piso y un segundo subsistema compuesto de una cámara digital para la captura de imágenes que corresponden al desarrollo del CMJ. Luego, para el procesamiento de los algoritmos que culminan en el nivel de dispersión de la potencia mecánica máxima se emplea un microcontrolador; y para el procesamiento de las imágenes que culminan en la verificación del CMJ, un mini ordenador. Al respecto, el procesamiento de imágenes comprende, principalmente, la etapa de reconocimiento de articulaciones en el espacio 2D. Para esto, se utiliza el modelo Open Pose de tipo open source, que fue elegido por su precisión (79.7 %), tiempo de detección (< 0.20 s) e implementación. La presente inicia revisando el estado del arte, luego se define la lista de requerimientos, estructura de funciones, matriz morfológica y conceptos preliminares según la norma VDI 2221. También, se revisa el diseño del sistema dentro del ámbito mecánico, eléctrico y procesamiento. Al final, se revisa la parte de costos y conclusiones.
950

Determinación y segmentación del nivel socio-económico a partir del análisis automático de imágenes de satélite

Sosa Pezo, Carlos Alberto 11 July 2022 (has links)
Este proyecto tiene como objetivo desarrollar un modelo de análisis de imágenes satelitales basado en redes neuronales profundas para poder identificar de forma automática el nivel socioeconómico de zonas urbanas, a través de la utilización de las imágenes obtenidas mediante el satélite estatal peruano PerúSat-1, las cuales fueron provistas al proyecto por la Comisión Nacional de Investigación y Desarrollo Aeroespacial (CONIDA). De esta manera, se buscó proveer una fuente alternativa y complementaria a los métodos manuales de recolección de datos demográficos para los casos en los que esta metodología tradicional no resulta conveniente de ejecutar por factores de tiempo y presupuesto. Para ello, el proyecto inicia con la conformación del corpus de datos utilizados para el entrenamiento del modelo de análisis de imágenes satelitales. Este conjunto de datos incorpora, además de imágenes satelitales de PerúSat-1 de la ciudad de Lima capturadas entre 2016 y 2020, una serie de etiquetas que indican el nivel de ingresos de cada manzana en dicha ciudad. Estas etiquetas son el resultado de un estudio elaborado por el Instituto Nacional de Estadística e Informática en el año 2019, tomando como base los datos obtenidos durante el Censo Nacional de Población y Vivienda de 2017. En el caso de las imágenes satelitales, este proceso consiste en la composición en imágenes de cuatro bandas (rojo, azul, verde e infrarrojo) de alta resolución y su posterior división en bloques cuadrados de 512 píxeles en cada dimensión; mientras que las etiquetas censales son organizadas en una base de datos relacional, de forma que puedan ser accedidas por el script para la integración de ambas fuentes de datos. Finalmente, se asigna a cada bloque de 512 x 512 píxeles una máscara con las etiquetas censales correspondientes a la zona capturada. Luego, se define un protocolo de preprocesamiento de los datos, en el que normalizan los parches de las imágenes satelitales, además de incrementar el tamaño del conjunto de datos, de modo que sean adecuados para el entrenamiento de los modelos desarrollados. Respecto a estos, se dispone de dos modelos de redes neuronales convolucionales para el análisis socioeconómico de las imágenes satelitales: el primero, encargado de segmentar semánticamente los techos observados en las imágenes; y el segundo que, recibiendo como entradas la imágen satelital original y la máscara de techos generada por el modelo anterior, detecta el nivel socioeconómico de cada manzana en dicha imagen. Así, se obtiene como resultado final una máscara de bits en la que se indica el nivel socioeconómico de cada manzana observada en la imagen satelital. Finalmente, para facilitar su acceso hacia el usuario final, se desarrolla una plataforma web, compuesta por una interfaz gráfica y una interfaz de programación de aplicaciones, que permite seleccionar, con la ayuda de un mapa en la interfaz gráfica, imágenes satelitales para que sean procesadas por los modelos de redes neuronales y puedan ser las máscaras generadas visualizadas en conjunto con la imagen original.

Page generated in 0.0951 seconds