• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1078
  • 99
  • 7
  • 1
  • Tagged with
  • 1186
  • 512
  • 367
  • 367
  • 367
  • 367
  • 367
  • 327
  • 324
  • 310
  • 264
  • 233
  • 169
  • 145
  • 130
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Análisis y diseño de sistema informático de selección de personal en empresa del rubro de servicio de vigilancia

Salazar Osorio, César Eduardo January 2006 (has links)
El presente trabajo muestra el proceso realizado para solucionar el problema de registro correcto y efectivo de la captación de personal realizado a través del área de Captación de la misma empresa. En el primer capítulo se trata de poner el porque se debe de desarrollar el sistema de Captación y a donde a apuntar el desarrollo del mismo. En el segundo capítulo, se procede a hacer un reconocimiento de la organización de la empresa, su organización y como funciona el área de Captación en lo concerniente al proceso de captación de personal para la empresa. El tercer capítulo corresponde a la etapa de diseño del sistema y es aquí donde se definen la mayor parte de las características de sistema computarizado, asimismo se describe el funcionamiento del mismo. El diseño computarizado presentado no define como deben de hacerse las cosas; sino trata de automatizar una forma de trabajo (un proceso); por lo tanto, la empresa puede basada en su experiencia y realidad poder realizar algunos cambios y/o actualizaciones al presente sistema informático presentado. / Tesis
412

Aplicación de la teoría de colas al problema de atención al cliente para la optimización del número cajeros en ventanillas en la organización BCP

Arista Arévalo, Jhoneel January 2016 (has links)
Propone una solución al problema de la optimización del número de cajeros en ventanilla que minimice los costos de espera y los de servicios en la organización BCP. Investiga desde los fenómenos de espera, las propuestas de modelos. Establece los requerimientos óptimos en el personal de atención a los clientes en la organización BCP. Desarrolla un modelo de simulación que permita dar respuesta al requerimiento de personal en las ventanillas de atención en la organización BCP. / Trabajo de suficiencia profesional
413

Deep Landmarking : reconocimiento automático de estructuras anatómicas por medio de morfometría geométrica

Cintas, Celia 13 December 2017 (has links)
La adquisición de información fenotípica es un aspecto clave en diversos contextos, incluyendo análisis biométricos, estudios bioantropológicos, investigaciones biomédicas, y ciencia forense por citar algunos. Para ello se requiere la identificación automática de estructuras anatómicas de interés biométrico, como por ejemplo huellas dactilares, patrones en el iris, o rasgos faciales. Estas estructuras son utilizadas masivamente, pero poseen la desventaja de requerir intrusión para adquirir la información a ser analizada. En esta tesis presentamos un nuevo método, basado en la Morfometría Geométrica, para la detección y extacción automática de datos anatómicos característicos (features) en la forma de hitos (landmarks) en 2D o 3D. Para ello se entrenó una red neuronal con conjuntos de datos obtenidos en forma supervisada por medio de expertos antropólogos y biólogos. El sistema resultante posee la capacidad de realizar landmarking en forma automática en imágenes y video sin preparación previa, obteniéndose parámetros de calidad equivalente o superiores a los adquiridos por expertos humanos. Estos resultados abren la posibilidad de generar en forma automática y confiable vectores de atributos basados en propiedades fenotípicas. Se exploran algunas aplicaciones en diversos contextos incluyendo biometría, videojuegos, interfases naturales y otras aplicaciones. / Accurate gathering of phenotypic information is a key aspect in several subject matters, including biometric identification, biomedical analysis, bioanthropology studies, forensics, and many other. Automatic identification of anatomical structures of biometric interest, such as fingerprints, iris patterns, or facial traits, are extensively used in applications like access control, anthropological research, and surveillance, all having in common the drawback of requiring intrusive means for acquiring the required information. In this thesis we present a new method, based on two well established methodologies, Geometric Morphometrics and Deep Learning algorithms, for automatic phenotype detection and feature extraction in the form of 2D and 3D landmarks. A convolutional neural network was trained with a set of manually landmarked examples. The trained network is able to provide morphometric landmarks on images automatically, with a performance that matches human assisted landmarking. The ability to perform in the open (i.e., in images or video taken with no specific acquisition preparation). The feasibility of using landmarks as feature vectors for different classifications tasks is explored in a novel spectrum of biometrics, video games, and natural user interfaces applications.
414

Selección de variables y descubrimiento causal a partir de textos de artículos periodísticos

Maisonnave, Mariano 22 October 2021 (has links)
La existencia de relaciones o dependencias estadísticas en los datos (correlaciones) se puede estudiar mediante herramientas estadísticas que se han desarrollado en los últimos dos siglos. Sin embargo, una pregunta tan simple de formular como: “¿Existe un vínculo causal entre estas dos variables correlacionadas?'' presenta un desafío diferente que escapa a las respuestas que pueden brindar herramientas estadísticas clásicas, ya que, como se suele enseñar en todos los cursos de estadística: “correlación no es causalidad''. La necesidad por parte de la comunidad científica de responder preguntas causales (¿El fumar causa cáncer? ¿Este medicamento es efectivo para tratar esta enfermedad?, etc.) generó un esfuerzo para la creación de herramientas formales que permitan descubrir y cuantificar efectos causales. Algunos ejemplos son la técnica basada en la Causalidad de Granger (GC por sus siglas en inglés) y la técnica de descubrimiento de estructuras causales PC (que recibe el nombre por las iniciales de sus autores). Por otro lado, existe un gran interés por parte de la comunidad de procesamiento de lenguaje natural (NLP por sus siglas en inglés) en el descubrimiento de relaciones causales a partir de textos. Sin embargo, la mayoría de los esfuerzos están enfocados en recuperar información causal ya explícita en el texto. Por ejemplo, en la siguiente frase sobre la crisis argentina del 2001: “Sucedió en el marco de una crisis mayor que se extendió entre 1998 y 2002, causada por una larga recesión que disparó una crisis humanitaria'' se tendría por objetivo extraer los dos vínculos causales que relacionan los tres eventos descritos (la recesión, una crisis económica y otra humanitaria). Estos trabajos, si bien tienen por objetivo el descubrimiento causal, utilizan herramientas más cercanas al área de NLP que a las herramientas usuales en la literatura sobre descubrimiento causal (tales como GC o PC). Esta tesis propone un marco de trabajo (framework) en el que, a través de la utilización de herramientas como GC o PC, se plantea como objetivo el descubrimiento causal entre variables extraídas de textos de artículos periodísticos cuya relación causal no necesariamente está explícita en el texto. De este modo se obtiene una red causal, donde cada nodo es una variable relevante y cada arco un vínculo causal. Para alcanzar este objetivo primero se proponen soluciones al desafío de extraer y filtrar variables relevantes a partir de textos. Este problema se resuelve mediante el uso de dos enfoques tomados de NLP: (1) una técnica de pesaje de términos y (2) un modelo de detección de menciones de eventos en curso a partir de textos de artículos periodísticos. Se crea un conjunto de datos utilizando las variables extraídas usando estas herramientas de NLP ((1) y (2)). Este conjunto de datos es usado en el paso posterior de extracción de relaciones causales. Se estudian nueve técnicas de descubrimiento causal, y se lleva a cabo un estudio comparativo de la aplicación de las técnicas en más de sesenta conjuntos de datos sintéticos y en un conjunto de datos real de demanda de energía eléctrica. Finalmente, un caso de uso es presentado donde se aplican las mejores técnicas de descubrimiento causal sobre los conjuntos de datos de variables extraídas de los textos de artículos periodísticos, dando lugar así a una demostración completa de la funcionalidad del framework (extracción de variables de textos y descubrimiento causal a partir de las mismas). Los resultados obtenidos muestran la gran flexibilidad del framework, permitiendo la combinación de variables de diferentes tipos, con diferentes procesos de construcción, posibilitando la extracción causal posterior. Más aún, dando evidencia que información no textual podría ser incorporada al framework (por ejemplo, precios de materias primas, precios de acciones de la bolsa, indicadores socioeconómicos, entre otros). Este framework permitiría a un experto partir de un dominio, que puede ser un conjunto de textos periodísticos sobre algún episodio del mundo real, y obtener de manera automática un conjunto de variables relevantes a ese dominio (de las cuales puede elegir visualizar solo algunas, o todas). Posteriormente, se le mostraría al experto un conjunto de vínculos causales extraídos de manera automática, que vincularía a las diferentes variables relevantes al dominio. El grafo causal resultante (variables y vínculos relevantes a un dominio) puede representar una herramienta de gran interés para permitir a un experto tener una visión procesada y resumida de las interdependencias, permitiéndole un mejor entendimiento del dominio o posibilitando sacar conclusiones o explicaciones sobre eventos que se sucedieron o están sucediendo. Las primeras dos contribuciones de esta tesis están enfocadas en la propuesta de técnicas novedosas de NLP para la etapa de extracción de variables. En esta etapa se propone, primero, una herramienta nueva para pesaje de términos y estimación de puntajes de relevancia de términos asignados por usuarios. Segundo, se propone una tarea de NLP, de detección de eventos en curso (OED por sus siglas en inglés) para ser usados como variables en el framework. Se muestran los resultados de diferentes modelos para la tarea de OED, alcanzando un modelo superador con respecto a modelos existentes para tareas similares. Estas dos contribuciones permitieron la extracción de variables relevantes para ser usadas como nodos del grafo. Finalmente, la tercera contribución principal es la presentación de un análisis comparativo de nueve técnicas de extracción de causalidad y la posterior aplicación de las mejores para un ejemplo de un caso de uso del framework completo. / The existence of statistical relationships or dependencies in the data (correlations) can be studied using well-known statistical tools that have been developed over the last two centuries. However, a question as simple to pose as “Is there a causal link between these two correlated variables?'' entails a whole set of different challenges that escape from the answer that classical statistical tools can provide, since, as is usually taught in statistical courses: “correlation is not causation''. The need by the scientific community to answers to causal questions (such as: “does smoking cause cancer?'' or “is this drug effective in treating this disease?'') generated an effort to create formal tools for detecting and quantifying causal effects. Some examples are the methods based on the Granger Causality (GC) test and the PC causal structure learning algorithm. On the other hand, there is great interest from the natural language processing (NLP) community in discovering causal relationships from texts. However, most efforts are focused on recovering causal information already explicit in the text. For example, in the following sentence about the Argentine crisis of 2001: “It happened in the context of a bigger crisis that lasted between 1998 and 2002, caused by a long recession that triggered a humanitarian crisis'' the goal would be to extract the two causal links that relate the three events described (the recession, an economic crisis, and a humanitarian crisis). In that literature, although the goal is also to detect causal relations, tools closer to the NLP field are used, instead of the usual tools in the literature of causal discovery (such as GC-based techniques or PC). This thesis proposes a framework that aims at performing causal discovery between variables extracted from texts of newspaper articles using tools like GC and PC. In contrast to other approaches, the causal relationships do not need to be explicit in the texts. Using this framework, a causal network is obtained, where each node is a relevant variable and each edge is a causal link. To achieve this goal, the first challenge addressed is to extract and select relevant variables from texts. This is achieved by the use of two NLP approaches: (1) a term weighting technique and (2) a model for detecting ongoing event mentions in news articles. A data set is built using these two types of variables extracted from texts using these two NLP approaches ((1) and (2)). This data set is used in the following stage of causal discovery. Nine causal discovery techniques are analyzed, and a comparative study of the application of these techniques is carried out in sixty-four synthetic data sets and in one real-world electricity demand data set. Finally, a use case is presented where the best causal discovery techniques are applied to the data sets of variables extracted from the texts of newspaper articles, thus giving rise to a complete demonstration of the functionality of the framework (extraction of text variables and causal discovery from them). The results obtained show the great flexibility of the framework, which allows the combination of variables of different types (potentially with different generative processes), enabling the subsequent causal extraction. Furthermore, they provide evidence that non-textual information could be incorporated into the framework (for example, commodity prices, stock prices, and socioeconomic indicators, among others). This framework would allow an expert to start from a domain, which can be defined as a set of newspaper texts about some real-world episode, and automatically obtain a set of variables relevant to that domain (from which the expert could choose to visualize either a subset or the entire set). Subsequently, the expert would be shown a set of causal links extracted automatically, linking the relevant variables of the domain. The resulting causal graph (variables and edges relevant to a domain) can become a tool of great interest for an expert to process and summarize the variables and interdependencies in a domain, allowing a better understanding and making it possible to draw conclusions or find explanations for events that happened or are happening in the domain. The first two contributions of this thesis are focused on the proposal of novel NLP techniques to be applied at the variable extraction stage. First, a new tool for weighing terms and estimating relevance scores of terms assigned by users is proposed. Secondly, an NLP task consisting of the detection of ongoing events (OED) from texts is proposed to use those events as variables in the framework. The results for different instances of the OED task are shown, indicating that the model outperforms state-of-the-art models for similar tasks. These two contributions allow the extraction of relevant variables to be used as nodes of the graph. Finally, the third main contribution is the presentation of a comparative analysis of nine causality extraction techniques and the subsequent application of the best ones on a use case of the complete framework.
415

Business intelligence bajo plataforma IP versión 6 y su influencia en la gestión empresarial

Hayashida Marchinares, Augusto Enrique January 2009 (has links)
-- The advent of Internet, the phone mobile and the globalization have modified the forms of communication in the world and the enterprises in general. All this has brought the search of facilities of communications permanents, mobilities and secures with quality of service to improve the Internet and the new aplications on devices mobile. The studies of the new protocol of internet as Ipv6 are in a proces that consist in finding new focus to improve the quality of service. This thesis consists in analyzing and give recomendations of Ipv6 with Business Intelligence to demonstrate that the use improve the management in the enterprises. Ipv6 is the best solution to improve the throughput in the network. The other side, it proposes a new way of business on internet y the born the new aplications as for example the m-commerce and Business Intelligence since any devices mobile. / Determinar el grado de influencia que el Business Intelligence bajo plataforma IP versión6 ejerce en la Gestión empresarial. Además de realizar un analisis de IPv6 sobre redes inalámbricas y su desempeño con las aplicaciones que permiten el acceso a la información. Comparativos entre los protocolos IPv4 y/o IPv6. En base a estos estudios, se proponen una serie de recomendaciones para el modelado de aplicaciones, mismas que ayudan a obtener un mejor desempeño de ellas sobre las redes alámbricas e inalámbricas. Su enfoque está enmarcado en la importancia de la consecución, análisis y difusión de la información para producir inteligencia que ayude a las empresas en la toma de mejores decisiones, aunado a todo ello el avance tecnológico y la revolución de la redes de hoy y ello se obtiene con el aporte del Ipv6. / Determinar el grado de influencia que el Business Intelligence bajo plataforma IP versión6 ejerce en la Gestión empresarial. Además de realizar un analisis de IPv6 sobre redes inalámbricas y su desempeño con las aplicaciones que permiten el acceso a la información. Comparativos entre los protocolos IPv4 y/o IPv6. En base a estos estudios, se proponen una serie de recomendaciones para el modelado de aplicaciones, mismas que ayudan a obtener un mejor desempeño de ellas sobre las redes alámbricas e inalámbricas. Su enfoque está enmarcado en la importancia de la consecución, análisis y difusión de la información para producir inteligencia que ayude a las empresas en la toma de mejores decisiones, aunado a todo ello el avance tecnológico y la revolución de la redes de hoy y ello se obtiene con el aporte del Ipv6.
416

Categorización de los distritos de Lima Metropolitana, empleando indicadores de las características y servicios de las viviendas del CPV 2007

Chambi Vargas, Martin Wilmer January 2016 (has links)
Publicación a texto completo no autorizada por el autor / Analiza los indicadores construidos en base a la información de las características y servicios básicos de las viviendas, información recolectada en el Censo Nacional de Población y Vivienda realizado en el año 2007 (CPV 2007), con el objetivo de categorizar a los distritos del área geográfica de Lima Metropolitana, según grado de salubridad, empleando técnicas multivariadas como el análisis factorial y análisis clúster. Según el estado en que se encuentran las viviendas, el tipo de material utilizado, los servicios básicos con que cuenta y por el hacinamiento; los distritos son categorizados como “Muy Poco Saludables”, “Poco Saludables”, “Saludables” y “Muy Saludables”. Identificando de este modo a los distritos con mala habitabilidad en sus viviendas, lo cual explica la utilidad de los indicadores elaborados. / Trabajo de suficiencia profesional
417

Modelado lingüístico-prosódico para un sistema conversor texto a voz mediante concatenación de demisílabas

Segura Salas, Elí Rónal 09 May 2011 (has links)
El objeto principal de esta tesis ha sido el estudio del procesamiento lingüístico y prosódico en un sistema conversor de texto a voz, basado en concatenación de unidades para un hablante limeño del castellano. Basado en la información proporcionada por el estudio antes mencionado, se realizó el análisis, diseño e implementación de los módulos del procesamiento lingüísticoprosódico de un sistema conversor texto a voz; así como también, se hicieron los cambios necesarios en los módulos del sintetizador de voz, para aprovechar la información prosódica (duración segmental y contorno de frecuencia fundamental) proveniente de esos módulos. / Tesis
418

Un gestor de contenido empresarial basado en herramienta OnBase para mejorar las toma de decisiones gerenciales en el área Logística – Contable Caso: Compañía Minas Buenaventura

Segovia Espino, Cesar Eduardo January 2013 (has links)
Publicación a texto completo no autorizada por el autor / Diseña prototipos de un ECM para la toma decisiones en el área Logística - Contable y se compararan tres herramientas diferentes; SharePoint, OnBase, Laserfishe; de las cuales se evalúa su arquitectura, funcionalidad, alcance, que ayudará para el diseño de prototipo del presente caso de estudio. La herramienta a utilizar será OnBase para los prototipos que ayuden a la toma decisiones en el área Logística-Contable, la cual se desarrolla usando metodología ágil. Según los resultados obtenidos, luego de su evaluación y comparación con los resultados esperados o estimados se podrá concluir si OnBase como herramienta ECM planteado es válido y confiable para que pueda ser aplicado como solución a este y otros casos similares que se puedan presentar. / Trabajo de suficiencia profesional
419

Desarrollo de una solución tecnológica: formulario virtual de declaración y pago 701 - renta anual para persona natural 2015

Echevarria Cisneros, David Gipson January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Describe el desarrollo del Formulario Virtual de Declaración y Pago 701 - Renta Anual para Persona Natural, como parte del plan estratégico de la SUNAT para cumplir y controlar la recaudación tributaria en el ámbito nacional e incentivar al contribuyente en la declaración y pago de sus impuestos anuales. El problema que se identificó fue que en los años anteriores al 2015 los contribuyentes no contaban con un medio de declaración simple, entendible y que muestre de manera ordenada y precargada el detalle de sus rentas, además que la información que ellos ingresaban años anteriores en el PDT era extensa y compleja, y no se podía verificar ni validar en línea. El desarrollo del formulario fue realizado bajo una metodología interna denominada MDSI Versión 3.0 el cual contiene todas las actividades y tareas que se deben llevar a cabo para desarrollar un sistema (producto software), cubriendo desde la fase de análisis de requerimientos del sistema de información hasta la implantación del sistema de información y su posterior mantenimiento. Actualmente el formulario virtual 701 sigue vigente para las declaraciones de rentas del 2015 y sirvió de base para la construcción del formulario virtual 703. Desde la implantación del formulario virtual 701 ya no se ha necesitado de papel, ni tampoco del PDT de renta anual de persona natural para hacer las declaraciones, todas las presentaciones de este tipo han sido virtualizadas en su totalidad. / Trabajo de suficiencia profesional
420

Business intelligence bajo plataforma IP versión 6 y su influencia en la gestión empresarial

Hayashida Marchinares, Augusto Enrique January 2009 (has links)
The advent of Internet, the phone mobile and the globalization have modified the forms of communication in the world and the enterprises in general. All this has brought the search of facilities of communications permanents, mobilities and secures with quality of service to improve the Internet and the new aplications on devices mobile. The studies of the new protocol of internet as Ipv6 are in a proces that consist in finding new focus to improve the quality of service. This thesis consists in analyzing and give recomendations of Ipv6 with Business Intelligence to demonstrate that the use improve the management in the enterprises. Ipv6 is the best solution to improve the throughput in the network. The other side, it proposes a new way of business on internet y the born the new aplications as for example the m-commerce and Business Intelligence since any devices mobile.

Page generated in 0.6416 seconds