• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1098
  • 103
  • 7
  • 1
  • Tagged with
  • 1210
  • 522
  • 388
  • 388
  • 388
  • 388
  • 388
  • 343
  • 331
  • 318
  • 273
  • 241
  • 169
  • 151
  • 131
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

Expresividad de BPMN 2.0 desde la perspectiva del problema de secuenciamiento

González Navarro, Daniela 12 1900 (has links)
MEMORIA PARA OPTAR AL TÍTULO DE MAGÍSTER EN CONTROL DE GESTIÓN / Business Process Model and Notation (BPMN) se ha convertido en un estándar para describir flujos de tareas. BPMN propone un conjunto de símbolos que representan el comportamiento de los procesos de negocios desde el punto de vista del usuario de un sistema de información y aporta descripción de elementos para la automatización computacional. Por otra parte, el comportamiento de procesos ha sido estudiado por decenas de años en Investigación Operativa bajo el nombre de Problema de Scheduling. A pesar de la estrecha relación, no se encuentra en la literatura ninguna referencia a ambos problemas en conjunto, ni ningún aporte desde el problema de Scheduling a la representación del comportamiento en BPMN. ¿Es posible enriquecer la capacidad descriptiva de BPMN con elementos del comportamiento estudiados en el problema de Scheduling? ¿Es posible que existan elementos del comportamiento de procesos de negocio relevantes que no estén representados en BPMN? ¿Cuáles son esos elementos?. Para responder a estas preguntas, investigamos en detalle el formalismo BPMN y el problema de Scheduling, identificamos diferencias y proponemos un conjunto de símbolos que añaden más descripción al comportamiento de los procesos de negocios desde el punto de vista del usuario. Adicionalmente, se hizo una revisión de dos trabajos previos que proponen mejoras a BPMN, pero que van en una dirección diferente a lo buscado en este trabajo. En este trabajo presentamos detalladamente el último estándar BPMN 2.0 y revisamos un voluminoso resumen del problema de Scheduling (Pinedo, 2016). Durante esta revisión, encontramos varios elementos prácticos relevantes del problema de Scheduling que no están representados en BPMN. Entre estos elementos destacan la velocidad de procesamiento, tiempo de procesamiento, la capacidad de procesamiento, la regla de prioridad y la función objetivo. Estudiando las diferencias, encontramos que hay elementos que describen el problema de Scheduling que deberían incorporarse al estándar BPMN, porque contribuyen a una mejor y más completa caracterización de los procesos. De hecho, con los atributos de velocidad, el tiempo de preparación y de procesamiento, se puede describir gráficamente la presencia de cuellos de botella y restricción de recursos. Adicionalmente, la regla de prioridad permite describir colas de espera impuestas por condiciones propias del negocio. Finalmente, la función objetivo permite comunicar de manera gráfica a los participantes del negocio cuáles son los objetivos que la organización requiere de los procesos. Hay algunos elementos propios de Scheduling que proponemos agregar sólo opcionalmente. Entre estas opciones están las restricciones que consideran la fecha de llegada de la tarea al sistema, los tiempos de espera entre máquinas, y familia de tareas. Con nuestra propuesta se robustece la capacidad descriptiva del estándar BPMN y lo hace apropiado a un mejor análisis consistente con la teoría de Scheduling.
562

Identificación del diagnóstico de patología crítica en los informes radiológicos mediante procesamiento de lenguaje natural : aplicación en Chile

Ortiz Calvo, Guillermo Javier January 2016 (has links)
Grado de magíster en informática médica / Actualmente los informes radiológicos se redactan en texto libre sin un campo específico que los categorice según diagnóstico. Por este motivo, la identificación de los diagnósticos clasificados como patología crítica debe hacerse de forma manual, acarreando consigo problemas como el submuestreo y gran tiempo invertido. Este trabajo propone como solución desarrollar una herramienta utilizando métodos de procesamiento de lenguaje natural para analizar los texto de forma masiva. En esta tesis se plantea como hipótesis que es posible identificar más del 80% de los diagnósticos existentes en SNOMED-CT (una terminología médica) presentes en las impresiones de los informes radiológicos, identificando la patología crítica con más de un 90% de sensibilidad mediante algoritmos de procesamiento de lenguaje natural (NLP). Para clasificar los informes se utilizó SNOMED-CT por su amplio manejo de conceptos médicos y sinónimos. La tarea se realizó con 3 algoritmos: 1) un motor de búsqueda para encontrar los términos de SNOMED-CT contenidos en los informes utilizando indexación reversa, 2) un detector de negación basado en expresiones regulares y 3) se combinó ambas herramientas para identificar patología crítica. Los algoritmos propuestos fueron evaluados en muestra representativa (n=219) de 1973 informes de Angiografía Pulmonar por Tomografía Computada, etiquetada por 2 médicos. Como resultados se obtuvo un valor kappa de acuerdo entre etiquetadores de 85.5%, IC95%[80.8-90.3%], p < 0.001. Por otra parte el motor de búsqueda presentó un rendimiento con medida F (F) de 0.94, sensibilidad (S) de 91.2% y valor predictivo positivo (VPP) de 98%. El detector de negación obtuvo una F de 0.99, S de 98.7% y VPP de 99.3%. Para medir el rendimiento en la detección de patología crítica se utilizó como referencia el diagnóstico de tromboembolismo pulmonar (TEP), obteniendo valores F de 0.94, S de 96.3% y VPP de 92.86% Como conclusión, el presente trabajo de tesis muestra que es posible construir una herramienta para identificar la patología crítica basada en NLP utilizando la regularidad de los patrones de expresión en el texto, lo que permitirá en futuros trabajos crear herramientas de soporte para la toma de decisiones. / Currently radiology reports are written in free text without a specific field to categorize according to diagnosis. Therefore, identification of diagnostics listed as critical result, group characterized by having a high risk of harm to the patient, must be done manually. As a solution is proposed the use of natural language processing tools to analyze big volume of texts. This thesis pose the hypothesis that it is possible to identify more than 80% of existing diagnostics from impressions of radiology reports on SNOMED-CT, a clinical terminology, identifying critical results with more than 90% sensitivity, using natural language processing (NLP) algorithms. To identify reports, SNOMED was used because of its wide management of medical terms and synonyms. Identification was built as a 3 steps algorithm: 1) A search engine was built to find terms of SNOMED contained in reports using reverse indexing, 2) a negation detector based on regular expressions, and 3) both tools were combined to identify critical results. The proposed algorithms were tested against a representative sample (n = 219) of 1973 Computed Tomography Pulmonary Angiography (CTPA) reports, which were tagged by 2 medical doctors. The obtained results were an inter-rater reliability kappa value of 85.5% for taggers, was obtained IC95% [80.8-90.3%]. Moreover, search engine had a performance of measure F (F) of 0.94, sensitivity (S) of 91.2% and positive predictive value (PPV) of 98%. The negation detector had a F of 0.99, S of 98.7% and VPP of 99.3%. The measurement of performance for critical results detection was made using pulmonary embolism as reference, obtaining values; F of 0.94, S of 96.3% and VPP of 92.86% In conclusion, this thesis shows that it is possible to build a tool to identify critical results using NLP by making use of the specific regularity of text expressions in the case of radiology reports, allowing in future researchs to create decision support tools. / 2021
563

Evaluación automática de calidad de impresión 3D

Sandoval Suazo, Paulo José January 2018 (has links)
Ingeniero Civil en Computación / Bajo el contexto del concurso Beauchef Proyecta dentro de la Facultad de Cientas Físicas y Matemáticas de la Universidad de Chile se diseña una Impresora 3D que imprime concreto, este proyecto debe tener una validación respecto a la salida de la impresora, tomando en cuenta que la construcción de la impresora se realizará iterativamente tener un feedback preciso y eficaz ayuda a mejorar la manufactura de este dispositivo. Para comenzar se realizó una evaluación respecto al estado del arte de las técnicas para describir y comparar volúmenes en modelos 3D y se llegó a la conclusión que la voxelización fue la ruta a seguir para la evaluación de la impresora utilizando comparación volumétrica. Luego de haber fijado la voxelización como la manera de comparar volúmenes se procedió a diseñar un algoritmo que preprocese los modelos para normalizar las estructuras a comparar. Se utiliza la librería PCL para la implementación. Se realizó experimentación para determinar si las hipótesis y los criterios determinados para el funcionamiento del algoritmo funcionan correctamente bajo un experimento sintético utilizando modelos de un \textit{benchmark} y se determinó que no cumple con los estándares para la verificación de calidad de una impresora. Luego de esto se realizó un segundo experimento con hipótesis refinadas para considerar la alineación de los modelos utilizando los mismos modelos que el experimento anterior. Se llegó a resultados exitosos bajo el segundo experimento, lo que logró determinar una métrica bajo el algoritmo para la evaluación de modelos 3D y sus respectivas impressiones utilizando alguna impresora y un dispositivo de adquisición de datos 3D. Esta métrica se determinó respecto a las medidas de los objetos a comparar. La impresora 3D de concreto al momento de la redacción de este documento está en construcción.
564

Razonamiento geométrico basado en visión para la determinación y ejecución del agarre en robots manipuladores

Sanz Valero, Pedro José 04 October 1996 (has links)
Se presenta un sistema capaz de coordinar una pinza de dedos plano-paralelos y un sistema de visión con el objetivo de determinar puntos de agarre bajo condiciones de estabilidad.La elección de puntos de agarre se realiza mediante una nueva heurística que trata de manejar todo tipo de objetos planos con centroide exterior o interior, permitiendo agujeros. Sólo se requieren dos características basadas en los momentos, centroide y dirección del eje principal, obtenidos a partir de una representación del código de cadena de Freeman del contorno. Los resultados son parámetros visuales exclusivamente, expresados en coordenadas visuales (píxeles).Dichos algoritmos se han implementado en un robot manipulador con 4 GDL y fijando una cámara CCD en su muñeca. El sistema de control utiliza realimentación visual, consiguiendo incrementar la precisión hasta el límite del sistema de visión utilizado.
565

Simulación de sistemas, caso servicentro de combustible

Llican Calderón, José Augusto January 2003 (has links) (PDF)
El presente trabajo monográfico plantea el problema del Servícentro de Combustible “200 Millas” abastecedor de combustible y otros servicios quien presenta deficiencias en el servicio de combustible de Petróleo. El actual modelo consta de 02 surtidores de Gasolina y 02 surtidores de Petróleo, debido a la buena demanda de Petróleo se genera colas de vehículos petroleros , originándose un caos y perdida de clientela. Visto esta deficiencia se plantea implementar un sistema de simulación computacional, que nos permita analizar el desempeño y las deficiencias del entorno real , como por ejemplo : Tasas de llegadas, Demoras de atención y Tiempos de Espera. Luego de identificar los procesos que generan los Cuellos de Botella, se busca un nuevo modelo que rescate el comportamiento actual pero a la vez elimine estos Cuellos de Botella. Estos modelos ( tanto el real como el futuro ) se van a simular en el software PROMODEL. La simulación de eventos Discretos, se analiza por métodos numéricos antes que por métodos analíticos. Los modelos numéricos no resuelven el problema, sino corren el modelo, es decir, se genera información basada en observaciones de “ Datos Históricos ”, para usarla en el modelo y analizar el comportamiento que sirve para establecer conclusiones. Al implementar el modelo, se recopila la información y se simula con el software PROMODEL, obteniendo los reportes para los 04 surtidores ( Petróleo y Gasolina ); los que servirán para hacer una comparación de cuadros estadísticos, y así analizar los resultados y llegar a la conclusión de cuantos surtidores de Petróleo y de Gasolina deben estar operativos para atender las correspondientes demandas en el Servicentro de Combustible “ 200 Millas ”. Palabras claves: locaciones, entidades, calibrador, luz de status. region, bandas, interfaces, get, move with
566

Administración de conflictos entre nombres de dominio y signos distintivos

Chavéz Picasso, Jorge January 2004 (has links)
No description available.
567

Integración de ingeniería de usabilidad en el análisis y diseño de un sistema de gestión comercial

Alanoca Chambilla, Carolina January 2010 (has links)
La tesis busca describir el cómo mejorar la usabilidad de un aplicativo de software desde las fases tempranas de su desarrollo, para ello se propone la integración de las actividades y enfoques de un modelo de proceso orientado a la Usabilidad y Diseño Centrado en el Usuario al proceso de desarrollo de software habitual, la misma que se aplicará en las actividades de análisis y diseño de un sistema de gestión comercial orientado a las PyMES. Con ello además se busca proporcionar un ejemplo referencial y de documentación, de manera que logre el entendimiento de los implicados del proyecto, facilite la gestión de cambios y mejore el proceso de desarrollo en general. Palabras clave: Usabilidad, PyMEs, Proceso de desarrollo de Software / The thesis seeks to describe how to improve the usability of a software application from the early stages of their development, for it proposes the integration of activities and approaches of a model process to Usability and User Centered Design, the process of custom software development, the same applies in the activities of analysis and design of a Business Management System aimed at Small and Medium Enterprises (SMEs). It seeks to provide a benchmark example and documentation, so that to achieve an understanding of the project involved, facilitate change management and improve the development process in general. Keywords: Usability, SMEs, Software Development Process
568

Detección de fraudes usando técnicas de clustering

Rantes García, Mónica Tahiz, Cruz Quispe, Lizbeth María January 2010 (has links)
El fraude con tarjetas de crédito es uno de los problemas más importantes a los que se enfrentan actualmente las entidades financieras. Si bien la tecnología ha permitido aumentar la seguridad en las tarjetas de crédito con el uso de claves PIN, la introducción de chips en las tarjetas, el uso de claves adicionales como tokens y mejoras en la reglamentación de su uso, también es una necesidad para las entidades bancarias, actuar de manera preventiva frente a este crimen. Para actuar de manera preventiva es necesario monitorear en tiempo real las operaciones que se realizan y tener la capacidad de reaccionar oportunamente frente a alguna operación dudosa que se realice. La técnica de Clustering frente a esta problemática es un método muy utilizado puesto que permite la agrupación de datos lo que permitiría clasificarlos por su similitud de acuerdo a alguna métrica, esta medida de similaridad está basada en los atributos que describen a los objetos. Además esta técnica es muy sensible a la herramienta Outlier que se caracteriza por el impacto que causa sobre el estadístico cuando va a analizar los datos. / The credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data.
569

Utilización del análisis envolvente de datos en la seguridad ciudadana

Pérez Rodríguez, Karla Milagros January 2009 (has links)
El análisis envolvente de datos (Data Envelopment Analysis), desarrollado por A. Charnes, W Cooper y E. Rhodes, es un método no paramétrico, basado en programación lineal y benchmarking, para medir la productividad y la eficiencia relativa de unidades de organización. El objetivo fundamental de DEA es hallar una frontera de eficiencia, formada por aquellas combinaciones de recursos que optimizan la cantidad de productos fabricados minimizando los costos de producción, y a partir de esta frontera, evaluar la eficiencia relativa de las combinaciones de recursos que no pertenezcan a la misma. En este trabajo se mostrará la eficiencia de la Seguridad Ciudadana de los distintos distritos de Lima Metropolitana utilizando DEA donde se utilizo el programa Frontier Analyst para el análisis correspondiente. / Data Envelopment Analysis (DEA) developed for Charnes, W Cooper and Rhodes, is a method not paramétrico, based on linear programming, to measure the productivity and the relative efficiency of units of organization. DEA's fundamental goal is to find a border of efficiency, formed by those combinations of resources that optimize the quantity of made products minimizing the costs of production, and from this border, to evaluate the relative efficiency of the combinations of resources that do not belong(concern) to the same one. In this work there will appear the efficiency of the Civil Security of the different districts of Metropolitan Lima using DEA where I use the program Frontier Analyst for the corresponding analysis.
570

Supervisión y monitoreo de procesos utilizando mensajes de texto desde teléfonos celulares

Pérez Urteaga, Luis Humberto January 2006 (has links)
El presente trabajo de tesis, del área de Sistemas Digitales, tiene como meta principal convertir al teléfono celular en un periférico de la computadora, con esta sociedad, vista como una unidad, la computadora adquiere la capacidad de procesar datos que son enviados a grandes distancias vía mensajes de textos desde teléfonos celulares, potenciando las aplicaciones de ambos dispositivos. Para lograr la fusión entre el celular y la computadora ha sido necesario analizar, implementar y validar el funcionamiento del protocolo de comunicación que se debe establecer entre el teléfono celular y la computadora. La diversidad de aplicaciones que pueden ser desarrolladas es amplia, pudiendo ser empleada en áreas de telecontrol, telemedicina, domótica, entre otras, así pues, para demostrar la utilidad de la implementación del protocolo, se ha validado su funcionamiento mediante dos aplicaciones prototipo, la primera de ellas denominada Matrícula, la cual permite realizar la matrícula de alumnos a través de mensajes de texto y la segunda denominada Monitor – Supervisor, para aplicaciones de telecontrol y envió de alertas vía mensajes de textos, las cuales han sido probadas obteniéndose los resultados esperados. En el segundo prototipo ha sido necesario diseñar una tarjeta que comunica el puerto paralelo de la computadora con los sensores y actuadores de los procesos seleccionados. Como consecuencia, al describir todos los detalles para el análisis e implementación del protocolo y sus aplicaciones, se provee a otros investigadores interesados la mayor cantidad de información sobre este tema, la cual es escasa en nuestro medio.

Page generated in 0.0725 seconds