• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1457
  • 92
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1601
  • 520
  • 488
  • 377
  • 367
  • 367
  • 367
  • 367
  • 333
  • 311
  • 297
  • 231
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Modelado de una arquitectura SOA-BPM para la mejora del proceso de gestión de distribución en empresas periodísticas : caso "Mi Perú"

Yugar Ladines, Claudia Cecilia, Julca Mendoza, Freddy Edwin January 2007 (has links)
El presente trabajo tiene como objetivo conocer los beneficios de implementar una solución de Gestión de Procesos del Negocio, para definir y mejorar los procesos críticos de las empresas periodísticas, llegando a la creación de nuevos servicios. De esta manera, las empresas periodísticas, que se desempeñan en un ambiente altamente competitivo, podrán aumentar y mejorar su posición competitiva. Debido a que toda empresa competitiva debe alinear su negocio con las Tecnologías de Información, el trabajo se enfocó en la Gestión de Procesos del Negocio y la Arquitectura Orientada a Servicios, abarcando hasta la fase de Modelado, la cual permitió formalizar el proceso de la empresa periodística y rescatar los problemas que significaban un obstáculo para el progreso de la misma, llegando a una solución tecnológica de Creación de Servicios. Es importante entonces ser conscientes del valor de mejorar el o los procesos de una empresa, ya que le brindará una ventaja competitiva frente a las demás empresas de su calibre. Como caso práctico, este trabajo presenta la aplicación de esta solución hasta la fase de Modelado en la empresa periodística “Mi Perú”, como contribución a la mejora del proceso de Gestión de Distribución. / -- The present work has for objective knows the benefits to implement the Business Process Management solution to define and improve the critical journalistic business processes, arriving at the creation of new services. In this way, journalistic companies, which perform in a highly competitive environment, will be able to increase and improve their competitive position. Because all competitive company must align its business with TI, the work focused in the Business Processes Management and Services Oriented Architecture, including until Modeling phase, which allowed formalizing the journalistic company process and rescue problems that meant an obstacle for the company progress, reaching a technological solution of Creation of Services. It's important being conscious of the value to improve business processes, because it will offer a competitive advantage in front of competitive companies. As a practical case, this work displays the application of this solution until the Modeling phase in “Mi Perú” journalistic company, as a contribution to Distribution Management process improvement. / Tesis
152

Aplicación de la técnica DEA (Data Envelopment Analysis) en la medición de la eficiencia en MYPES de servicio de consultoría

Hurtado Carrera, Katherine Lizet, Palomino Zegarra, Stefany Viviana 05 August 2019 (has links)
El presente proyecto de investigación analiza el estudio sobre la medición de la eficiencia en MYPES de servicio de consultoría, con la aplicación del Análisis Envolvente de Datos (Data Envelopment Analysis) a un caso real, se muestra como la técnica permite identificar las unidades como eficientes e ineficientes, y determinar cuáles son las variables (entradas y salidas) que están afectando la eficiencia, y en base al resultado fijar metas u objetivos para las unidades ineficientes. Se espera que los resultados sean útiles para brindar una base a futuros investigadores sobre la forma de realizar la medición de la eficiencia, y la aplicación de la técnica acorde a sus necesidades y requerimientos específicos. Se concluye que la aplicación regular de la técnica DEA permitiría realizar un seguimiento del impacto de las acciones de mejora en las unidades encontradas como ineficientes, de modo que las empresas alcancen una mayor eficiencia en sus procesos o servicios. / This research project analyzes the study on the measurement of efficiency in MYPES of consulting service, with the application of Data Envelope Analysis (DEA) to a real case, it shows how the technique allows to identify the units as efficient and inefficient, and determine what variables (inputs and outputs) are affecting the efficiency, and based on the result, fix goals or objectives for inefficient units. The results are expected to be useful to provide a basis for future research on how to assess the efficiency measurement, and the application of the technique according to their specific needs and requirements. As a conclusion, the regular application of the DEA technique would allow monitoring the impact of improvement actions on the units found as inefficient, so that companies achieve greater efficiency in their processes or services. / Tesis
153

Análisis de variaciones areales de los glaciares ubicados en las cuencas de Vodudahúe y Cahuelmó durante el período 1985-2017

Díaz Bravo, Cristóbal January 2018 (has links)
Memoria para optar al título de Geógrafo / El derretimiento de glaciares y cuerpos de hielo alrededor del mundo y en Chile constituye una problemática global al generar un aumento en el nivel del mar y un descenso en la cantidad de reservas de agua dulce. A partir del procesamiento multi-espectral de imágenes satelitales, se analizaron los patrones de cambio espacial de los glaciares en el Fiordo Comau, Región de Los Lagos, Chile (zona glaciológica sur B) y, obteniendo bases de datos climáticas de la zona, se relacionaron estos con tendencias de temperatura y precipitación. Para lograr el propósito de la investigación, se pre-procesaron y corrigieron imágenes satelitales Landsat para posteriormente, utilizando distintas composiciones de bandas espectrales identificar cuerpos glaciares. Luego se emplearon estas imágenes para determinar la pérdida superficial y tasas de variación anuales de 17 glaciares durante el período 1985-2017. Con el objetivo de relacionar las variaciones superficiales observadas con información climatológica de temperatura y precipitación para el período señalado, se realizó un relleno de datos de la estación meteorológica Huinay mediante una regresión lineal simple a partir de estaciones meteorológicas cercanas que poseen bases de datos más completas. Los resultados demuestran retrocesos en todos los glaciares analizados, siendo ejemplos importantes el glaciar Vodudahüe N°3 que vio reducida su superficie areal en un 83,56% o el glaciar Vodudahüe N°15 que perdió el 77,27% de su superficie inicial. Las tasas de variación anuales, por su parte, mostraron una tendencia generalizada a aumentar su valor durante el período de estudio, siendo la mayor tasa la experimentada por el glaciar Vodudahüe N°8 (-0,014 km2 por año). De las temperaturas promedio anuales registradas en el período 1985-2017, se observó un aumento de 10,32°C a 10,46°C y, por su parte, las precipitaciones totales anuales registraron una disminución de 5548mm anuales a 5295mm anuales. En su conjunto, esto indica que las tendencias climatológicas mencionadas contribuyen a explicar la aceleración del retroceso de los glaciares analizados, las cuales coinciden con las expuestas por otras investigaciones sobre glaciares en Chile.
154

Detección de fuga de operarios en una empresa del sector minero utilizando minería de datos

Jara Díaz, Roberto Ignacio January 2015 (has links)
Autor no autoriza el acceso a texto completo de su documento hasta el 13/10/2020. / Ingeniero Civil Industrial / El sector minero en Chile actualmente vive un periodo complejo que se debe en gran parte a la tendencia a la baja del precio del cobre y el aumento de los costos de explotación, por lo que se hace necesario innovar en los procesos para mantenerse competitivo en la industria. Uno de los desafíos principales se encuentra en la gestión de Recursos Humanos. En particular, Chile presentará un creciente déficit de operarios especialistas en el rubro durante la próxima década, por lo que se hace relevante conocer bien su comportamiento para evitar los desajustes en la planificación de explotación de un yacimiento. Este estudio afronta el problema desde la minería de datos, aplicados a una faena de la mediana minería chilena. Siguiendo la metodología KDD se analizaron datos históricos de los operarios de la empresa correspondientes a datos demográficos, capacitaciones y licencias, además de fuentes gratuitas de datos externos como el valor del cobre, para poder conocer de mejor manera cómo ha sido el comportamiento de renuncia de los operarios durante los años de funcionamiento de esta faena minera. Para el desarrollo del proyecto, se utilizaron tanto modelos paramétricos como no paramétricos sobre una variable objetivo de tres clases: Permanencia en la empresa, Renuncia Voluntaria y Despido. Si bien, el objetivo del proyecto no es predecir los despidos dentro de la compañía, se hace necesario distinguir este comportamiento del resto para tener una mejor comprensión del problema global: La rotación del personal. El modelo seleccionado para este caso fue Incremento de Gradiente (Gradient Boosting), el cual basa su funcionamiento en modelos débiles para construir secuencialmente un modelo que minimice una función de pérdida. Con esto, se obtuvo una precisión general del modelo de un 86% sobre datos de prueba. Las principales conclusiones de este estudio apuntan hacia la actual gestión de capacitaciones de los empleados de la faena. Se observa que aquellas personas que presentan mejor índice de aprobación y asistencia a las capacitaciones financiadas por la empresa poseen una probabilidad mayor a renunciar a su cargo. Según estudios de psicología laboral, casos como estos se pueden encontrar en empresas que son vistas como semilleros de empleados donde los empleados saben que pueden encontrar un buen ambiente de aprendizaje y perfeccionamiento, pero que al mismo tiempo, no permiten mucha movilidad dentro de la organización. En consecuencia, estas personas que poseen ahora una mejor empleabilidad debido a los conocimientos y experiencia adquirida, comenzarán a buscar un nuevo empleo donde se les ofrezcan estas oportunidades de crecimiento.
155

Desarrollo de un lenguaje para la visualización de estructuras de datos

Urzúa Urzúa, Jonathan Alexis January 2018 (has links)
Ingeniero Civil en Computación / Las estructuras de datos son la piedra angular en el desarrollo de cualquier algoritmo o programa. El código fuente de un programa suele describir, en esencia, una serie de operaciones y transformaciones sobre distintas estructuras de datos. El código no sólo debe expresar correctamente estas operaciones para que la máquina pueda ejecutarlas, sino que debe ser legible y entendible por aquellos que trabajan con él, tanto añadiendo nuevas funcionalidades como corrigiendo errores. La motivación principal de esta memoria es mejorar el proceso de documentación de código fuente al incorporar descripciones de las estructuras de datos en juego. Estas descripciones se pueden utilizar posteriormente para la generación de visualizaciones que ayuden a entender de mejor forma el código. Esta memoria describe el desarrollo de un lenguaje para la visualización de estructuras de datos. Se exploran aspectos teóricos y técnicos detrás de la construcción tanto del intérprete del lenguaje como del motor encargado de generar las visualizaciones. Complementario al intéprete y motor del lenguaje, se desarrolló una aplicación web que permite utilizar el lenguaje para generar visualizaciones de forma interactiva, así como explorar las distintas estructuras soportadas por el lenguaje. Se concluye publicando la herramienta en Internet y realizando una evaluación con múltiples usuarios, en la que se validó exitosamente la utilidad y facilidad de uso del lenguaje.
156

Modelización y Asignación de Tareas para Aplicaciones Paralelas con Flujo Continuo de Datos de Entrada

Guirado Fernández, Fernando 20 July 2007 (has links)
Las aplicaciones paralelas que procesan flujos continuos de datos de entrada, denominadas como aplicaciones pipeline, son de gran interés para la comunidad científica. Los principales criterios de rendimiento en el proceso de su optimización son dos: (a) minimizar la latencia, de forma que se obtenga el resultado para un dato de entrada en el menor tiempo posible y (b) conseguir un ratio de datos procesados por unidad de tiempo predeterminado, valor denominado como productividad.La necesidad de procesar una flujo continuo de datos, añade un factor de iteratividad en la ejecución de las tareas, lo cual supone un incremento en la complejidad de su optimización respecto a las aplicaciones que solo procesan un dato de entrada.El objetivo de este trabajo de tesis contribuye en aportar una solución en la optimización de las aplicaciones pipeline. El proceso de optimización está basado en la obtención de una productividad específica en la ejecución de la aplicación. Para realizarllo, se aborda el problema mediante dos estrategias: (a) cuando la aplicacione no tienen la capacidad de alcanzar la productividad requerida, se crea una nueva estructura para el grafo de tareas que lo permita y, (b) en la situación de que le requerimiento de productividad sí sea alcanzable, se definen estrategias de mapping que asignan las tareas a los procesadores asegurando la capacidad de obtener el rendimiento marcado como objetivo. La arquitectura de ejecución escogida en esta tesis está basada en la arquitectura de memoria distribuida, por ser ésta la más utilizada en la actualidad en el cómputo de altas prestaciones.Con respecto a la definición del grafo de tareas, esta tesis desarrolla dos técnicas basadas en la paralelización/replicación de taeras y que minimizan la sobrecarga de las comunicaciones. Ambas técnicas localizan las tareas que actúan como cuello de botella en la obtención del requisito de productividad. Con el conocimiento de su funcionalidad y del tipo de flujo de datos a tratar aplican: (a) paralelismo de datos para disminuir el tiempo de cómputo individual de cada uno de los datos de entrada o (b) replicación de tareas para aumentar la capacidad de procesar, de forma concurrente, más datos del flujo de entrada. En el proceso de mapping, en el que las tareas de la aplicación serán asignadas a los nodos de procesamiento de la arquitectura de ejecución, esta tesis propone dos heurísticas de mapping basadas en el concepto de etapa síncrona y con diferente complejidad. Estas heurísticas reciben el nombre de MPASS (Mapping of Pipeline Applications based on Synchronous Stages) y MPART (Mapping of Pipeline Applications based on Reduced Tree). Ambas heurísticas, poseen los mismos objetivos para la asignación: (a) obtener una productividad prefijada, minimizando el número de nodos de procesamiento o (b) minimizar la latencia, bajo un requisito de productividad a alcanzar y, de nuevo, minimizando el número de nodos de procesamiento.La experimentación se ha realizado utilizando un conjunto de aplicaciones sintéticas que modelan el comportamiento de las aplicaciones pipeline y tres aplicaciones reales de diferentes ámbitos científicos: el compresor de vídeo MPEG2, IVUS (IntraVascular UltraSound), encargada de procesar imágenes medicas para definir la estructura arterial y BASIZ (Bright And Satured Images Zones), que detecta en una secuencia de imágenes, aquellas regiones que captan la atención del ojo humano. Los resultados obtenidos demuestran como las técnicas propuestas son capaces de alcanzar el redimiento marcado como objetivo, proponiendo la estructura más adecuada para el grafo de tareas y mediante el mapping apropiado para las aplicaicones pipeline. / Parallel applications that process an input data stream, called pipeline applications, are currently focussing the interest of scientific comunity. The main issues to deal with in the optimization process of these applications are the following two: (a) to minimize latency, allowing the execution of one data of the input stream in the smallest possible time and, (b) to achieve a specific ratio of data processed per time unit, named as throughput.The necessity of processing an input data stream, adds a characteristic of iterativity in the execution of tasks that increases the complexity of the optimization of these applications compared with this for parallel applications that only process a single input data.The aim of this thesis is to contribute with a solution in the optimization of the pipeline applications. The optimization process is based on the obtention of a specific throguhput for the application during the execution. To do this, we confront the problem with two kind of strategies: (a) when the pipeline application is not able to achieve the throughput requirement, we develop the definition of a new task graph structure that allows it and, (b) in the situation where the required throuhgput is achievable, we define task mapping strategies that assign tasks to processors ensuring the capacity of obtaining the performance objective. The execution architecture selected in this thesis is based on the distributed memory arquitecture, as can be the clusters of workstations, which in the present time are broadly used on high performance computing.Related to the task graph definition issue, this thesis propose two new techniques based on task parallelization/replication and reduce the communications overhead. Both techniques find the bottleneck tasks that don't allow to reach the throughput requirement. With the knowledge of their functionality and the kind of input data stream they apply: (a) data parallelism to minimize the individual computation time of a single input data or, (b) task replication in order to increase the ability of the pipeline application to process concurrently a higher number of input data.In the mapping process, where the tasks of the applications are assigned to the processors on the execution architecture, this thesis proposes two new mapping heuristics based in the synchronous stage concept, with different complexity. These heuristics are named as MPASS (Mapping of Pipeline Applications based on Synchronous Stages) and MPART (Mapping of Pipeline Applications based on Reduced Tree). Both mapping heuristics have the same objectives: (a) to obtain the throughput used as the requirement by minimizing the number of processors and, (b) to minimize the latency, under a throughput requirement to be achieved by minimizing the number of processors to be used too.The experimentation process is carried out using a set of synthetic applications that model the behaviour of the pipeline applications, and with three real applications of different scientific fields: the video mpeg-2 compressor, IVUS (IntraVascular-UltraSound) that process medical images in order to determine the arterial structure and BASIZ (Bright and Satured Images Zones) that detects on a image sequence, the zones that capture the main interest of the human eye. The results show that the proposed techniques are able to reach the target performance, proposing the best suitable task graph structure and the appropriate task mapping for these pipeline applications.
157

Comportamiento de estudiantes y profesores de enfermería en la búsqueda de información en internet de la Universidad Católica Santo Toribio de Mogrovejo, Chiclayo Perú 2010

Nuñez Obando, Marilyn del Rocio January 2012 (has links)
El presente estudio, tuvo como objetivo: determinar el comportamiento de los estudiantes y profesores de enfermería en la búsqueda de información en internet. Para ello se estudió las diferentes bases de datos de enfermería disponibles: Lilacs, Hinari, Medline, estuvo conformado por la población de 101 profesores y 750 estudiantes de la escuela de enfermería y para la selección de la muestra se utilizó el muestreo aleatorio simple, obteniendo como resultado a 71 profesores y 185 estudiantes. Se validó la encuesta a través de un estudio piloto. Los resultados fueron que el 46% de los estudiantes utiliza motores de búsqueda generales para localizar información científica, mientras que sólo 23% usa las bases de datos especializadas en salud: Scielo, Medline, Lilacs, otras. Mientras que los resultados de los profesores indican que el 49% si está utilizando los motores de búsqueda en la localización de información científica.
158

Modelado de una arquitectura SOA-BPM para la mejora del proceso de gestión de distribución en empresas periodísticas : caso "Mi Perú"

Julca Mendoza, Freddy Edwin, Yugar Ladines, Claudia Cecilia January 2007 (has links)
El presente trabajo tiene como objetivo conocer los beneficios de implementar una solución de Gestión de Procesos del Negocio, para definir y mejorar los procesos críticos de las empresas periodísticas, llegando a la creación de nuevos servicios. De esta manera, las empresas periodísticas, que se desempeñan en un ambiente altamente competitivo, podrán aumentar y mejorar su posición competitiva. Debido a que toda empresa competitiva debe alinear su negocio con las Tecnologías de Información, el trabajo se enfocó en la Gestión de Procesos del Negocio y la Arquitectura Orientada a Servicios, abarcando hasta la fase de Modelado, la cual permitió formalizar el proceso de la empresa periodística y rescatar los problemas que significaban un obstáculo para el progreso de la misma, llegando a una solución tecnológica de Creación de Servicios. Es importante entonces ser conscientes del valor de mejorar el o los procesos de una empresa, ya que le brindará una ventaja competitiva frente a las demás empresas de su calibre. Como caso práctico, este trabajo presenta la aplicación de esta solución hasta la fase de Modelado en la empresa periodística “Mi Perú”, como contribución a la mejora del proceso de Gestión de Distribución. / The present work has for objective knows the benefits to implement the Business Process Management solution to define and improve the critical journalistic business processes, arriving at the creation of new services. In this way, journalistic companies, which perform in a highly competitive environment, will be able to increase and improve their competitive position. Because all competitive company must align its business with TI, the work focused in the Business Processes Management and Services Oriented Architecture, including until Modeling phase, which allowed formalizing the journalistic company process and rescue problems that meant an obstacle for the company progress, reaching a technological solution of Creation of Services. It's important being conscious of the value to improve business processes, because it will offer a competitive advantage in front of competitive companies. As a practical case, this work displays the application of this solution until the Modeling phase in “Mi Perú” journalistic company, as a contribution to Distribution Management process improvement.
159

Implementación de una herramienta de inteligencia de negocios para la administración de justicia sobre una metodología ad-hoc

Eguila Canales, Arturo, Parco Iquiapaza, Alex Alsey January 2007 (has links)
En el presente trabajo se desarrolla el Análisis y Diseño para el desarrollo e implementación futura de una herramienta de Inteligencia de Negocios para la toma de decisiones en el Área de Defensoría de Oficio del Ministerio de Justicia, el propósito de la implementación de dicha herramienta es tener un mejor control y gestión de la información de el sistema de defensores de oficio de forma que, ayude a mejorar la calidad del servicio que presta dicha entidad, por la toma de decisiones eficientes conseguidas a partir de la información que este sistema proporcione a los directivos de dicha entidad. Este trabajo muestra la metodología utilizada para el desarrollo del Datamart, el cual plantearemos cómo desarrollarlo y mostraremos mediante prototipos su funcionamiento. / The present work develops the Analysis and Design for the development and future implementation of a tool of Business Intelligence for the taking of decisions in the Area of Defensoría de Oficio of the Justice Ministry, the intention of the implementation of this tool is to have a better control and management of the information of the office defenders system so, it will help to improve the quality of the service that gives this organization, by the efficient decision taking from the information that this system provides to the managers of this organization. This work shows the methodology used for the development of the Datamart, which we will show as to develop it and we will show by means of prototypes its operation.
160

Ambiente de simulación de bases de datos distribuidas

Di Paolo Leiva, Mónica E. January 1999 (has links)
No description available.

Page generated in 0.0572 seconds