• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 70
  • 22
  • 2
  • 1
  • 1
  • Tagged with
  • 96
  • 24
  • 23
  • 16
  • 15
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Aplicación de los modelos de Feltham-Ohlson para la predicción de beneficios y la valoración de acciones

Íñiguez Sánchez, Raúl 19 May 2003 (has links)
Esta tesis contrasta empíricamente los modelos Feltham-Ohlson, diferenciando entre empresas que presentan resultados anormales positivos y negativos. Para ello, se utilizan diferentes parámetros de persistencia del resultado anormal y de conservadurismo contable para las empresas con resultados anormales positivos y negativos. Esta nueva dinámica lineal de la información implica la utilización de diferentes modelos de predicción de resultados y funciones de valoración para las empresas con beneficios anormales y pérdidas anormales. El análisis empírico va de 1992 a 1999, y utiliza una muestra de empresas españolas cotizadas en la Bolsa de Madrid. Los resultados apoyan el enfoque contextual propuesto, pues mejoran las predicciones de resultados anormales y mejora la explicación de los precios observados en el mercado. En particular, los modelos basados en Ohlson (1995) aparecen como los mejores en la predicción del resultado anormal y de los precios de mercado; mejorando los resultados cuando se emplea el análisis contextual, lo que implica valorar las empresas con resultados anormales negativos mediante modelos transitorios, y las empresas con resultados anormales positivos con modelos permanentes. En cuanto al modelo de Feltham y Ohlson (1995), aunque proporciona los menores errores de predicción de los resultados anormales de las empresas con beneficios anormales, proporciona los peores resultados a la hora de predecir los precios. / This thesis provides an empirical assessment of the Feltham-Ohlson models differencing between firms with positive and negative abnormal earnings. We use different abnormal earnings persistence parameters and different conservatism parameters for firms with positive and negative abnormal earnings. This new contextual linear information dynamic implies different earnings prediction models and different valuation functions for profit making firms and loss making firms. The empirical analysis is referred to the period 1992-99, and uses a sample of Spanish firms quoted on the Madrid S.E. Our results support that the contextual approach followed in the thesis is useful to predict future abnormal earnings and explain current prices. In particular, the Ohlson (1995) model is a good model to forecast future abnormal earnings and stock prices, and the results improve with contextual approach: this implies to value firms with negative abnormal earnings using a temporary model and firms with positive abnormal earnings using a more permanent one. As for the Feltham and Ohlson (1995) model, although it generates the lowest forecast errors in the prediction of positive abnormal earnings, it produces the worst results in forecasting prices.
22

Desarrollo de un software de monitoreo y predicción en tiempo real de incidencias ambientales para data center de telecomunicaciones

Gallegos Sánchez, Carlos Alberto, Huachin Herrera, Carlos Edson 26 February 2018 (has links)
Durante las últimas dos décadas aparecieron equipos con avances tecnológicos que han mejorado los servicios de telecomunicaciones. Estos trabajan las 24 horas del día dentro de un Data Center. La caída de un equipo representaría la caída de un servicio con pérdidas económicas. Una de las principales causas de los incidentes es por variables ambientales (temperatura, humedad o punto de rocío). El proyecto trata sobre una aplicación de predicción de fallos en tiempo real. Este es capaz de predecir fallos y proporcionar un tiempo de reacción ante un incidente. El software implementado tiene dos modos: online y simulación. El modo online es una aplicación para extraer la información de los sensores de ambientales. Este fue implementado en Bitel Telecom donde empresa manifestó su aprobación con una carta de recomendación. Por otro lado, el modo simulación funciona utilizando un servidor web, para subir los resultados en internet y poder monitorearla desde un móvil o PC. El modo simulación tiene dos modos: aleatorio y manual. En estos modos se puede modificar parámetros del algoritmo según exigencias de la empresa. Luego de varias pruebas, se llegó a la conclusión de que la predicción de fallos ayudara a evitar incidentes y generar ahorros económicos. / During last two decades, equipments with technological advancements that have improved telecommunication services appeared. These work 24 hours a day inside a Data Center. Fall of an equipment would represent fall of a service, with economic losses. One of the main causes of incidents is because of environmental variables (temperature, humidity or dew point). The project is about a real time failure prediction application. This is capable of predict failures and give a reaction time upon an incident. The implemented software has two modes: online and simulation. Online mode is an application for extracting information of environmental sensors. This was implemented at Bitel Telecom, which manifested her approval with a recommendation letter. Simulation mode has two modes: random and manual. In these modes you can modify algorithm parameters according to enterprise requirements. After many tests, it came to the conclusion that failure prediction will help to avoid incidents and generate economic savings. / Tesis
23

Redes neuronales artificiales aplicadas al análisis de datos

Montaño Moreno, Juan José 13 September 2002 (has links)
Este trabajo describe tres líneas de investigación desarrolladas en los últimos cinco años en torno a la aplicación de las Redes Neuronales Artificiales (RNA) en el ámbito del análisis de datos. Los campos de aplicación tratados son: el análisis de datos aplicado a conductas adictivas, el análisis de supervivencia, y el estudio del efecto de las variables de entrada en una red neuronal. Los resultados obtenidos ponen de manifiesto, en primer lugar, que las RNA son capaces de predecir el consumo de éxtasis con un margen de error pequeño a partir de las respuestas dadas a un cuestionario. Desde una perspectiva explicativa, el análisis de sensibilidad aplicado al modelo de red ha identificado los factores asociados al consumo de esta sustancia. En segundo lugar, los modelos de redes jerárquicas y secuenciales permiten el manejo de datos de supervivencia superando en algunos aspectos el rendimiento del modelo que tradicionalmente ha sido utilizado hasta el momento, el modelo de regresión de Cox. Por último, el análisis de sensibilidad numérico propuesto por nosotros es el procedimiento que permite evaluar con mayor exactitud la importancia o efecto de las variables de entrada de una red Perceptrón Multicapa. Por su parte, el programa informático Sensitivity Neural Network 1.0, desarrollado por nuestro equipo, permite simular el comportamiento de una red Perceptrón Multicapa e incorpora un conjunto de procedimientos numéricos y gráficos que han demostrado ser de utilidad en el análisis del efecto de las variables de entrada de una RNA. / This work describes three lines of research developed in the last five years around the application of Artificial Neural Networks (ANN) in the field of the data analysis. The aplication fields are: the data analysis applied to addictive behaviors, the survival analysis, and the study of the effect of the input variables in a neural network. The results show, in the first place, that the ANN is able to predict the ecstasy consumption with a good accuracy through the answers given to a questionnaire. From an explanatory perspective, the sensitivity analysis applied to the network model has identified the factors associated to the consumption of this substance. In second place, the hierarchical and sequential network models allow to manage the survival data overcoming in some aspects the performance of the model that traditionally has been used until the moment, Cox regression model. Lastly, the numeric sensitivity analysis proposed by us is the procedure that allows to evaluate with more accuracy the importance or effect of the input variables in a Multilayer Perceptron network. On the other hand, the computer program Sensitivity Neural Network 1.0, developed by our team, allows to simulate the behavior of a Multilayer Perceptron and it incorporates a series of numeric and graphics procedures that have demonstrated being of utility in the analysis of the effect of the input variables in ANN.
24

Un Nuevo enfoque de los precursores sísmicos: monitorización de la interacción frágil-dúctil de la litosfera y su relación con grandes terremotos

Tarela Alonso, Ester 22 June 2012 (has links)
The main goal of this thesis is to test the brittle-ductile (BD) interaction hypothesis of the lithosphere. The model uses the correlation of two parameters, the seismicity characterizing the brittle part and the attenuation representing the ductile part. It assumes the coupling of both parts and therefore the correlation between the time series of the parameters during the normal part of the stress loading cycle. A few years before the occurrence of a major earthquake, the brittle part of the system suffers a stress overload, so it cannot maintain the normal loading processes through the brittle-ductile transition zone, provoking the decoupling of the parts and breaking the previous correlation between the analyzed time series. First, a worldwide analysis of seismicity is developed, focusing after in three regions, Colombia, Taiwan and the Iberian Peninsula. The seismicity data for the global analysis are obtained from the Centennial Catalog, while local catalogs are used for the regional study. Then, the BD hypothesis is tested in three seismic stations in Colombia and five in Taiwan; for that purpose, a selection of almost 4000 waveforms are effectively used from a total of almost 48000 of the study areas, for the coda Q quality factor analysis. The global and regional seismicity analysis allows the detection of space-time evolution trends with no easy explanation and that are attributed to external manifestations of the Earth¿s interior dynamic processes in the mantle. The detailed seismicity analysis in the 8 studied stations characterizes the brittle part. The waveforms in each station are used to determine the time series of coda Q in a time window of around 14 years. First, its space-time variation and depth dependence are studied, finding significant changes that correlate with local geotectonic structures. Besides, specific time series that characterize the ductile part are obtained. The correlation analysis and the one of the time variation of the central correlation coefficient have allowed evaluating the BD model. A new technique that allows the construction of time series of this coefficient is proposed, in a way that following and detecting the correlation/uncorrelation of the seismicity and Q time series can be done continuously. Therefore, calm and enhanced activity periods can be firmly established in the BD theory. By applying the technique to different geotectonic locations we find cases in which the behavior obeys the theory, whilst for others the validity is unclear. In the former, high values of the central correlation coefficient, above 0.6, are observed during calm periods; this value decreases drastically some time before the occurrence of a major earthquake. In the latter, the correlation is found to be, in most cases, permanently low, what can be attributed to a inexistent or poorly developed BD interaction zone, since, in most cases, these regions are ruled by complex geotectonic structures and a relatively high frequency of major earthquakes.
25

Predicción de la conducta violenta en la población psiquiátrica forense a través de la HCR-20 y PCL-R

Borba Telles, Lisieux Elaine de January 2009 (has links) (PDF)
En Brasil, la evaluación de riesgo de violencia en la población psiquiátrica forense es denominada Examen de Avaluación de Cese de Peligrosidad. Esta pericia ha sido conducida por psiquiatras de una forma no estructurada, poco objetiva, basándose en criterios clínicos y sociales. El HCR-20 ha sido usado en diversos países con el fin de aumentar la precisión de este examen. Objetivos: El presente estudio fue planeado con el objetivo de implementar un método de evaluación de riesgo sistematizado y obtener criterios empíricos para factores de riesgo de conducta violenta en internos de hospitales psiquiátricos forenses. También se buscó estimar la evaluación de confiabilidad y la precisión predictiva del HCR-20 en población manicomial brasileña.
26

APLICAÇÃO DO SENSORIAMENTO REMOTO COMO APOIO À OBTENÇÃO DE CRITÉRIOS PARA A PREVISÃO DE SAFRAS DE UVAS NA SERRA GAÚCHA, BRASIL / APLICACIÓN DE PERCEPCIÓN REMOTA COMO APOYO PARA LA PREDICCIÓN DE SAFRA DE UVAS EN SIERRA GAUCHE, BRASIL

Maciel, Erick de Melo 07 April 2009 (has links)
Este trabajo tiene como objetivo aplicar las técnicas de teledetección en la predicción de las cosechas de uva, en una zona previamente delineadas para el estudio piloto, en el Valle de los Viñedos, Sierra Gaucho, con el objetivo de verificar el uso de esta tecnología para la vigilancia y el control de expediente vino en relación con el volumen de la biomasa y de instrumentación para la construcción de un sistema de toma de decisiones en la gestión de los viñedos. Los datos para el desarrollo del trabajo se planteó en el Ayuntamiento de Bento Gonçalves / RS y Embrapa Uva y Vino, que cuenta con imágenes de la región de interés, Valle de los viñedos. Imágenes IKONOS y se Quickbird. Debido a la gran área del Valle de los Viñedos y hay muy pocos datos sobre el viñedo para la utilización de la teledetección, elegimos una zona de viñedos de Embrapa Uva y Vino, que se encuentra dentro del Valle de los Viñedos. Se utilizó el índice de la vegetación de diferencia normalizada (NDVI) para evaluar el efecto de los viñedos. El análisis de la clasificación de las imágenes permitió la identificación de áreas de vegetación existente en las dos imágenes, y el método aplicado MAXVER para realizar la clasificación. La confusión matriz se utiliza para evaluar los resultados de la clasificación. Quickbird para la imagen clasificada, indica un porcentaje de 82,74% para la clase viñedos, una precisión del 84,9587% y el coeficiente de Kappa fue 0,7648, lo que indica que la clasificación fue muy bueno. Clasificados para la imagen IKONOS fue 79,75% para la clase viñedos, precisión 80, 4188% y el coeficiente de Kappa de 0,7161, lo que indica que la clasificación fue muy bueno. La imagen NDVI se obtuvo sólo a través de la imagen IKONOS, que permitió la confirmación de la clasificación en el Quickbird imagen. Se constató que en 2000 la cantidad de uva producida es mucho mayor que en el año 2008 porque esta vez hubo una disminución en la superficie plantada en la viña analizados. El análisis de la aplicación de la teledetección en la predicción de cosecha de la uva permite el seguimiento de acciones de apoyo a la agricultura para la viticultura, con el fin de aprovechar al máximo, mediante la planificación y la zonificación de las áreas de plantación, el uso de la tierra y los recursos e insumos para cultura. La metodología permite obtener información sobre los ámbitos de la planta utilizada y las características de los objetivos y sus relaciones espaciales. / Este trabalho tem por finalidade aplicar técnicas de sensoriamento remoto na previsão de safras de uvas, em área previamente delimitada, para estudo piloto, na Região do Vale dos Vinhedos, na Serra Gaúcha, buscando verificar a utilização desta tecnologia para o monitoramento e controle dos dosséis vitícolas em relação ao volume de biomassa e instrumentalização para a construção de um sistema de tomada de decisão no manejo dos vinhedos. Os dados para o desenvolvimento do trabalho foi levantado junto à Prefeitura de Bento Gonçalves/RS e à Embrapa Uva e Vinho, das quais se conseguiu imagens da região de interesse, Vale dos Vinhedos. As imagens obtidas foram IKONOS e QUICKBIRD. Devido à grande área do Vale dos Vinhedos e a existência de muito pouco dado sobre os vinhedos para o uso de sensoriamento remoto, optou-se por uma área de vinhedos da Embrapa Uva e Vinho, que está dentro dos limites do Vale dos Vinhedos. Foi utilizado o Índice de vegetação da diferença normalizada (NDVI) para a avaliação do vigor dos vinhedos. A análise da classificação das imagens possibilitou à identificação de áreas de vigor vegetal em ambas as imagens usadas, sendo o método MAXVER aplicado para a realização da classificação. A matriz de confusão é utilizada para avaliar o resultado da classificação. Para a imagem QUICKBIRD classificada, indica uma porcentagem de 82,74% para a classe vinhedo, acurácia de 84,9587% e coeficiente Kappa foi de 0,7648, indicando que a classificação foi muito boa. Para a imagem IKONOS classificada, foi de 79,75% para a classe vinhedo, acurácia de 80, 4188% e coeficiente Kappa de 0,7161, indicando que a classificação foi muito boa. A imagem NDVI somente foi obtida através da imagem IKONOS, o que possibilitou a confirmação da classificação em relação à imagem QUICKBIRD. Verificou-se que no ano de 2000 a quantidade de uvas produzidas foi muito maior que no ano de 2008, pois nesta data houve diminuição de área plantada na área do vinhedo analisado. A análise da aplicação do sensoriamento remoto na previsão de safras de uvas possibilita subsidiar ações de monitoramento agrícola para a viticultura, de modo a maximizar, por meio do planejamento e zoneamento das áreas de plantio, o uso do solo e de recursos e insumos para a cultura. A metodologia utilizada possibilitou a obtenção de informações a respeito das áreas de plantio utilizadas e as características dos alvos e suas relações espaciais.
27

Obtención de un Clasificador Optimo para la Evaluación de la Calidad de Modelos Tridimensionales de Proteínas

Vergara Correa, Ismael Alfonso January 2008 (has links)
Uno de los problemas esenciales en la predicción computacional de la estructura tridimensional de proteínas corresponde a la evaluación de la calidad de un modelo proteico generado computacionalmente, esto es, clasificar cada modelo proteico en correcto o incorrecto. Este problema toma especial importancia cuando los modelos son generados por software automatizados a gran escala. La mayoría de los métodos existentes para la evaluación de los modelos proteicos están basados en variables únicas que actúan como los clasificadores. La variable consistente en la energía libre total del sistema es aquella de mejor rendimiento cuando se le compara a otras variables o atributos del modelo proteico. Sin embargo, clasificadores multivariables basados en una serie de propiedades físicas, geométricas y estadísticas pueden mostrar un rendimiento significativamente mayor con respecto a los clasificadores de una variable, sobre todo para los casos más difíciles que corresponden a proteínas pequeñas y cuyo modelo obtenido computacionalmente es incompleto. En el presente trabajo de tesis, se calcularon un total de 31 variables sobre un conjunto de modelos proteicos correctos e incorrectos generados con la técnica de modelado comparativo. Estas variables corresponden a propiedades del alineamiento secuenciaestructura entre la secuencia a modelar y la estructura molde, propiedades del modelo proteico generado, propiedades de la región del molde efectivamente utilizada para generar el modelo, y propiedades del molde completo utilizado para generar el modelo proteico. El conjunto de datos se dividió en conjuntos de entrenamiento, validación y de prueba. Se aplicaron distintos métodos de ranking, selección y extracción de variables para filtrar redundancia y maximizar la relevancia de las variables con respecto a la clase respuesta. Luego, se aplicaron diferentes algoritmos de aprendizaje tales como redes bayesianas, máquinas de vectores de soporte, perceptrón multicapa y algoritmos genéticos con el fin de obtener clasificadores multivariables para el problema de la clasificación de un modelo en correcto e incorrecto. El rendimiento de cada clasificador multivariable, así como el rendimiento de cada variable única utilizada como clasificador, fue comparado con el rendimiento de los otros clasificadores con el fin de declarar a uno de ellos como aquél óptimo para el problema de la evaluación de la calidad de modelos proteicos generados computacionalmente. El clasificador óptimo obtenido en este trabajo, generado con el algoritmo de aprendizaje de máquinas de vectores de soporte, presenta un aumento en el rendimiento de un 13% con respecto a los mejores clasificadores univariables.
28

Strategic consensus predicting outputs of team performance / El consenso estratégico como predictor de resultados de equipos de trabajo

Puente-Palacios, Katia, Moreira, Tatiana, Puente, Tamara, Lira, Naianne 25 September 2017 (has links)
Strategic consensus in work teams is a group process related to the shared comprehension among team members of the strategies defined to attain work goals. This study aimedto verify the predictive power of strategic consensus in relation to team performance. The prediction model was constructed based on data collected from teachers and coordi-nators of 70 educational institutions in Ecuador. The individual data were aggregated per institution to obtain group level scores. The results indicate that strategic consensus predicts about 6% of the team performance as rated by the coordinator. We concluded that more studies are required to gain a better understanding of the role of strategic consensus in workteams. / El consenso estratégico en equipos de trabajo es un proceso grupal relativo a la comprensióncompartida entre los integrantes, sobre las estrategias definidas para alcanzar las metas de trabajo. El estudio realizado buscó verificar la capacidad de predicción del consenso estratégico en relación al desempeño. Los datos fueron recogidos de docentes y coordinadores de 70 planteles educativos ecuatorianos, a partir de los que se construyó el modelo de predicción. Las respuestas individuales fueron agregadas por plantel para obtener puntajes grupales. Los resultados mostraron que el consenso estratégico predice aproximadamente 6% de los resultados del desempeño del equipo evaluado por el coordinador. Concluimos que son necesarios más estudios para entender mejor el papel del consenso en equipos de trabajo.
29

Diagnóstico y Propuesta de Mejoramiento de Gestión en los Planes Regionales y Comunales de Seguridad Pública

Acevedo Valenzuela, Sebastián Adolfo January 2009 (has links)
No description available.
30

Diseño e Implementación de una Metodología de Predicción de Fuga de Clientes en una Compañía de Telecomunicaciones

Barrientos Inostroza, Francisco Javier January 2012 (has links)
La minería de datos es una nueva tecnología que está cobrando relevancia en la actualidad, su utilidad para resolver complejos problemas a lo que se enfrentan las empresas (de múltiples variables y casos) ha dado entrada a la aplicación e investigación sobre la misma. Sin embargo, esta tecnología no es una heurística cualquiera, se fundamenta en la rama de las ciencias de la computación denominada inteligencia artificial y las matemáticas mediante la estadística. En un comienzo, las empresas sólo se preocupaban por el almacenamiento de los datos, datos históricos que permitían cálculos matemáticos simples con una finalidad, la generación de reportes. De esta manera, se buscaba responder las preguntas referentes al control del negocio. Posteriormente se profundizaron estas preguntas de control hasta llegar a la creación de un repositorio consolidado, expresado en la tecnología de data warehouse. En la actualidad Las exigencias de los consumidores cada día aumentan más, puesto que la competencia comienza a ser más dinámica, por ende, para establecer una ventaja competitiva, las empresas requieren responder preguntas que van más allá de los datos históricos, es decir, necesitan extraer información que pueda ser útil para el futuro, y de esta manera, dejar el paradigma de una empresa reactiva y pasar a ser una entidad proactiva y preventiva. En este nuevo desafío aparece la tecnología de minería de datos, la cual va inserta en un procedimiento Knowledge Discovery on Databases (KDD), puesto que para obtener información del futuro se debe estar seguro del presente. Esta tecnología se aplica actualmente en variadas empresas, sin embargo, no se vislumbra explícitamente. Las personas son afectadas por ella como parte de un paradigma de consumismo, cuando compran un producto y se le hace un descuento, un aviso publicitario mencionando la promoción de un nuevo producto, cuando se les ofrece un crédito bancario o se les llama telefónicamente para mejorar un servicio que ya tienen contratado, e incluso cuando ingresan a Internet para navegar en sus redes sociales o buscar información. También se ve en los avances biológicos como un diagnóstico rápido y efectivo, una cura basada en la ingeniería genética, entre otros. Actualmente la minería de datos se ha subdivido en múltiples ramas según su aplicación, es así, como se pueden encontrar distintos tipos de minería: Web, de Texto, de Procesos. Estos solamente generan la diferencia en la perspectiva en que se ejecuta el KDD, siendo el último tipo el más reciente. Cabe mencionar que los principales algoritmos de han adaptado según su uso y día a día se implementan mejoras sobre los mismos. Análogamente, también, se desarrollan nuevas formas de valorización sobre sus resultados. Esta memoria busca investigar sobre el KDD y las distintas técnicas que pueden ser utilizadas, para luego aplicarlas a un producto particular en una empresa determinada. En ella se describen todos los procesos por los cuales se transcurrió cada uno visto desde el punto de vista del KDD, por lo que su estructura es como realizar un KDD a un documento de esta índole. Sin embargo, no todo fue la aplicación, puesto que se refinan los modelos y algoritmos tanto de transformaciones como de imputaciones de datos, lo que converge en un aprendizaje incremental, en el que cada intento es expresado como relevante puesto que destaca una etapa particular del KDD. Además, de describir la aplicación del KDD se añade una evaluación comercial utilizando recursos de la compañía y bajo el soporte del área de Aseguramiento de Ingresos y la Vicepresidencia Comercial. En base a esta evaluación comercial, se tiene la evaluación técnica de cada modelo y las peculiaridades que se forman al efectuar el contraste entre ambas. Adicionalmente se evalúa monetariamente los resultados obtenidos desde dos puntos de vista, lo que conlleva al establecimiento de propuestas futuras. Agregado a lo anterior, se presentan problemáticas no documentadas, debido a que su acontecer es propio dentro de lo que es desarrollar un proyecto que tiene al KDD como eje articulador. A su vez, se muestran soluciones y planteamientos para ingresar un proyecto a un área determinada, en otras palabras, se presentan herramientas que ayudan a generar confianza al interior de una empresa para que origine un cambio a nivel organizacional respecto a esta tecnología. Finalmente se concluyen los aprendizajes y las acciones correctivas que debiesen ejecutarse en caso de implementar el piloto a nivel operacional.

Page generated in 0.1963 seconds