• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 872
  • 129
  • 109
  • 103
  • 8
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1227
  • 320
  • 271
  • 224
  • 149
  • 148
  • 148
  • 148
  • 148
  • 129
  • 108
  • 106
  • 104
  • 100
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Valorización de los Usuarios de Tarjeta de Crédito de una Tienda por Departamentos Incorporando el Riesgo Financiero

Eguia Jacob, Ricardo Andrés January 2009 (has links)
Ingeniero Civil Industrial / Las grandes tiendas por departamento han ampliado su gama de productos ofrecidos, incluyendo los servicios financieros, desarrollando así sus propias tarjetas de crédito, que permiten mayor flexibilidad de pago y mayor alcance de productos. Sin embargo, existe una diversa cartera de clientes, como algunos que no compran regularmente a cuotas y otros que no cumplen con sus pagos, introduciendo así el riesgo. Entonces surge la importancia de identificar cuáles son los clientes más valiosos para la empresa. El presente trabajo de título se desarrolla en una empresa de retail la cual cuenta con su propia tarjeta de crédito. La memoria tiene como objetivo estimar el valor de los clientes incorporando el riesgo financiero. Para cumplirlo, se hace énfasis al estudio de dos variables fundamentales: El interés generado por el uso de la tarjeta y el riesgo. El interés depende de muchos factores como lo son el holding, el número de cuotas, el monto de la compra, entre otros. Esto convierte el valor del interés en una variable de alta volatilidad que no permite predecir un valor exacto de este. Por lo tanto se decide ordenar a los clientes según su valor, dividiéndolos en 4 grupos. Para determinar el valor de los clientes se utilizará la fórmula de Lifetime Value, considerando como margen el interés que pagan los clientes al pagar por cuotas y por otra parte el riesgo financiero. Para estimar el interés, se utilizan 3 conjuntos de variables distintos combinados con 4 tipos de modelos de demanda: Lineal, Log-Normal, Poisson y Binomial Negativo; para así, identificar que combinación de estos permite valorizar y ordenar a los clientes con mayor nivel de precisión utilizando la matriz de confusión como herramienta de medición. Los dos primeros conjuntos de variables son referentes a las variables RFM mientras que el otro utiliza además variables demográficas y otras asociadas a la tarjeta. Mediante un análisis por cuartiles, se obtiene que el cuartil superior entrega el 80% del margen interés a la firma mientras que el resto entrega 15%, 4% y 1%. El valor de cada grupo es de $256Mil, $41Mil, $13Mil y $1,6Mil respectivamente, donde el cuartil superior e inferior muestran mayor estabilidad que los cuartiles centrales al mantenerse un mayor número de clientes en el mismo grupo de un periodo a otro. Se identifica que el modelo de poisson presenta los mejores resultados de distinción de clientes para cada conjunto de variables mostrando una leve superioridad con el set RFM, llegando así a ubicar aproximadamente el 49% de los clientes en su grupo correspondiente, el 43% en la vecindad y tan solo el 8% en los grupos más apartados. Destacando su mayor nivel de acierto para el mejor y peor cuartil con un 58,5% y 57% de acierto respetivamente. En conclusión, la metodología propuesta permitiría a la empresa identificar a sus mejores clientes tomando en consideración el riesgo asociado.
412

Aplicación de la redundancia activa en la programación de producción de mina subterránea

Salamanca Candia, Felipe Adolfo January 2007 (has links)
No description available.
413

Análisis de los niveles de servicio del fono de emergencias 133 de Carabineros de Chile

Elgueta Espinosa, Loreto Javiera January 2013 (has links)
Ingeniero Civil Industrial / El Fono de Emergencias 133 de Carabineros es un servicio telefónico que atiende las emergencias reportadas por la ciudadanía para luego derivarlas a un procedimiento policial que las resolverá en terreno. Está demostrado que una gestión inteligente del servicio de emergencias en una ciudad puede aumentar la seguridad objetiva y mejorar la percepción de inseguridad, y así incidir positivamente en la calidad de vida de la población [1]. Este trabajo de título investiga el proceso de servicio que brinda la unidad Nivel 133 de la Central de Comunicaciones (CENCO), en la Región Metropolitana. El objetivo principal es medir el nivel de servicio del sistema actual. El desafío consiste en cuantificar los parámetros operativos del sistema y medir el desempeño a través del indicador más importante en este tipo de servicios, los tiempos de espera. Hoy en día, los tiempos de espera de las personas que llaman al 133 no se registran y no hay manera de observarlos. Tampoco se puede conocer el número de llamadas que el sistema rechaza cuando está lleno. Existe un consenso en cuanto a que las llamadas inoficiosas son elevadas y pueden ser la causa de la alta congestión de las líneas. Una publicación oficial señala que en el primer semestre del 2011 más de un 70% de las llamadas contestadas fueron de esta naturaleza [6]. Lamentablemente, las campañas publicitarias en contra de las llamadas inoficiosas son contraproducentes, se ha visto que aumentan mientras la campaña está en curso. Tal es el nivel de llamadas inoficiosas, que han sido clasificadas en seis categorías. A su vez, existen 103 tipos de llamadas de emergencia, cada uno corresponde a un delito o falta, que si se reporta, Carabineros debe concurrir. Para lograr el objetivo, se sigue una metodología que comienza procesando datos desagregados de llamadas atendidas, a partir de distintas fuentes, para determinar el comportamiento del sistema. Luego, se puede cuantificar la demanda de los distintos tipos de llamadas de emergencia e inoficiosas, en cuanto a volumen y también tiempos de servicio. A través de teoría de colas, se desarrolla un modelo incremental de varias etapas, que integra parámetros que reflejan cada vez mejor la realidad. De esta manera, se estima la tasa de abandono, pero aún así existen limitaciones en dichos modelos. El análisis final del nivel de servicio y evaluación de las medidas de rendimiento se hace a través de simulación, lo que permite flexibilizar los supuestos Markovianos de la teoría de colas, ya que éstos nuevos modelos aceptan comportamientos aleatorios de los parámetros del sistema, como las distribuciones del tiempo de servicio, cantidad de operadores y tasas de llegada. Ésta investigación muestra que los niveles locales de servicio están por debajo de los estándares internacionales. Un fin de semana cualquiera, menos del 3% de las emergencias se atienden en menos de 10 segundos. En el caso del 911, en Estados Unidos, la meta de servicio es atender al 90% antes de 10, y en general se cumple o se supera. No es trivial decidir acciones a tomar para mejorar el servicio, ya que la dotación, el problema de volumen de llamadas inoficiosas, y la estructura de los datos, deben ser resueltos en paralelo. Algunas propuestas se evalúan y se obtienen mejoras considerables en los niveles de servicio. En días hábiles, si se logra disminuir la llegada de llamadas inoficiosas, se pasaría de un 47% a un 63% de emergencias atendidas en menos de 30 segundos. Según las metas que se formulen, se debe evaluar un proyecto de mejora que considere varias propuestas, y mida su impacto antes de ser implementado. Para medir las consecuencias de cambios en parámetros del sistema, tales como: operadores, tasas de llegadas, tasas de servicio o capacidad tecnológica, se podría usar la metodología y herramientas que se usaron en este trabajo.
414

Modelos de criminalidad basados en ecuaciones diferenciales

Reyes Riffo, Sebastián Alexis January 2013 (has links)
Ingeniero Civil Matemático / La presente memoria busca ser un aporte en el estudio matemático de las ecuaciones de Pitcher, cuya finalidad es predecir la dinámica delictual asociada a robos residenciales. Los supuestos involucrados en su formulación muestran que este modelo constituye una aproximación en el análisis de esta realidad, lejos aún de reflejar a cabalidad su naturaleza. En el modelo están involucradas dos variables. La primera hace referencia a la atractividad de la región, mientras la segunda es la densidad de población criminal presente en el medio. La interacción entre ambas es gobernada por un sistema de ecuaciones diferenciales parabólicas del tipo reacción-difusión, que incluyen términos no lineales. Pitcher también propone incluir como una tercera variable al efecto disuasivo que produce la presencia de una fuerza policial en el medio, pero tal situación no se considerará debido a los alcances de este trabajo. Entender como se comportan las soluciones asociadas a las ecuaciones de Pitcher es fundamental por varios motivos, entre los cuales está situar los focos delictivos (hot spots) dentro de una región. Por ello, dotando al problema de condiciones de borde Neumann, la motivación central de esta memoria es contribuir a un estudio riguroso de la existencia de soluciones no constantes en el caso estacionario. El primer capítulo consta de una revisión y análisis de los modelos de Short et al., Pitcher, y Jones, Brantingham y Chayes, donde se establecen sus principales similitudes y diferencias. A continuación, en el segundo capítulo se presentan y demuestran los dos resultados centrales obtenidos en este trabajo: la existencia de ramas de bifurcación, que dependen tanto de los valores propios simples y positivos del operador $-\lap$ como de los parámetros del problema; y la estabilidad de tales ramas. Ambos resultados se derivan del uso de la teoría de bifurcaciones desarrollada por Shi y Wang y los teoremas clásicos de estabilidad de Crandall y Rabinowitz, y en conjunto proveen mayor información respecto al uso de inestabilidades de Turing en el caso no estacionario. Finalmente, se incluyen algunas simulaciones numéricas que, usando el método de elementos finitos y un algoritmo de punto fijo alternante, permiten visualizar el origen de tales ramas.
415

Estimación de Series con Memoria Larga: Estudio Vía Simulación de Montecarlo y Aplicación a Series Financieras

Valdés González, Gonzalo Daniel January 2009 (has links)
No description available.
416

Ecuaciones Cohomológicas Sobre Espacios de Embaldosados

Coronel Soto, Álvaro Daniel January 2009 (has links)
No description available.
417

El método y el rol de la Comparación Jurídica Observaciones en torno a su impacto en la mutación y en la adaptación jurídica

Saavedra Velazco, Renzo E. 12 1900 (has links)
El autor realiza un análisis crítico respecto a la comparación jurídica. Este es un estudio pocas veces tocado e importante para todo operador jurídico que desee aplicarlo eventualmente. En el artículo se explica cómo ha sido el proceso durante estos tiempos al momento de elaborar una legislación y cuál es el problema que trae adoptar figuras jurídicas que no se contrastan con nuestra realidad. Para culminar, el autor hace una predicción sobre cuál podría ser el futuro de la comparación jurídica y una apreciación de la época postmoderna.
418

La abducción y el conocimiento tácito: un diálogo entre C. S. Pierce y M. Polanyi

Espejo, Roberto January 2005 (has links)
Tesis para optar al grado de Magíster en Filosofía mención Epistemología. / En la presente tesis se examina una posible relación entre el problema de la Abducción y el del Conocimiento tácito, tal como fueron expuestos por C.S. Peirce y M. Polanyi respectivamente. En el Capítulo I se estudia la idea de abducción basándose en las ideas de C.S. Peirce. La abducción consiste en una regla de inferencia que intenta dar cuenta de la creación de una hipótesis explicativa frente a un "hecho sorprendente" , es decir, un hecho que no es explicado o aparece en contradicción a las teorías existentes para analizar dicho fenómeno.
419

Mikhail Bakhtin e Iuri Lotman: dos pensadores de la posmodernidad

Andrade Ecchio, Claudia January 2006 (has links)
Dentro del contexto de los estudios literarios actuales, las figuras más reconocidas de la eslavística rusa son Mikhail Mijáilovich Bakhtin (1895–1975) e Iuri Mijáilovich Lotman (1922–1993). Por una parte, ambos han sido gestores de críticas profundas a los llamados “grandes metarrelatos modernos”, entre ellos el formalismo ruso, el marxismo, la lingüística tradicional, etc.; y, por otra, han elaborado nuevas concepciones teóricas que han sido capaces de transformar, de manera radical y definitiva, la forma de ver y estudiar tanto la literatura como el arte. En este estudio, por tanto, se redescubre a un brillante pensador como Bakhtin y se conoce a un relevante semiótico como Lotman, teórico prácticamente desconocido en los círculos académicos chilenos. La idea fundamental de esta tesis es dar cuenta del desarrollo histórico y del cambio epistemológico producido en la época posmoderna, desde el punto de vista de las contribuciones realizadas tanto por Bakhtin como por Lotman a los estudios literarios. De esta manera, se muestra, a través de un estudio descriptivo–comparativo, que dicha importancia radica en que ambos pensadores permiten la constitución de una línea de pensamiento que devela, en primer término, las transformaciones producidas en la época posmoderna y, en segundo término, los cambios acontecidos en la teoría literaria durante el siglo XX.
420

Finding periodicities in astronomical light curves using information theoretic learning

Huijse Heise, Pablo Andrés January 2014 (has links)
Doctor en Ingeniería Eléctrica / The analysis of time-variable astronomical phenomena is of great interest as it helps to improve our understanding of the structure and topology of our Universe, the mechanisms of galaxy and stellar evolution, etc. The basic tool to study variability in the sky is the light curve. Light curves are time series of stellar brightness and their analysis reveals key information about the physics behind the variable phenomena. Periodic variable stars are particularly interesting. Periodic variable stars are used to estimate the size and distance-scales of our Universe, and the period is a key parameter for stellar parameter estimation, stellar classification and exoplanet detection. The precise estimation of the period is critical in order to accomplish these scientific tasks. Astronomy is experiencing a paradigm change due to the extent volumes of data generated by current astronomical surveys. In less than 10 years, hundreds of Petabytes of astronomical images and time series catalogs will be produced. Conventional astronomy does not possess the tools required for this massive data mining operation. Nowadays there is a growing need for methods with solid statistical background to do automatic astronomical time series analysis. These methods need to be robust, fully-automated and computationally efficient. In this doctoral research I developed methods for periodicity detection and period estimation in light curves that are based on information theoretic concept of correntropy and advanced signal processing techniques. These methods are intended for automatic and efficient periodic light curve discrimination in large astronomical databases. Correntropy is a generalization of the conventional correlation to higher order statistics. In this thesis I propose the slotted correntropy estimator, the correntropy kernelized periodogram (CKP) and the correntropy non-negative matrix factorization spectrum (CNMFS). The slotted correntropy extends correntropy to unevenly sampled time series such as light curves. The CKP is a generalized periodogram that can be computed directly from the samples without regards on their sampling. The CNMFS is a high resolution spectrum that is localized on the fundamental frequency of the process. The results presented in this thesis show that information theoretic based criteria perform better than conventional methods used in astronomy such as the LS periodogram, analysis of variance, string length and the slotted autocorrelation function (second-order methods). Including the higher-order moments of the time series into the estimation makes the proposed information-theoretic methods more robust against noise and outliers, giving them the upper hand in term of the precision of the detected periods. The proposed methods are also general as they do not pose any assumption on the underlying periodic signal (e.g. sum of sine-waves), and can be adapted heuristically (CKP) or automatically (CNMFS) to different periodic light curve shapes. The proposed methods are less prone to return a harmonic, sub-harmonic or an alias of the underlying period, a usual problem with conventional methods. The results also show that the proposed methods are more robust and less dependant on the number of samples and the time span of the light curve, i.e. the period can be recovered even if few samples or only a short piece of the light curve is available. This suggests that these methods may outperform conventional methods for early or online periodicity discrimination on surveys that are currently operating (VVV, DECam). El análisis de fenómenos astronómicos variables en el tiempo es de gran interés científico pues ayuda a mejorar nuestro entendimiento de la estructura y topología de nuestro Universo, los mecanismos de evolución estelar, etc. La herramienta básica para estudiar variabilidad celeste es la curva de luz. Las curvas de luz son series de tiempo de brillo estelar y su análisis revela información clave sobre los procesos físicos tras el fenómeno variable. Las estrellas variables periódicas son particularmente interesantes, pues se usan para estimar el tamaño y las escalas de distancia en nuestro Universo, y su período es un parámetro clave para la estimación de otros parámetros estelares como la masa y el radio, para la clasificación estelar y la detección de exoplanetas. Una estimación precisa del período es crítica para el cumplimiento de estas tareas científicas. La astronomía está experimentando un cambio de paradigma debido a los extensos volúmenes de datos generados por los sondeos astronómicos actuales. En menos de 10 años, se producirán cientos de Petabytes de imágenes astronómicas y catálogos de series tiempo. La astronomía convencional no posee las herramientas que se requieren para esta operación masiva de minería de datos. Hoy en día existe una creciente necesidad por métodos con sólidas bases estadísticas para realizar análisis automático de series de tiempo astronómicas. Los métodos han de ser robustos, completamente automáticos y computacionalmente eficientes. En esta investigación doctoral he desarrollado métodos para detección de periodicidad y estimación de período en curvas de luz que están basados en conceptos de teoría de la información de correntropía y técnicas avanzadas de procesamiento de señales. Estos métodos fueron desarrollados teniendo en mente el procesamiento eficiente de grandes bases de datos de curvas de luz. La correntropía es una generalización de la correlación convencional a estadísticos de alto orden. En esta tesis propongo la correntropía ranurada, el periodograma kernelizado de correntropía (CKP) y el espectro de correntropía mediante factorización no-negativa de matrices (CNMFS). La correntropía ranurada extiende la correntropía a series de tiempo con muestreo irregular tales como las curvas de luz. El CKP es un periodograma generalizado que puede computarse directamente de las muestras sin importar su muestreo. El CNMFS es un espectro de alta resolución que está localizado en la frecuencia fundamental del proceso. Los resultados presentados en esta tesis muestran que los criterios basados en teoría de la información tienen un desempeño superior a los métodos convencionales usados en astronomía tales como el periodograma LS, análisis de varianza, string lengh y la función de correlación ranurada (métodos de segundo orden). Incluir los momentos de alto orden de la serie de tiempo hace que los métodos propuestos sean más robustos al ruido y a los outliers, lo cual a su vez se traduce en una mayor precisión en la detección de período. Los métodos propuestos son generales, en el sentido de que no hacen supuestos sobre la señal periódica subyacente (e.g. suma de señales sinusoidales), y pueden ser adaptados heurísticamente (CKP) o automáticamente (CNMFS) a diferentes tipos de periodicidad. Los métodos propuestos son menos propensos a entregar un armónico, sub-armónico o alias del período subyacente, un problema usual de los métodos convencionales. Los resultados muestran que los métodos propuestos son más robustos y menos dependientes del número de muestras y del tiempo total de la curva de luz, es decir, el período puede ser recuperado incluso si pocas muestras o un segmento corto de la curva de luz está disponible. Esto sugiere que los métodos propuestos pueden funcionar mejor que los métodos convencionales para discriminación temprana u online de periodicidad en sondeos que están operando actualmente (VVV, DECam).

Page generated in 0.0301 seconds