• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 10
  • Tagged with
  • 143
  • 143
  • 61
  • 35
  • 33
  • 26
  • 22
  • 22
  • 21
  • 20
  • 20
  • 17
  • 17
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Métodos Cuantitativos para los Negocios (MA109/CE30), ciclo 2014-1

Bustamante Bautista, Beatriz 15 April 2014 (has links)
Cuaderno de trabajo del curso Métodos Cuantitativos para los Negocios (MA109/CE30), que corresponde al semestre 2014-1. Al finalizar el curso, el alumno aplica instrumentos matemáticos como soporte al proceso de toma de decisiones en diferentes campos de los negocios (marketing, finanzas, logística y producción); siguiendo el proceso de modelación, cálculo, interpretación administrativa y análisis de sensibilidad. Los temas que se tratan son los siguientes: programación lineal, administración de proyectos, teoría de colas y decisiones bajo riesgo.
102

On Two Sided Network Markets

Corominas Bosch, Margarida 13 October 1999 (has links)
Esta tesis está centrada en el estudio de mercados bilaterales en los cuales la comunicación no es completa, sino que viene dada por una red de comunicación. Las principales preguntas formuladas en la tesis son determinar el valor de cada posición en la red, y decidir cúal sería la mejor estrategia si hubiera la posibilidad de invertir en vínculos de comunicación. Las técnicas utilizadas incluyen teoría de juegos y teoría de grafos.El primer capítulo ofrece la base técnica que será utilizada posteriormente. Allí se estudia la menra de descomponer un grafo bipartito general, en subgrafos simples que cumplen unas determinadas propiedades. Posteriormente, en el segundo capítulo la tesis procede a estudiar un juego no-cooperativo en le que los agentes que componen el mercado bilateral en red proceden a efectuar ofertas y contra-ofertas con los agentes a los que tienen acceso, repitiéndose el juego hasta llegar a un acuerdo. El análisis estudia los precios a los que llega este juego en equilibrio, que vienen influidos por la red de comunicación. La estructura del grafo juega un papel muy relevante, ya que uno de los equilibrios viene dado directamente por la descomposición de la red. El capítulo caracteriza también exactamente cuales son las redes capaces de implementar el equilibrio competitivo, que equivale al caso de comunicación completa. En el tercer capítulo se realiza un estudio similar con técnicas de teoría de juegos coperativos. Se estudia el núcleo del juego y se demuestra que su estructura es paralela a la descomposición del grafo que define la red. Además, el mismo equilibrio encontrado en el juego no-coperativo aparece aquí otra vez como punto central del núcleo del juego coperativo, reafirmando la validez de este valor. Finalmente, el último capítulo estudia las propiedades del valor definido en los dos capítulos anteriores. Se demuestra que las redes estables y eficientes coinciden (para costes de establecimiento de vínculos pequeños) con las redes comunicadas. También se construye un juego de creación de vínculos que tiene como equilibrio las redes equivalentes a las totalmente comunicadas.
103

Simulación secuencial Gaussiana no estacionaria de leyes

Martínez Fernández, Yerko January 2014 (has links)
Magíster en Minería / Ingeniero Civil de Minas / El presente trabajo corresponde al desarrollo de una herramienta que permite simular valores de una variable regionalizada considerando que tales valores tienen una variación sistemática en el espacio. En este contexto, se desarrolla una nueva herramienta de simulación consistente en un algoritmo de simulación Gaussiana secuencial con rechazo considerando una deriva de referencia como input, bajo la hipótesis que esta herramienta permite respetar tal deriva, obteniendo resultados representativos de la base de datos en cuanto a sus estadísticos de orden 1 (histograma) y orden 2 (variograma). La metodología del algoritmo comienza definiendo la secuencia de visitas de nodos a simular de manera aleatoria. Se acepta o rechaza el nodo simulado en base a la deriva de referencia considerando un rechazo determinístico o probabilístico y una tolerancia dinámica. Para cada nodo se considera una vecindad de búsqueda de datos condicionantes para la simulación y una vecindad de búsqueda de datos para el cálculo de una media local simulada. El algoritmo permite ajustar el número aceptable de rechazos, el tamaño de la vecindad de búsqueda de la media local, la tolerancia y el tipo de rechazo. Se presentan dos casos de estudio. El primero consiste en un ejemplo sintético de una coordenada con deriva lineal. En este primer caso se tiene que, a mayor tolerancia o mayor vecindad de búsqueda de la media local, los valores simulados se distribuyen con mayor dispersión en torno a la deriva de referencia. El segundo estudio de caso consiste en una zona de interés del yacimiento Compañía Minera Cerro Colorado donde se realiza el proceso de simulación en seis unidades de estimación considerando diecisiete sensibilizaciones de los parámetros del algoritmo más una simulación basada en Kriging Simple (SK) y otra basada en Kriging de residuos (BT). En el caso de presencia de deriva se obtiene en general mejores resultados con el algoritmo propuesto que con el SK o BT cuando la deriva se ve reflejada de manera clara en el variograma como en la unidad de estimación cuatro. Las estadísticas de validación en términos de desempeño de las simulaciones como estimación (coeficiente de determinación R2, pendiente de la regresión de datos reales versus simulados y error medio) y en términos de cuantificación de la incertidumbre de los datos originales (accuracy plot) mejoran en relación al SK y BT. De esta manera, la herramienta desarrollada ofrece una alternativa flexible que mejora los estadísticos de validación en comparación al enfoque tradicional frente a un escenario de simulación con presencia de deriva clara en el variograma.
104

Modelo para la predicción del éxito en los proyectos de software aplicando máquinas de soporte vectorial

Ríos Bardales, Willian Pool, Castañeda Yupanqui, Ronald Orlando January 2015 (has links)
Publicación a texto completo no autorizada por el autor / Plantea la construcción de un modelo de predicción usando una técnica de minería de datos, el cual después de un estudio realizado se perfila como uno de las mejores técnicas de predicción, por encima de muchos. Como caso práctico, este modelo se aplica usando proyectos de software desarrollados en una entidad financiera, obteniendo unos resultados muy alentadores. / Tesis
105

Clasificación mediante parámetros instrumentales de la intensidad de Mercalli modificada

Oviedo Vega, Pamela Andrea January 2017 (has links)
Ingeniera Civil / La evaluación de los daños y/o pérdidas en un sitio determinado ocurridos como consecuencia de un terremoto es un tema importante en el ámbito de la ingeniería sísmica. Las escalas de intensidades permiten identificar en primera instancia y en forma rápida el nivel de severidad del movimiento, pero estas son de carácter cualitativo ya que están basadas en la observación y el juicio humano. Por lo anterior, se han buscado relaciones entre los parámetros instrumentales asociados a un movimiento sísmico y las escalas de intensidades. En particular, este trabajo tiene como objetivo principal estimar la Intensidad de Mercalli Modificada (IMM) mediante el uso de parámetros instrumentales utilizando métodos estadísticos tanto de clasificación como de regresión. Además, se busca identificar que variables son las más influyentes en el valor de la escala de la Intensidad de Mercalli Modificada asignado luego de la ocurrencia de un sismo. Para lograr los objetivos de este trabajo se utilizan dos métodos estadísticos que son clasificados dentro de lo que se conoce como Aprendizaje Automático (AA): Redes Neuronales Artificiales (RNA) y Regresión Logística Multinomial (RGM). Los parámetros instrumentales considerados son: Aceleración Máxima de Suelo (PGA), Velocidad Máxima de Suelo (PGV), duración fase fuerte, Intensidad de Arias (Ia), Intensidad Espectral de Housner (SI), Intensidad Instrumental de la Agencia Meteorológica de Japón (IJMA), velocidad absoluta acumulada (CAV), intensidad de cruces por cero (ν), frecuencia central, espectros de respuesta (Sa, Sv y Sd), distancia al hipocentro, profundidad hipocentro y fuente sismogénica. Del desarrollo de este trabajo y el análisis de los resultados obtenidos, se tienen como conclusiones y observaciones principales que el método de RLM presenta un mejor desempeño que RNA. En cuanto a qué parámetros instrumentales son los más influyentes, se obtiene que son: log(PGV), log(PGA), log(Ia), log(SI) e IJMA. El modelo generado mediante RLM ocupando solo estas variables arroja un mayor porcentaje de clasificación que ocupando todos los parámetros. Sin embargo, para ambos métodos el uso de cada variable por separado (las más influyentes) es levemente mejor que utilizar las cinco juntas, siendo la que mejor resultados entrega log(PGV). Por último, de los resultados se observa que el conocimiento a priori del tipo de suelo no es influyente en los resultados.
106

El Valor de la Flexibilidad el Caso Mina Concentradora Chuquicamata

Rojas Alfaro, Patricio Segundo January 2010 (has links)
Probablemente una de las características principales de los tiempos actuales es la velocidad del cambio que existe en los mercados, las empresas más exitosas son las que logran un grado de flexibilidad tal que les permiten adaptarse rápidamente a los cambios. En el mundo real, los directivos de las empresas tienen la posibilidad de hacer frente a escenarios no esperados tomando algún tipo de medidas que les permitan aumentar las ganancias en escenarios favorables o mitigar las pérdidas en escenarios desfavorables, por ejemplo en proyectos de inversión de capital es posible repetir la inversión si el proyecto de inversión anterior exitoso, puede abandonar el proyecto, o esperar por mayor información antes de invertir. El análisis del VPN tradicional puede resultar insuficiente para evaluar estas flexibilidades, pues actúa sobre escenarios estanco, no considerando la capacidad de gestión que tienen los ejecutivos de la empresa por ejemplo en escenarios adversos de precio, donde es posible reducir niveles de producción, e inclusive cerrar en forma temporal. La disciplina de la ingeniería financiera ha tenido un gran desarrollo durante los últimos treinta años, incorporando una gran cantidad de técnicas nuevas que permiten estimar con una mayor exactitud el valor de las opciones o flexibilidades que tienen los directivos para hacer frente a negocios con incertidumbre futuras. En el estudio se revisa el estado del arte de la clasificación y valoración de las opciones reales y su aplicación al caso de la mina concentradora de Codelco Norte. No se pretende solamente mostrar modelos que sean útiles para valorar las distintas flexibilidades identificadas, sino además introducir el concepto que relaciona el análisis de las variables inciertas del negocio con flexibilidades que se pueden diseñar durante un proyecto u operación minera, y de cómo el administrador al lograr una adecuada sintonía entre los escenarios inciertos y las medidas de gestión previamente diseñadas, puede incrementar el valor del negocio en forma significativa.
107

Co-Simulación de leyes de cobre total y cobre soluble

Vicencio Celis, Andrés Alejandro January 2017 (has links)
Ingeniero Civil de Minas / La evaluación de yacimientos es una etapa temprana dentro de la vida de un proyecto minero y, tiene un alto impacto en el desarrollo del mismo. Las decisiones que se toman en los siguientes procesos de una mina, están ligadas a los resultados entregados por esta etapa. El modelo que se obtiene del yacimiento es utilizado para tener una planificación a largo plazo, la cual varía a medida que se obtiene mayor información durante la vida de la mina. De esta manera, entre más preciso sea el modelo y más información entregue, la primera planificación tendrá una base mucho más estable y constante a lo largo del proyecto. En este trabajo de memoria, se trabaja con muestras de sondajes de exploración con información de leyes de cobre total y cobre soluble. Además, se acompaña de alguna información geológica como mineralizaciones y litologías presentes en las muestras. Con esta base de datos, se desarrolla un análisis exploratorio para tener una visión clara de las características de los datos. Luego, se desarrolla una metodología de co-simulación de dos variables relacionadas por medio de una restricción geoquímica. Estas variables son el cobre total y la razón de solubilidad, esta última, obtenida de la razón entre cobre soluble y cobre total. A estas variables se les aplica una transformación gaussiana y un posterior análisis variográfico, del cual se obtiene un modelo lineal de corregionalización. Finalmente, para hacer la co-simulación multigaussiana se utiliza el algoritmo de bandas rotantes. Una vez que se obtienen los escenarios de las simulaciones, se validan comparándolos con las estadísticas de los datos originales, la distribución espacial de las leyes simuladas, las correlaciones entre las leyes de cobre total y soluble y, la respectiva restricción geoquímica. Cuando el modelo se acepta como representativo de los datos utilizados, se realiza un estudio de probabilidad de enviar los bloques a diferentes destinos, utilizando las leyes de cobre total y la razón de solubilidad de cada bloque. Además, se hacen modelos de probabilidad de superar una cierta ley de corte de cobre total. Con estos resultados, se concluye que las simulaciones son un proceso muy útil e importante al momento de tener una planificación en el largo plazo. Si bien se trabaja con minerales oxidados, no siempre el mejor destino será la lixiviación como se podría deducir en un comienzo. Es importante hacer un estudio de las leyes obtenidas para tener un mapa de probabilidades de cada bloque con su respectivo destino y así, obtener la mejor recuperación del bloque en el proceso óptimo. / 16/10/2021
108

Modelos de minería de datos: random forest y adaboost, para identificar los factores asociados al uso de las TIC (internet, telefonía Fija y televisión de paga) en los hogares del Perú. 2014

Alarcón Flores, Jorge Brian January 2017 (has links)
La sociedad hoy en día se encuentra viviendo una etapa de constantes cambios, debido en gran medida a la introducción de nuevas tecnologías en la vida cotidiana, diversos líderes mundiales afirman que el uso de las Tecnologías de la Información y Comunicación (TIC) juegan un rol fundamental en el desarrollo de las naciones. El objetivo de este estudio es identificar los factores asociados al uso de las TIC en los hogares del Perú, y que deberán considerarse en las políticas sociales y económicas ligadas a la accesibilidad y manejo de tecnologías en nuestro país, como vía de progreso social y desarrollo nacional. Se considera TIC al acceso a los servicios de internet, telefonía fija o tv de paga. Para identificar los factores asociados al uso de las TIC en los hogares del Perú, se utilizaron las técnicas de minería de datos: random fores y adaboost, consideradas como dos de las técnicas más precisas y eficientes que existen actualmente. Se determinó los patrones de consumo de las TIC en los hogares peruanos, utilizando el modelo árboles de clasificación. / Tesis
109

Modelamiento Geoestadístico de Abundancias de Minerales en el Yacimiento Radomiro Tomic

Cornejo González, Javier January 2009 (has links)
El consumo de ácido en yacimientos con zonas de óxidos superficiales es una variable importante dentro del proceso, ya que una pequeña variación en el porcentaje de minerales como la crisocola, el copper wad, las arcillas de cobre y la atacamita puede aumentar el costo asociado a este consumo y además disminuir la extracción final. Con esto, es clave realizar una buena estimación de las abundancias de minerales, ayudando a tomar decisiones que pueden derivar en el éxito o fracaso económico del proyecto y a reducir los costos de procesamiento. El presente estudio se realizó en el yacimiento Radomiro Tomic, en particular para el banco 28.250 que forma parte de la zona de óxidos superficiales. Dentro de esta zona, se consideró cuatro variables (arcillas de cobre, atacamita, crisocola y copper wad) que corresponden a una asociación de óxidos. Los datos disponibles provienen de pozos de tronadura y corresponden a apreciaciones visuales del porcentaje de presencia dentro de los óxidos, de forma que su medida (entre 0% y 100%) tiene un error asociado debido a su naturaleza cualitativa. Por esta razón, se clasificaron los datos en un número limitado de valores, con lo que se obtuvieron cuatro variables discretas ordenadas. Con la información anterior, se aplicaron dos métodos geoestadísticos (co-kriging y co-simulación) para modelar la distribución de las abundancias de minerales en el banco. Estos métodos se diferencian por cuanto el primero está pensado para estimación de variables produciendo un alisamiento de los valores, mientras que el segundo está pensado para reproducir la variabilidad de las abundancias reales. Ambos están basados en un modelamiento de la correlación espacial de cada variable y de las correlaciones entre variables. Luego, se buscó comparar los dos enfoques, en cuanto a sus capacidades de predecir las abundancias en sectores sin información y de medir la incertidumbre en los valores reales de estas abundancias. Los métodos propuestos presentan tiempos de cálculo disímiles, así como complejidades muy superiores en el caso de la co-simulación, la cual requiere convertir las variables discretas en variables Gaussianas. Sin embargo, a diferencia del co-kriging, la co-simulación permite reproducir la variabilidad espacial de las abundancias de minerales, con lo cual se puede determinar intervalos en donde las abundancias reales son susceptibles de hallarse y tener una mejor idea de los riesgos de tener excesos o deficiencias de ciertos minerales en el proceso metalúrgico. Finalmente la co-simulación es una herramienta muy útil para la producción en el corto plazo, a fin de determinar las mezclas enviadas a planta, pudiendo mejorarse la recuperación y la extracción y minimizar los costos de consumo de ácido y así mejorar las utilidades del negocio.
110

Proyección a largo plazo de variables hidrológicas diarias a largo plazo en la cuenca del río Tinguiririca en Bajo Los Briones, bajo escenarios A1B y A2 de cambio climático

Reyes Benavides, Christian Ariel January 2012 (has links)
Ingeniero Civil / La caracterización hidrológica de una cuenca está definida principalmente por sus variables hidrometeorológicas, las cuales están siendo afectadas al cambio climático y sus consecuencias. Esto implica limitaciones en uso de los recursos hídricos de una cuenca, lo que hace necesaria la utilización óptima de estos recursos a largo plazo. Este trabajo se centra el análisis en la cuenca definida por la estación fluviométrica Río Tinguiririca Bajo Los Briones , la cual corresponde a una cuenca cordillerana con régimen nivo-pluvial y con aprovechamientos del recurso hídrico principalmente por centrales hidroeléctricas de pasada, sin embargo, aguas abajo de la cuenca, los usos se diversifican. Los modelos de circulación general de la atmosfera (GCM s), proporcionan series meteorológicas susceptibles de ocurrir para escenarios futuros de emisiones de gases de efecto invernadero (IPCC, 2007). Sin embargo, la escala espacial de los GCM s es del orden de cientos de kilómetros, por lo que es necesario efectuar un escalamiento a nivel local. Se seleccionan aquellos GCM s con escala temporal diaria y escenarios de cambio climático A1B y A2, los cuales se correlacionan con el reanálisis NCEP/NCAR, que corresponde a un modelo meteorológico del siglo XX en base a observaciones reales, que está en continuo ajuste para simular las condiciones climáticas del planeta. Con los resultados de las correlaciones con el reanálisis, se sugiere el modelo ECHAM5 como el de mejor ajuste a la zona de estudio y con el cual se proyectan las variables meteorológicas futuras bajo los escenarios A1B y A2. Para determinar la disponibilidad del recurso hídrico en el futuro se utiliza el modelo hidrológico WEAP, el cual sólo es posible calibrar con 2 variables forzantes, precipitaciones y temperaturas. Esto, dado que en la cuenca en estudio, la disponibilidad de registros de otras variables es pobre o inexistente. Para la calibración y validación del modelo WEAP, se utiliza el período 1988- 1992. Con estos registros, se calibra y valida el modelo utilizando 4 indicadores de eficiencia, de los cuales, el Nash-Sutcliffe con valores logarítmicos (LOG NS) y el Coeficiente de Determinación con corrección por pendiente (wR2) resultan ser los más adecuados para la cuenca, obteniéndose resultados de 0,73 para LOG NS tanto en los periodos de calibración como validación y de 0,69 y 0,70 para wR2 en la calibración y validación respectivamente. Dichos resultados dan cuenta de un buen funcionamiento del modelo hidrológico, con lo que es posible simular los caudales futuros para los escenarios de cambio climático. Con el modelo WEAP calibrado y validado, se simulan los caudales futuros para los períodos de mediano y largo plazo, comprendidos entre los años 2046-2065 y 2081-2100 respectivamente. Se utilizan las variables forzantes, precipitaciones y temperaturas, provenientes del GCM ECHAM5 anteriormente seleccionado y se obtienen los caudales proyectados para los periodos de mediano y largo plazo junto con las variables meteorológicas obtenidas del GCM ECHAM5. Los resultados de las proyecciones futuras bajo escenarios de cambio climático, se comparan con el período base modelado 1978-1992, para analizar la evolución de las variables hidrometeorológicas en estudio y determinar el efecto del cambio climático en la cuenca bajo los escenarios A1B y A2. Estos resultados se traducen en disminuciones progresivas de las precipitaciones, llegando a finales del siglo XXI a tener solo un 60% de las precipitaciones de la línea base en ambos escenarios, mientras que el aumento de temperaturas llega a 3°C, lo que tiene como consecuencia una disminución en los caudales en la cuenca, que llega a un 60% de la actual como promedio para el período de largo plazo, lo que implica también, cambios en la distribución mensual de los caudales, presentándose un adelanto del período de deshielo y reducción del mismo.

Page generated in 0.2363 seconds