• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 6
  • Tagged with
  • 41
  • 41
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Existencia de sesgo hipotético en experimentos de preferencias declaradas y evaluación de un método de corrección

Chiu Puentes, Óscar Clemente January 2018 (has links)
Memoria para optar al título de Ingeniero Civil Industrial / Los modelos de elección nacidos de la Teoría de la Utilidad Aleatoria se han vuelto de gran utilidad para el estudio de la demanda en disciplinas tales como el transporte, el marketing o la economía, pues permiten explicar el comportamiento humano mediante ciertas variables de interés. Particularmente en transporte, el uso de estos modelos permite estimar el valor subjetivo del tiempo de las personas (VST), el cual se utiliza para monetizar los ahorros de tiempos de viaje en la evaluación social de proyectos. Existen dos formas principales para obtener datos para los modelos de elección: las preferencias reveladas (RP), donde se observan elecciones realizadas por personas en situaciones reales, y las preferencias declaradas (SP), donde las elecciones observadas corresponden a situaciones hipotéticas. Las preferencias declaradas son menos costosas, permiten obtener información no existente en el mercado y una mayor varianza en los datos. Sin embargo, al tratarse de decisiones hipotéticas, sus resultados pueden no reflejar el comportamiento real de las personas, lo que se denomina sesgo hipotético. En transporte, se ha encontrado que el VST estimado usando preferencias declaradas es la mitad del real debido a este sesgo. El método de preferencias declaradas sobre preferencias reveladas (SP-off-RP) surge como alternativa para aumentar el realismo de las preguntas hipotéticas al construirlas basándose en una decisión similar reciente de la persona, con el fin de aprovechar las ventajas de las preferencias declaradas evitando el sesgo hipotético. Sin embargo, no existe evidencia de que esto pueda ser logrado en la práctica. Por lo tanto, la presente memoria pretende determinar empíricamente la capacidad de corregir el sesgo hipotético utilizando experimentos SP-off-RP. Para esto, se diseñan tres experimentos de elección modal: uno usando SP, otro RP y otro SP-off-RP. Dada la poca literatura existente, para SP-off-RP se evalúa el desempeño de distintos diseños utilizando simulaciones de Monte Carlo con el fin de escoger cuál utilizar. Se crea una encuesta online para medir el valor subjetivo del tiempo que reportan las personas según cada modelo. Se toma el supuesto que los resultados RP no presentan sesgo hipotético al corresponder a elecciones reales, por lo que éstos se usan como referencia para medir el sesgo presente en los resultados SP y SP-off-RP. Usando tests de razón de veromililitud y desempeño en predicicciones fuera de muestra, se concluye que existe sesgo hipotético en experimentos SP con una significancia estadística del 5 %, y que SP-off-RP permite corregirlo. De igual forma, se obtiene que en promedio el VST medido utilizando SP es 0,53 veces el valor medido en RP, lo cual va en línea con lo encontrado en la literatura. Estos resultados sugieren que, particularmente en transporte, urge corregir el uso de preferencias declaradas en la toma de decisiones, pues la información obtenida está muy lejana de representar la realidad. En este caso, SP-off-RP prueba ser un buen reemplazo que además cuenta con las ventajas de ser fácil de implementar y estimar.
32

Sistemas Dinámicos en Ciencias Sociales: Una Aproximación Metodológica

Carrasco Armijo, José Ignacio January 2008 (has links)
Memoria para optar al título de Sociólogo / En esta memoria se proponen algunas consideraciones metodológicas para la realización de investigaciones en Ciencias Sociales que se apoyen en el uso de sistemas dinámicos. Para lo cual se ha divido en tres partes. En la primera parte se desarrollan las definiciones fundamentales de la teoría de sistemas dinámicos. En la segunda se revisan los antecedentes en cuanto a aplicaciones ya realizadas en Ciencias Sociales. En la tercera parte, se desarrollan nociones básicas sobre la construcción de modelos, en tanto es un momento fundamental en este tipo de investigaciones, mencionando algunos casos ejemplares que permiten reflexionar sobre aspectos clave de este proceso. Por otro lado, se presenta una breve investigación en Ciencias Sociales en que es relevante la utilización de un modelo basado en sistemas dinámicos, definiendo el diseño de investigación, además de los resultados obtenidos y comentarios correspondientes, enfatizando el papel de las simulaciones computacionales en este tipo de investigaciones. Finalmente, se proponen algunas modificaciones a la investigación con el objetivo de dejar planteado ulteriores avances más sociológicos en el tema
33

Análisis numérico unidimensional de la influencia del régimen hidroclimático sobre los flujos subsuperficiales en zonas montañosas del centro-norte de Chile

Órdenes González, Franco Adolfo January 2018 (has links)
Ingeniero Civil / La zona no saturada está implicada en una serie de procesos hidrológicos relevante en el transporte de contaminantes: infiltración, recarga de aguas subterráneas, etc. Por ello, es de suma importancia analizar los flujos subsuperficiales de esta zona, en lugares donde la minería es una actividad relevante, pues dicha actividad está asociada a problemas de contaminación, como lo es el drenaje ácido. En el presente trabajo, se evalúa el movimiento y generación de estos flujos en la base de una columna de material homogéneo, bajo distintos escenarios hidrológicos, mediante el modelo computacional HYDRUS-1D. Más específicamente, se simulan tres materiales distintos: muy grueso (GRV), grueso (SBL) y fino (SLT); sobre ellos se aplican cuatro condiciones hidrológicas distintas. En la cuenca del río Mapocho en los Almendros se tienen a escala de sitio: Manto de nieve estacional (condición A) y solo precipitación líquida (condición B). De la cuenca alta del río Copiapó se tiene, también a escala de sitio: un manto de nieve efímero (condición C) y solo precipitación líquida (condición D). Cada condición cuenta con la información de un año completo (detalle horario), para la simulación y obtención de resultados se reitera el registro durante un periodo de 40 años. Sumado a lo anterior, se realiza un análisis de sensibilidad al variar la profundidad del material (H=30, 60 y 90 m) y se evalúa el efecto del cambio climático en los sitios de estudio. En consecuencia, se tiene un total de 60 simulaciones. Como principales resultados se obtiene que la condición que más percolación en la base genera, es A, seguida por B, D y luego C. En cuanto a los materiales, SBL resulta ser el que más rápido transporta el fluido, seguido por GRV, mientras que SLT tiende a acumular mayor volumen de agua en su interior. En general, el cambio climático implica una disminución en las tasas de percolación en la base del sustrato. El efecto del aumento en la profundidad del sustrato, es la tendencia disminuir las variaciones extremas a lo largo del año, logrando un caudal más estable. Otro efecto al variar H, es el impacto sobre los tiempos de inicio de percolación en la base, donde un aumento de H al doble o triple, significa poco más del doble o triple de tiempo con respecto al caso H=30 m. Las numerosas simulaciones llevadas a cabo son de gran utilidad como un primer paso para comprender el complejo comportamiento de los flujos subsuperficiales en la zona no saturada de botaderos o suelos naturales. La investigación elaborada puede ser aprovechada para evaluar en una primera instancia y sin información detallada del terreno, el posible rango de valores alcanzados por los caudales generados, los valores mínimos o bases, los máximos, su duración y las variaciones durante el año.
34

Applications of generalized isogeometric analysis to problems of two-dimensional steady-state heat conduction

Pérez Hermosilla, maximiliano Andrés January 2017 (has links)
Ingeniero Civil Mecánico / El método de aproximación de campo de geometría independiente (GIFT) introducido recientemente en [1] como una extensión del análisis isogeométrico (IGA), permite diferentes bases para la parametrización de la geometría y la aproximación de campo. Por ejemplo, se demostró en [1] cómo se puede emparejar la geometría CAD original dada por NURBS con la solución dada por PHT-splines para problemas bidimensionales de conducción de calor regidos por la ecuación de Poisson. Esta modificación permite superar ciertas deficiencias del método IGA, como la ausencia de refinamiento local, que es crucial para los problemas donde las soluciones muestran altos gradientes, manteniendo la principal ventaja de IGA, es decir, la estrecha integración del análisis con el diseño de CAD. Este trabajo es una extensión del trabajo realizado en [1]. Tiene dos objetivos principales: el primero es estudiar la adaptabilidad local de la solución, esto se logra implementando y comparando tres medidas de error diferentes; la segunda parte consiste en el estudio de la dependencia de la parametrización de la geometría en la solución, para este objetivo, se analizan dos parametrizaciones diferentes del mismo problema. Para estudiar la adaptabilidad local, se resuelven dos problemas usando tres métodos diferentes, usando indicadores de error para seleccionar las celdas a refinar: el Método 1 usa un indicador de error de norma-L2, el Método 2 usa un indicador de error basado en residuos y el Método 3 usa un algoritmo jerárquico. Para probar estos métodos se utiliza el método GIFT con su geometría definida por NURBS y un campo de solución definido por PHT-Splines, las tasas de convergencia, las mallas refinadas y las gráficas de error se comparan con la solución analítica y el refinamiento homogéneo. Finalmente, dos de los tres métodos muestran mejoras en comparación con el refinamiento homogéneo, donde el Método 2 presenta los mejores resultados, seguido de cerca por el Método 1 y finalmente el método 3, que presenta peores resultados que el refinamiento homogéneo. Para la dependencia de la parametrización de la geometría, los resultados obtenidos muestran una diferencia entre las parametrizaciones, concluyendo que la parametrización de la geometría si afecta la solución, además, se observa que al utilizar el método de refinamiento adaptativo local se presentan mejores tasas de convergencia para ambas parametrizaciones. Se espera que este trabajo conduzca a posteriores mejoras del método GIFT, propuesto en [1].
35

Algoritmo genético para el despacho de técnicos con dependencia del tiempo

Bravo Valenzuela, José Ignacio January 2017 (has links)
Ingeniero Civil Industrial / La empresa Xerox en Chile ofrece el servicio de reparación de equipos de oficina tales como impresoras y fotocopiadoras. Para ello cuenta con una dotación de técnicos que se trasladan hacia los clientes para realizar el trabajo. La estrategia de la empresa es atender las solicitudes de trabajo tan pronto como sean recibidas, es decir, organizar y atender durante el día las llamadas que van recibiendo por parte de sus clientes. Cuando esto no es posible, ciertos clientes son postergados para otro día. Como consecuencia de dicha estrategia, las llamadas que no alcanzaron a ser atendidas a tiempo por los técnicos llegó al 54% para el periodo 2002-2003 en la ciudad de Santiago, considerándose esto un deterioro en la calidad de atención. En este trabajo se propuso disminuir la cantidad de clientes postergados junto con la distancia recorrida mediante la planificación eficiente de las rutas. La metodología consistió en abordar la situación como un problema de ruteo de vehículos, donde además los tiempos de viaje no son fijos, sino que dependen de la hora del día. Este problema es conocido como el Problema de Ruteo de Vehículos con Dependencia del Tiempo (TDVRP por sus siglas en inglés). Debido a la necesidad de encontrar soluciones rápidas, el problema fue resuelto mediante Algoritmo Genético, el cual consiste en generar un conjunto de rutas aleatorias de clientes y luego intercambiar entre sí pequeños segmentos para crear nuevas y mejores rutas, imitando de tal forma el proceso de recombinación genética presente en la naturaleza. Se consideró también un cambio en la política de atención, donde ahora todos los llamados serían atendidos al día siguiente para una mejor planificación. Los resultados se obtuvieron para una semana de operación. Las soluciones alcanzaron tasas de retraso entre 6-20% en comparación con el 59% de la situación real de aquella semana. Respecto de la dependencia del tiempo, los resultados mostraron que no hubo diferencias significativas al incluir variación en los tiempos de viaje en comparación con tiempos de viaje fijos. Se concluye que el cambio en la estrategia de atención y una buena planificación inicial mejoran ostensiblemente la cantidad de clientes que deben ser postergados, esto implica una oportunidad de mejora en la calidad de servicio que ofrece Xerox. Por otro lado, incluir dependencia de la hora del día en los tiempos de viaje no significó un aporte al modelo en cuanto calidad de las soluciones. Aquello podría explicarse por tiempos de servicio mayores que los tiempos de viaje, haciendo que el impacto de estos últimos sean irrelevantes para la solución del modelo en una ciudad.
36

Advice taking : un meta-análisis

Ventura, Santiago 04 1900 (has links)
TESIS PARA OPTAR AL GRADO DE MAGÍSTER EN GESTIÓN DE PERSONAS Y DINÁMICA ORGANIZACIONAL / Día a día, nos vemos expuestos a contextos de toma de decisiones en los cuales los consejos que recibimos juegan un rol fundamental, sobre todo ante la gran variedad de contextos en los que no contamos con los conocimientos suficientes para tomar decisiones correctas. Pese a esto, a la fecha no se cuenta con una recopilación sistemática de carácter cuantitativo que permita vislumbrar qué variables influyen en la incorporación de consejos en la toma de decisiones. En este trabajo se busca encontrar la relación entre distintas variables y la toma de consejos con la finalidad de comprender su relevancia en la toma de decisiones. Para esto, se llevaron a cabo análisis de correlaciones, regresiones y análisis de mediación para dar una segunda vuelta a la mirada superficial que generalmente se hace a variables demográficas que típicamente su usan como control. Los resultados muestran que; el advicetaking es mayor a 30%; gente inexperta toma más advice; gente mayor toma menos advice; las mujeres toman más advice que los hombres; gente con mayor Confianza toma menos advice; el advice mejora la accuracy de las estimaciones; el efecto indirecto de la Edad sobre la accuracy de la estimación final, mediado por advice-taking, es negativo; el efecto indirecto del Sexo sobre advice-taking, mediado por accuracy de la estimación inicial, es positivo y; no existe efecto indirecto significativo entre Sexo y advice-taking mediando por Confianza. Posteriormente, se discuten las implicancias que tienen los resultados de este trabajo para la gestión de personas, en términos políticos y su contribución al conocimiento científico.
37

Implementacion de un algoritmo de monitoreo de salud estructural basado en objetos simbolicos y clasificación por agrupamiento

Lagos Flores, Gustavo Patricio January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Ingeniería Sísmica / El presente trabajo de Tesis muestra la implementación y análisis de variados métodos de aprendizaje de máquinas y minería de datos, desde la fase de extracción de características sensibles usando objetos simbólicos y clasificación mediante algoritmos de agrupamiento, para el estudio y monitoreo de la condición estructural de obras civiles, con énfasis en la detección temprana de la ocurrencia de daños estructurales. El monitoreo de salud estructural mediante algoritmos de minería de datos, reconocimiento de patrones y aprendizaje de máquinas es un campo moderno y activo en la Ingeniería Civil. El flujo general es que a partir de mediciones de aceleración en sitio y utilizando metodologías de identificación de sistemas, se extrae la información modal que representa algún modelo clásico de la dinámica estructural. En este trabajo se busca extender el tipo de información que se puede extraer desde las series de aceleración, estudiando el uso de las series de aceleración en bruto y a su vez mediante la extracción de características sensibles usando ajustes de modelos autoregresivos. La metodología global que se utiliza está basada en el agrupamiento de objetos simbólicos que representan el comportamiento estadístico de características sensibles, y se implementa tanto en series de aceleración obtenidas en laboratorio como en un edificio en operación instrumentado. En el segundo capítulo se estudian las series de aceleración en bruto como entrada para la transformación a objetos simbólicos con uso de histogramas e intervalos intercuartiles, concluyéndose que la energía de entrada es altamente determinante en los grupos obtenidos por los algoritmos de clasificación. Aún así, se puede extraer información del estado estructural si se analizan series de aceleración obtenidas desde un misma condición operacional y ambiental. En el tercer capítulo se estudia la extracción de otro tipo de característica basada en modelos autoregresivos, con las que se generan series de coeficientes de modelos AR(p) ajustados a las series de aceleración originales, encontrándose que los parámetros AR son mucho más sensibles a los cambios estructurales que la aceleración y que dicha sensibilidad puede aumentarse sin pérdida de robustez si se consideran líneas base de referencia. En el cuarto capítulo se analiza el uso de las series de coeficientes AR como entrada para la condensación a objetos simbólicos con los que realizar el agrupamiento, consiguiendo una mejora considerable en la separación de con respecto al uso de las series de aceleración en bruto.
38

Evaluación de algoritmos de ruteo en nuevo sistema de fizcalización de Transantiago

Beltrán Christiny, Cristóbal January 2018 (has links)
Ingeniero Civil Industrial / Todas las ciudades, a medida que se comienzan a extender y densificar, se ven enfrentadas al complejo fenómeno del sistema de transporte público, donde constantemente está en juego el desafío de lograr transportar una gran cantidad de gente de forma eficiente y efectiva. Actualmente, el sistema de transporte público de Santiago se ve afectado por un problema importante: los usuarios evaden el pago del pasaje. Según cifras recientes del año 2017, el índice de evasión supera el 30%, manteniendo una tasa creciente en el tiempo, y es bajo esta preocupación que se propone el proyecto FONDEF Desarrollo de tecnologías para el control de la evasión en el transporte público . Este proyecto busca desarrollar algoritmos eficientes para la resolución de un modelo de fiscalización a gran escala con el fin de mejorar los índices de efectividad del sistema de fiscalización actual y es en este contexto que se desarrolla esta memoria de título. Los modelos, considerados en el marco del proyecto, consisten en una estrategia mixta de fiscalización sobre el grafo de paraderos de Santiago, es decir, una densidad de probabilidad de fiscalización dentro del área de cobertura. Sin embargo, la implementación de estos resultados al sistema no es directa. Es por este motivo que este trabajo busca implementar un modelo de calendarización, que condense un estado probabilístico a una respuesta humanamente realizable, pero que a la vez sea eficiente en su ejecución. En virtud de este objetivo, se implementan dos modelos de calendarización diferentes; uno estático, que mantiene el sistema actual de fiscalización por paraderos, y uno dinámico, que se ajusta a sistemas de fiscalización implementados en otros países y permite la fiscalización con los buses en movimiento. Esta segunda estrategia permite ampliar el abanico de oportunidades que tiene el área de fiscalización del DPTM para cumplir su tarea. Dentro del arista estática, se generan dos propuestas: un sistema más directo, donde se genera una submuestra con su matching respectivo, y un segundo sistema más desarrollado, donde se genera una combinación de turnos a realizar. Generando una diferencia de hasta 92% en los costos de transporte entre estos modelos. Con respecto al modelo dinámico, se mejora en un 42% la capacidad de ejecutar correctamente los resultados de fiscalización. Esta mejora corresponde a la comparación de un modelo aleatorio con respecto a un modelo de decisión dinámica glotón por tramos. A modo de conclusión se propone la implementación del sistema estático en el corto plazo, mientras se trabaja en la formulación de modelos de decisión dinámicos más robustos a los utilizados actualmente junto con la generación de las herramientas necesarias para su correcta implementación. Como trabajo futuro se propone estudiar la posible implementación de un modelo híbrido que mantenga características tanto estáticas como dinámicas.
39

Desarrollo de un modelo numérico de un panel de fibra de carbono con núcleo NOMEX y daño tipo delaminación

Castro Silva, Francisco Vicente January 2019 (has links)
Memoria para optar al título de Ingeniero Civil Mecánico / Una estructura tipo sándwich consiste en dos placas exteriores delgadas de un material A y un núcleo grueso de material B (pudiendo ser ambos iguales), los que se unen con el uso de adhesivos en configuración A-B-A. Entre sus características destaca su excelente relación peso-resistencia, lo que ha hecho que tal tipo de construcción sea ampliamente usado en fuselaje de aviones, mamparos de barcos, incluso su uso se ha extendido a la construcción de aspas de turbinas eólicas. La delaminación es un problema que ataca a este tipo de estructuras y consiste en el despegamiento entre las placas exteriores y el núcleo, cuyo origen puede ser un golpe que pudiera sufrir la estructura o una fabricación defectuosa, entre otros. Detectar este tipo de falla es fundamental para evitar la falla catastrófica de la estructura para lo cual existen algoritmos de identificación de daño que utilizan los modos normales de vibración de la placa. Estos métodos requieren, en primer lugar, generar un modelo numérico o analítico que reproduzca los modos de vibración de la estructura con y sin daño. El objetivo general del presente trabajo es desarrollar un modelo numérico en Elementos Finitos de un panel tipo sándwich de capas externas de fibra de carbono con un núcleo de material Nomex. Para alcanzar el objetivo general se plantean como objetivos específicos aprender a usar el software de elementos finitos, desarrollar modelo con y sin daño tipo delaminación y ajustar el modelo a las mediciones experimentales existentes del panel. La metodología del proceso consiste en primer lugar aprender a usar el software de elementos finitos escogido, seguido del desarrollo del modelo, la determinación de las propiedades de los materiales o parámetros del modelo, el ajuste con datos experimentales y finalmente la evaluación del modelo. En caso de que la evaluación no sea positiva se vuelve a ajustar los parámetros del modelo y se repite el proceso. Respecto a los resultados, se obtienen correlaciones numérico-experimentales satisfactorias de 4 modos en el caso sin delaminación y 3 modos para el caso con delaminación.
40

Incertidumbre de parámetros hidrogeológicos en simulaciones predictivas con aplicación en subcuenca del río Rapel, Región de Coquimbo

Godoy Maturana, Valeria Isabel January 2018 (has links)
Geóloga / En este trabajo de título se analiza la influencia de la incertidumbre en los parámetros hidráulicos conductividad hidráulica y rendimiento específico en un modelo hidrogeológico sobre las simulaciones predictivas. El trabajo incluye el desarrollo de un marco teórico en el cual se abarcan los conceptos básicos de la modelación hidrogeológica y de la incertidumbre existente en ella. Junto con la aplicación y análisis en un modelo numérico existente en el sector del río Rapel en la región de Coquimbo. El marco teórico entrega la definición de diferentes conceptos asociados a la modelación hidrogeológica, así como las consideraciones mínimas para el desarrollo de un modelo conceptual y numérico. Además, entrega información respecto de las diferentes fuentes de incertidumbre y, específicamente, enfatiza la incertidumbre paramétrica y las metodologías para evaluarla y reducirla. Se presenta una aplicación práctica del análisis de incertidumbre en un modelo numérico, utilizando un modelo creado por Véliz (2018) en la subcuenca del río Rapel, IV Región. Este modelo fue calibrado considerando 15 tasas de recarga diferentes, con lo cual se obtuvo 15 sets de parámetros de conductividad hidráulica y rendimiento específico consistentes en la zona. En primer lugar, se realiza un análisis de incertidumbre a los parámetros calibrados en el modelo, con el fin de apreciar los efectos de la calibración sobre los rangos paramétricos posibles en el modelo, con la intención de reducir estos rangos. En segundo lugar, se realiza una simulación predictiva a cada una de las 15 series calibradas, utilizando dos escenarios futuros; uno en el cual se mantiene la condición natural del sistema sin aplicar estrés adicional al acuífero y únicamente se evalúan los diferentes resultados de cota hidráulica simulados; y, otro, en donde se utiliza una serie de recarga única para los |5 set de parámetros y se aplica estrés al acuífero en forma de pozos de bombeo ubicados en una zona específica del modelo, con el fin de comparar los diferentes caudales que cada escenario es capaz de extraer. Se analiza del primer escenario de simulación, una amplia variación de cota hidráulica simulada en cada una de las 15 series, al igual que en el segundo escenario se observan variaciones importantes de capacidad de bombeo entre cada una de las series. Se concluye que dependiendo del set de parámetros a utilizar y del uso que se requiera del acuífero, se puede obtener una gama de resultados amplia. Se observa una dependencia importante entre los parámetros utilizados y los resultados simulados, con amplias variaciones en estos últimos al cambiar los parámetros, a pesar de que todos estos se encuentren dentro del rango posterior admisible. Se demuestra que la manera correcta de realizar un modelo hidrogeológico corresponderá a la metodología de modelo estocástico, con la realización de un análisis de incertidumbre asociado, del cual se obtiene una distribución de resultados, cada uno con un porcentaje de probabilidad de ocurrencia, con lo que se pueden evaluar las diferentes acciones a tomar sobre el acuífero.

Page generated in 0.0713 seconds