• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 4
  • 2
  • 2
  • Tagged with
  • 42
  • 12
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Distribución uniforme sobre la Intersección de un simplex y una esfera en dimensiones altas

Cabanillas Banda, Wilson Alberto 18 October 2017 (has links)
La presente tesis es acerca de deducir propiedades asintóticas acerca de la distribución uniforme sobre la intersección de una esfera y un simplex en Rn cuando la dimensión del espacio euclideano tiende a infinito. Claramente, para que tal intersección sea no vacía es necesario que los tamaños de la esfera y el simplex, que también haremos crecer al infinito, sean configurados de modo adecuado (esto es discutido con detalle en el Lema 2.1). El resultado importante de este trabajo es que, de acuerdo a la \razón asintótica" entre los tamaños de la esfera y el simplex, la distribución uniforme sobre la intersección de ellos se comportaría de modos absolutamente distintos. Para dar una idea aproximada del resultado que conseguiremos podemos explicarlo del siguiente modo: Si n es muy grande y (X1; : : : ;Xn) es un punto elegido uniformemente sobre la intersección de una esfera (euclideana) de radio (raíz de nb) y un simplex de radio n (respecto a la norma de la suma) en Rn entonces (i) Para 1 < b < 2 el tamaño de cada componente jXj j es de orden menor o igual a (raíz de log(n) (en particular, no existe una componente notablemente mayor que las demás). (ii) Para b > 2, existe una componente del vector cuyo tamaño es de orden raíz de n) mientras que el tamaño del resto de componentes es de orden estrictamente menor. Los enunciados precisos de estas afirmaciones son los Teoremas 2.3 y 2.4 de la Sección 2.2. Estos teoremas incluyen también el resultado de lo que sucede en el valor crítico b = 2. / Tesis
2

Distribución uniforme sobre la Intersección de un simplex y una esfera en dimensiones altas

Cabanillas Banda, Wilson Alberto 18 October 2017 (has links)
La presente tesis es acerca de deducir propiedades asintóticas acerca de la distribución uniforme sobre la intersección de una esfera y un simplex en Rn cuando la dimensión del espacio euclideano tiende a infinito. Claramente, para que tal intersección sea no vacía es necesario que los tamaños de la esfera y el simplex, que también haremos crecer al infinito, sean configurados de modo adecuado (esto es discutido con detalle en el Lema 2.1). El resultado importante de este trabajo es que, de acuerdo a la \razón asintótica" entre los tamaños de la esfera y el simplex, la distribución uniforme sobre la intersección de ellos se comportaría de modos absolutamente distintos. Para dar una idea aproximada del resultado que conseguiremos podemos explicarlo del siguiente modo: Si n es muy grande y (X1; : : : ;Xn) es un punto elegido uniformemente sobre la intersección de una esfera (euclideana) de radio (raíz de nb) y un simplex de radio n (respecto a la norma de la suma) en Rn entonces (i) Para 1 < b < 2 el tamaño de cada componente jXj j es de orden menor o igual a (raíz de log(n) (en particular, no existe una componente notablemente mayor que las demás). (ii) Para b > 2, existe una componente del vector cuyo tamaño es de orden raíz de n) mientras que el tamaño del resto de componentes es de orden estrictamente menor. Los enunciados precisos de estas afirmaciones son los Teoremas 2.3 y 2.4 de la Sección 2.2. Estos teoremas incluyen también el resultado de lo que sucede en el valor crítico b = 2. / Tesis
3

Estudio de tres propuestas de distribución skew-t

Kantor Benavides, Alejandro 20 June 2016 (has links)
Este trabajo compara tres distribuciones skew-t. En particular, las propuestas por Branco y Dey (2001) y Azzalini y Capitanio (2003), Fernández y Steel (1998), y Jones y Faddy (2003). Se analiza la relación entre los parámetros y el nivel de asimetría a través de la medida de Patil et al. (2014). Se propone una nueva parametrización de la distribución skew-t de Jones y Faddy (2003) que modela mejor la asimetría. Las distribuciones son ajustadas a datos reales basados en el retorno logarítmico de la tasa de cambio de PEN a USD. / Tesis
4

Análisis de riesgo en la cuenca baja Puyango-Tumbes, Perú, durante eventos El Niño extremo

León Altuna, Karen Beatriz January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Recursos y Medio Ambiente Hídrico / La región Tumbes, ubicada en la costa norte peruana, se ve frecuentemente afectada por inundaciones que provocan pérdidas sociales y económicas a la ciudad del mismo nombre. Muchas de estas crecidas que escurren por la cuenca pluvial transfronteriza del río Puyango-Tumbes, entre Perú y Ecuador, ocurren durante eventos El Niño extremo (calentamiento muy anómalo en el Pacífico Este). Bajo esta premisa, el análisis de frecuencias de caudales máximos instantáneos constituye una herramienta importante en la gestión de desastres ante inundaciones y en el diseño de obras hidráulicas. Este es un componente clave que caracteriza la amenaza climática en el análisis de riesgo. En este trabajo, se ha realizado la modelación hidrológica basada en eventos de la cuenca Puyango-Tumbes en El Tigre (4710 km2), de forma semi-distribuida mediante HEC-HMS (Hydrologic Engineering Center Hydrologic Modeling System) y en un paso de tiempo de 30 minutos. La modelación permite generar información fluviométrica en el periodo en que no se cuenta con registro a escala sub-diaria. Para ello, la precipitación diaria fue desagregada a partir de patrones encontrados en su ciclo diurno. El modelo fue calibrado y validado para simular los caudales peaks de los 45 eventos más extremos en la estación El Tigre para el período 1970/71 - 2014/15. Finalmente, se realizó el análisis de frecuencias de los caudales máximos instantáneos, se identificaron zonas inundables a partir de imágenes satelitales y se propone la metodología para generar mapas de riesgo ante inundaciones incorporando la vulnerabilidad de la zona. Los resultados muestran un ajuste regular entre los hidrogramas simulados y observados en El Tigre (mediana del índice de eficiencia de Nash-Sutcliffe de 0,54), donde el caudal peak se subestima un 20% en promedio durante la etapa de calibración y validación. En la etapa de verificación, el ajuste mejora a nivel diario en otros puntos de control fluviométrico gracias a un mayor número de estaciones operativas. Para los puntos J1 (508 km2), J6 (2110 km2) y J8 (2722 km2), ordenados de menor a mayor orden de cauce, el coeficiente de correlación entre caudal simulado y observado mejora de 0,04 a 0,68, de 0,39 a 0,65 y de 0,25 a 0,64, respectivamente. La metodología propuesta para la desagregación de precipitación diaria resultó adecuada a nivel temporal para simular hidrogramas de crecidas en esta zona, evidenciado por una mediana del error en el tiempo al peak de -1,8 horas (peak simulado ocurre después del observado). Sin embargo, se necesitan más datos de precipitación a nivel espacio-temporal para mejorar la estimación de la forzante. La modelación hidrológica permitió generar una serie caudales máximos instantáneos y, a partir del análisis de frecuencias, estimar el periodo de retorno, siendo éste igual a 61 años para el evento más extremo que ocurrió en febrero de 1997-98. Durante los eventos más extremos que ocurrieron en los años El Niño 1982-83 y 1997-98, se observó que el principal aporte a la escorrentía ocurre en la cuenca media baja. Además, en este último evento, se produjo una variación considerable del cauce del río en la zona cercana a la ciudad de Tumbes evidenciada a través del análisis de imágenes satelitales.
5

Factores que determinan la demora en la activación y reserva de los cubículos en la sede Monterrico-UPC

Juárez Martínez, Brenda Katherine, Salinas Veliz, Luis, Lovon Vega, André Marcelo 24 June 2019 (has links)
Trabajo del curso Estadística Aplicada II, ciclo 2019-1, desarrollado por los estudiantes de cuarto ciclo de los Programas Académicos de Ingeniería Industrial e Ingeniería de Gestión Empresarial. Universidad Peruana de Ciencias Aplicadas (UPC) / El presente trabajo tiene como finalidad determinar cuáles son los factores que ocasionan la demora en el momento de activar y/o reservar cubículos de los pabellones L e I en la Universidad Peruana de Ciencias Aplicadas (UPC) de la sede de Monterrico en el periodo del 2019-01, para que la universidad pueda buscar una mejor solución y poder satisfacer a los miles de alumnos que utilizan este servicio para poder estudiar de forma más cómoda. Para poder resolver dicha problemática, se tomaron tiempos (con un cronometro) en las diferentes semanas académicas, dando como resultado que las semanas con más necesidad de usar dicho servicio son las semanas 6 y semana 7, en especial la última semana mencionada, ya que es la semana donde los universitarios forman grupos de estudios o de trabajo para poder estudiar o realizar algún trabajo debido a que según el calendario brindado por la universidad la semana 8 son los exámenes o trabajos parciales. Además, la universidad nos brindó asesorías y una base de datos que realizaron ellos antes del presente ciclo a analizar, con toda la información recolectada se puedo profundizar más en el tema a trabajar, todo esto se organizó en una ficha de tiempos para tener más ordenado los datos que se consiguieron. Para ello, se utilizó los temas realizados en el curso de estadística aplicada 2 para poder afirmar o rechazar nuestras hipótesis planeadas a continuación.
6

Modelos testlet logísticos y logísticos de exponente positivo para pruebas de compresión de textos

Flores Ari, Sandra Elizabeth 16 August 2012 (has links)
Los modelos de Teoría de Respuesta al Item (TRI) para datos binarios multivariados, permiten estimar una medida latente (de habilidad) a partir de información observada, que puede ser respuestas dicotómicas (de éxito y fracaso) a un conjunto de ítems de una determinada prueba. Uno de los supuestos críticos en los modelos TRI es la independencia condicional de los ítems, que permite el cálculo directo de la verosimilitud del modelo. En muchas situaciones de evaluación este supuesto no se cumple, como es el caso de pruebas de comprensión de textos, en la que se presenta un texto y luego varias preguntas relacionadas con ese texto. Este tipo de estructuras son denominadas como testlets. Bradlow et al. (1999) desarrollaron una parametrización adicional para recoger el efecto de esta dependencia. A partir de este trabajo se presenta el modelo Testlet logístico y se propone el modelo Testlet logístico de exponente positivo (2LPET), que es una extensión del modelo LPE propuesto por Samejima (1999) y Bazan y Bolfarine (2010) y considera enlaces asimétricos. Se desarrollaron varios estudios de simulación en los que se muestra que cuando se tiene testlets, los modelos Testlet recuperan mejor los parámetros respecto a los modelos TRI. Finalmente se realizó una aplicación con datos del Ministerio de Educación, específicamente con los resultados de la prueba de comprensión de textos de la Evaluación Censal de Estudiantes (ECE) dirigido a estudiantes de segundo grado de primaria, en un conjunto de escuelas de Lima metropolitana. De los resultados obtenidos se concluye que los modelos TRI sobreestiman la medida de habilidad respecto a los modelos Testlets y además la información de la prueba es mejor distribuida por el modelo propuesto. / Tesis
7

Dano multicausal: incerteza e prova na responsabilidade ambiental

Dexheimer, Marcus Alexsander 13 May 2021 (has links)
Los desafíos ecológicos contemporáneos están insertos en el contexto de la sociedad del riesgo, escenario que emergió de la modernidad en la transición para la posmodernidad. Este período se caracteriza por la complejidad y la incertidumbre, lo que hace frágil la estabilidad que hasta entonces se imponía a los vínculos causales. Pero, las incertidumbres del conocimiento científico no pueden utilizarse como excusa contra la responsabilidad por daños ambientales y tampoco pueden atribuir responsabilidad a quien no dio causa alguna al hecho nocivo. Por lo tanto, en situaciones de complejidad, en el ámbito probatorio, es posible establecer indicadores de probabilidad para establecer niveles de responsabilidad. De hecho, abordar las demandas de responsabilidad ambiental no se limita a esbozar una nueva teoría del nexo causal, calzada únicamente en las instituciones tradicionales del derecho material, exigiéndose un análisis conjugado del derecho probatorio pertinente. En este contexto, la causalidad fundada en probabilidades posibilita una solución que trasciende los modelos estancos de responsabilidad total o de plena exoneración, admitiéndose valores que flotan entre esos extremos en un ambiente de causalidad probable, indicativo de grados de incertidumbre. Además, las medidas preventivas que se adopten deben incidir en el resultado final de la responsabilidad, o sea: cuanto un agente aporte de pruebas que coloquen en evidencia la minimización de riesgos de causar daño ambiental es inversamente proporcional a su parte de responsabilidad. Por otro lado, daños de alta magnitud o elevada diseminación, respecto de que los responsables no sean adecuadamente determinables, pueden ser colocados en evidencia por medio de estudios científicos. Aquí no se busca algo al respecto de la causalidad para el caso concreto y es posible, entonces, dispensar de la prueba de pericia, a partir de una presunción de causalidad. Tal presunción solamente será invertida si el operador comprueba que adoptó las medidas preventivas de daños fundadas técnicamente en la mejor tecnología disponible. La propuesta, por lo tanto, es que la solución conjugue teoría de la causalidad, repercusión procesal de medidas preventivas y contexto probatorio del caso concreto.
8

El modelo de larga duración Weibull-Geométrica

Torres Salinas, Karina Hesi 20 March 2019 (has links)
Los modelos de larga duración son una extensión de los modelos de supervivencia tradicional y nos permiten modelar una proporción de la población que no llegan a experimentar un evento de interés, incluso después de un largo periodo de seguimiento. En este trabajo se presenta y deduce la distribución de larga duración Weibull-Geométrica y su proceso de estimación e inferencia. Se desarrolló un estudio de simulación con el un de evaluar el desempeño de las estimaciones y determinar si se recuperan los parámetros. Asimismo el modelo fue aplicado a una muestra de clientes que adquirieron y activaron una tarjeta de crédito entre enero a diciembre del año 2015 y donde el principal objetivo del análisis era entender el comportamiento del tiempo hasta la cancelación de la tarjeta de crédito del cliente. Comparamos al modelo de larga duración Weibull-Geométrica con otros modelos de larga duración, Exponencial-Geométrica y Weibull. Los resultados indican que nuestro modelo muestra un mejor ajuste en los datos. / Tesis
9

Subdifferential calculus in the framework of Epi-pointed variational analysis, integral functions, and applications

Pérez Aros, Pedro Antonio January 2018 (has links)
Tesis para optar al grado de Doctor en Ciencias de la Ingeniería, Mención Modelación Matemática / La investigación de esta tesis es presentada en seis capítulos, desde el Capítulo 2 al Capítulo 7. El capítulo 2 proporciona una demostración directa de una caracterización reciente de convexidad dada en el marco de los espacios de Banach en [J. Saint Raymond, J. Convexo no lineal Anal., 14 (2013), pp. 253-262]. Estos resultados también extienden esta caracterización a espacios localmente convexos bajo condiciones más débiles y se basa en la definición de una función epi-puntada. El Capítulo 3 proporciona una extensión del Teorema Br{\o}ndsted-Rockafellar, y algunas de sus importantes consecuencias, a las funciones convexas semicontinuas inferiores definidas en espacios localmente convexos. Este resulado es demostrado usando un nuevo enfoque basado en un principio variacional simple, que también permite recuperar los resultados clásicos de una manera natural. El Capítulo 4 continúa el estudio de la epi-puntadas no convexas, bajo una definición general de subdiferencial. Este trabajo proporciona una generalización del teorema del valor medio de Zagrodny. Posteriormente este resultado es aplicado a los problemas relacionados con la integración de subdiferenciales y caracterización de la convexidad en términos de la monotonicidad del subdiferencial. El Capítulo 5 proporciona una fórmula general para $\epsilon$-subdiferencial de una función integral convexa en términos de $\epsilon$-subdiferenciales de la funcion integrante. Bajo condiciones de calificación, esta fórmula recupera los resultados clásicos en la literatura. Además, este trabajo investiga caracterizaciones del subdiferencial en términos de selecciones medibles que convergen al punto de interés. El Capítulo 6 proporciona fórmulas secuenciales para subdiferenciales bornológicos de un funcional integral no convexo. También son presentadas fórmulas exactas para el subiferencial Limiting/Mordukhovich, el subdiferencial Geometrico de Ioffe y el subdiferencial de Clarke-Rockafellar. El Capítulo 7 proporciona fórmulas para el subdiferencial de funciones de probabilidad bajo distribuciones Gaussianas. En este trabajo la variables de decisión esta tomada en un espacio infinito dimensional. Estas fórmulas se basan en la descomposición esférico-radial de vectores aleatorios Gaussianos. / CONICYT-PCHA/doctorado Nacional / 2014-21140621 y CMM - Conicyt PIA AFB170001
10

Distribuciones especiales de probabilidad

López de Castilla Vásquez, Carlos 14 March 2007 (has links)
Las diapositivas contienen algunas distribuciones especiales de probabilidad como las siguientes: geométrica, Pascal y exponencial.

Page generated in 0.053 seconds