• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 163
  • 15
  • Tagged with
  • 178
  • 143
  • 62
  • 47
  • 35
  • 35
  • 27
  • 26
  • 24
  • 23
  • 23
  • 23
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Estudio de los factores causantes de la erosión costera en las playas de Benidorm y Guardamar del Segura

Toledo, Ignacio 29 February 2024 (has links)
La erosión costera es un fenómeno que se está convirtiendo en un problema creciente a lo largo de las costas de todo el mundo. Una gran parte del retroceso de la línea de costa está causada por las actividades antropogénicas que se desarrollan en el litoral y en sus inmediaciones (construcción de presas en los ríos, desarrollo urbanístico masivo o diseño de obras marítimas), pero también por la aparición de eventos climáticos extremos. Todo ello conlleva a la degradación sistemática del ecosistema costero, con la consecuente pérdida de biodiversidad y de defensa costera. Por ello, son muchos los países en el mundo que mediante diferentes leyes o estrategias han impulsado medidas con el objetivo de proteger el litoral. Los sistemas dunares se han convertido a lo largo de la historia en paisajes naturales fundamentales para la defensa de la costa y para el mantenimiento de los servicios ecosistémicos. En este sentido, su morfología y su vegetación son elementos que juegan un papel de gran relevancia en la protección costera. Es fundamental medir sus cambios con alta precisión y su evolución a lo largo del tiempo. Sin embargo, la falta general de datos empíricos y experimentales ha limitado el uso de estos elementos como función protectora. Por ello, es necesario contar con una metodología y con unos medios adecuados que nos permitan entender los impactos naturales y antrópicos que propician estos cambios. Las ciudades costeras son espacios altamente expuestos a los efectos del cambio climático, debido a su elevada vulnerabilidad (social y económica) y su alta peligrosidad ante eventos atmosféricos extremos de alto impacto (inundaciones, temporales marítimos). Las inundaciones de origen costero (fuertes oleajes) y fluvial ponen en riesgo el adecuado funcionamiento de las ciudades costeras, generando elevadas pérdidas económicas en actividades económicas de alto valor (turismo). Las previsiones de cambio climático señalan, además, el incremento de eventos atmosféricos extremos para las próximas décadas en la zona mediterránea. Por todo ello, se ha analizado la evolución temporal de 2 entornos costeros con características totalmente diferentes de la Provincia de Alicante. Por un lado, las playas urbanas de Poniente y Levante en la ciudad de Benidorm y, por otro lado, el sistema playa-duna ubicado entre la desembocadura del río Segura y la población de Guardamar del Segura. Tras realizar una revisión de las estrategias impulsadas por diferentes gobiernos encaminadas a la protección costera, y en especial en España, la metodología seguida ha consistido en lo siguiente: evolución histórica de todo el ecosistema costero (línea de costa, cordón dunar y vegetación), estudio de factores climáticos y sedimentología, análisis estadísticos y, por último, soluciones a adoptar. Los resultados muestran que las playas de Benidorm, pese a tener características similares, presentan un comportamiento morfológico diferente. La Playa de Poniente presenta unas mayores tasas de erosión que la Playa de Levante, especialmente en su sector este. Esta tendencia de erosión desapareció en el último período analizado (2007-2021) debido a un cambio en el régimen de oleaje entrante, que hasta entonces favorecía la erosión y el basculamiento en esta zona de la playa. Además, la falta de homogeneidad de los sedimentos y un peor comportamiento al desgaste hacen que la Playa de Poniente se comporte peor que la de Levante frente a la erosión. Por otro lado, el incremento de las precipitaciones máximas y de la intensidad de los temporales marítimos hace necesario implementar soluciones que incrementen la resiliencia de la ciudad costera. Por ello, se propone la construcción de una duna urbana vegetada paralela al paseo marítimo para protegerlo del nivel de inundación (3 m) y el diseño de diques de arena perpendiculares a la línea de costa con el objetivo de encauzar las aguas pluviales vertidas por los barrancos y evitar daños en la infraestructura litoral. En cuanto al área de Guardamar del Segura, el estudio de perfiles mediante imágenes aéreas y Modelos Digitales del Terreno (MDT) determinó que la morfología de la duna (pendiente y altura) presenta una fuerte correlación con la pérdida de volumen y de vegetación. Una mayor cota y pendiente de la duna es beneficioso para mantener la vegetación en buenas condiciones, especialmente cuando estas superan los 6 m y los 18°, respectivamente. Sin embargo, es negativo para su estabilidad. También es fundamental considerar la influencia de las Casas de Babilonia, ya que su presencia impide la erosión de las plantas ubicadas a su trasdós. El estudio del clima marítimo mostró una mayor erosión en la duna durante los periodos con mayor oleaje. Además, la superficie vegetal en buen estado reveló una fuerte correlación lineal positiva con la precipitación anual, el número de horas con altura de ola significante Hs>2 m y la velocidad media del viento. Por otro lado, la no imposición de un límite al retroceso de la costa en la ribera del mar por parte de la legislación española, como si se hace en Reino Unido o Países Bajos, provocará en el futuro continuas demoliciones en las viviendas ubicadas en primera línea de costa, daño ecológico irreparable al ecosistema dunar y cambios en el deslinde del dominio público marítimo terrestre (DPMT), con el perjuicio que supone a sus propietarios. La solución aquí propuesta para contener la erosión del sistema consistiría en el diseño de una restauración dunar con una pantalla de pilotes de madera en los tramos donde haya continuos desprendimientos del frente dunar causados por los temporales. El estudio completo de los factores morfológicos y de la vegetación que definen el sistema dunar de Guardamar del Segura nos dará información clave para el futuro diseño de Soluciones basadas en la Naturaleza, proporcionando herramientas adecuadas para la gestión y el mantenimiento, tanto de las playas de arena, como de las áreas dunares (nuevas y existentes). En este sentido, la solución adoptada en Benidorm, y que será implementada por su Ayuntamiento con un presupuesto de 481,102.89€ en un periodo de ejecución de 3 años, puede ser exportada a otras muchas áreas del mundo que poseen un litoral fuertemente urbanizado, antropizado y con graves problemas de erosión. En este caso, las Soluciones basadas en la Naturaleza, como las que se han propuesto a lo largo de este trabajo, juegan un papel relevante en la conservación a largo plazo de nuestros ecosistemas costeros, desarrollando áreas más habitables y más resilientes contra el cambio climático.
152

Computational identification of genes: ab initio and comparative approaches

Parra Farré, Genís 03 December 2004 (has links)
El trabajo que aquí se presenta, estudia el reconocimiento de las señales que delimitan y definen los genes que codifican para proteínas, así como su aplicabilidad en los programas de predicción de genes. La tesis que aquí se presenta, también explora la utilitzación de la genómica comparativa para mejorar la identificación de genes en diferentes especies simultaniamente. También se explica el desarrollo de dos programas de predicción computacional de genes: geneid y sgp2. El programa geneid identifica los genes codificados en una secuencia anónima de DNA basandose en sus propiedades intrínsecas (principalmente las señales de splicing y el uso diferencial de codones). sgp2 permite utilitzar la comparación entre dos genomas, que han de estar a una cierta distancia evolutiva óptima, para mejorar la predicción de genes, bajo la hipotesis que las regiones codificantes están mas conservadas que las regiones que no codifican para proteínas. / The motivation of this thesis is to give a little insight in how genes are encoded and recognized by the cell machinery and to use this information to find genes in unannotated genomic sequences. One of the objectives is the development of tools to identify eukaryotic genes through the modeling and recognition of their intrinsic signals and properties. This thesis addresses another problem: how the sequence of related genomes can contribute to the identification of genes. The value of comparative genomics is illustrated by the sequencing of the mouse genome for the purpose of annotating the human genome. Comparative gene predictions programs exploit this data under the assumption that conserved regions between related species correspond to functional regions (coding genes among them). Thus, this thesis also describes a gene prediction program that combines ab initio gene prediction with comparative information between two genomes to improve the accuracy of the predictions.
153

Modelo de Respuesta Aleatorizada Mixto de Kim y Warde: aplicación a estudiantes de la Facultad de Ciencias Matemáticas de la UNMSM – 2015

Matos Zarsoza, José Ignacio January 2016 (has links)
Estudia el Modelo de Respuesta Aleatorizada Mixto (MRAM) propuesto por Kim y Warde (2004), el cual se aplicó en una encuesta realizada en la Facultad de Ciencias Matemáticas, para investigar el comportamiento de los jóvenes estudiantes con respecto a las malas prácticas académicas, realizar copias y consumo de drogas para mejorar el rendimiento académico en un examen. La población estudiada comprende a los alumnos matriculados en el Semestre 2015-I pertenecientes a las cuatro escuelas académico profesionales de la Facultad de Ciencias Matemáticas de la UNMSM.
154

Explaining the determinants of the frequency rate interventions in Peru using count models

Ventura Neyra, Edgar 04 March 2017 (has links)
La presente investigación analiza los determinantes de la frecuencia de las intervenciones de tipo de cambio por parte del Banco Central de Reserva del Perú (BCRP). Esto a partir de información semanal entre enero de 2001 y diciembre de 2010, usando modelos de conteo como Poisson, Negativo Binomial y Zero Inflated. Los resultados muestran que las desviaciones del logaritmo del tipo de cambio respecto de su tendencia de largo plazo, las intervenciones del periodo anterior (persistencia), el riesgo país medido por el EMBIG, el spread entre las tasas de interés bancarias, y el interés entre las tasas de interés doméstica y foránea son importantes determinantes. / Tesis
155

Los problemas en los procesos de registro de datos delictivos y el uso de dicha información en los planes nacionales de seguridad ciudadana

Reyes Florián, Carlos Eleodoro 29 November 2016 (has links)
egún la Organización de Estados Americanos la inseguridad ciudadana es uno de los problemas más importantes que afronta América Latina. De la mano con una época de crecimiento económico, el siglo XXI ha significado para esta región un fuerte crecimiento en criminalidad relacionada con actividades como el narcotráfico y el comercio ilegal de distintos niveles (OEA, 2008). En el Perú, los casos de atentados contra la seguridad que más se repiten en las estadísticas son los homicidios (el índice de victimización), la percepción de inseguridad, la desconfianza en las instituciones y la situación del sistema penitenciario (MININTER 2013, 20). / Tesis
156

Estudio del mecanismo de despacho Levante en 48 horas en Aduanas de Perú y su impacto en el sector importador, 2010 - 2014

Avalos Inmenso, Luis Eduardo January 2017 (has links)
Analiza la validez de un mecanismo de despacho aduanero llamado “Levante en 48 horas”. La evaluación de este instrumento fue determinar el estado actual en el que se encuentra desde su implementación, para su valoración, corrección y perfeccionamiento. Esto es realizado usando una técnica estadística a través de una encuesta a una muestra aleatoria simple de un universo de usuarios-importadores de la Intendencia de Aduana Aérea y postal del Callao. Todo esto permite observar, que para promover y mejorar el uso intensivo del proceso L-48 en la Aduana Aérea del Callao debe revisarse la legislación vigente y el contrato de concesión del Aeropuerto Internacional Jorge Chávez, a fin que se permita el retiro de las cargas directamente desde el aeropuerto sin la obligación que éstas ingresen a los depósitos temporales. La investigación refiere que los avances logrados con este mecanismo en el proceso de despacho aduanero podrían tomarse como un parámetro de réplica para otros sectores económicos y sociales que requieran la innovación en agilización de procesos y pos controles e, incluso para su réplica en las aduanas de otros países. / Tesis
157

Aspectos geométricos de las poblaciones y los individuos estadísticos

Miñarro Alonso, Antonio 17 April 1991 (has links)
Comenzarnos realizando una aproximación al concepto de modelo estadístico desde el punto de vista geométrico, centrándonos principalmente en consideraciones sobre la introducción de distancias, y en particular estudiando la métrica informacional y sus propiedades. Dada una variedad paramétrica correspondiente a un modelo estadístico, hemos efectuado un estudio del espacio tangente y del espacio tangente dual en un punto a la variedad, introduciendo representaciones adecuadas de los mismos. Tales representaciones han permitido identificar a los elementos del espacio muestral con campos tensoriales covariantes de primer orden en la variedad, mientras que las variables aleatorias pueden ser identificados con campos tensoriales contravariantes también de primer orden. Hemos introducido dos definiciones de distancias, en sentido estricto pseudodistancias, entre valores muestrales basadas ambas en distancias en el espacio tangente dual entre formas lineales asociadas. La primera, a la que denominamos distancia inmediata, es definida a partir de la distancia euclídea en el espacio tangente dual. Se han obtenido expresiones explícitas para la distancia cuando los individuos estadísticos son muestras correspondientes a las distribuciones Poisson, Weibull, Gamma, Exponencial, Binomial, Binomial Negativa, Multinomial, Multinomial negativa, Wald, Logística, Normal univariante y Normal multivariante. Se han estudiarlo ciertas propiedades relacionadas con la distancia inmediata, entre las que destacamos su invarianza frente a cambios de la medida de referencia y transformaciones por estadísticas suficientes, y su no decrecimiento al aumentar el número de parámetros de las variedades. La distancia estructural es definida a partir de la distancia sobre el conjunto imagen del espacio muestral. Se demuestra que coincide con la distancia inmediata si el conjunto imagen es un conjunto convexo y también que dicho conjunto no es convexo si la dimensión del espacio muestral es uno y el número de parámetros de la variedad mayor o igual a dos. Se ha obtenido la expresión explícita para la distancia estructural entre muestras de tamaño uno correspondientes a una distribución normal univariante. Se han estudiado las aplicaciones de las distancias entre individuos a técnicas clásicas de inferencia estadística, definiendo nuevos procedimientos de estimación de parámetros y contraste de hipótesis desde el punto de vista geométrico. Se comprueba cómo utilizando la distancia inmediata se recuperan gran parte de los resultados clásicos, en particular las ecuaciones de verosimilitud y el contraste de hipótesis mediante el test de los multiplicadores de Lagrange. Hemos comprobado también como utilizando en estimación de parámetros la distancia estructural en un ejemplo en que éste difiere de la inmediata, se obtienen resultados que difieren respecto a la máxima verosimilitud clásica y que podemos considerar más acordes con resultados intuitivos al dejar indeterminada la estimación de la varianza trabajando con muestras de tamaño uno de una distribución Normal univariante. Se ha introducido una clase de funciones de densidad de probabilidad que pueden ser caracterizadas en una variedad paramétrica de dimensión finita. Se comprueba que las variedades resultantes son de curvatura constante y positiva. Se han obtenido las expresiones para las geodésicas y la distancia de Rao entre dos distribuciones. Hemos efectuado un estudio probabilístico en varios ejemplos y finalmente consideramos la aplicación de tales familias a la estimación no paramétrica de funciones de densidad gracias a su capacidad de adaptación. Se ha abordado el problema de la estimación de parámetros en las familias anteriormente citadas. Comprobamos los inconvenientes de la estimación máximo verosímil y para subsanarlos hemos propuesto un algoritmo tipo “stepwise” que toma en cuenta la significación de los incrementos de la verosimilitud al modificar el número de parámetros de las familias. Utilizamos diversas simulaciones para comprobar la bondad del algoritmo, obteniendo resultados satisfactorios tanto al trabajar con distribuciones clásicos como con las nuevas familias. Se han comparado los resultados con otros métodos clásicos de estimación no paramétrica, en particular con el método de los Kernel. También se ha estudiado el método de minimizar la esperanza del cuadrado de la distancia estructural entre individuos (MESD). Para poder llevar a cabo tal estudio se ha desarrollado una aproximación a la distinción Riemanniana y se han utilizado técnicas de minimización numérica de funciones de varias variables con restricciones. Se han obtenido algunos ejemplos que muestran un mejor comportamiento de la estimación MESD frente a la MLE. Finalmente se han considerado dos ejemplos prácticos consistentes en la estimación de una función de densidad bimodal a partir de unos datos en forma de histograma y en la clasificación de diversos patrones electroforéticos asimilándolos a funciones de densidad. En limbos ejemplos los resultados parecen validar completamente la metodología empleada. / We have studied the concept of statistical model from a geometric point of view considering particularly the information metric and the problem of introducing distances. Given a parametric manifold representing a statistical model and given a point of the manifold, we have defined two different distances between elements of sample space (statistical individuals) by means of a suitable representation of statistical individuals as linear forms of the dual tangent space to the manifold in the given point. Some properties have been studied and the explicit expressions for some examples have been obtained. Several techniques of statistical inference: parameter estimation, hypothesis tests, discrimination; have been studied in the light of the distances between elements of sample spaces. Some classical results have been recovered, in particular Iikelihood equations and Lagrange multipliers test. We have introduced a class of probability density functions that may be represented in finite dimensional manifolds. Geometrical properties of such manifolds have been studied and the Rao distance between two distributions has been obtained. We have considered several examples. We have also studied the problem of parameter estimation in the functions defined previously; we have developed a stepwise algorithm for nonparametric density estimation in order to some problems arising with classical maximum likelihood estimation when we handle a large number of parameters. We also present some examples applied lo biological data.
158

Propuesta para reducir el tiempo de entrega de pedidos en una empresa de fabricación de pinturas industriales

Pérez Vargas, Renzo Marcelo 19 November 2009 (has links)
El presente trabajo propone reducir el tiempo de atención de pedidos en una empresa de pinturas industriales aplicando los principios del Lean Management. Acorde a las actividades de la empresa, y el diagnóstico del problema a resolver, utilizando como herramienta el árbol de decisiones que identifica las causas que afectan al problema, explicando y fundamentando cada uno de ellas. Luego, mediante una matriz de prioridades se identifica los 5 problemas principales, planteando 3 propuestas que ayuden a resolverlos. La primera propuesta se divide en dos planes, el primero en la validación de las fórmulas de las pinturas, y el segundo en la implementación de controles de calidad en el proceso de fabricación de pinturas. La segunda propuesta plantea determinar la mínima cantidad de orden de producción. La tercera propuesta plantea los pasos a seguir para una adecuada gestión de pedidos. Finalmente se presenta los costos de la implementación y los beneficios que se obtendrían con la implementación de las propuestas.
159

Análisis comparativo de los modelos de elección discreta, regresión logística y Probit

Manrique Pachas, Christian Fernando January 2016 (has links)
Presenta la teoría y aplicación de los modelos de regresión logística y los modelos Probit a fin de conocer los factores de riesgo que influyen en la enfermedad angina de pecho. La razón principal de este estudio es identificar los factores más significativos de riesgo y prevención para dicha enfermedad dentro de la población en estudio. El trabajo presenta el desarrollo de ambos métodos y ha finalizado con la aplicación en la cual se compararon las dos metodologías, demostrando que los mejores resultados son obtenidos con el modelo Probit. La aplicación fue desarrollada con los programas SPSS versión 22 y el Minitab 17. / Trabajo de suficiencia profesional
160

“Reducción de costos operativos en una empresa de transportes a través de modelos estadísticos y la metodología Seis Sigma”

Villar Ayala, Yusef Etson January 2018 (has links)
Publicación a texto completo no autorizada por el autor / Propone la implementación de controles para los procesos críticos de la operación, ya que, al ser una empresa de servicios, el costo en mano de obra e insumos para la operación son elevados. En este modelo de empresas de servicio y a través de la metodología Seis Sigma, se verá, de acuerdo al reporte de incidencias en la parte operativa de la empresa; mejorar el control de los procesos críticos operacionales. La metodología Seis Sigma debe aplicarse como un proyecto que tiene por finalidad eliminar los defectos de un proceso mediante la reducción de la variabilidad y logro de la centralidad del proceso, esto con la finalidad de mejorar la satisfacción del cliente. Dado que en la empresa ya trabajó bajo una gestión por procesos. Recomienda empezar a usar la metodología del Seis Sigma, ya que es una herramienta que se apoya fuertemente en los análisis estadísticos para confirmar y validar la causa y/o actividad la cual o cuales impide(n) el logro de mejorar los procesos y la optimización de recursos / Trabajo de suficiencia profesional

Page generated in 0.12 seconds