• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 6
  • 2
  • Tagged with
  • 17
  • 8
  • 7
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Anàlisi de sèries temporals mitjançant la predicció amb xarxes neuronals artificials

Rifà Ros, Esteve Xavier 03 October 2008 (has links)
La Teoria de Sistemes Dinàmics proporciona eines per a l'anàlisi de Sèries Temporals (ST). Una de les eines proposada es porta a terme mitjançant la predicció no lineal de ST. Amb aquesta tècnica podem extreure algunes de les característiques que aquesta teoria proposa,com la Dimensió d'Immersió (DI) o la Sensibilitat a les Condicions Inicials (SCI). Sugihara y May(1990) han difós un mètode no paramètric que permet fer prediccions mitjançant l'observació de gràfics, procediment que creiem que afegeix una component de subjectivitat. Per superar aquesta dificultat proposem realitzar la presa de decisions mitjançant inferència estadística.El mètode que s'exposa en aquesta tesi es basa en la predicció no lineal amb Xarxes Neuronals Artificials (XNA). Hem realitzat un seguit d'experiments de simulació per estimar la DI i avaluar la SCI entrenant XNA. En el primer cas es pretén trobar un invariant en la predicció en funció del nombre de components de l'atractor reconstruït, a partir d'una ST observada. Aquest coincideix amb el valor de la DI en el que la predicció ja no millora encara que augmenti el nombre de components. En el segon cas, un cop entrenada la XNA, s'analitza si existeix una disminució significativa de la precisió en la predicció en funció del nombre d'iteracions d'aquesta. Si es dóna aquesta disminució es conclou que la ST és sensible a les condicions inicials. Per tal de provar aquesta nova tècnica que he proposat, he emprat ST simulades (component x del mapa de Hénon i de l'atractor de Rössler) sense soroll i amb dos nivells de soroll afegit. Per al primer conjunt de dades els resultats són consistents amb les nostres hipòtesis. D'altra banda, els resultats per a les dades de l'atractor de Rössler no són tan satisfactoris com era d'esperar en les nostres prediccions. / Researchers from Dynamical Systems Theory have developed tools for the analysis of Time Series (TS) data. Some of these, based on nonlinear forecasting, allow us to estimate some of the characteristics proposed under this approach like embedding dimension or sensitive dependence on initial conditions. Sugihara and May (1990) have shown a nonparametric forecasting method to assess these magnitudes based on the observation of graphics. This process is too subjective in the case where the results are not sufficiently clear. For this reason the goal of this investigation was to find a method of estimation based on statistical inference.Some simulation experiments have been developed to achieve more objective estimations of the embedding dimension and the assessment of sensitivity to initial conditions. The forecasting of TS in this dissertation has been performed using artificial neural networks. The set of experiments to estimate dimensionality are designed to find an invariant of the correct performance, as a function of the number of components of the reconstructed attractor. To asses the sensitivity to the initial conditions, the experiments will allow us to study the forecasting performance of the best trained network, as a function of the number of iterations.To test the experiments proposed we have used the Hénon and the Rössler data sets with different noise levels. The results show a good performance of the method used for the Hénon data set. On the other hand, the results for the Rössler data sets are not consistent with our hypotheses.
2

Predicción de respuesta a tratamiento en pacientes con carcinoma escamoso de cabeza y cuello

Pavón Ribas, Miguel Ángel 09 June 2009 (has links)
La cirugía radical como único tratamiento en carcinomas escamosos de cabeza y cuello (CECC) ha sido substituida por protocolos que permiten preservar la función del órgano como la quimioradioterapia (QRT) concomitante y la quimioterapia de inducción (QTI) seguida de radioterapia (RT) / quimioradioterapia o cirugía. El objetivo general de este proyecto de tesis es identificar marcadores moleculares en biopsias pre-tratamiento de CECC localmente avanzado que permitan predecir la evolución clínica del paciente. En este sentido, hemos llevado a cabo dos estudios independientes. En el primero hemos analizado los niveles de expresión de los genes Ku70, K80 y DNA-PKcs del sistema de reparación no homóloga por unión de extremos en biopsias pre-tratamiento de pacientes con CECC tratados con quimioterapia de inducción seguida de RT/QRT o cirugía. En el segundo hemos realizado un estudio de microarrays de expresión para determinar que genes y procesos biológicos están implicados en la respuesta tumoral en pacientes localmente avanzados tratados con QTI seguida de RT/QRT o cirugía, o con quimioradioterapia desde un inicio. Los resultados del primer estudio muestran que los tumores con una respuesta a QTI superior al 50% presentan niveles de expresión de Ku70, tanto de mRNA como de proteína, mayores que los tumores con una respuesta inferior al 50%. Además los pacientes con tumores con niveles de expresión de Ku70 elevados tienen una supervivencia libre de recidiva local (SLRL) y una supervivencia global (SG) mayor que los pacientes con tumores que expresan bajos niveles de dicho marcador. En el segundo estudio hemos identificado tres subtipos de tumores con diferencias en la evolución clínica de los pacientes. Los pacientes con tumores del cluster 1 tienen mayor SLRL y SG que el resto de los pacientes. Su perfil de expresión muestra que presentan una mayor capacidad de migración e invasividad, características de transición epitelio mesénquima, sobre-activación de la vía secretora y un menor grado de diferenciación celular. Los pacientes con tumores del cluster 3 tienen una evolución clínica favorable, presentan una SG y SLRL mayor que el resto de los pacientes. Entre sus características destacan un menor grado de diferenciación celular y una sobre-expresión de genes localizados en las regiones cromosómica 1q21 y 19q13. Los pacientes con tumores del cluster 2 tienen una evolución clínica intermedia ya que presentan una SLRL similar a los del cluster 3 y una SG similar a los del cluster 1. Hemos identificado una serie de marcadores de mal pronóstico (tirosina sulfotransferasa, trombospondina 1, liprina-beta1, fibronectina IIIB y alfa1-prolil-4-hidroxilasa) cuyo mayor expresión aumenta el riego de recidiva local a los 2 años y el riesgo de muerte a los 3 años de seguimiento. También hemos identificado una serie de marcadores de buen pronóstico (Oxidasa dual 1, LYPD3 y GTPasa Rab25) cuya mayor expresión disminuye el riesgo de recidiva local y muerte de los pacientes. / Induction chemotherapy (IC), followed by radiotherapy (RT) / chemoradiotherapy (CRT) or surgery, and concomitant CRT are commonly used to treat locally advanced head and neck squamous cell carcinoma (HNSCC). The objective of this thesis-project is to identify molecular markers in pre-treatment HNSCC biopsies associated with clinical outcome in patients with advanced stage. We have conducted two independent studies. In the first study, we have evaluated the relationship between Ku80, Ku70 or DNA PKcs expression in pre-treatment tumor biopsies, and tumor response in patients treated with IC, followed by RT / CRT or surgery. In the second analysis, we have performed a microarray study to identify genes and biological processes associated with tumor response in patients treated with IC, followed by RT / CRT or surgery, or concomitant CRT.Results of the first study show that tumors with a response to IC higher than 50% have significantly higher mRNA and protein levels for Ku70 than tumors with a response to IC lower than 50%. Moreover, high tumor Ku70 expression was associated with significantly longer local recurrence-free survival (LRFS) and overall survival (OS).In the second microarray study we have identified three tumor subtypes with differences in patient outcome. Patients with tumor subtype1 have a shorter LRLS and OS. These tumors have a higher migration and invasiveness capacity, epithelial-mesenchymal transition, activation of the secretory pathway and lower differentiation grade. Patients with subtype 3 have a longer LRFS and OS. These tumors have a higher differentiation grade and overexpress genes located on chromosome 1q21 and 19q13.Moreover, we have identified a minimum set of genes (TPST1, THBS1, PPF1BP1, FNDC3B, P4HA1, DUOX1, LYPD3 y RAB25) associated with local recurrence and patient survival.
3

Cuantificación de las expectativas de precios a partir de la encuesta industrial de la UE

Clavería González, Óscar 29 April 2003 (has links)
El presente trabajo se enmarca dentro de una corriente de la literatura centrada en la utilización de los datos cualitativos de las encuestas de opinión para la predicción a corto plazo. El objetivo es extraer el máximo provecho de la información disponible contenida en las encuestas de opinión con fines predictivos. Para ello se desarrolla un nuevo método de cuantificación que permite obtener predicciones de la tasa de crecimiento esperada a partir de la información cualitativa contenida en las encuestas de opinión.En este tipo de encuestas se pregunta periódicamente a empresarios y consumidores sobre la evolución percibida y esperada de las principales variables económicas que afectan a su actividad. Esta característica hace que los resultados obtenidos a partir de estas encuestas tengan un gran valor anticipatorio y sean menos susceptibles ante errores de muestreo y de medición que los provenientes de encuestas que requieren predicciones puntuales. Por este motivo, las encuestas de opinión son la principal fuente de obtención de expectativas directamente observadas.Esta última ventaja entraña a su vez una de las limitaciones fundamentales de este tipo de encuestas. El hecho de que la información sea cualitativa hace necesaria la implementación de algún tipo de transformación con el objetivo de hacerla más fácilmente interpretable y de poderla analizar con el instrumental estadístico convencional.La necesidad de transformar las respuestas policotómicas sobre la dirección del cambio en medidas cuantitativas está en el origen de la literatura relacionada con el diseño de métodos de cuantificación. No obstante, la escasa capacidad predictiva mostrada por los métodos de cuantificación propuestos hasta el momento los hace difícilmente aplicables en el ámbito de la coyuntura.Además, la aplicación de estos métodos requiere de ciertos supuestos difícilmente contrastables: igual distribución de las respuestas sobre la percepción pasada y la expectativa futura de una variable, simetría y constancia en el tiempo de la tasa de crecimiento por debajo de la cual los encuestados no perciben cambio alguno en la variable, etc.La metodología presentada en este trabajo permite relajar y contrastar algunos de estos supuestos. A partir del modelo probabilístico con intervalo de indiferencia asimétrico y dinámico se desarrolla un método general del cual se derivan otros dos métodos que pueden entenderse como casos particulares del primero. Mediante una representación "state-space" más flexible y la utilización del filtro de Kalman, los tres métodos propuestos permiten estimar parámetros de indiferencia asimétricos y cambiantes en el tiempo sin necesidad de utilizar las percepciones sobre la evolución pasada de la variable.Se realiza también una aplicación para las expectativas sobre los precios de venta de las manufacturas en los países miembros de la Unión Europea y en el conjunto de la Zona Euro. Este análisis empírico permite comparar los resultados obtenidos mediante la nueva metodología con los que se desprenden de los principales métodos existentes. A partir de una evaluación comparativa de la capacidad predictiva de las diferentes series de expectativas de crecimiento de los precios industriales estimadas se escoge el método más adecuado.Dado el objetivo predictivo del presente trabajo, la fuente de error que se pretende minimizar es la introducida al cuantificar los datos sobre la dirección de cambio. Por este motivo, el análisis empírico se complementa con un experimento de simulación que permite diferenciar entre las diferentes fuentes de error, y así, seleccionar el método con un menor error de medida o de conversión.A pesar de que el análisis se centra en los precios industriales, la metodología es extensible a cualquier otra variable contenida en las encuestas de opinión para la que se disponga de una serie cuantitativa de referencia.
4

Enfoque basado en distancias de algunos métodos estadísticos multivariantes

Fortiana Gregori, Josep 03 July 1992 (has links)
1) IntroducciónUna de las aplicaciones estadísticas de la Geometría Métrica es la representación de conjuntos, consistente en determinar puntos en un espacio de métrica conocida (frecuentemente euclídea) cuyas distancias reproduzcan exacta o aproximadamente las observadas.Los Métodos de Regresión y Discriminación basados en Distancias, propuestos por Cuadras, proporcionan predicciones estadísticas aplicando propiedades geométricas de una representación euclídea. Tienen la ventaja de permitir el tratamiento de Variables continuas, cualitativas de tipo nominal y ordinal, binarias y, en general, cualquier mixtura de estas variables.Esta memoria es una contribución al estudio de estos métodos de predicción basados en distancias. En lo sucesivo emplearemos la abreviatura "DB" para referirnos él estos métodos.2) Fundamento teórico de la predicción DBSupongamos que se ha medido una variable respuesta "Y" sobre un conjunto "U" de "n" objetos, definidos por unas coordenadas "Z", y se desea predecir el valor Y(n+l) de esta variable para un nuevo objeto "omega" definido por las coordenadas "Epsilon"(n+1). Aplicando una función distancia adecuada se obtiene una matriz "delta" de distancias entre los objetos "U", y de ella las coordenadas "X" de los "U" en cierto espacio euclídeo RP. Existe una expresión para las coordenadas euclídeas X(n+l) de "omega".Si "Y" es continua (regresión DB), la predicción Y(n+l) se obtiene calculando regresión lineal sobre las variables "X" y aplicando a X(n+1) la ecuación de regresión obtenida. Si "Y" es discreta, con estados que equivalen a sub-poblaciones de "U" (discriminación DB), se asigna "omega" a aquella subpoblación para la cual es mínima la distancia euclídea entre su centro de gravedad y X(n+l). Conviene observar que en la práctica no se emplean en general estas construcciones teóricas, sino cálculos equivalentes.3) La distancia Valor AbsolutoLa elección de la función distancia es crítica para estos métodos. Para cada problema concreto se puede elegir una medida de distancia que refleje el conocimiento del modelo.Existen, sin embargo, algunas medidas de distancia "standard", adecuadas a gran número de problemas. Un caso notable es el de la distancia Valor Absoluto, cuya fórmula se aborda en esta tesis. Se ha observado que da lugar a predicciones excelentes, comparables a las de una regresión no lineal. Uno de los objetivos de este trabajo ha sido precisamente dar una justificación teórica a este buen comportamiento.En el teorema (2.2.1) se muestra que para todo conjunto "U" de puntos en R(n) existe una configuración de puntos en un espacio euclídeo R(P) que reproduce la matriz ele distancias valor absoluto entre los "U".Seguidamente se realiza el estudio teórico de la estructura de coordenadas principales asociada a esta distancia para "n" puntos sobre la recta real (al ser no bilineal la función distancia, en general "n-1" coordenadas son no triviales).El caso de puntos equidistantes se resuelve analíticamente, partiendo de una configuración euclídea inicial X(o) (convencional, con el único requerimiento de reproducir las distancias valor absoluto entre los puntos dados), y a partir de ella se obtienen las componentes principales. Las coordenadas principales resultan aplicando a la matriz X(o) la rotación resultante. Este método indirecto es más accesible que el usual para la obtención de Coordenadas Principales.En el teorema (2.4.1) se expresan los elementos de la columna "j" de la matriz de coordenadas principales como los valores de una función polinómica de grado "j" en unos puntos "z(i)" fijos.Este teorema se deduce del estudio de una familia paramétrica de matrices cuyo problema de valores y vectores propios se resuelve mediante una ecuación en diferencias. La fórmula de recurrencia se identifica como la de los polinomios de Chehychev. Empleando propiedades de estos polinomios se llega a expresiones explícitas.Estas matrices tienen notables propiedades combinatorias. En particular el teorema (3.3.1) muestra que todos sus vectores propios se obtienen aplicando a1 primero de ellos potencias de una matriz de permutación con signo.Si se dispone de un modelo paramétrico y de una distancia entre individuos estadísticos aplicable a dicho modelo, se puede emplear la versión para variables aleatorias de las funciones discriminantes. La distancia entre individuos más adecuada es la deducida de la Geometría Riemanniana de la variedad de parámetros, que tiene por tensor métrico la "Métrica de Rao".Se han calculado las funciones discriminantes DB para variables aleatorias que siguen algunas distribuciones conocidas. En particular, de la proposición (5.4.2), para variables multinomiales las funciones discriminantes DB coinciden con el tradicional estadístico Ji cuadrado, y de la (5.4.5), para variables normales con matriz de covarianzas común conocida, las funciones discriminantes DB coinciden con las clásicas (lineales) de Fisher.4)Representación de PoblacionesSe propone una distancia entre poblaciones, obtenida como diferencia de Jensen a partir de promedios sobre las distancias entre los individuos. El teorema (5.5.1) permite interpretarla como distancia euclídea entre los centros de gravedad de los puntos que representan los individuos de cada población.Se demuestra que generaliza la de Mahalanobis, pues coincide con ella en poblaciones normales, si se emplea como distancia entre individuos la deducida de la Geometría Diferencial.Calculando esta distancia para todos los pares de sub-poblaciones se obtiene una matriz, a la que se aplica Multidimensional Scaling, dando lugar a un representación euclídea que generaliza el Análisis Canónico de Poblaciones clásico, es decir, para poblaciones normales se obtienen los mismos resultados que con dicho análisis. Este método no proporciona regiones de confianza para los valores medios de las poblaciones. Se sugiere el empleo de "bootstrap" para dicho cálculo.5)Aspectos computacionalesSe discuten algunos puntos relevantes de la implementación realizada de los algoritmos DB en los programas MULTICUA ®, así como de la estimación "bootstrap" de la distribución de probabilidad de las distancias entre poblaciones, con especial énfasis en las dificultades debidas a las grandes dimensiones de los objetos tratados.6)Puntos arbitrarios sobre una rectaEn este caso se llega a una descripción cualitativa de las coordenadas principales, que permite todavía describir la primera coordenada como una dimensión lineal, la segunda como una dimensión cuadrática, la tercera como una dimensión cúbica, etc.La proposición (4.1.1) reduce el problema al estudio de los cambios de signo de las componentes de los vectores propios de una matriz "C". En (4.1.2) se muestra que "C" es oscilatoria, propiedad equivalente a la de tener todos los menores no negativos. Un teorema de Gantmacher sobre matrices oscilatorias da la descripción de los signos.7)Coordenadas principales de una variable aleatoria uniformeLa técnica empleada para obtener las coordenadas principales de un conjunto unidimensional discreto de puntos da lugar a una generalización aplicable a una distribución continua uniforme en el intervalo (0,1). La "configuración euclídea" de partida es un proceso estocástico con parámetro continuo. El cálculo de componentes principales se sustituye por el cálculo de las funciones propias de la función de covarianza del proceso, y de ellas una sucesión (numerable) de variables aleatorias centradas C(j).En (4.2.1) se muestra que estas variables son incorrelacionadas, igualmente distribuidas, y con una sucesión de varianzas sumable, de suma igual a la "variabilidad total" del proceso (traza del núcleo), y por ello el apropiado llamarlas "coordenadas principales de la variable aleatoria uniforme".Aplicando a este modelo de coordenadas principales el esquema de predicción DB se propone una medida de bondad de ajuste de una muestra a una distribución dada.8)Análisis discriminante DBLas funciones discriminantes DB descritas más arriba pueden obtenerse directamente de los elementos de la matriz de distancias, sin precisar ninguna diagonalización, según resulta de (5.2.1) y (5.2.2). En consecuencia, el cálculo es rápido y efectivo. / Distance Based (DB) Regression and Discrimination methods, proposed by Cuadras, give statistical predictions by exploiting geometrical properties of a Euclidean representation obtained from distances between observations. They are adequate to deal with mixed variables.Choice of a suitable distance function is a critical step. Some "standard" functions, however, fit a wide range of problems, and particularly the Absolute Value distance. This is explained showing that for "n" equidistant points on the real line, elements in the "j"-th row of the principal coordinate matrix are values of a "j"-th degree polynomial function. For arbitrary one-dimensional sets of points a qualitatively analogous result holds.Using results from the theory of random processes, a sequence of random variables is obtained from a continuous uniform distribution on the (0, 1) interval. Their properties show that they deserve the name of "Principal Coordinates". The DB prediction scheme in this case provides a goodness-of-fit measuring technique.DB discriminant functions are evaluated from distances between observations. They have a simple geometrical interpretation in the Euclidean representation of data. For parametric models, distances can be derived from the Differential Geometry of the parametric manifold. Several DB discriminant functions are computed using this approach. In particular, for multinomial variables they coincide with the classic Pearson's Chi Square statistic, and for Normal variables, Fisher's linear discriminant function is obtained.A distance between populations generalizing Mahalanobis' is obtained as a Jensen difference from distances between observations. It can be interpreted in terms of the Euclidean representation. Using Multidimensional Scaling, it originates a Euclidean representation of populations which generalizes the classical Canonical Analysis.Several issues concerning implementation of DB algorithms are discussed, specially difficulties related to the huge dimension of objects involved.
5

Comportamiento característico de la estructura vertical de la ionosfera en condiciones de calma y perturbadas

Blanch Llosa, Estefania 23 December 2009 (has links)
Aquesta investigació s'ha centrat en profunditzar en el coneixement del comportament de l'estructura vertical de la regió F de la ionosfera, tant en condicions de calma com pertorbades, i en la seva modelització mitjançant funcions analítiques. Les pretensions d'aquesta investigació han estat motivades per les discrepàncies existents entre les prediccions ionosfèriques del gruix i la forma del perfil de densitat de la regió F en condicions de calma i la seva variació característica, i per l'absència d'un model capaç de reproduir la resposta de l'altura del màxim de ionització en condiciones pertorbades. En aquesta investigació s'ha determinat el comportament patró del gruix i la forma del perfil de densitat electrònica de la regió F en condicions de calma (determinats pels paràmetres B0 i B1 del model Internacional de Referència de la Ionosfera, IRI) en un ampli rang de longituds i latituds. Amb això, s'ha desenvolupat un model global per a cada paràmetre mitjançant una formulació analítica simple que simula les variacions temporals d'aquests en condiciones de calma. La simulació d'aquests models millora (en termes de l'error quadràtic mig, RMSE) les prediccions de l'IRI en un 40% per a B0 i en un 20% per a B1. També s'ha caracteritzat la reacció de l'altura del màxim de ionització, hmF2, a latituds mitges i condicions magnèticament pertorbades, i s'ha determinat un comportament sistemàtic d'aquesta pertorbació, ∆hmF2, la morfologia de la qual depèn del camp magnètic interplanetari (IMF), del temps local, de l'estació de l'any i la latitud. Amb això, s'ha desenvolupat un model empíric que simula la pertorbació d'hmF2 resultant durant tempestes geomagnètiques intenses mitjançant funcions analítiques. Aquest model prediu els esdeveniments d'∆hmF2 amb un 86 % d'encert sense generar falses alarmes i amb un RMSE de 40 km respecte els valors experimentals, que és equivalent al rang de variació experimental obtingut en condicions de calma. Finalment, destacar que també han estat objecte d'estudi en aquesta investigació els mecanismes responsables del comportament ionosfèric tant en condiciones de calma com pertorbades i, especialment, el model de tempesta basat en el paper rector de la circulació del vent neutre termosfèric. / Esta investigación se ha centrado en profundizar en el conocimiento del comportamiento de la estructura vertical de la región F de la ionosfera, tanto en condiciones de calma como perturbadas, y en su modelado mediante funciones analíticas. Las pretensiones de esta investigación han estado motivadas por las discrepancias existentes entre las predicciones ionosféricas del espesor y la forma del perfil de densidad de la región F en condiciones de calma y su variación característica, y por la ausencia de un modelo capaz de reproducir la respuesta de la altura del máximo de ionización a condiciones perturbadas. En esta investigación se ha determinado el comportamiento patrón del espesor y la forma del perfil de densidad electrónica de la región F en condiciones de calma (determinados por los parámetros B0 y B1 del modelo Internacional de Referencia de la Ionosfera, IRI) en un amplio rango de longitudes y latitudes. Con esto, se ha desarrollado un modelo global para cada parámetro mediante una formulación analítica simple que simula las variaciones temporales de éstos en condiciones de calma. La simulación de estos modelos mejora (en términos del error cuadrático medio, RMSE) las predicciones del IRI en un 40% para B0 y en un 20% para B1. También se ha caracterizado la reacción de la altura del máximo de ionización, hmF2, en latitudes medias y condiciones magnéticamente perturbadas, y se ha determinado un comportamiento sistemático de dicha perturbación, ∆hmF2, cuya morfología depende del campo magnético interplanetario (IMF), del tiempo local, de la estación del año y de la latitud. Con ello, se ha desarrollado un modelo empírico que simula la perturbación en hmF2 resultante durante tormentas geomagnéticas intensas mediante funciones analíticas. Este modelo predice los eventos de ∆hmF2 con un 86% de acierto sin generar falsas alarmas y con un RMSE de 40 km respecto a los valores experimentales, que es equivalente al rango de variación experimental obtenido en condiciones de calma. Finalmente, resaltar que también han sido objeto de estudio en esta investigación los mecanismos responsables del comportamiento ionosférico tanto en condiciones de calma como perturbadas y, especialmente, el modelo de tormenta basado en el papel rector de la circulación del viento neutro termosférico. / The main objective of this research is to improve the knowledge on the vertical structure of the ionospheric F region during both, quiet and disturbed conditions, and its modelling by analytical functions. The main motivations of this research were the existing discrepancies between the predictions of the F region electron density profile thickness and shape during quiet conditions and their characteristic variation, and the absence of a model capable to reproduce the electron density peak height response to disturbed conditions. In this research, the pattern behaviour for quiet conditions of the F region electron density profile thickness and shape (determined by the International Reference Ionosphere model (IRI) parameters B0 and B1) was determined in a wide range of longitudes and latitudes. Then, a global model was developed for each parameter using a simple analytical formulation that simulates their temporal variations during quiet conditions. These model simulations improve (in terms of the root mean square error, RMSE) the IRI predictions by 40 % for B0 and by 20 % for B1. The reaction of the electron density peak height, hmF2, at mid latitudes and magnetically disturbed conditions, was also characterized and the systematic behaviour of this disturbance, ∆hmF2, was determined. The morphology of this disturbance depends on the interplanetary magnetic field (IMF), local time, season and latitude. Furthermore, an empirical model was developed to simulate the hmF2 disturbance during intense geomagnetic storms using analytical functions. This model predicts the ∆hmF2 events with a success of 86 % without generating false alarms and with a RMSE of 40 km with respect to the experimental values, which is equivalent to the experimental variation range obtained during quiet conditions. Finally, the mechanisms responsible of the ionospheric behaviour during both, quiet and disturbed conditions, were also studied in this research, specially the storm model based on the leading role of the thermospheric neutral wind circulation.
6

Performance Prediction and Evaluation Tools

Girona Turell, Sergi 24 July 2003 (has links)
La predicció és un concepte de recerca molt interessant. No es només predir el resultat futur, sinó que també cal predir el resultat conegut, a vegades anomenat validació. L'aplicació de tècniques de predicció sobre el comportament de sistemes és sempre molt útil perquè ens ajuda a comprendre el funcionament del elements que estem analitzant.Aquest treball va començar tot analitzant la influència de l'execució concurrent de diverses aplicacions de pas de missatges. Així, l'objectiu original era trobar i proposar uns algorismes de planificació de processos que obtinguessin un throughput màxim, equitatiu, i amb un rendiment adecuat del sistema.Per a poder avaluar adecuadament aquestes polítiques de planificació, varem trobar que ens calien eines d'analisi. Dimemas i Paraver són les eines de l'entorn que anomenem DiP. Tot i que aqueste eines varem estar dissenyades fa més de deu anys, són vàlides i ampliables.Dimemas es l'eina de predicció de rendiment. Tot fent ús de models senzills, pot predir el temps d'execució de les aplicacions de pas de missatges, fent servir un conjunt de paràmetres que modelitzen el funcionament del sistema. No és només una eina que prediu el temps d'execució, sinó que s'ha demostrat molt útil per entendre la influència dels diferents paràmetres del sistema en el temps de resposta de les aplicacionsL'eina d'anàlisi de l'entorn DiP s'anomena Paraver. Permet analitzar simultàniament moltes aplicacions i el sistema des de diferent punts de vista: analitzant els missatges, les contencions a la xarxa de comunicació, la planificació del processador.Promenvir/ST-ORM és l'eina d'anàlisi estocàstic. Inclou utilitats que permeten analitzar la influència de qualsevol paràmetre del sistema, així com sintonitzar els paràmetres de simulació, per aconseguir que les prediccions s'aproximin a la realitat.La qualitat i categoria de les decisions que varem prendre fa anys queda demostrada per la mètode de com cal utilitzar conjuntament totes les eines, i perquè són eines què es corresponen a l'estat de l'art actual.Aquest treball inclou la descripció de les diferents eines, des de el punt de vista de disseny fins la seva utilització (en cert grau), la validació de Dimemas, el disseny conceptual de Promenvir, la presentació del mètode que cal emprar amb aquestes eines (incloent anàlisi d'aplicacions individuals fins a anàlisis més complex), i alguns dels nostres primers anàlisi sobre polítiques de planificació de processador. / Prediction is an interesting research topic. It is not only to predict the future result, but also to predict the past, often called validation. Applying prediction techniques to observed system behavior has always been extremely useful to understand the internals of the elements under analysis.We have started this work to analyze the influence of several message passing application when running in parallel. The original objective was to find and propose a process scheduling algorithm that maximizes the system throughput, fair, proper system utilization.In order to evaluate properly the different schedulers, it is necessary to use some tools. Dimemas and Paraver, conform the core of DiP environment. These tools has been designed ten years ago, but still valid and extensible.Dimemas is a performance prediction tool. Using a single models, it capable to predict execution time for message passing applications, considering few system parameters for the system. It is useful not only to predict the result of an execution, but to understand the influence of the system parameters in the execution time of the application.Paraver is the analysis tool of DiP environment. It allows the analysis of applications and system from several points of view: analyzing messages, contention in the interconnection network, processor scheduling.Promenvir/ST-ORM is a stochastic analysis tool. It incorporates facilities to analyze the influence of any parameter in the system, as well as to tune the simulation parameters, so the prediction is close to reality. The methodology on how to use these tools as a group to analyze the whole environment, and the fact that all those tools are State of the Art, demonstrates the quality of the decisions we made some years ago.This work includes description of the different tools, from its internal design to some external utilization, the validation of Dimemas, the concept design of Promenvir, the architecture for Promenvir, the presentation of the methodology used with these tools (for simple application analysis to complex system analysis), and some of our first analyses on processor scheduling policies.
7

Generic Neuromorphic Principles of Cognition and Attention for Ants, Humans and Real-world Artefacts: a Comparative Computational Approach

Mathews, Zenon 12 January 2011 (has links)
Es considera que la cognició biològica fa servir mecanismes com la predicció, l'anticipació i l'atenció per resoldre tasques complexes. S'ha suggerit que aquests mecanismes es materialitzen en els mamífers a través d'interaccions entre les capes corticals, mentre que la seva manifestació en cervells relativament més simples, como el dels invertebrats, és encara poc clara. En la cognició artificial, la naturalesa i la interacció dels mecanismes mencionats roman, en gran mesura, no quantificada. Aquí proposem un enfoc filogènic i basat en models per descobrir com interactuen aquests mecanismes cognitius. Comencem amb el model simple del cervell d'un insecte i demostrem la necessitat dels anomenats forward models per explicar el comportament d'un insecte a escenaris dinàmics. Llavors proposem el marc PASAR per integrar i quantificar la interacció dels mencionats components de la cognició. Validem el PASAR en tasques robòtiques i en un experiment psicofísic humà, demostrant que el PASAR és una eina valuosa per modelar i avaluar la cognició biològica i per construir sistemes cognitius artificials. / Biological cognition is thought to employ mechanisms like prediction, anticipation and attention for solving complex tasks. These mechanisms are suggested to be materialized through inter-layer cortical interactions in mammals, whereas their manifestation in relatively simpler brains, like the invertebrate brain, remains unclear. In artificial cognition, the nature and interplay of the above mechanisms remain largely unquantified. Here we propose a phylogenic, model-based approach to answer how these cognitive mechanisms interplay. We start with a simple model of the insect brain and demonstrate the necessity of the so-called forward models to account for insect behavior in dynamic scenarios. We then propose the PASAR framework to integrate and quantify the interplay of the above components of cognition. We validate PASAR in robotic tasks and in a human psychophysical experiment, proving PASAR as a valuable tool to model and evaluate biological cognition and to construct artificial cognitive systems.
8

Conformal prediction of air pollution concentrations for the Barcelona Metropolitan Region

Ivina, Olga 20 November 2012 (has links)
This thesis is aimed to introduce a newly developed machine learning method, conformal predictors, for air pollution assessment. For the given area of study, the Barcelona Metropolitan Region (BMR), several conformal prediction models have been developed. These models use the specification which is called ridge regression confidence machine (RRCM). The conformal predictors that have been developed for the purposes of the present study are ridge regression models, and they always provide valid predictions. Instead of a point prediction, a conformal predictor outputs a prediction set, which is usually an interval. It is desired that these sets would be as small as possible. The underlying algorithm for the conformal predictors derived in this thesis is ordinary kriging. A kriging-based conformal predictor can capture spatial distribution of the data with the use of so-called "kernel trick" / Aquest treball està destinat a introduir el nou mètode de les màquines d'aprenentatge, els predictors de conformació, per l'avaluació de la contaminació de l'aire a la Regió Metropolitana de Barcelona (RMB). Es fa servir l'especificació anomenada màquina de confiança de la regressió cresta (RRCM). Els predictors de conformació que s'han desenvolupat per les finalitats d'aquest estudi són uns models de regressió cresta, que sempre ofereixen prediccions vàlides. Un predictor de conformació genera un conjunt de predicció, que és gairebé sempre un interval, i la intenció és que sigui el més petit possible. L'algorisme subjacent dels predictors de conformació derivats i discutits al llarg d'aquesta tesi és el kriging. El predictor de conformació basat en el kriging ordinari pot capturar la distribució espacial mitjançant una tècnica que es diu "el truc del nucli" ("kernel trick")
9

Metodología para la modelación hidrogeológica de medios fracturados

Martínez Landa, Lurdes 14 March 2005 (has links)
Los medios fracturados de baja permeabilidad (MFBP) pueden definirse como una matriz impermeable atravesada por una cantidad mayor o menor de fracturas conductivas. La experiencia indica que la mayor parte del flujo circula solo por unas pocas de estas fracturas, característica que marca el comportamiento del medio. Por esto, es necesario caracterizar estas fracturas para comprender el sistema.Desgraciadamente, no existe una metodología ampliamente aceptada para ello, en este contexto el objetivo de esta tesis es triple:1. Definir una metodología para modelar este tipo de medios 2. Explicar cómo la modelación explícita de las principales fracturas ayuda a explicar el efecto escala.3. Aplicar esta metodología a dos casos reales: FEBEX en Grimsel y Mina Ratones en Cáceres.La tesis está formada por tres artículos independientes pero complementarios, que se describen a continuación.En el primero se presenta la metodología para identificar las fracturas hidráulicamente más importantes. El método se basa en la interpretación de los ensayos de interferencia, y se apoya en los datos de geología, geofísica y ensayos hidráulicos. La metodología se ha aplicado en la caracterización hidrogeológica del bloque granítico que rodea al experimento FEBEX, en Suiza. La caracterización de este medio comienza por la identificación geométrica de las fracturas, basada en datos geológicos y geofísicos. Los ensayos hidráulicos de sondeo único ayudan a descartar aquellas fracturas no transmisivas, pero las conectividades entre puntos y la extensión de las fracturas se realiza mediante ensayos de interferencia. La geometría resultante se reproduce con un modelo 3D, donde los planos de fractura se representan con elementos 2D incluidos en la matriz 3D (matriz más fracturación menor). Los parámetros hidráulicos se obtienen de la interpretación conjunta de todos los ensayos de interferencia con modelos numéricos 3D, utilizando técnicas de calibración y ajustando todas las medidas simultáneamente. Siguiendo la misma metodología se ha podido reproducir los niveles en estacionario e incluso cuantificar el flujo de agua hacia la zona experimental de la galería FEBEX.Una característica de los MFBP es que al aumentar el volumen de roca ensayado, la conductividad hidráulica equivalente obtenida aumenta. En el entorno de la galería FEBEX se han llevado a cabo diferentes tipos de ensayos hidráulicos (pulsos, recuperación, interferencia, etc.). Estos ensayos se han interpretado utilizando métodos convencionales, en los que se asume que el medio es homogéneo, y las conductividades hidráulicas obtenidas como resultado muestran un efecto de escala (aumentan en órdenes de magnitud con el volumen de roca ensayado). El objetivo de este trabajo es mostrar que este efecto de escala refleja las limitaciones de la conductividad hidráulica equivalente derivada de la interpretación de los ensayos con modelos homogéneos. Para alcanzar este objetivo se ha utilizado la metodología descrita en el artículo anterior. En resumen, el modelo final es coherente con todas las medidas tomadas a diferentes escalas. La mayor parte de los ensayos a pequeña escala se han realizado en intervalos situados en matriz, esto hace que la conductividad hidráulica equivalente promedio sea pequeña. Al aumentar la escala el ensayo afecta a más fracturas, con lo que aumenta la conectividad del sistema haciendo que la conductividad hidráulica equivalente aumente. Finalmente, la metodología propuesta se aplica a la caracterización hidráulica de la mina de uranio "Los Ratones". Para verificar que la caracterización hidráulica ha sido satisfactoria, se ha realizado la predicción a ciegas de un bombeo a gran escala desde la mina. Los resultados obtenidos con esta simulación muestran unos buenos ajustes de los puntos de observación al bombeo desde la mina. Esto confirma la robustez y fiabilidad del modelo, y por lo tanto de la metodología utilizada. / Low permeability fractured media (LFFM) can be viewed as consisting of a virtually impervious matrix transversed by more or less conductive fractures. Experience dictates that a few of these concentrate most of the flow, this controlling the overall behaviour of the medium. Therefore, they need to be characterized for proper understanding of the system. Unfortunately, no widely accepted methodology is available to this end. In this context the objective of this thesis is three fold: 1. Define a methodology to model this type of media. 2. Explain how the explicit modeling of hydraulically dominant fracture helps in explaining scale effects.3. Apply the methodology to two real case studies: the FEBEX at Grimsel and the Ratones mine.The thesis consists of three independent but complementary papers. They are described below.First, I present a methodology to identify the most significant water conductive fractures. The method is based on the interpretation of cross-hole tests, and is supported by geology, geophysics and hydraulic data. This methodology has been applied to the hydrogeological characterization of a granitic block within FEBEX experiment, Switzerland. Characterising this medium starts by achieving a geometrical identification of the fractures, which demands mainly geological and geophysical data. Single borehole hydraulic tests help in neglecting those transmissive fractures, but the only means to assess the connectivity between points and the fractures extent consists of conducting cross-hole tests. The resulting geometry is later implemented into a 3D finite element mesh, where the fractures are simulated as 2D elements that are embedded into a 3D porous media that includes the effect of minor fractures. Hydraulic parameters have been obtained from the joint interpretation of cross-hole tests with 3D numerical models, using automatic calibration techniques and adjusting all the measurements simultaneously. This methodology has proved capable of reproducing steady state heads, and also of quantifying groundwater flow to the experimental area of the FEBEX tunnel.Different types of hydraulic tests (pulse, recovery, cross-hole and tunnel inflow measurements) have been performed in low permeability fractured granite around the FEBEX tunnel in Grimsel (Switzerland). We have interpreted the tests using conventional methods that treat the medium as a homogeneous one. Results display scale effects. Hydraulic conductivities increase, by orders of magnitude, with the volume of rock tested (from pulse to cross-hole tests). The objective of our work is to show that this scale effect is apparent. It reflects the limitations of the equivalent hydraulic conductivity derived from the homogeneous model interpretation of the tests.For this purpose, we have used the methodology described in the first paper. In summary, the final model is consistent with all the relevant measurements, taken at different support scales. This provides some insight into the issue of scale effects, which has been a topic of debate in the literature. In essence, the majority of small scale tests are performed in matrix intervals. Thus, any averaging of these values would suggest relatively small effective permeability. Yet large scale permeability of the rock is controlled by a few fractures, which provide high connectivity to the system, but are intersected by few testing intervals. As a result, large scale permeability is qualitatively different and quantitatively larger than small scale permeability.Finally, the proposed methodology is applied to the hydraulic characterization of the "Los Ratones" uranium mine. To verify that the site characterization is satisfactory, a blind-prediction has been carried out with the data recorded during a large-scale pumping test from the mine. The results obtained with this simulation show a good response to the mine pumping, so that both the robustness and reliability of the model are confirmed.
10

Design of ensemble prediction systems based on potential vorticity perturbations and multiphysics. Test for western Mediterranean heavy precipitation events

Vich Ramis, Maria del Mar 18 May 2012 (has links)
L'objectiu principal d'aquesta tesi és millorar l'actual capacitat de predicció de fenòmens meteorològics de pluja intensa potencialment perillosos a la Mediterrània occidental. Es desenvolupen i verifiquen tres sistemes de predicció per conjunts (SPC) que tenen en compte incerteses presents en els models numèrics i en les condicions inicials. Per generar els SPC s'utilitza la connexió entre les estructures de vorticitat potencial (VP) i els ciclons, a més de diferents esquemes de parametrització física. Es mostra que els SPC proporcionen una predicció més hàbil que la determinista. Els SPC generats pertorbant les condicions inicials han obtingut millor puntuació en verificacions estadístiques. Els resultats d'aquesta tesi mostren la utilitat i la idoneïtat dels mètodes de predicció basats en la pertorbació d'estructures de VP de nivells alts, precursors de les situacions ciclòniques. Els resultats i estratègies presentats pretenen ser un punt de partida per a futurs estudis que facin ús d'aquests mètodes. / The main goal of this thesis is to improve the current prediction skill of potentially hazardous heavy precipitation weather events in the western Mediterranean region. We develop and test three different ensemble prediction systems (EPSs) that account for uncertainties present in both the numerical models and the initial conditions. To generate the EPSs we take advantage of the connection between potential vorticity (PV) structures and cyclones, and use different physical parameterization schemes. We obtain an improvement in forecast skill when using an EPS compared to a determinist forecast. The EPSs generated perturbing the initial conditions perform better in the statistical verification scores. The results of this Thesis show the utility and suitability of forecasting methods based on perturbing the upper-level precursor PV structures present in cyclonic situations. The results and strategies here discussed aim to be a basis for future studies making use of these methods.

Page generated in 0.0529 seconds