Spelling suggestions: "subject:"deoria dde graft"" "subject:"deoria dde grafo""
11 |
Models for bacteriophage systems, Weak convergence of Gaussian processes and L2 modulus of Brownian local timeBascompte Viladrich, David 09 December 2013 (has links)
En aquesta memòria es tracten tres problemes diferents. En el Capítol 1 es
construeixen dues famílies de processos que convergeixen, en el sentit de les distribucions
en dimensió finita, cap a dos processos Gaussians independents. El
Capítol 2 està dedicat a l’estudi d’un model de tractament amb bacteriòfags per
infeccions bacterianes. Finalment, en el Capítol 3, estudiem alguns aspectes del
L2 mòdul de continuïtat del temps local del Brownià.
En el primer capítol considerem dos processos Gaussians independents que es
poden representar en termes d’una integral estocàstica d’un nucli determinista
respecte el procés de Wiener, i construïm, a partir d’un únic procés de Poisson,
dues famílies de processos que convergeixen, en el sentit de les distribucions en
dimensió finita, cap a aquests processos Gaussians.
Utilitzarem aquest resultat per a provar resultats de convergència en llei cap a
altres processos, com ara el moviment Brownià sub-fraccionari.
En el Capítol 2 construïm i estudiem diferents model que pretenen estudiar
el comportament d’un tractament amb bacteriòfags en certs animals de granja.
Aquest problema ha estat motivat pel Grup de Biologia Molecular del Departament
de Genètica i Microbiologia de la Universitat Autònoma de Barcelona.
Començant per un model bàsic, n’estudiarem diferent variacions, primer des
d’un punt de vista determinista, trobant diversos resultat sobre els equilibris i
l’estabilitat, i després en un context amb soroll, produint resultats de concentració.
Finalment, en el Capítol 3 estudiarem la descomposició en caos de Wiener del
L2 mòdul de continuïtat del temps local del Brownià. Més concretament, trobarem
un Teorema Central del Límit per a cada element del caos de Wiener del L2 mòdul
de continuïtat del temps local del Brownià. Aquest resultat ens proporciona un
exemple d’una família de variables que convergeix en llei cap a una distribució
Normal, però que els elements del seu caos d’ordre parell no convergeixen. / In this dissertation three different problems are treated. In Chapter 1 we construct
two families of processes that converge, in the sense of the finite dimensional
distributions, towards two independent Gaussian processes. Chapter 2 is devoted
to the study of a model of bacteriophage treatments for bacterial infections. Finally,
in Chapter 3 we study some aspects of the L2 modulus of continuity of
Brownian local time.
In the first chapter we consider two independent Gaussian processes that can be
represented in terms of a stochastic integral of a deterministic kernel with respect to
the Wiener process and we construct, from a single Poisson process, two families
of processes that converge, in the sense of the finite dimensional distributions,
towards these Gaussian processes.
We will use this result to prove convergence in law results towards some other
processes, like sub-fractional Brownian motion.
In Chapter 2 we construct and study several models that pretend to study how
will behave a treatment of bateriophages in some farm animals. This problem has
been brought to our attention by the Molecular Biology Group of the Department
of Genetics and Microbiology at the Universitat Autònoma de Barcelona.
Starting from a basic model, we will study several variations, first from a
deterministic point of view, finding several results on equilibria and stability, and
later in a noisy context, producing concentration type results.
Finally, in Chapter 3 we shall study the decomposition on Wiener chaos of the
L2 modulus of continuity of the Brownian local time. More precisely, we shall
find a Central Limit Theorem for each Wiener chaos element of the L2 modulus of
continuity of the Brownian local time. This result provides us with an example of
a family of random variables that is convergent in law to a Normal distribution,
but its chaos elements of even order do not converge.
|
12 |
Multi-core hybrid architectures applied to forest fire spread predictionArtés Vivancos, Tomàs 08 September 2015 (has links)
Els incendis forestals són un tipus de desastre natural que representa un gran repte per a la societat a causa dels seus elevats costos econòmics i humans. Amb l’objectiu d’evitar els costos derivats d’aquest desastre natural i millorar l’extinció dels mateixos, els simuladors de propagació d’incendis es poden utilitzar per intentar anticipar el comportament de l’incendi i ajudar a aconseguir una extinció de l’incendi més eficient i segura. Quan es propociona una predicció de la propagació d’un incendi forestal existeixen dos elements claus: la precisió i el temps necessari per computar la predicció.
Sota el context de la simulació de desastres naturals, és ben conegut que part de l’error de la predicció estàsubjecta a la incertesa en les dades d’entrada utilitzades pel simulador. Per aquesta raó, la comunitat científica ha creat diferents mètodes de calibratge per reduir la incertesa de les dades d’entrada i així millorar l’error de la predicció. En aquest treball s’utilitza una metodologia de predicció basada en dues etapes que ha estat provada en treballs previs amb bons resultats. Aquest mètode de calibratge implica una necessitat considerable de recursos computacionals i eleva el temps de còmput a causa de l’ús d’un Algorisme Genètic com a mètode de cerca de les millors dades d’entrada del simulador. S’ha de tenir en compte les restriccions de temps sota les quals treballa un sistema de predicció d’incendis. Es necessari mantenir un equilibri adequat entre precisió i temps de còmput utilitzat per poder proporcionar una bona predicció a temps. Per poder utilitzar la tècnica de calibratge esmentat, s’ha de solucionar el problema que representa que algunes solucions siguin inviables ja que impliquen temps d’execució molt llargs, fet que pot impedir que es pugui donar resposta a temps en un suposat context operacional.
La present Tesi Doctoral utilitza les arquitectures multi-core amb l’objectiu d’accelerar el mètode de predicció basat en dues etapes per poder proporcionar una predicció sota temps de lliurament que es donarien en un context real. Per aquesta raó, es defineix una política d’assignació de nuclis basada en el temps disponible d’execució. Aquesta política d’assignació assignaràun nombre determinat de recursos a una determinada simulació prèviament a ser executada. La política d’assignació es basa en arbres de decisió creats amb els paràmetres de simulació utilitzats. No obstant això, es pro¬posen dos mètodes per a aquells casos on l’Algorisme Genètic tendeix a crear individus el temps d’execució dels quals provoquen que sigui impossible acabar el calibratge a temps: ReTAC i SoftTAC. La proposta ReTAC utilitza la resolució de les simulacions per solucionar el problema. En concret, ReTAC tracta de trobar la mínima reducció de la resolució que permeti que aquelles simulacions que són massa llargues puguin ser executades mantenint la precisió sota control. D’altra banda, SoftTAC utilitza poblacions de grandària dinàmica. Es a dir, els individus no es maten en arribar al límit de temps d’execució assignat a una generació de l’AG, sino que es permet l’execució simultanea d’individus de diferents generacions de l’algorisme genètic.
Totes les estratègies de predicció proposades han estat provades amb casos reals obtenint resultats satisfactoris en termes de precisió i de temps de còmput utilitzat. / Los incendios forestales son un tipo de catástrofe natural que representa un gran reto para sociedad debido a sus elevados costes económicos y humanos. Con el objetivo de evitar los costes derivados de dicho desastre natural y mejorar la extinción de éstos, los simuladores de propagación de incendios se pueden utilizar para intentar anticipar el comportamiento del incendio y ayudar a conseguir una extinción del incendio más eficiente y segura. Cuando se propociona una predicción de la propagación de un incendio forestal existen dos elementos clave: la precisión y el tiempo necesario para computar la predicción.
Bajo el contexto de la simulación de desastres naturales, es bien conocido que parte del error de la predicción está sujeta a la incertidumbre en los datos de entrada utilizados por el simulador. Por esta razón, la comunidad científica ha creado distintos métodos de calibración para reducir la incertidumbre de los datos de entrada y así mejorar el error de la predicción. En este trabajo se utiliza una metodología de calibración basada en dos etapas que ha sido probada en trabajos previos con buenos resultados. Este método de calibración implica una necesidad considerable de recursos computacionales y eleva el tiempo de cómputo debido al uso de un Algoritmo Genético como método de búsqueda de los mejores datos de entrada del simulador. Se debe tener en cuenta las restricciones de tiempo bajo las que trabaja un sistema de predicción de incendios. Es necesario mantener un equilibrio adecuado entre precisión y tiempo de cómputo utilizado para poder proporcionar una buena predicción a tiempo. Para poder utilizar la técnica de calibración mencionada, se debe solucionar el problema que representa que algunas soluciones sean inviables debido a que implican tiempos de ejecución muy largos, lo que puede impedir que se pueda dar respuesta a su debido tiempo en un supuesto contexto operacional.
La presente Tesis Doctoral utiliza las arquitecturas multi-core con el objetivo de acelerar el método de calibración basado en dos etapas y poder proporcionar una predicción bajo tiempos de entrega que se darían en un contexto real. Por esta razón, se define una política de asignación de núcleos basada en el tiempo disponible de ejecución . Esta política de asignación asignará un número determinado de recursos a una determinada simulación previamente a ser ejecutada. La política de asignación se basa en árboles de decisión creados con los parametros de simulación n utilizados.
Sin embargo, se proponen dos métodos para aquellos casos donde el algoritmo genético tienda a crear individuos cuyo tiempo de ejecución provocan que sea imposible acabar la calibración a tiempo: Re-TAC y Soft-TAC. La propuesta ReTAC utiliza la resolución de las simulaciones para solucionar el problema. En concreto, Re-TAC trata de encontrar la mínima reducción de la resolución que permita que aquellas simulaciones que son demasiado largas puedan ser ejecutadas manteniendo la precisión bajo control. Por otro lado, Soft-TAC utiliza poblaciones de tama˜no dinámico. Es decir, los individuos no se matan al alcanzar el límite de timepo de ejecución asignado a una generación del Algoritmo Genético, sino que se permite la ejecución simultanea de individuos de distintas generaciones haciendo que el tamaño de la población sea dinámico.
Todas la estrategias de predicción propuestas han sido probadas con casos reales obteniendo resultados satisfactorios en términos de precisión y de tiempo de cómputo utilizado. / Large forest fires are a kind of natural hazard that represents a big threat for the
society because it implies a significant number of economic and human costs. To avoid
major damages and to improve forest fire management, one can use forest fire spread
simulators to predict fire behaviour. When providing forest fire predictions, there are
two main considerations: accuracy and computation time.
In the context of natural hazards simulation, it is well known that part of the
final forecast error comes from uncertainty in the input data. For this reason several
input data calibration methods have been developed by the scientific community. In
this work, we use the Two-Stage calibration methodology, which has been shown to
provide good results. This calibration strategy is computationally intensive and timeconsuming
because it uses a Genetic Algorithm as an optimization strategy. Taking
into account the aspect of urgency in forest fire spread prediction, we need to maintain
a balance between accuracy and the time needed to calibrate the input parameters. In
order to take advantage of this technique, we must deal with the problem that some of
the obtained solutions are impractical, since they involve simulation times that are too
long, preventing the prediction system from being deployed at an operational level.
This PhD Thesis exploits the benefits of current multi-core architectures with the
aim of accelerating the Two-Stage forest fire prediction scheme being able to deliver
predictions under strict real time constraints. For that reason, a Time-Aware Core
allocation (TAC) policy has been defined to determine in advance the more appropriate
number of cores assigned to a given forest fire spread simulation. Each execution
configuration is obtained considering the particular values of the input data needed
for each simulation by applying a dynamic decision tree. However, in those cases
where the optimization process will drive the system to solutions whose simulation
time will prevent the system to finish on time, two different enhanced schemes have
been defined: Re-TAC and Soft-TAC. Re-TAC approach deals with the resolution of the
simulation. In particular, Re-TAC finds the minimum resolution reduction for such long
simulations, keeping accuracy loss to a known interval. On the other hand, Soft-TAC
considers the GA's population size as dynamic in the sense that none individual will be
killed for over passing the internal generations deadline, but it will be keep executing
and the population size for the subsequent GA's generation is modified according to
that. All proposed prediction strategies have been tested with past real cases obtaining
satisfactory results both in terms of prediction accuracy and in the time required to
deliver the prediction.
|
13 |
Modelos de calibración n−dimensionales para lenguas electrónicasCartas Rosado, Raúl 28 June 2012 (has links)
Las herramientas computacionales que se describen en esta tesis representan posibles alternativas de solución en la construcción de modelos de calibración multivariable a partir de datos obtenidos con arreglos de sensores electroquímicos. Tanto el trabajo experimental como las aplicaciones computacionales están dirigidos a la construcción de lenguas electrónicas de los tipos potenciométrico y voltamperométrico.
Las propuestas de solución que aquí se presentan están basadas en técnicas computacionales diseñadas para explorar grandes bases de datos en la búsqueda de patrones consistentes y/o relaciones sistemáticas entre variables, que permitan posteriormente aplicar estos modelos a nuevos datos con el fin de generar predicciones o estimaciones de resultados esperados.
Algunas de las herramientas se implementaron con redes neuronales tipo perceptrón multicapas y diferentes funciones de transferencia en las neuronas de la capa oculta. Las funciones de activación sigmoidales comúnmente usadas en las redes neuronales se sustituyeron por funciones más complejas y de poco (o nulo) uso en el área química. Para hacer compatible la estructura de la mayoría de los datos usados en esta tesis, con las entradas de las redes neuronales, se hizo un tratamiento previo de la información electroquímica usando técnicas de procesamiento mono- o multi-modales para reducir el número de variables y dimensiones.
Además de las propuestas basadas en estructuras de redes neuronales, también se ha planteado la construcción de modelos a partir de funciones base de los tipos spline truncada y B-spline. La primera se conoce como Splines Adaptativas de Regresión Multivariable (MARS) y la segunda como B-splines Adaptativas de Regresión Multivariable (B-MARS). Adicionalmente a las herramientas anteriormente descritas e implementadas como propuestas de solución, también se construyeron exitosamente modelos de calibración usando la regresión multimodo por mínimos cuadrados parciales (N-PLS). / The computational tools described in this thesis are meant to be alternative solutions to build multivariate calibration models from multi-way data obtained with arrays of electrochemical sensors. Both experimental and computational applications described herein are aimed to build electronic tongues of potentiometric and voltammetric types.
The solution proposals are based on computational techniques designed to explore large databases in search of consistent patterns and/or systematic relationships between variables, allowing then to apply these models to new data to predict or estimate expected results.
Some of the tools were implemented using multilayer perceptron neural networks with complex transfer functions (of little or no use in the chemical area) in the hidden layer neurons. To make compatible the type of structure of most of the data used in this thesis with the input of the neural networks, the electrochemical information was pretreated using mono- or multi-dimensional processing techniques in order to reduce the number of variables and dimensions.
In addition to the structres based on neural networks, we also propose to build models using base functions of the truncated spline and B-spline types. The first is known as Adaptive Regression Splines Multivariable (MARS) and the second as B-splines Multivariate Adaptive Regression (B-MARS). In addition to the tools described above and implemented as proposed solutions, we also built successfully calibration models using multi-way partial least squares regression (N-PLS).
|
14 |
Mètodes Heurístics per al problema d'Steiner en grafsGuitart Colom, Pere 21 December 1999 (has links)
No description available.
|
15 |
On the Scale Invariance of certain Complex SystemsFont Clos, Francesc 03 July 2015 (has links)
La Ciència de la Complexitat és un camp d'estudi interdisciplinari que aplica conceptes i mètodes de la física estadística i la teoria dels fenòmens crítics a altres camps, des de la Biologia a l'Economia, la Geologia o la Ciència de l'Esport.
Ciència de la Complexitat posa en dubte el reduccionisme científic, afirmant que "el tots és més que la suma de les parts", i que, per tant, el reduccionisme fracassarà tard o d'hora: Si un problema o sistema s'analitza estudiant-ne les unitats que el constitueixen, i aquestes unitats s'estudien, al seu torn, en termes d'altres elements més simples, i així successivament, aleshores s'acaba formant una jerarquia de paradigmes o nivells d'estudi. I si bé el sistema pot entendres, fins a cert grau, en termes de conceptes i mecanismes específics de cada un dels nivells d'estudi, no hi ha cap garantia d'una reconstrucció comprensible i satisfactòria del sistema. En altres paraules, el reduccionisme només ens ofereix un bitllet d'anada dins de la jerarquia de teories, en direcció a aquelles suposadament més bàsiques i elementals; la Ciència de la Complexitat tracta de trobar el camí de tornada, des dels elements microscòpic elementals fins a l'objecte inicial d'estudi.
La invariància d'escala es la propietat d'ésser invariant sota una transformació d'escala. Per tant, els objectes invariants d'escala no tenen escales característiques, ja que un re-escalament de les variables no produeix cap efecte detectable. Això es considera molt important en el paradigma de la complexitat, ja que permet connectar el món microscòpic amb el món macroscòpic.
Aquesta Tesi consisteix en un estudi de les propietats invariants d'escala de la representació en freqüències de la llei de Zipf en llenguatge, de la corba de creixement "type-token" en sistemes zipfians generals, i de la distribució de durada d'esdeveniments en un "thresholded birth-death process". S'evidencia que algunes propietats d'aquests sistemes poden expressar-se com a lleis d'escala, i per tant són invariants d'escala. Es determinen els exponents d'escala i les funciones d'escala corresponents. / Complexity Science is an interdisciplinary field of study that applies ideas and methods mostly from statistical physics and critical phenomena to a variety of systems in almost any other field, from Biology to Economics, to Geology or even Sports Science. In essence, it attempts to challenge the reductionist approach to scientific inquiry by claiming that "the total is more that the sum of its parts" and that, therefore, reductionism shall ultimately fail: When a problem or system is analyzed by studying its constituent units, and these units are subsequently analyzed in terms of even simpler units, and so on, then a descending hierarchy of realms of study is formed. And while the system might be somewhat understood in terms of different concepts at each different level, from the coarser description down to its most elementary units, there is no guarantee of a successful bottom-up, comprehensive "reconstruction" of the system. Reductionism only provides a way down the hierarchy of theories, i.e., towards those supposedly more basic and elementary; Complexity aims at finding a way back home, that is, from the basic elementary units up to the original object of study.
Scale invariance is the property of being invariant under a scale transformation. Thus, scale-invariant systems lack characteristic scales, as rescaling its variables leaves them unchanged. This is considered of importance in Complexity Science, because it provides a bridge between different realms of physics, linking the microscopic world with the macroscopic world.
This Thesis studies the scale invariant properties of the frequency-count representation of Zipf's law in natural languages, the type-token growth curve of general Zipf's systems and the distribution of event durations in a thresholded birth-death process. It is shown that some properties of this systems can be expressed as scaling laws, and are therefore scale-invariant. The associated scaling exponents and scaling functions are determined.
|
16 |
Performance model for hybrid MPI+OpenMP master/worker applicationsCastellanos Carrazana, Abel 09 September 2014 (has links)
En el entorno actual, diversas ramas de las ciencias, tienen la necesidad de auxiliarse de la computación de altas prestaciones para la
obtención de resultados a relativamente corto plazo. Ello es debido fundamentalmente, al alto volumen de información que necesita ser
procesada y también al costo computacional que demandan dichos cálculos. El beneficio al realizar este procesamiento de manera distribuida y
paralela, logra acortar de manera notable los tiempos de espera en la obtención de los resultados.
Para soportar ello, existen fundamentalmente dos modelos de programación ampliamente extendidos: el modelo de paso de mensajes a través de
librerías basadas en el estándar MPI, y el de memoria compartida con la utilización de OpenMP. Las aplicaciones híbridas son aquellas que
combinan ambos modelos con el fin de aprovechar en cada caso, las potencialidades específicas del paralelismo en cada uno. Lamentablemente,
la práctica ha demostrado que la utilización de esta combinación de modelos, no garantiza necesariamente una mejoría en el comportamiento de
las aplicaciones. Existen varios parámetros que deben ser considerados a determinar la configuración de la aplicación que proporciona el mejor
tiempo de ejecución. El número de proceso que se debe utilizar, el número de hilos en cada nodo, la distribución de datos entre procesos e hilos,
y así sucesivamente, son parámetros que afectan seriamente elrendimiento de
la aplicación. El valor apropiado de tales parámetros depende, por una parte, de las características de arquitectura del sistema
(latencia de las comunicaciones, el ancho de banda de comunicación, el tamaño y la distribución de los niveles de memoria cache,
la capacidad de cómputo, etc.) y, por otro lado, de la características propias del comportamiento de la aplicación.
La contribución fundamental de esta tesis radica en la utilización de una técnica novedosa para la predicción del rendimiento y la
eficiencia de aplicaciones híbridas de tipo Master/Worker. En particular, dentro del mundo del aprendizaje automatizado, este método de
predicción es conocido como arboles de regresión basados en modelos análiticos. Los resultados experimentales obtenidos permiten ser
optimista en cuanto al uso de este algoritmo para la predicción de ambas métricas o para la selección de la mejor configuración de
parámetros de ejecución de la aplicación. / In the current environment, various branches of science are in need of auxiliary high-performance computing to obtain relatively short-term
results. This is mainly due to the high volume of information that needs to be processed and the computational cost demanded by these
calculations. The benefit to performing this processing using distributed and parallel programming mechanisms is that it achieves shorter
waiting times in obtaining the results. To support this, there are basically two widespread programming models: the model of message passing
based on the standard libraries MPI and the shared memory model with the use of OpenMP. Hybrid applications are those that combine both
models in order to take the specific potential of parallelism of each one in each case. Unfortunately, experience has shown that using this
combination of models does not necessarily guarantee an improvement in the behavior of applications. There are several parameters that must
be considered to determine the configuration of the application that provides the best execution time. The number of process that must be
used,the number of threads on each node, the data distribution among processes and threads, and so on, are parameters that seriously affect
the performance of the application. On the one hand, the appropriate value of such parameters depends on the architectural features of the
system (communication latency, communication bandwidth, cache memory size and architecture, computing capabilities, etc.), and, on the other
hand, on the features of the application.
The main contribution of this thesis is a novel technique for predicting the performance and efficiency of parallel hybrid Master/Worker
applications. This technique is known as model-based regression trees into the field of machine learning. The experimental results obtained
allow us to be optimistic about the use of this algorithm for predicting both metrics and to select the best application execution
parameters.
|
17 |
Platform of intrusion management design and implementationGarcía Alfaro, Joaquín 10 November 2006 (has links)
Puesto que los sistemas informáticos son cada vez más vulnerables a actividades deshonestas, los mecanismos tradicionales de seguridad son todavía necesarios, pero no suficientes. Es necesario elaborar nuevos métodos de detección y de respuesta de manera que sea posible detener acciones de ataque tan pronto como sean realizadas. En esta tesis se presenta el diseño de una arquitectura de carácter general que pretende ser utilizada tanto para la realización de tareas de análisis y verificación de políticas de seguridad en red, como para controlar y configurar -sin anomalias ni errores de confguración- componentes de seguridad preventivos y de vigilancia. Se presenta también en esta tesis un mecanismo de respuesta basado en librerías de contramedidas. El objetivo de este mecanismo es ayudar al administrador a escoger posibles respuesta tan pronto como las acciones de ataque vayan siendo detectadas. Por último, se introduce también en esta tesis el diseño de una infrastructura para la comunicación entre los componentes de nuestra plataforma, y un mecanismo para la protección de dichos componentes. Todas las proposiciones y propuestas han sido implementadas y evaluadas a lo largo de nuestro trabajo. Los resultados obtenidos son presentados en las respectivas secciones de esta disertación. Esta tesis ha sido principalmente financiada por la Agencia de Gestión y Ayudas Universitarias y de Investigación (AGAUR) del Departamento de Universidades, Investigación y Sociedad de la Información (DURSI) de la Generalitat de Catalunya (num. de referencia 2003FI00126). El trabajo ha sido conjuntamente realizado en la Universitat Autònoma de Barcelona y la Ecole Nationale Superieure des Télécommunications de Bretagne. Palabras clave: Políticas de seguridad, detección de intrusos, contramedidas, correlación de eventos, comunicación publish/subscribe, control de acceso, protección de componentes. / Since computer infrastructures are currently getting more vulnerable than ever, traditional security mechanisms are still necessary but not suficient. We need to design effective response techniques to circumvent intrusions when they are detected. We present in this dissertation the design of a platform which is intended to act as a central point to analyze and verify network security policies, and to control and configure -without anomalies or errors- both prevention and detection security components. We also present in our work a response mechanism based on a library that implements different types of countermeasures. The objective of such a mechanism is to be a support tool in order to help the administrator to choose, in this library, the appropriate counter-measure when a given intrusion occurs. We finally present an infrastructure for the communication between the components of our platform, as well as a mechanism for the protection of such components. All these approaches and proposals have been implemented and evaluated. We present the obtained results within the respectives sections of this dissertation. This thesis has mainly been funded by the Agency for Administration of University and Research Grants (AGAUR) of the Ministry of Education and Universities (DURSI) of the Government of Catalonia (reference number 2003FI00126). The research was jointly carried out at the Universitat Autònoma de Barcelona and at the Ecole Nationale Superieure des Télécommunications de Bretagne. Keywords: Security policies, intrusion detection, response, counter-measures, event correlation, communication publish/subscribe, access control, components protection.
|
18 |
Continuïtat respecte el paràmetre de Hurst de les lleis d'alguns funcionals del moviment Brownià fraccionariViles Cuadros, Noèlia 08 July 2009 (has links)
No description available.
|
19 |
Leveraging performance of 3D finite difference schemes in large scientific computing simulationsDe la Cruz, Raúl 30 November 2015 (has links)
Gone are the days when engineers and scientists conducted most of their experiments empirically. During these decades, actual tests were carried out in order to assess the robustness and reliability of forthcoming product designs and prove theoretical models. With the advent of the computational era, scientific computing has definetely become a feasible solution compared with empirical methods, in terms of effort, cost and reliability. Large and massively parallel computational resources have reduced the simulation execution times and have improved their numerical results due to the refinement of the sampled domain. Several numerical methods coexist for solving the Partial Differential Equations (PDEs). Methods such as the Finite Element (FE) and the Finite Volume (FV) are specially well suited for dealing with problems where unstructured meshes are frequent. Unfortunately, this flexibility is not bestowed for free. These schemes entail higher memory latencies due to the handling of irregular data accesses. Conversely, the Finite Difference (FD) scheme has shown to be an efficient solution for problems where the structured meshes suit the domain requirements. Many scientific areas use this scheme due to its higher performance.
This thesis focuses on improving FD schemes to leverage the performance of large scientific computing simulations. Different techniques are proposed such as the Semi-stencil, a novel algorithm that increases the FLOP/Byte ratio for medium- and high-order stencils operators by reducing the accesses and endorsing data reuse. The algorithm is orthogonal and can be combined with techniques such as spatial- or time-blocking, adding further improvement. New trends on Symmetric Multi-Processing (SMP) systems -where tens of cores are replicated on the same die- pose new challenges due to the exacerbation of the memory wall problem. In order to alleviate this issue, our research is focused on different strategies to reduce pressure on the cache hierarchy, particularly when different threads are sharing resources due to Simultaneous Multi-Threading (SMT). Several domain decomposition schedulers for work-load balance are introduced ensuring quasi-optimal results without jeopardizing the overall performance. We combine these schedulers with spatial-blocking and auto-tuning techniques, exploring the parametric space and reducing misses in last level cache.
As alternative to brute-force methods used in auto-tuning, where a huge parametric space must be traversed to find a suboptimal candidate, performance models are a feasible solution. Performance models can predict the performance on different architectures, selecting suboptimal parameters almost instantly. In this thesis, we devise a flexible and extensible performance model for stencils. The proposed model is capable of supporting multi- and many-core architectures including complex features such as hardware prefetchers, SMT context and algorithmic optimizations. Our model can be used not only to forecast execution time, but also to make decisions about the best algorithmic parameters. Moreover, it can be included in run-time optimizers to decide the best SMT configuration based on the execution environment.
Some industries rely heavily on FD-based techniques for their codes. Nevertheless, many cumbersome aspects arising in industry are still scarcely considered in academia research. In this regard, we have collaborated in the implementation of a FD framework which covers the most important features that an HPC industrial application must include. Some of the node-level optimization techniques devised in this thesis have been included into the framework in order to contribute in the overall application performance. We show results for a couple of strategic applications in industry: an atmospheric transport model that simulates the dispersal of volcanic ash and a seismic imaging model used in Oil & Gas industry to identify hydrocarbon-rich reservoirs. / Atrás quedaron los días en los que ingenieros y científicos realizaban sus experimentos empíricamente. Durante esas décadas, se llevaban a cabo ensayos reales para verificar la robustez y fiabilidad de productos venideros y probar modelos teóricos. Con la llegada de la era computacional, la computación científica se ha convertido en una solución factible comparada con métodos empíricos, en términos de esfuerzo, coste y fiabilidad. Los supercomputadores han reducido el tiempo de las simulaciones y han mejorado los resultados numéricos gracias al refinamiento del dominio. Diversos métodos numéricos coexisten para resolver las Ecuaciones Diferenciales Parciales (EDPs). Métodos como Elementos Finitos (EF) y Volúmenes Finitos (VF) están bien adaptados para tratar problemas donde las mallas no estructuradas son frecuentes. Desafortunadamente, esta flexibilidad no se confiere de forma gratuita. Estos esquemas conllevan latencias más altas debido al acceso irregular de datos. En cambio, el esquema de Diferencias Finitas (DF) ha demostrado ser una solución eficiente cuando las mallas estructuradas se adaptan a los requerimientos. Esta tesis se enfoca en mejorar los esquemas DF para impulsar el rendimiento de las simulaciones en la computación científica. Se proponen diferentes técnicas, como el Semi-stencil, un nuevo algoritmo que incrementa el ratio de FLOP/Byte para operadores de stencil de orden medio y alto reduciendo los accesos y promoviendo el reuso de datos. El algoritmo es ortogonal y puede ser combinado con técnicas como spatial- o time-blocking, añadiendo mejoras adicionales. Las nuevas tendencias hacia sistemas con procesadores multi-simétricos (SMP) -donde decenas de cores son replicados en el mismo procesador- plantean nuevos retos debido a la exacerbación del problema del ancho de memoria. Para paliar este problema, nuestra investigación se centra en estrategias para reducir la presión en la jerarquía de cache, particularmente cuando diversos threads comparten recursos debido a Simultaneous Multi-Threading (SMT). Introducimos diversos planificadores de descomposición de dominios para balancear la carga asegurando resultados casi óptimos sin poner en riesgo el rendimiento global. Combinamos estos planificadores con técnicas de spatial-blocking y auto-tuning, explorando el espacio paramétrico y reduciendo los fallos en la cache de último nivel. Como alternativa a los métodos de fuerza bruta usados en auto-tuning donde un espacio paramétrico se debe recorrer para encontrar un candidato, los modelos de rendimiento son una solución factible. Los modelos de rendimiento pueden predecir el rendimiento en diferentes arquitecturas, seleccionando parámetros suboptimos casi de forma instantánea. En esta tesis, ideamos un modelo de rendimiento para stencils flexible y extensible. El modelo es capaz de soportar arquitecturas multi-core incluyendo características complejas como prefetchers, SMT y optimizaciones algorítmicas. Nuestro modelo puede ser usado no solo para predecir los tiempos de ejecución, sino también para tomar decisiones de los mejores parámetros algorítmicos. Además, puede ser incluido en optimizadores run-time para decidir la mejor configuración SMT. Algunas industrias confían en técnicas DF para sus códigos. Sin embargo, no todos los aspectos que aparecen en la industria han sido sometidos a investigación. En este aspecto, hemos diseñado e implementado desde cero una infraestructura DF que cubre las características más importantes que una aplicación industrial debe incluir. Algunas de las técnicas de optimización propuestas en esta tesis han sido incluidas para contribuir en el rendimiento global a nivel industrial. Mostramos resultados de un par de aplicaciones estratégicas para la industria: un modelo de transporte atmosférico que simula la dispersión de ceniza volcánica y un modelo de imagen sísmica usado en la industria del petroleo y gas para identificar reservas ricas en hidrocarburos
|
20 |
Multimodal Stereo from Thermal Infrared and Visible SpectrumBarrera Campo, Jos e Fernando 29 November 2012 (has links)
Recientes avances en im agenes t ermicas (LWIR) han permitido su uso en aplicaciones
m as all a del ambito militar. Actualmente, esta nueva familia de sensor esta
siendo incluida en diversas aplicaciones tanto t ecnicas como cient cas. Este tipo
de sensores facilitan tareas tales como: detecci on de peatones, puntos calientes, detecci
on de cambios de temperatura, entre otros. Caracter sticas que pueden mejorar
signi cativamente el desempeo de un sistema, especialmente cuando hay interacci on
con humanos. Por ejemplo, aplicaciones de v deo vigilancia, detecci on de peatones,
an alisis de postura.
En esta tesis se plantea entre otras la siguiente pregunta de investigaci on: Podr a
un par de sensores operando en diferentes bandas del espectro electromagn etico, como
el visible e infrarrojo t ermico, proporciona informaci on de profundidad? Si bien es
una cuesti on compleja, nosotros demostramos que un sistema de estas caracter sticas
es posible. Adem as, de discutir sus posibles ventajas, desventajas y oportunidades
potenciales.
La fusi on y correspondencia de los datos procedentes de diferentes sensores, como
las emisiones registradas en la banda visible e infrarroja, representa un reto atractivo,
ya que se ha demostrado que aquellas se~nales est an d ebilmente correlacionadas. Por
lo tanto, muchas t ecnicas tradicionales de procesamiento de im agenes y visi on por
computadora son inadecuadas, requiriendo ajustes para su correcto funcionamiento.
En esta investigaci on se realizo un estudio experimental comparando diferentes
funciones de costos multimodal, y t ecnicas de correspondencia, a n de construir un
sistema est ereo multimodal. Tambi en, se identi c o el problema com un entre est ereo
visible/ visible y infrarrojo/visible, particularmente en ambientes al aire libre. Entre
las contribuciones de esta tesis se encuentra; el aislamiento de las diferentes etapas
que componen un sistema est ereo multimodal. Esta arquitectura es gen erica a diferentes
niveles, tanto computacional, funcional y estructural, permitiendo su extensi on
a esquemas mas complejos tales como fusi on de alto nivel (sem antica) y de orden
superior (supuestos).
El enfoque propuesto est a destinado a explorar nuevos m etodos de correspondencia
est ereo, pasando de una soluci on escasa a una densas (tanto en disparidad como en
mapas de profundidad). Adem as, se ha incluido informaci on de contexto en forma
de asunciones y restricciones. Finalmente, esta disertaci on muestra un promisorio camino hacia la integraci on de m ultiples sensores. / Recent advances in thermal infrared imaging (LWIR) has allowed its use in applications
beyond of military domain. Nowadays, this new sensor family is included in
diverse technical and scienti c applications. They o er features that facilitate tasks,
such as detection of pedestrians, hot spots, di erences in temperature, among others,
which can signi cantly improve the performance of a system where the persons
are expected to play the principal role. For instance, video surveillance applications,
monitoring, and pedestrian detection.
During this dissertation is stated the next question: Could a couple of sensors
measuring di erent bands of the electromagnetic spectrum, as the visible and thermal
infrared, provides depth information? Although is a complex question, we shows that
a system of those characteristics is possible as well as their advantages, drawbacks,
and potential opportunities.
The fusion and matching of data coming from di erent sensors, as the emissions
registered at visible and infrared band, represents a special challenge, because it has
been showed that theses signals are weak correlated. Indeed, they are uncorrelated.
Therefore, many traditional techniques of image processing and computer vision are
not helpful, requiring adjustments for their correct performs in every modality.
In this research is performed a experimental study that compares di erent cost
functions and matching approaches, in order to build a multimodal stereo system. Furthermore,
are identi ed the common problem between visible/visible and infrared/visible
stereo, special in the outdoor scenes. A contribution of this dissertation is the isolation
achieved, between the di erent stage that compose a multimodal stereo system.
Our framework summarizes the architecture of a generic stereo algorithm, at di erent
levels: computational, functional, and structural, which is successful because this can
be extended toward high-level fusion (semantic) and high-order (prior).
The proposed framework is intended to explore novel multimodal stereo matching
approaches, going from sparse to dense representation (both disparity and depth
maps). Moreover, context information is added in form of priors and assumptions.
Finally, this dissertation shows a promissory way toward the integration of multiple
sensors for recovering three-dimensional information.
|
Page generated in 0.107 seconds