• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 110
  • 78
  • 64
  • 10
  • 7
  • 5
  • 4
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 323
  • 112
  • 70
  • 51
  • 48
  • 40
  • 35
  • 28
  • 28
  • 27
  • 26
  • 25
  • 25
  • 25
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

A Numerical Investigation Of The Canonical Duality Method For Non-Convex Variational Problems

Yu, Haofeng 07 October 2011 (has links)
This thesis represents a theoretical and numerical investigation of the canonical duality theory, which has been recently proposed as an alternative to the classic and direct methods for non-convex variational problems. These non-convex variational problems arise in a wide range of scientific and engineering applications, such as phase transitions, post-buckling of large deformed beam models, nonlinear field theory, and superconductivity. The numerical discretization of these non-convex variational problems leads to global minimization problems in a finite dimensional space. The primary goal of this thesis is to apply the newly developed canonical duality theory to two non-convex variational problems: a modified version of Ericksen's bar and a problem of Landau-Ginzburg type. The canonical duality theory is investigated numerically and compared with classic methods of numerical nature. Both advantages and shortcomings of the canonical duality theory are discussed. A major component of this critical numerical investigation is a careful sensitivity study of the various approaches with respect to changes in parameters, boundary conditions and initial conditions. / Ph. D.
272

Simulating the Landau-Zener problem : Derivation, Application & Simulation

Hammarskiöld Spendrup, Axel, Negis, Abdullah January 2024 (has links)
The Landau-Zener-Stückelberg-Majorana (LZSM) problem models diabatic transitions between energy levels in quantum two-level systems with an avoided level-crossing. The diabatic transition is a consequence of quantum tunneling in energy space when the system's Hamiltonian is perturbed with a fast-acting bias. The probability of transition between the energy states for a linear bias is known as the LZSM transition probability. The objective of this work is to investigate the LZSM problem through analytical and numerical lenses. The LZSM transition probability is derived in two ways. The first approach is based on Majorana's solution using contour integrals. The second derivation follows Landau's quasi-classical treatment. The derivations demonstrate methods for transitions in the presence of time-dependent perturbations. The ubiquity of the two-level system is discussed and an application on qubits concerning LSZM interferometry is presented, with the latter arising after considering periodic biases. Lastly, a simulation of the two-level system is conducted using Trotter-decomposed time-evolution operators, perturbation theory, and vectorization. The simulated transition probabilities for linear and periodic biases are obtained for varied parameters. The results show that the simulation achieves an accurate and efficient emulation of the LZSM problem.
273

Modélisation des bi-grappes et sélection des variables pour des données de grande dimension : application aux données d’expression génétique

Chekouo Tekougang, Thierry 08 1900 (has links)
Les simulations ont été implémentées avec le programme Java. / Le regroupement des données est une méthode classique pour analyser les matrices d'expression génétiques. Lorsque le regroupement est appliqué sur les lignes (gènes), chaque colonne (conditions expérimentales) appartient à toutes les grappes obtenues. Cependant, il est souvent observé que des sous-groupes de gènes sont seulement co-régulés (i.e. avec les expressions similaires) sous un sous-groupe de conditions. Ainsi, les techniques de bi-regroupement ont été proposées pour révéler ces sous-matrices des gènes et conditions. Un bi-regroupement est donc un regroupement simultané des lignes et des colonnes d'une matrice de données. La plupart des algorithmes de bi-regroupement proposés dans la littérature n'ont pas de fondement statistique. Cependant, il est intéressant de porter une attention sur les modèles sous-jacents à ces algorithmes et de développer des modèles statistiques permettant d'obtenir des bi-grappes significatives. Dans cette thèse, nous faisons une revue de littérature sur les algorithmes qui semblent être les plus populaires. Nous groupons ces algorithmes en fonction du type d'homogénéité dans la bi-grappe et du type d'imbrication que l'on peut rencontrer. Nous mettons en lumière les modèles statistiques qui peuvent justifier ces algorithmes. Il s'avère que certaines techniques peuvent être justifiées dans un contexte bayésien. Nous développons une extension du modèle à carreaux (plaid) de bi-regroupement dans un cadre bayésien et nous proposons une mesure de la complexité du bi-regroupement. Le critère d'information de déviance (DIC) est utilisé pour choisir le nombre de bi-grappes. Les études sur les données d'expression génétiques et les données simulées ont produit des résultats satisfaisants. À notre connaissance, les algorithmes de bi-regroupement supposent que les gènes et les conditions expérimentales sont des entités indépendantes. Ces algorithmes n'incorporent pas de l'information biologique a priori que l'on peut avoir sur les gènes et les conditions. Nous introduisons un nouveau modèle bayésien à carreaux pour les données d'expression génétique qui intègre les connaissances biologiques et prend en compte l'interaction par paires entre les gènes et entre les conditions à travers un champ de Gibbs. La dépendance entre ces entités est faite à partir des graphes relationnels, l'un pour les gènes et l'autre pour les conditions. Le graphe des gènes et celui des conditions sont construits par les k-voisins les plus proches et permet de définir la distribution a priori des étiquettes comme des modèles auto-logistiques. Les similarités des gènes se calculent en utilisant l'ontologie des gènes (GO). L'estimation est faite par une procédure hybride qui mixe les MCMC avec une variante de l'algorithme de Wang-Landau. Les expériences sur les données simulées et réelles montrent la performance de notre approche. Il est à noter qu'il peut exister plusieurs variables de bruit dans les données à micro-puces, c'est-à-dire des variables qui ne sont pas capables de discriminer les groupes. Ces variables peuvent masquer la vraie structure du regroupement. Nous proposons un modèle inspiré de celui à carreaux qui, simultanément retrouve la vraie structure de regroupement et identifie les variables discriminantes. Ce problème est traité en utilisant un vecteur latent binaire, donc l'estimation est obtenue via l'algorithme EM de Monte Carlo. L'importance échantillonnale est utilisée pour réduire le coût computationnel de l'échantillonnage Monte Carlo à chaque étape de l'algorithme EM. Nous proposons un nouveau modèle pour résoudre le problème. Il suppose une superposition additive des grappes, c'est-à-dire qu'une observation peut être expliquée par plus d'une seule grappe. Les exemples numériques démontrent l'utilité de nos méthodes en terme de sélection de variables et de regroupement. / Clustering is a classical method to analyse gene expression data. When applied to the rows (e.g. genes), each column belongs to all clusters. However, it is often observed that the genes of a subset of genes are co-regulated and co-expressed in a subset of conditions, but behave almost independently under other conditions. For these reasons, biclustering techniques have been proposed to look for sub-matrices of a data matrix. Biclustering is a simultaneous clustering of rows and columns of a data matrix. Most of the biclustering algorithms proposed in the literature have no statistical foundation. It is interesting to pay attention to the underlying models of these algorithms and develop statistical models to obtain significant biclusters. In this thesis, we review some biclustering algorithms that seem to be most popular. We group these algorithms in accordance to the type of homogeneity in the bicluster and the type of overlapping that may be encountered. We shed light on statistical models that can justify these algorithms. It turns out that some techniques can be justified in a Bayesian framework. We develop an extension of the biclustering plaid model in a Bayesian framework and we propose a measure of complexity for biclustering. The deviance information criterion (DIC) is used to select the number of biclusters. Studies on gene expression data and simulated data give satisfactory results. To our knowledge, the biclustering algorithms assume that genes and experimental conditions are independent entities. These algorithms do not incorporate prior biological information that could be available on genes and conditions. We introduce a new Bayesian plaid model for gene expression data which integrates biological knowledge and takes into account the pairwise interactions between genes and between conditions via a Gibbs field. Dependence between these entities is made from relational graphs, one for genes and another for conditions. The graph of the genes and conditions is constructed by the k-nearest neighbors and allows to define a priori distribution of labels as auto-logistic models. The similarities of genes are calculated using gene ontology (GO). To estimate the parameters, we adopt a hybrid procedure that mixes MCMC with a variant of the Wang-Landau algorithm. Experiments on simulated and real data show the performance of our approach. It should be noted that there may be several variables of noise in microarray data. These variables may mask the true structure of the clustering. Inspired by the plaid model, we propose a model that simultaneously finds the true clustering structure and identifies discriminating variables. We propose a new model to solve the problem. It assumes that an observation can be explained by more than one cluster. This problem is addressed by using a binary latent vector, so the estimation is obtained via the Monte Carlo EM algorithm. Importance Sampling is used to reduce the computational cost of the Monte Carlo sampling at each step of the EM algorithm. Numerical examples demonstrate the usefulness of these methods in terms of variable selection and clustering.
274

Étude mathématique de quelques équations cinétiques collisionnelles

Mouhot, Clément 25 November 2004 (has links) (PDF)
On s'intéresse dans cette thèse à l'étude des solutions des équations de Boltzmann (élastiques et inélastiques) et Landau. Les axes de cette étude sont la régularité des solutions et leur comportement asymptotique, et nous nous attachons systématiquement à quantifier les résultats obtenus. Dans la première partie, d'une part nous considérons les solutions spatialement homogènes de l'équation de Boltzmann, pour lesquelles nous montrons la propagation de la régularité et la décroissance des singularités pour des interactions à courte portée, et la propagation de bornes <br />d'intégrabilité pour des interactions à longue portée. D'autre part, nous quantifions la positivité des solutions spatialement <br />inhomogènes, sous des hypothèses de régularité. Dans la deuxième partie, nous donnons des estimations de trou spectral et de coercivité sur les opérateurs de Boltzmann et Landau linéarisés, puis nous prouvons la convergence exponentielle vers l'équilibre avec taux explicite pour un gaz de sphères dures spatialement homogènes. Dans la troisième partie, nous considérons l'équation de Boltzmann spatialement homogène pour les gaz granulaires, pour laquelle nous construisons des solutions pour des modèles d'inélasticité réalistes (mais fortement non-linéaires) et discutons la possibilité de « gel » en temps fini ou asymptotiquement. Puis nous montrons l'existence de profils auto-similaires et étudions le comportement de la solution pour les grandes vitesses. Dans la quatrième partie, nous utilisons une semi-discrétisation de l'opérateur de Boltzmann pour proposer <br />des schémas numériques rapides basés sur les méthodes spectrales ou les méthodes par discrétisation des vitesses.
275

Modélisation des bi-grappes et sélection des variables pour des données de grande dimension : application aux données d’expression génétique

Chekouo Tekougang, Thierry 08 1900 (has links)
Le regroupement des données est une méthode classique pour analyser les matrices d'expression génétiques. Lorsque le regroupement est appliqué sur les lignes (gènes), chaque colonne (conditions expérimentales) appartient à toutes les grappes obtenues. Cependant, il est souvent observé que des sous-groupes de gènes sont seulement co-régulés (i.e. avec les expressions similaires) sous un sous-groupe de conditions. Ainsi, les techniques de bi-regroupement ont été proposées pour révéler ces sous-matrices des gènes et conditions. Un bi-regroupement est donc un regroupement simultané des lignes et des colonnes d'une matrice de données. La plupart des algorithmes de bi-regroupement proposés dans la littérature n'ont pas de fondement statistique. Cependant, il est intéressant de porter une attention sur les modèles sous-jacents à ces algorithmes et de développer des modèles statistiques permettant d'obtenir des bi-grappes significatives. Dans cette thèse, nous faisons une revue de littérature sur les algorithmes qui semblent être les plus populaires. Nous groupons ces algorithmes en fonction du type d'homogénéité dans la bi-grappe et du type d'imbrication que l'on peut rencontrer. Nous mettons en lumière les modèles statistiques qui peuvent justifier ces algorithmes. Il s'avère que certaines techniques peuvent être justifiées dans un contexte bayésien. Nous développons une extension du modèle à carreaux (plaid) de bi-regroupement dans un cadre bayésien et nous proposons une mesure de la complexité du bi-regroupement. Le critère d'information de déviance (DIC) est utilisé pour choisir le nombre de bi-grappes. Les études sur les données d'expression génétiques et les données simulées ont produit des résultats satisfaisants. À notre connaissance, les algorithmes de bi-regroupement supposent que les gènes et les conditions expérimentales sont des entités indépendantes. Ces algorithmes n'incorporent pas de l'information biologique a priori que l'on peut avoir sur les gènes et les conditions. Nous introduisons un nouveau modèle bayésien à carreaux pour les données d'expression génétique qui intègre les connaissances biologiques et prend en compte l'interaction par paires entre les gènes et entre les conditions à travers un champ de Gibbs. La dépendance entre ces entités est faite à partir des graphes relationnels, l'un pour les gènes et l'autre pour les conditions. Le graphe des gènes et celui des conditions sont construits par les k-voisins les plus proches et permet de définir la distribution a priori des étiquettes comme des modèles auto-logistiques. Les similarités des gènes se calculent en utilisant l'ontologie des gènes (GO). L'estimation est faite par une procédure hybride qui mixe les MCMC avec une variante de l'algorithme de Wang-Landau. Les expériences sur les données simulées et réelles montrent la performance de notre approche. Il est à noter qu'il peut exister plusieurs variables de bruit dans les données à micro-puces, c'est-à-dire des variables qui ne sont pas capables de discriminer les groupes. Ces variables peuvent masquer la vraie structure du regroupement. Nous proposons un modèle inspiré de celui à carreaux qui, simultanément retrouve la vraie structure de regroupement et identifie les variables discriminantes. Ce problème est traité en utilisant un vecteur latent binaire, donc l'estimation est obtenue via l'algorithme EM de Monte Carlo. L'importance échantillonnale est utilisée pour réduire le coût computationnel de l'échantillonnage Monte Carlo à chaque étape de l'algorithme EM. Nous proposons un nouveau modèle pour résoudre le problème. Il suppose une superposition additive des grappes, c'est-à-dire qu'une observation peut être expliquée par plus d'une seule grappe. Les exemples numériques démontrent l'utilité de nos méthodes en terme de sélection de variables et de regroupement. / Clustering is a classical method to analyse gene expression data. When applied to the rows (e.g. genes), each column belongs to all clusters. However, it is often observed that the genes of a subset of genes are co-regulated and co-expressed in a subset of conditions, but behave almost independently under other conditions. For these reasons, biclustering techniques have been proposed to look for sub-matrices of a data matrix. Biclustering is a simultaneous clustering of rows and columns of a data matrix. Most of the biclustering algorithms proposed in the literature have no statistical foundation. It is interesting to pay attention to the underlying models of these algorithms and develop statistical models to obtain significant biclusters. In this thesis, we review some biclustering algorithms that seem to be most popular. We group these algorithms in accordance to the type of homogeneity in the bicluster and the type of overlapping that may be encountered. We shed light on statistical models that can justify these algorithms. It turns out that some techniques can be justified in a Bayesian framework. We develop an extension of the biclustering plaid model in a Bayesian framework and we propose a measure of complexity for biclustering. The deviance information criterion (DIC) is used to select the number of biclusters. Studies on gene expression data and simulated data give satisfactory results. To our knowledge, the biclustering algorithms assume that genes and experimental conditions are independent entities. These algorithms do not incorporate prior biological information that could be available on genes and conditions. We introduce a new Bayesian plaid model for gene expression data which integrates biological knowledge and takes into account the pairwise interactions between genes and between conditions via a Gibbs field. Dependence between these entities is made from relational graphs, one for genes and another for conditions. The graph of the genes and conditions is constructed by the k-nearest neighbors and allows to define a priori distribution of labels as auto-logistic models. The similarities of genes are calculated using gene ontology (GO). To estimate the parameters, we adopt a hybrid procedure that mixes MCMC with a variant of the Wang-Landau algorithm. Experiments on simulated and real data show the performance of our approach. It should be noted that there may be several variables of noise in microarray data. These variables may mask the true structure of the clustering. Inspired by the plaid model, we propose a model that simultaneously finds the true clustering structure and identifies discriminating variables. We propose a new model to solve the problem. It assumes that an observation can be explained by more than one cluster. This problem is addressed by using a binary latent vector, so the estimation is obtained via the Monte Carlo EM algorithm. Importance Sampling is used to reduce the computational cost of the Monte Carlo sampling at each step of the EM algorithm. Numerical examples demonstrate the usefulness of these methods in terms of variable selection and clustering. / Les simulations ont été implémentées avec le programme Java.
276

Flow and transport in saturated and unsaturated fractured porous media: Development of particle-based modeling approaches

Kordilla, Jannes 23 June 2014 (has links)
Das Ziel der vorliegenden Arbeit ist die Entwicklung von partikelbasierenden Strömungs- und Transportmodellen zur Charakterisierung von kleinskaligen Strömungsprozessen in gesättigten und ungesättigten Poren- und Kluftsystemen. Aufgrund der unzureichenden Prozessbeschreibung von ungesättigter Strömung in Doppelkontinuummodellen mittels der Richardsgleichung und van Genuchten Parametern werden innovative Methoden präsentiert um die zugrunde liegenden hochdynamischen Strömungs- und Transportprozesse zu erfassen. Die Simulation von Strömung und Transport in ungesättigten geklüfteten Aquiferen bildet immer noch ein höchst anspruchsvolles Aufgabenfeld aufgrund von skalenübergreifenden Diskontinuitäten, welche oftmals die Definition eines globalen repräsentativen Einheitsvolumens nicht zulassen. Des Weiteren können die hydraulischen Eigenschaften und potentiellen Parameterräume von geklüfteten Aquiferen oftmals nur durch integrale Ansätze, wie z.B. Pump- und Slugtests, Zeitreihenanalysen von Quellschüttungen und Tracertests ermittelt werden. Doppelkontinuummodelle bieten hierfür einen ausgewogenen Ansatz hinsichtlich der erforderlichen Felddaten und der resultierenden prädiktiven Modellqualität. Der erste Teil dieser Arbeit evaluiert den Doppelkontinuumansatz, welcher die Simulation von Strömung mittels der Richardsgleichung und van Genuchten Parametern in zwei, durch einen linearen Austauschterm gekoppelten, Kontinua ermöglicht. Ganglinien von Karstquellen weisen eine charakteristischen steilen Abfall nach Niederschlagsereignissen auf, der durch das Modell erfolgreich reproduziert werden kann. Das Röhrensystem bildet die hydraulische Brücke zur Karstquelle und nimmt potentialabhängige Wassermengen des geklüfteten Matrixsystems auf. Um die Simulation von schneller Grundwasserinfiltration durch das Röhrenkontinuum innerhalb der ungesättigten Zone zu vermeiden wurde die entsprechende Randbedingung an die untere Grenze des Kontinuums gesetzt. Ein genereller Nachteil des Doppelkontinuumsansatz ist die potentielle Mehrdeutigkeit von Modellergebnissen. Der duale Parameterraum in Kombination mit schwierig zu ermittelnden Parametern, führt zur Existenz von mehr als einem kalibrierten Modell, wie durch mehrdimensionale Sensitivitätsanalysen aufgezeigt wird.  Insbesondere in Karstaquiferen bilden Diskontinuitäten, wie z.B. Lösungsdolinen, Klüfte und Störungssysteme, bevorzugte hydraulische Elemente für schnelle vertikale Grundwasserneubildungsprozesse, die oftmals nicht durch volumeneffektive Modellansätze erfasst werden können. Der Hauptteil dieser Arbeit befasst sich daher mit der Entwicklung von zwei Smoothed Particle Hydrodynamics (SPH) Modellen um ein adäquates numerisches Werkzeug zur partikelbasierenden Simulation von kleinskaligen Strömungen mit freien Oberflächen und Transportprozessen bereitzustellen. SPH Modelle ermöglichen eine Eulersche Beschreibung eines Strömungsfelds auf Basis der Navier-Stokes Gleichung und Partikelbewegung mittels klassischer Newtonscher Mechanik. Der gitterlose Modellansatz ermöglicht flexible Simulationen von hochdynamischen Phasengrenzen in ungesättigten Klüften und Porenräumen. Das erste SPH Modell wird eingesetzt um durch Oberflächenspannung dominierte Tropfen- und Filmströmungen auf glatten und rauhen Kluftoberflächen zu simulieren. Charakteristische dimensionslose Kennzahlen werden über einen weiten Bereich von Benetzungswinkeln und Reynoldszahlen bestimmt. Modellergebnisse weisen einen hervorragende Übereinstimmung mit dimensionslosen Skalierungsfunktionen auf und kritische Kontaktwinkel folgen der zu erwartenden Entnetzungsdynamik. Die Entstehung von adsorbierten Filmen auf trockenen Oberflächen wird für einen breiten Parameterraum bestimmt. Des Weiteren wird der Einfluss von befeuchteten Oberflächen auf die Geschwindigkeitszunahme von Tropfenströmung aufgezeigt und so die Bedeutung der Koexistenz verschiedener Strömungsmodi gezeigt. Der Effekt von Oberflächenrauhigkeit auf Tropfenströmung wird für verschiedene Rauhigkeiten ermittelt und eine deutliche Geschwindigkeitsabnahme demonstriert. Um die makroskopische Kontinuumsbeschreibung der Navier-Stokes Gleichung und atomistische Effekte eines klassischen Partikelsystems der statistischen Mechanik zu kombinieren wurde ein zweites mesoskopisches SPH Modell entwickelt. Diese neue Diskretisation der vollständig gekoppelten Landau-Lifshitz-Navier-Stokes und Advektions- Diffusionsgleichung ermöglicht die Simulation von Strömung und Transport bei gleichzeitiger Berücksichtigung von Fluktuationsdynamiken, welche sich korrekt der Systemskala anpassen. Die Verbindung von klassischer Fickscher Diffusion und thermodynamischen Fluktuationen wird hierbei durch einen effektiven Diffusionskoeffizienten beschrieben. Numerische Experimente zeigen die Präzision des Modells. Grenzflächen zwischen zwei Fluiden unterschiedlicher Konzentration weisen eine korrekte Wellenzahldivergenz entsprechend aktuellen Laborergebnissen auf.
277

Transition Matrix Monte Carlo Methods for Density of States Prediction

Haber, René 03 July 2014 (has links) (PDF)
Ziel dieser Arbeit ist zunächst die Entwicklung einer Vergleichsgrundlage, auf Basis derer Algorithmen zur Berechnung der Zustandsdichte verglichen werden können. Darauf aufbauend wird ein bestehendes übergangsmatrixbasiertes Verfahren für das großkanonisch Ensemble um ein neues Auswerteverfahren erweitert. Dazu werden numerische Untersuchungen verschiedener Monte-Carlo-Algorithmen zur Berechnung der Zustandsdichte durchgeführt. Das Hauptaugenmerk liegt dabei auf Verfahren, die auf Übergangsmatrizen basieren, sowie auf dem Verfahren von Wang und Landau. Im ersten Teil der Forschungsarbeit wird ein umfassender Überblick über Monte-Carlo-Methoden und Auswerteverfahren zur Bestimmung der Zustandsdichte sowie über verwandte Verfahren gegeben. Außerdem werden verschiedene Methoden zur Berechnung der Zustandsdichte aus Übergangsmatrizen vorgestellt und diskutiert. Im zweiten Teil der Arbeit wird eine neue Vergleichsgrundlage für Algorithmen zur Bestimmung der Zustandsdichte erarbeitet. Dazu wird ein neues Modellsystem entwickelt, an dem verschiedene Parameter frei gewählt werden können und für das die exakte Zustandsdichte sowie die exakte Übergangsmatrix bekannt sind. Anschließend werden zwei weitere Systeme diskutiert für welche zumindest die exakte Zustandsdichte bekannt ist: das Ising Modell und das Lennard-Jones System. Der dritte Teil der Arbeit beschäftigt sich mit numerischen Untersuchungen an einer Auswahl der vorgestellten Verfahren. Auf Basis der entwickelten Vergleichsgrundlage wird der Einfluss verschiedener Parameter auf die Qualität der berechneten Zustandsdichte quantitativ bestimmt. Es wird gezeigt, dass Übergangsmatrizen in Simulationen mit Wang-Landau-Verfahren eine wesentlich bessere Zustandsdichte liefern als das Verfahren selbst. Anschließend werden die gewonnenen Erkenntnisse genutzt um ein neues Verfahren zu entwickeln mit welchem die Zustandsdichte mittels Minimierung der Abweichungen des detaillierten Gleichgewichts aus großen, dünnbesetzten Übergangsmatrizen gewonnen werden kann. Im Anschluss wird ein Lennard-Jones-System im großkanonischen Ensemble untersucht. Es wird gezeigt, dass durch das neue Verfahren Zustandsdichte und Dampfdruckkurve bestimmt werden können, welche qualitativ mit Referenzdaten übereinstimmen.
278

Équation de diffusion généralisée pour un modèle de croissance et de dispersion d'une population incluant des comportements individuels à la frontière des divers habitats / Generalized diffusion equation for a growth and dispersion model of a population including individual behaviors on the boundary of the different habitats

Thorel, Alexandre 24 May 2018 (has links)
Le but de ce travail est l'étude d'un problème de transmission en dynamique de population entre deux habitats juxtaposés. Dans chacun des habitats, on considère une équation aux dérivées partielles, modélisant la dispersion généralisée, formée par une combinaison linéaire du laplacien et du bilaplacien. On commence d'abord par étudier et résoudre la même équation avec diverses conditions aux limites posée dans un seul habitat. Cette étude est effectuée grâce à une formulation opérationnelle du problème: on réécrit cette EDP sous forme d'équation différentielle, posée dans un espace de Banach construit sur les espaces Lp avec 1 < p < +∞, où les coefficients sont des opérateurs linéaires non bornés. Grâce au calcul fonctionnel, à la théorie des semi-groupes analytiques et à la théorie de l'interpolation, on obtient des résultats optimaux d'existence, d'unicité et de régularité maximale de la solution classique si et seulement si les données sont dans certains espaces d'interpolation. / The aim of this work is the study of a transmission problem in population dynamics between two juxtaposed habitats. In each habitat, we consider a partial differential equation, modeling the generalized dispersion, made up of a linear combination of Laplacian and Bilaplacian operators. We begin by studying and solving the same equation with various boundary conditions in a single habitat. This study is carried out using an operational formulation of the problem: we rewrite this PDE as a differential equation, set in a Banach space built on the spaces Lp with 1 < p < +∞, where the coefficients are unbounded linear operators. Thanks to functional calculus, analytic semigroup theory and interpolation theory, we obtain optimal results of existence, uniqueness and maximum regularity of the classical solution if and only if the data are in some interpolation spaces.
279

Synthèse de fréquence par couplage d'oscillateurs spintroniques

Zarudniev, Mykhailo 28 January 2013 (has links)
La tendance actuelle dans le domaine des télécommunications mène à des systèmes capables de fonctionner selon plusieurs standards, et donc plusieurs fréquences porteuses. La synthèse de la fréquence porteuse est un élément clef, dont les propriétés reposent essentiellement sur les performances de l’oscillateur employé. Pour assurer le fonctionnement de systèmes compatibles avec plusieurs standards de télécommunication, la solution conventionnelle consiste à intégrer plusieurs oscillateurs locaux. Cette solution est coûteuse, d’autant plus que, malgré le fait que les technologies actuelles atteignent des niveaux d’intégration très importants, la surface occupée par des oscillateurs traditionnels de type LC ne peut pas être diminuée, alors que le coût de fabrication au millimètre carré devient de plus en plus élevé. Il serait donc très intéressant de remplacer les oscillateurs LC, ce qui nous amène à rechercher des solutions alternatives parmi de nouvelles technologies. L’oscillateur spintronique (STO) est un nouveau dispositif issu des études sur les couches minces magnétiques. Il apparait comme un candidat potentiel de remplacement des oscillateurs LC du fait de sa grande accordabilité en fréquence et de son faible encombrement. Toutefois des mesures effectuées sur les STOs ont montré que la performance en puissance et en bruit de phase d’un oscillateur seul ne permet pas de remplir les spécifications pour des applications de télécommunication. Nous proposons de remplir ces spécifications en couplant un nombre d’oscillateurs spintroniques important. Dans ce cadre se posent plusieurs questions qui concernent les procédures de modélisation, d’analyse et de synthèse des systèmes interconnectés. Les procédures de modélisation incluent la démarche de recherche de modèles à complexité croissante qui décrivent les propriétés entrée-sortie d’un oscillateur spintronique, ainsi que la démarche de généralisation des modèles des oscillateurs dans le cadre du réseau. Les procédures d’analyse cherchent à vérifier la stabilité et évaluer la performance des systèmes interconnectés. Les procédures de synthèse permettent de concevoir des interconnexions sophistiquées pour les oscillateurs afin d’assurer toutes les spécifications du cahier des charges. Dans ce document, nous établissons tout d’abord le problème de la synthèse de fréquence par couplage avec un cahier des charges formalisé en termes de gabarits fréquentiels sur des densités spectrales de puissance. Le cahier des charges posé amène la nécessité de modéliser l’oscillateur spintronique pour pouvoir simuler et analyser son comportement. Ici, nous proposons une modélisation originale selon des degrés de complexité croissante. Ensuite, nous discutons de la structure de la commande de l’ensemble des oscillateurs afin de remplir les spécifications du cahier des charges. La structure de commande proposée nécessite de développer une méthode de conception des interconnexions du réseau d’après les critères de performance. Dans les deux derniers chapitres, nous proposons deux méthodes fréquentielles de synthèse originales pour résoudre le problème de synthèse de fréquence par couplage. La première méthode de synthèse permet de prendre en compte un critère mathématique du cahier des charges, qui correspond à un gabarit fréquentiel à respecter, et permet d’obtenir une matrice d’interconnexion des sous-systèmes, telle que le module de la réponse fréquentielle du réseau approxime le gabarit imposé par le cahier des charges. La deuxième méthode de synthèse permet de prendre en compte plusieurs gabarits fréquentiels à la fois. La solution obtenue est une matrice d’interconnexion des sous-systèmes, qui résout le problème de la synthèse de fréquence par couplage d’oscillateurs spintroniques. / The current trends in telecommunication are leading to systems that are compatible with multiple standards and consequently multiple carrier frequencies. The frequency synthesis is a key element influenced by the local oscillator performance. In order to ensure the system compatibility with multiple telecommunication standards, the conventional solution consists in using one local oscillator for each standard. This solution is expensive, even more, since the cost per squared millimetre is increasing, while the silicon area occupied by the traditional LC-tank oscillators cannot be reduced in spite of the fact that technology is going to higher integration levels. Thus, it should be interesting to find a substitution to the LC-tank oscillators which leads to research for alternative solutions among new technologies. The spin torque oscillator (STO) is a new device issued from the ferromagnetic thin-film research. Due to its frequency accord ability and its capability to occupy relatively small volume, it appears as a potential candidate for the LC-tank oscillator replacement. However, a set of measurements prove that these devices exhibit poor power and phase noise performance, making them unable to fulfill the technical specification of the radiofrequency applications. We propose to reach these specifications by coupling of a large number of spin torque oscillators. In this scope, numerous questions appear regarding the procedures of modelling, analysis and synthesis of the complex interconnected systems. The modelling procedures are dedicated to the increasing complexity models that describe the input-output behaviour of a spin torque oscillator and its behaviour within the interconnected network. The analysis procedures are targeted to verify the stability and to evaluate the performance level of the interconnected systems. The synthesis procedures allow to design the interconnection law for spin torque oscillators in order to fulfill the technical requirements. In this document, the frequency synthesis problem by spin torque oscillator coupling with technical specification description in terms of power spectral densities is established. The formulated specifications introduce the problem of the oscillator modelling in order to perform a simulation and an analysis of the oscillator behaviour. Here, we propose an original model using several conventional models with increasing complexity. An original oscillator network model that describes qualitative properties of the oscillator synchronisation is introduced. Afterwards, the control law architecture for an oscillator set is established in order to accomplish the technical requirement specifications. The suggested control architecture needs to be developed with quantitative systematic and efficient design method for the network interconnection taking into account the formulated performance criteria. In the last two chapters we propose two original frequency domain design methods allowing the resolution of our frequency synthesis problem. The first design method allows to consider explicitly a performance criterium corresponding toa desired frequency constraint. The method allows to obtain a suitable sub-system interconnection matrix that fits the frequency specification constraint. The second design method allows to find an interconnection matrix and to take into account simultaneously several frequency specification constraints. The interconnection matrix obtained with the proposed method solves the problem of frequency synthesis by coupling of spin torque oscillators.
280

Quantização de Landau e efeitos associados para átomos ultrafrios do tipo tripod na presença de uma campo magnético artificial

Silva, Bruno Farias da 27 February 2015 (has links)
Submitted by Maike Costa (maiksebas@gmail.com) on 2016-03-15T12:16:24Z No. of bitstreams: 1 arquivototal.pdf: 5169144 bytes, checksum: 66d534e3f0c0c59bf5d35a45290fa390 (MD5) / Made available in DSpace on 2016-03-15T12:16:24Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 5169144 bytes, checksum: 66d534e3f0c0c59bf5d35a45290fa390 (MD5) Previous issue date: 2015-02-27 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / In this thesis, we propose an experimental setup for the study of Landau quantization and associated effects in a two-dimensional ultracold atomic gas. Gauge fields can emerge in the equation of motion for the optically addressed ultracold atoms. To this end, spatially dependent dark states are necessary for the internal states of the atoms. A tripod level scheme yields two degenerate dark states which can leads to either an Abelian U(1) U(1) gauge field or a non-Abelian SU(2) gauge field. Using a suitable laser configuration, we obtain a uniform U(1) U(1) magnetic field which causes the atoms organize themselves in Landau levels. The strength of the effective magnetic field depends on the relative intensity of the lasers beams at the atomic cloud. We estimate the degeneracy of the energy levels for an atomic gas formed by atoms of 87Rb. In addition, we establish the experimental conditions to reach the lowest Landau level regime. In the zero-temperature limit, we realize the emergence of magnetic oscillations in the atomic energy and its derivative as function of the inverse of the effective magnetic field (de Haas van Alphen effect). The period of the de Haas van Alphen oscillation allow us to determine area of the Fermi circle for the atomic gas via an Onsager-like relation. We also show that detuning the a laser from the two-photon resonance we generate a parabolic scalar potential that laterally confines the atoms. As a consequence, the Landau levels degeneracy is removed, since the energy spectrum depends explicitly on the transverse atomic momentum. We show that the Landau levels presents a reminiscent degeneracy when the boundaries conditions are considered. The residual degeneracy occurs when different energy levels overlap. We map the residual degeneracy points as a function of the effective magnetic field. Finally, we present an experimental scheme for observing the spin Hall effect for ultracold atoms in a tripod configuration. / Nesta tese, propomos um arranjo experimental para o estudo da quantização de Landau e efeitos associados em um gás atômico ultrafrio bidimensional. Campos de calibre podem surgir na equação de movimento para átomos ultrafrios oticamente vestidos. Para que isto ocorra, estados escuros espacialmente dependentes são necessários a partir dos estados internos dos átomos. Átomos numa configuração de níveis de energia do tipo tripod produzem dois estados escuros degenerados, que podem levar a campos de calibre Abelianos U(1) U(1) ou não-Abelianos SU(2). Utilizando uma configuração adequada de lasers, mostramos que é possível se produzir um campo magnético sintético uniforme U(1) U(1) que atua nos átomos neutros fazendo-os se organizarem em níveis de Landau. A intensidade do campo efetivo depende da intensidade relativa dos feixes de luz na nuvem atômica. Estimamos a degenerescência dos níveis de energia para um gás atômico formado por átomos de 87Rb e estabelecemos as condições experimentais para que seja atingido o regime em que todos os átomos populam unicamente o nível de Landau menos energético. Considerando o limite de temperatura nula, verificamos o surgimento de oscilações magnéticas na energia e em sua derivada como uma função do inverso do campo magnético efetivo (efeito de Haas van Alphen). O período da oscilação magnética nos permite determinar a área do círculo de Fermi para o gás atômico através de uma expressão similar a de Onsager para sistemas eletrônicos. Mostramos também que dessintonizando um dos lasers em relação à ressonância de dois fótons geramos um potencial escalar parabólico que faz com os átomos sejam lateralmente confinados. Isto resulta na remoção da degenerescência dos níveis de Landau, uma vez que a energia depende explicitamente do momento atômico transverso. Demonstramos que, aplicando condições periódicas de contorno ao sistema, temos o surgimento de uma degenerescência residual. A degenerescência remanescente ocorre quando diferentes níveis de energia se superpõem. Mapeamos os pontos de degenerescência como uma função do campo magnético efetivo. Por fim, apresentamos um esquema experimental para a observação do efeito spin Hall para átomos ultrafrios em uma configuração tripod.

Page generated in 0.0558 seconds