61 |
Analyse de sensibilité globale et polynômes de chaos pour l'estimation des paramètres : application aux transferts en milieu poreuxFajraoui, Noura 21 January 2014 (has links) (PDF)
La gestion des transferts des contaminants en milieu poreux représentent une préoccupation croissante et revêtent un intérêt particulier pour le contrôle de la pollution dans les milieux souterrains et la gestion de la ressource en eau souterraine, ou plus généralement la protection de l'environnement. Les phénomènes d'écoulement et de transport de polluants sont décrits par des lois physiques traduites sous forme d'équations algébro-différentielles qui dépendent d'un grand nombre de paramètres d'entrée. Pour la plupart, ces paramètres sont mal connus et souvent ne sont pas directement mesurables et/ou leur mesure peut être entachée d'incertitude. Ces travaux de thèse concernent l'étude de l'analyse de sensibilité globale et l'estimation des paramètres pour des problèmes d'écoulement et de transport en milieux poreux. Pour mener à bien ces travaux, la décomposition en polynômes de chaos est utilisée pour quantifier l'influence des paramètres sur la sortie des modèles numériques utilisés. Cet outil permet non seulement de calculer les indices de sensibilité de Sobol mais représente également un modèle de substitution (ou métamodèle) beaucoup plus rapide à exécuter. Cette dernière caractéristique est alors exploitée pour l'inversion des modèles à partir des données observées. Pour le problème inverse, nous privilégions l'approche Bayésienne qui offre un cadre rigoureux pour l'estimation des paramètres. Dans un second temps, nous avons développé une stratégie efficace permettant de construire des polynômes de chaos creux, où seuls les coefficients dont la contribution sur la variance du modèle est significative, sont retenus. Cette stratégie a donné des résultats très encourageants pour deux problèmes de transport réactif. La dernière partie de ce travail est consacrée au problème inverse lorsque les entrées du modèle sont des champs stochastiques gaussiens spatialement distribués. La particularité d'un tel problème est qu'il est mal posé car un champ stochastique est défini par une infinité de coefficients. La décomposition de Karhunen-Loève permet de réduire la dimension du problème et également de le régulariser. Toutefois, les résultats de l'inversion par cette méthode fournit des résultats sensibles au choix à priori de la fonction de covariance du champ. Un algorithme de réduction de la dimension basé sur un critère de sélection (critère de Schwartz) est proposé afin de rendre le problème moins sensible à ce choix.
|
62 |
Analyse de sensibilité globale et polynômes de chaos pour l'estimation des paramètres : application aux transferts en milieu poreux / Sensitivity analysis and polynomial chaos expansion for parameter estimation : application to transfer in porous mediaFajraoui, Noura 21 January 2014 (has links)
La gestion des transferts des contaminants en milieu poreux représentent une préoccupation croissante et revêtent un intérêt particulier pour le contrôle de la pollution dans les milieux souterrains et la gestion de la ressource en eau souterraine, ou plus généralement la protection de l’environnement. Les phénomènes d’écoulement et de transport de polluants sont décrits par des lois physiques traduites sous forme d'équations algébro-différentielles qui dépendent d'un grand nombre de paramètres d'entrée. Pour la plupart, ces paramètres sont mal connus et souvent ne sont pas directement mesurables et/ou leur mesure peut être entachée d’incertitude. Ces travaux de thèse concernent l’étude de l’analyse de sensibilité globale et l’estimation des paramètres pour des problèmes d’écoulement et de transport en milieux poreux. Pour mener à bien ces travaux, la décomposition en polynômes de chaos est utilisée pour quantifier l'influence des paramètres sur la sortie des modèles numériques utilisés. Cet outil permet non seulement de calculer les indices de sensibilité de Sobol mais représente également un modèle de substitution (ou métamodèle) beaucoup plus rapide à exécuter. Cette dernière caractéristique est alors exploitée pour l'inversion des modèles à partir des données observées. Pour le problème inverse, nous privilégions l'approche Bayésienne qui offre un cadre rigoureux pour l'estimation des paramètres. Dans un second temps, nous avons développé une stratégie efficace permettant de construire des polynômes de chaos creux, où seuls les coefficients dont la contribution sur la variance du modèle est significative, sont retenus. Cette stratégie a donné des résultats très encourageants pour deux problèmes de transport réactif. La dernière partie de ce travail est consacrée au problème inverse lorsque les entrées du modèle sont des champs stochastiques gaussiens spatialement distribués. La particularité d'un tel problème est qu'il est mal posé car un champ stochastique est défini par une infinité de coefficients. La décomposition de Karhunen-Loève permet de réduire la dimension du problème et également de le régulariser. Toutefois, les résultats de l'inversion par cette méthode fournit des résultats sensibles au choix à priori de la fonction de covariance du champ. Un algorithme de réduction de la dimension basé sur un critère de sélection (critère de Schwartz) est proposé afin de rendre le problème moins sensible à ce choix. / The management of transfer of contaminants in porous media is a growing concern and is of particular interest for the control of pollution in underground environments and management of groundwater resources, or more generally the protection of the environment. The flow and transport of pollutants are modeled by physical and phenomenological laws that take the form of differential-algebraic equations. These models may depend on a large number of input parameters. Most of these parameters are well known and are often not directly observable.This work is concerned with the impact of parameter uncertainty onto model predictions. To this end, the uncertainty and sensitivity analysis is an important step in the numerical simulation, as well as inverse modeling. The first study consists in estimating the model predictive uncertainty given the parameters uncertainty and identifying the most relevant ones. The second study is concerned with the reduction of parameters uncertainty from available observations.This work concerns the study of global sensitivity analysis and parameter estimation for problems of flow and transport in porous media. To carry out this work, the polynomials chaos expansion is used to quantify the influence of the parameters on the predictions of the numerical model. This tool not only calculate Sobol' sensitivity indices but also provides a surrogate model (or metamodel) that is faster to run. This feature is then exploited for models inversion when observations are available. For the inverse problem, we focus on Bayesian approach that offers a rigorous framework for parameter estimation.In a second step, we developed an effective strategy for constructing a sparse polynomials chaos expansion, where only coefficients whose contribution to the variance of the model is significant, are retained. This strategy has produced very encouraging results for two reactive transport problems.The last part of this work is devoted to the inverse problem when the inputs of the models are spatially distributed. Such an input is then treated as stochastic fields. The peculiarity of such a problem is that it is ill-posed because a stochastic field is defined by an infinite number of coefficients. The Karhunen-Loeve reduces the dimension of the problem and also allows regularizing it. However, the inversion with this method provides results that are sensitive to the presumed covariance function. An algorithm based on the selection criterion (Schwartz criterion) is proposed to make the problem less sensitive to this choice.
|
63 |
Amarrage de protéines flexibles en utilisant des expansions en séries de polynômes / Docking Flexible Proteins using Polynomial Expansions.Hoffmann, Alexandre 01 February 2018 (has links)
La biologie structurale est la branche de la biologie qui étudie la structure et l'organisation spatiale des macromolécules.La biologie structurale concerne en particulier la détermination à l'échelle atomiquede la structure 3D, aux changement de conformation des macromolécules, et à la dynamique de ces structures.De nos jours, les techniques expérimentales modernes telles que la résonance magnétique nucléaire, la cristallographie aux rayons X et plus récemmentla microscopie cryoélectronique peuvent produire des cartes de densité à haute résolution, qui combinées aux informations sur la séquence d'une moléculepermettent aux biologistes de résoudre les structures 3D de la molécule à l'étude.Cependant, dans certains cas, la résolution des cartes de densité n'est pas suffisante.Dans un tel cas, on alignegénéralement des sous-unités individuelles, obtenues à haute résolution, dans la carte de densité de base résolution.Mentionnons qu'il est également également possible de déterminer la structure 3D d'un assemblage biologique en ancrant plusieurs sous-unités ensemble.C'est cependant un problème beaucoup plus difficile.Ces problèmes d'amarrage et d'alignement peuvent être formulés comme un problème d'optimisation dont la fonction de coût est écrite comme la corrélation croisée de deux autres fonctions.Les algorithmes d'ancrage originaux ont été formulés comme des problèmes de "clé et verrou", dans lesquels les protéines étaient considérées comme des corps rigides.Il est cependant naïf de considérer les macromolécules comme des corps rigides. Les protéines sont flexibles et peuventsubir de grands changements conformationnels lors de la liaison à d'autres molécules. Considérer les problèmes d'ancrage comme des problèmes de"clé et verrou" n'est donc pas suffisant.Une méthode d'ancrage flexible standard utilise donc l'approche "aligner puis affiner", qui, dans certains cas, peut omettre de bonnes conformations.Cette thèse se concentre sur deux axes principaux.Le premier axe est le développement d'une nouvelle méthode qui échantillonne de manière exhaustive les mouvements de corps rigides et les mouvements collectifs, calculés par analyse en modes propres (AMP).Nous présentons d'abord une méthode qui utilise la transformée de Fourier rapide pour échantillonner une approximation quadratique de la fonction coût. Ensuite, la méthode effectuela recherche flexible en maximisant l'approximation quadratique de la fonction de coût dans un certain domaine de recherche. Cette méthode garantit de trouver la meilleure conformation flexible.Nous présentons ensuite une version en itterative de notre algorithme, qui trouve les mouvements collectifs qui maximisent le score d'amarrage par rapport aux degrés de liberté (DDLs) du corps rigide.La méthode échantillonne de manière exhaustive à la fois les mouvements de corps rigides et les mouvements collectifs en maximisant le maximum lisse selon les DDls correspondant aux transformations rigides de la fonction coût.Les deux méthodes ont été appliquées à des problèmes d'alignement sur des exemples réels et artificiels.De plus, nous présentons un exemple dans lequel l'approche "aligner puis raffiner" n'est pas capable de trouver la bonne conformation tandis quenotre méthode peut trouver ladite conformation.Le deuxième axe est le développement d'une nouvelle extrapolation des mouvements calculés par l'AMP.Nous montrons qu'il est possible, avec des calculs minimaux, d'extrapoler les mouvements instantanés calculés par l'AMP dans le sous espaces des rotations-traslations des blocs (RTB) comme une rotationpresque pure autour d'un certain axe.Nous avons appliqué cette méthode appelée NOLB sur différents systèmes biologiques et avons pu, d'une part, récupérer des mouvements biologiquement pertinents et d'autre part démontrer que la méthode NOLB génère des structures avec une meilleure topologie qu'une méthode d'AMP linéaire. / Structural biology is a branch of molecular biology, biochemistry, and biophysics concerned with the molecular structure of macromolecules, how they acquire the structures they have,and how alterations in their structures affect their function.These molecules are a topic of interest because they serve to keep the cellsalive and functioning.Nowadays, modern experimental techniques, such as nuclear magnetic resonance (NMR), X-ray crystallography and more recently cryo-electron microscopy (cryo-EM) canproduce high resolution density maps, which combined with the information about the sequence of a molecule allows biologists to solve thethree-dimensional (3D) structures of the molecule under study. However, when studding large biological assemblies, experimental techniques are notalways able to generate density maps with a high enough resolution. In such a case, one typically fits individual sub-units, which weresolved using at a higher resolution, into the lower-resolution density map.Let us also mention that it is also possible determine the 3D structure of a biological assembly by docking several sub-units together.This is a much more difficult problem though.These docking and fitting problems can be reformulated as an optimization problem whose cost function can be written as the cross-correlation of two functions.The first fitting and docking algorithms were formulated as "lock and key" problems, in which the proteins were considered as rigid body.However, considering macromolecules, especially proteins, as rigid bodies is not realistic.Proteins are indeed flexible and can undergo large conformational changesupon binding to other molecules.Considering docking and fitting problems as "lock and key" problems is therefore not sufficient.Therefore, a standard flexible docking/fitting method first uses a six-dimensional (6D) rigid body docking/fitting algorithm and then flexibly relaxes the top docking/fitting poses.This approach will be thus refereed to as to the fit then refine approach.However, in some cases, such an approach can miss good conformations.This thesis focuses on two main axes.The first axis is the development of a new method that exhaustively samples both rigid-body and collective motions computed via normal mode analysis (NMA).We first present a method that combines the advantages of the Fourier transform (FFT)-based exhaustive search, which samples all the conformations of a system under study on a grid, with a local optimization technique thatguarantees to find the nearest optimal off-grid and flexible conformation.The algorithm first samples a quadratic approximation of a scoring function on a 6D grid. Then, the method performs the flexible search by maximizing the quadratic approximation of the cost functionwithin a certain search space.We then present a multi-step version of our algorithm, which finds the collective motions that maximize the docking score with respect to the rigid-body degrees of freedom (DOFs).The method exhaustively samples both rigid-body and collective motions by maximizing the soft maximum over the rigid body DOFs of the docking/fitting cost function.Both methods were applied to docking problems on both real and artificial example and we were able to design a benchmark in which the fit then refine approach fails at finding the correct conformation whileour method succeeds.The second axis is the development of a new extrapolation of motions computed by NMA.We show that it is possible, with minimal computations, to extrapolate the instantaneous motions computed by NMA in the the rotations-translations of blocks (RTB) subspace as an almost pure rotation around a certain axis.We applied this non-linear block (NOLB) method on various biological systems and were able to, firstly, retrieve biologically relevant motions andsecondly, to demonstrate that the NOLB method generates structures with a better topology than a linear NMA method.
|
64 |
Calcul de polynômes modulaires en dimension 2 / Computing modular polynomials in dimension 2Milio, Enea 03 December 2015 (has links)
Les polynômes modulaires sont utilisés dans le calcul de graphes d’isogénies, le calcul des polynômes de classes ou le comptage du nombre de points d’une courbe elliptique, et sont donc fondamentaux pour la cryptographie basée sur les courbes elliptiques. Des polynômes analogues sur les surfaces abéliennes principalement polarisées ont été introduits par Régis Dupont en 2006, qui a également proposé un algorithme pour les calculer, et des résultats théoriques sur ces polynômes ont été donnés dans un article de Bröker–Lauter, en 2009. Mais les polynômes sont très gros et ils n’ont pu être calculés que pour l’exemple minimal p = 2. Dans cette thèse, nous poursuivons les travaux de Dupont et Bröker–Lauter en permettant de calculer des polynômes modulaires pour des invariants basés sur les thêta constantes, avec lesquels nous avons pu calculer les polynômes jusqu’à p = 7, tout en démontrant des propriétés de ces polynômes. Mais des exemples plus grands ne semblent pas envisageables. Ainsi, nous proposons une nouvelle définition des polynômes modulaires dans laquelle l’on se restreint aux surfaces abéliennes principalement polarisées qui ont multiplication réelle par l’ordre maximal d’un corps quadratique réel afin d’obtenir des polynômes plus petits. Nous présentons alors de nombreux exemples de polynômes et des résultats théoriques. / Modular polynomials on elliptic curves are a fundamental tool used for the computation of graph of isogenies, class polynomials or for point counting. Thus, they are fundamental for the elliptic curve cryptography. A generalization of these polynomials for principally polarized abelian surfaces has been introduced by Régis Dupont in 2006, who has also described an algorithm to compute them, while theoretical results can been found in an article of Bröker– Lauter of 2009. But these polynomials being really big, they have been computed only in the minimal case p = 2. In this thesis, we continue the work of Dupont and Bröker–Lauter by defining and giving theoretical results on modular polynomials with new invariants, based on theta constants. Using these invariants, we have been able to compute the polynomials until p = 7 but bigger examples look intractable. Thus we define a new kind of modular polynomials where we restrict on the surfaces having real multiplication by the maximal order of a real quadratic field. We present many examples and theoretical results.
|
65 |
Application of digital holography for metrology of inclusions in a droplet / Application d'holographie numérique pour la métrologie d'inclusions dans une goutteletteWichitwong, Wisuttida 16 March 2015 (has links)
Dans cette thèse, l'holographie numérique dans l'axe (DIH) est la principale méthode optique utilisée pour analyser des inclusions dans une gouttelette. L'holographie numérique dans l'axe est utilisée pour caractériser des inclusions du point de vue de leur taille, leur position 3D et leur trajectoire à l'intérieur de la gouttelette. Comme les particules sont situées à l'intérieur d'une gouttelette, le front d'onde incident sur l'inclusion est modifié avant qu'il l'illumine. Le défi de ce travail est double : premièrement de prendre en compte la forme de la gouttelette dans le modèle d'holographie et deuxièmement d'étendre l'analyse aux inclusions transparentes (type objet de phase). Pour décrire l'hologramme enregistré par le capteur CCD, l'intégrale d'Huygens-Fresnel et le formalisme des matrices ABCD ont été utilisés. Dans ce modèle, nous introduisons les polynômes de Zernike pour décrire la fonction de transmission d'une particule. Pour l'analyse des hologrammes, l'outil mathématique de la transformation de Fourier fractionnaire 2D (2D-FRFT) est utilisé pour restituer l'image des inclusions et dans ce cas une mesure la taille de l'inclusion et de sa position 3D sont réalisées. Les trajectoires des inclusions dans la goutte est possible avec un long temps de pose de l'obturateur du capteur CCD. Nous avons également proposé un nouveau modèle pour décrire des objets de phases quelconque et des particules opaques. Pour ce nouveau modèle, les mêmes procédés ont été utilisés. Dans le cas d'inclusions filiformes à l'intérieur d'une géométrie cylindrique comme un canal, une méthode de simulation d'imagerie interférométrique multi-coeurs est proposée. Dans ce cas, une somme de distributions de Dirac, localisées le long d'une droite, introduite dans l'intégrale de Fresnel généralisée (c'est-à-dire le formalisme des matrices ABCD et l'intégrale de Fresnel) permet d'obtenir un bon degré de similitude entre l'expérience et la simulation. / In this thesis, the digital in-line holography (DIH) is the main optical method used to analyze inclusions in a droplet. The digital in-line holography is used to characterize the inclusions in terms of of their size, their 3D position, and their trajectories inside the droplet. Since the particles are located within a droplet, the incident wavefront is changed before it illuminates the inclusions. The challenge of this work has two points : first to take into account the shape of the droplet in the holographic model and secondly to extend the analysis to the transparent inclusions (phase object). To describe the hologram recorded by the CCD sensor, the Huygens-Fresnel integral and the ABCD matrix formalism were used. In this model, we introduce the Zernike polynomials to describe the transmission function of a particle. For the analysis of holograms, the2D fractional Fourier transformation (2D-FRFT) is used to reconstruct the image of inclusions and in this case the size and their 3D position of the inclusions are performed.The trajectories of the inclusions in the drop are possible tracked with a long exposure shutter speed of the CCD. We also proposed a new simulation to describe objects of any phases and opaque particles. For this simulation, the same methods of reconstruction were used. In the case of micro-channel inclusions inside a cylindrical geometry such as a pipe, the interferometric imaging of multi-core pipe is proposed. In this case, summation of Dirac delta distribution, located along a line, introduced into the generalized Fresnel integral allows us to get a good agreement between the experiment and the simulation.
|
66 |
Modélisations polynomiales des signaux ECG : applications à la compression / Polynomial modelling of ecg signals with applications to data compressionTchiotsop, Daniel 15 November 2007 (has links)
La compression des signaux ECG trouve encore plus d’importance avec le développement de la télémédecine. En effet, la compression permet de réduire considérablement les coûts de la transmission des informations médicales à travers les canaux de télécommunication. Notre objectif dans ce travail de thèse est d’élaborer des nouvelles méthodes de compression des signaux ECG à base des polynômes orthogonaux. Pour commencer, nous avons étudié les caractéristiques des signaux ECG, ainsi que différentes opérations de traitements souvent appliquées à ce signal. Nous avons aussi décrit de façon exhaustive et comparative, les algorithmes existants de compression des signaux ECG, en insistant sur ceux à base des approximations et interpolations polynomiales. Nous avons abordé par la suite, les fondements théoriques des polynômes orthogonaux, en étudiant successivement leur nature mathématique, les nombreuses et intéressantes propriétés qu’ils disposent et aussi les caractéristiques de quelques uns de ces polynômes. La modélisation polynomiale du signal ECG consiste d’abord à segmenter ce signal en cycles cardiaques après détection des complexes QRS, ensuite, on devra décomposer dans des bases polynomiales, les fenêtres de signaux obtenues après la segmentation. Les coefficients produits par la décomposition sont utilisés pour synthétiser les segments de signaux dans la phase de reconstruction. La compression revient à utiliser un petit nombre de coefficients pour représenter un segment de signal constitué d’un grand nombre d’échantillons. Nos expérimentations ont établi que les polynômes de Laguerre et les polynômes d’Hermite ne conduisaient pas à une bonne reconstruction du signal ECG. Par contre, les polynômes de Legendre et les polynômes de Tchebychev ont donné des résultats intéressants. En conséquence, nous concevons notre premier algorithme de compression de l’ECG en utilisant les polynômes de Jacobi. Lorsqu’on optimise cet algorithme en supprimant les effets de bords, il dévient universel et n’est plus dédié à la compression des seuls signaux ECG. Bien qu’individuellement, ni les polynômes de Laguerre, ni les fonctions d’Hermite ne permettent une bonne modélisation des segments du signal ECG, nous avons imaginé l’association des deux systèmes de fonctions pour représenter un cycle cardiaque. Le segment de l’ECG correspondant à un cycle cardiaque est scindé en deux parties dans ce cas: la ligne isoélectrique qu’on décompose en séries de polynômes de Laguerre et les ondes P-QRS-T modélisées par les fonctions d’Hermite. On obtient un second algorithme de compression des signaux ECG robuste et performant. / Developing new ECG data compression methods has become more important with the implementation of telemedicine. In fact, compression schemes could considerably reduce the cost of medical data transmission through modern telecommunication networks. Our aim in this thesis is to elaborate compression algorithms for ECG data, using orthogonal polynomials. To start, we studied ECG physiological origin, analysed this signal patterns, including characteristic waves and some signal processing procedures generally applied ECG. We also made an exhaustive review of ECG data compression algorithms, putting special emphasis on methods based on polynomial approximations or polynomials interpolations. We next dealt with the theory of orthogonal polynomials. We tackled on the mathematical construction and studied various and interesting properties of orthogonal polynomials. The modelling of ECG signals with orthogonal polynomials includes two stages: Firstly, ECG signal should be divided into blocks after QRS detection. These blocks must match with cardiac cycles. The second stage is the decomposition of blocks into polynomial bases. Decomposition let to coefficients which will be used to synthesize reconstructed signal. Compression is the fact of using a small number of coefficients to represent a block made of large number of signal samples. We realised ECG signals decompositions into some orthogonal polynomials bases: Laguerre polynomials and Hermite polynomials did not bring out good signal reconstruction. Interesting results were recorded with Legendre polynomials and Tchebychev polynomials. Consequently, our first algorithm for ECG data compression was designed using Jacobi polynomials. This algorithm could be optimized by suppression of boundary effects, it then becomes universal and could be used to compress other types of signal such as audio and image signals. Although Laguerre polynomials and Hermite functions could not individually let to good signal reconstruction, we imagined an association of both systems of functions to realize ECG compression. For that matter, every block of ECG signal that matches with a cardiac cycle is split in two parts. The first part consisting of the baseline section of ECG is decomposed in a series of Laguerre polynomials. The second part made of P-QRS-T waves is modelled with Hermite functions. This second algorithm for ECG data compression is robust and very competitive.
|
67 |
Analyse bayésienne de la gerbe d'éclats provoquée pa l'explosion d'une bombe à fragmentation naturelle / Bayesian analysis of the sheaf of fragments caused by the explosion of a natural fragmentation bombGayrard, Emeline 14 November 2019 (has links)
Durant cette thèse, une méthode d'analyse statistique sur la gerbe d'éclats d’une bombe, en particulier sur leurs masses, a été mise au point. Nous avions à disposition trois échantillons partiels de données expérimentales et un modèle mécanique simulant l'explosion d'un anneau. Dans un premier temps, un modèle statistique a été créé à partir du modèle mécanique fourni, pour générer des données pouvant être similaires à celles d'une expérience. Après cela, la distribution des masses a pu être étudiée. Les méthodes d'analyse classiques ne donnant pas de résultats suffisamment précis, une nouvelle méthode a été mise au point. Elle consiste à représenter la masse par une variable aléatoire construite à partir d'une base de polynômes chaos. Cette méthode donne de bons résultats mais ne permet pas de prendre en compte le lien entre les éclats d'une même charge. Il a donc été décidé ensuite de modéliser la masse par un processus stochastique, et non par une variable aléatoire. La portée des éclats, qui dépend en partie de la masse, a elle aussi été modélisée par un processus. Pour finir, une analyse de sensibilité a été effectuée sur cette portée avec les indices de Sobol. Ces derniers s'appliquant aux variables aléatoires, nous les avons adaptés aux processus stochastiques de manière à prendre en compte les liens entre les éclats. Dans la suite, les résultats de cette dernière analyse pourront être améliorés. Notamment, grâce à des indices présentés en dernière partie qui seraient adaptés aux variables dépendantes, et permettraient l'utilisation de processus stochastiques à accroissements non indépendants. / During this thesis, a method of statistical analysis on sheaf of bomb fragments, in particular on their masses, has been developed. Three samples of incomplete experimental data and a mechanical model which simulate the explosion of a ring were availables. First, a statistical model based on the mechanical model has been designed, to generate data similar to those of an experience. Then, the distribution of the masses has been studied. The classical methods of analysis being not accurate enough, a new method has been developed. It consists in representing the mass by a random variable built from a basis of chaos polynomials. This method gives good results however it doesn't allow to take into account the link between slivers. Therefore, we decided to model the masses by a stochastic process, and not a random variable. The range of fragments, which depends of the masses, has also been modeled by a process. Last, a sensibility analysis has been carried out on this range with Sobol indices. Since these indices are applied to random variables, it was necessary to adapt them to stochastic process in a way that take into account the links between the fragments. In the last part, it is shown how the results of this analysis could be improved. Specifically, the indices presented in the last part are adapted to dependent variables and therefore, they could be suitable to processes with non independent increases.
|
68 |
Nombres presque premiers jumeaux sous une conjecture d'Elliott-Halberstam / Twin almost primes under a Elliott-Halberstam conjecture.Debouzy, Nathalie 28 June 2018 (has links)
Nous affinons le crible asymptotique de Bombieri afin d’obtenir un asymptotique en variables localisées. Comme conséquence, nous démontrons, sous la conjecture d’Elliott-Halberstam, qu’il existe une infinité de nombres presque premiers jumeaux, c’est à dire tels que pour tout ε > 0, p est premier et p−2 est soit premier, soit de la forme p1p2 où p1 < Xε, et nous en donnons un asymptotique. A ce travail s’ajoutent deux chapitres : d’un côté, une preuve montrant comment une méthode sans crible préliminaire donne un résultat plus faible en nécessitant une hypothèse plus forte, ce qui nous permettra de détailler plusieurs estimations et de souligner l’intérêt de notre approche. D’un autre côté une exposition pédagogique d’une méthode donnant un accès facile et explicite à plusieurs estimations de moyennes de fonctions multiplicatives. / We improve Bombieri’s asymptotic sieve to localise the variables. As a consequence, we prove, under a Elliott-Halberstam conjecture, that there exists an infinity of twins almost prime. Those are prime numbers p such that for all ε > 0, p −2 is either a prime number or can be written as p1p2 where p1 and p2 are prime and p1 < Xε, and we give the explicit asymptotic. In addition to this main work, there are two other chapters: the first one gives an asymptotic of prime numbers p such p−2is either a prime number or a product of three primes without using a preliminary sieve and so a stronger conjecture was needed. Hence this part shows the strength of the preliminary sieve and presents a few detailed sommations, most of them involving the Möbius fonction, that could be useful. The second one presents an easy and explicit method to calculate an average order of multiplicative functions.
|
69 |
On a new cell decomposition of a complement of the discriminant variety : application to the cohomology of braid groups / Sur une nouvelle décomposition cellulaire de l’espace des polynômes à racines simples : application à la cohomologie des groupes de tressesCombe, Noémie 24 May 2018 (has links)
Cette thèse concerne principalement deux objets classiques étroitement liés: d'une part la variété des polynômes complexes unitaires de degré $d>1$ à une variable, et à racines simples (donc de discriminant différent de zéro), et d'autre part, les groupes de tresses d'Artin avec d brins. Le travail présenté dans cette thèse propose une nouvelle approche permettant des calculs cohomologiques explicites à coefficients dans n'importe quel faisceau. En vue de calculs cohomologiques explicites, il est souhaitable d'avoir à sa disposition un bon recouvrement au sens de Čech. L'un des principaux objectifs de cette thèse est de construire un tel recouvrement basé sur des graphes (appelés signatures) qui rappellent les `dessins d'enfant' et qui sont associées aux polynômes complexes classifiés par l'espace de polynômes. Cette décomposition de l'espace de polynômes fournit une stratification semi-algébrique. Le nombre de composantes connexes de chaque strate est calculé dans le dernier chapitre ce cette thèse. Néanmoins, cette partition ne fournit pas immédiatement un recouvrement adapté au calcul de la cohomologie de Čech (avec n'importe quels coefficients) pour deux raisons liées et évidentes: d'une part les sous-ensembles du recouvrement ne sont pas ouverts, et de plus ils sont disjoints puisqu'ils correspondent à différentes signatures. Ainsi, l'objectif principal du chapitre 6 est de ``corriger'' le recouvrement de départ afin de le transformer en un bon recouvrement ouvert, adapté au calcul de la cohomologie Čech. Cette construction permet ensuite un calcul explicite des groupes de cohomologie de Čech à valeurs dans un faisceau localement constant. / This thesis mainly concerns two closely related classical objects: on the one hand, the variety of unitary complex polynomials of degree $ d> 1 $ with a variable, and with simple roots (hence with a non-zero discriminant), and on the other hand, the $d$ strand Artin braid groups. The work presented in this thesis proposes a new approach allowing explicit cohomological calculations with coefficients in any sheaf. In order to obtain explicit cohomological calculations, it is necessary to have a good cover in the sense of Čech. One of the main objectives of this thesis is to construct such a good covering, based on graphs that are reminiscent of the ''dessins d'enfants'' and which are associated to the complex polynomials. This decomposition of the space of polynomials provides a semi-algebraic stratification. The number of connected components in each stratum is counted in the last chapter of this thesis. Nevertheless, this partition does not immediately provide a ''good'' cover adapted to the computation of the cohomology of Čech (with any coefficients) for two related and obvious reasons: on the one hand the subsets of the cover are not open, and moreover they are disjoint since they correspond to different signatures. Therefore, the main purpose of Chapter 6 is to ''correct'' the cover in order to transform it into a good open cover, suitable for the calculation of the Čech cohomology. It is explicitly verified that there is an open cover such that all the multiple intersections are contractible. This allows an explicit calculation of cohomology groups of Čech with values in a locally constant sheaf.
|
70 |
Résolution de systèmes polynomiaux structurés de dimension zéro. / Solving zero-dimensional structured polynomial systemsSvartz, Jules 30 October 2014 (has links)
Les systèmes polynomiaux à plusieurs variables apparaissent naturellement dans de nombreux domaines scientifiques. Ces systèmes issus d'applications possèdent une structure algébrique spécifique. Une méthode classique pour résoudre des systèmes polynomiaux repose sur le calcul d'une base de Gröbner de l'idéal associé au système. Cette thèse présente de nouveaux outils pour la résolution de tels systèmes structurés, lorsque la structure est induite par l'action d'un groupe ou une structure monomiale particulière, qui englobent les systèmes multi-homogènes ou quasi-homogènes. D'une part, cette thèse propose de nouveaux algorithmes qui exploitent ces structures algébriques pour améliorer l'efficacité de la résolution de systèmes (systèmes invariant sous l'action d'un groupe ou à support dans un ensemble de monômes particuliers). Ces techniques permettent notamment de résoudre un problème issu de la physique pour des instances hors de portée jusqu'à présent. D'autre part, ces outils permettent d'améliorer les bornes de complexité de résolution de plusieurs familles de systèmes polynomiaux structurés (systèmes globalement invariant sous l'action d'un groupe abélien, individuellement invariant sous l'action d'un groupe quelconque, ou ayant leur support dans un même polytope). Ceci permet en particulier d'étendre des résultats connus sur les systèmes bilinéaires aux systèmes mutli-homogènes généraux. / Multivariate polynomial systems arise naturally in many scientific fields. These systems coming from applications often carry a specific algebraic structure.A classical method for solving polynomial systems isbased on the computation of a Gr\"obner basis of the ideal associatedto the system.This thesis presents new tools for solving suchstructured systems, where the structure is induced by the action of a particular group or a monomial structure, which include multihomogeneous or quasihomogeneous systems.On the one hand, this thesis proposes new algorithmsusing these algebraic structures to improve the efficiency of solving suchsystems (invariant under the action of a group or having a support in a particular set of monomials). These techniques allow to solve a problem arising in physics for instances out of reach until now.On the other hand, these tools improve the complexity bounds for solving several families of structured polynomial systems (systems globally invariant under the action of an abelian group or with their support in the same polytope). This allows in particular to extend known results on bilinear systems to general mutlihomogeneous systems.
|
Page generated in 0.0369 seconds