• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 95
  • 23
  • 16
  • Tagged with
  • 158
  • 122
  • 49
  • 43
  • 38
  • 34
  • 31
  • 24
  • 23
  • 23
  • 19
  • 19
  • 19
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Contributions aux méthodes arithmétiques pour la simulation accélérée

Xiao, Yi-Jun 27 September 1990 (has links) (PDF)
Cette thèse porte sur les irrégularités de distribution de suites à une ou plusieurs dimensions et sur leurs applications a l'intégration numérique. Elle comprend trois parties. La première partie est consacrée aux suites unidimensionnelles : estimations de la diaphonie de la suite de Van der Corput à partir de l'étude des sommes exponentielles et étude des suites (n). La deuxième partie porte sur quelques suites classiques en dimension plus grande que une (suites de Fame, suites de Halton). La troisième partie, consacrée aux applications à l'intégration contient de nombreux résultats numériques, permettant de comparer l'efficacité de suites.
82

Étude du formalisme multifractal pour les fonctions

Ben Slimane, Mourad 20 September 1996 (has links) (PDF)
L'objet de cette thèse est l'analyse multifractale des fonctions autosimilaires et l'étude de la validité du formalisme multifractal. Il s'agit d'abord de déterminer la régularité Hölderienne ponctuelle exacte pour des fonctions dont le graphe localement est grossièrement une contraction du graphe complet, à une fonction erreur près ; ensuite de calculer les dimensions de Hausdorff des ensembles de points où la fonction présente la même singularité; et enfin de vérifier les conjectures de Frish et Parisi et celle d'Arneodo, Bacry et Muzy, qui relient ces dimensions à des quantités moyennes extraites de la fonction. Nous étudions plusieurs types d'autosimilarités, et montrons (en reformulant parfois) que l'analyse par ondelettes permet d'étudier la validité de ces relations.
83

Problèmes d'optimisation combinatoires probabilistes

Bellalouna, Monia 05 March 1993 (has links) (PDF)
L'étude du domaine récent que constituent les problèmes d'optimisation combinatoires probabilistes (POCPs) forme le sujet de cette thèse. Les POCPs sont des généralisations des problèmes d'optimisation combinatoires classiques dont les formulations contiennent explicitement des éléments probabilistes. Plusieurs motivations ont provoqué cette étude. Deux d'entre elles sont particulièrement importantes. La première correspond au désir de formuler et d'analyser des modèles qui sont plus appropriés pour des problèmes pratiques pour lesquels l'aléatoire est une source constante de préoccupations, les modèles de nature probabiliste sont plus particulièrement attractifs comme abstraction mathématique des systèmes réels. La seconde motivation est d'analyser la stabilité des solutions optimales des problèmes déterministes lorsque les exemplaires sont perturbés : les perturbations sont simulées par la présence ou l'absence de sous-ensembles des données. Notre étude s'appuie sur certains de ces problèmes et en particulier : problème du voyageur de commerce; problème d'ordonnancement des travaux probabiliste et le problème du bin-packing probabiliste. Les questions soulevées et les résultats obtenus sont dans les domaines suivants : complexités des problèmes et analyse d'heuristiques pour les POCPs ; analyse du comportement asymptotique des problèmes lorsque les exemplaires correspondent à des problèmes de grandes tailles ; dégager une méthodologie générale d'étude de la stabilité des solutions des problèmes d'optimisation combinatoires classiques.
84

Allocation de bande passante dans les grands réseaux stochastiques

Feuillet, Mathieu 12 July 2012 (has links) (PDF)
L'objectif de cette thèse est de traiter trois problèmes relatifs aux réseaux de grande taille. Les outils utilisés à cette fin sont issus des probabilités et plus spécifiquement de la théorie des files d'attente. En plus d'améliorer la compréhension des systèmes étudiés, les travaux réalisés dans cette thèse ont permis de prouver des résultats théoriques nouveaux ainsi que d'illustrer certains phénomènes probabilistes. Dans le Chapitre II, un modèle de réseau à partage de bande passante est étudié. Contrairement à ce qui avait été étudié dans la littérature, les utilisateurs n'utilisent pas de contrôle de congestion. On suppose qu'ils envoient des données avec un débit maximum et protègent leur transmission à l'aide d'un mécanisme basé sur des codes correcteurs d'erreur. Le modèle obtenu est analysé pour deux topologies de réseaux spécifiques : les réseaux linéaires et les arbres montants. A l'aide de limites fluides, les conditions de stabilité de ces réseaux sont établies. Ces limites fluides donnent lieu à un phénomène intéressant de moyennage stochastique. Ensuite, une autre méthode de renormalisation est utilisée pour prouver que la région de stabilité de ces processus converge vers la région optimale lorsque que les débits maximaux des utilisateurs deviennent infiniment petits par rapport à la taille des liens du réseau. Dans le Chapitre III, on se propose d'étudier CSMA/CA, un algorithme d'accès implémenté dans certains standards de réseaux sans fil. Chaque lien est constitué d'un émetteur et d'un récepteur et un graphe d'interférence modélise les collisions potentielles entre les liens. Les arrivées et les départs de ces derniers sont prises en compte. Une approximation est faite en supposant que la dynamique d'accès au canal est infiniment plus rapide que la dynamique des arrivées et départs de liens. Il est alors établi que le CSMA permet une utilisation optimale des ressources radio dans le cadre des réseaux ad-hoc. Cependant, il est également prouvé que ce même algorithme n'est pas efficace pour les réseaux avec une station de base ; dans ce cas, un biais en faveur des transmissions vers la station de base est observé. A la fin du chapitre, l'hypothèse simplificatrice est discutée. Les deux derniers chapitres de la thèse sont consacrés à l'étude d'un grand système distribué de stockage de données avec pertes. L'objectif est d'estimer la vitesse de perte des fichiers ou la durée de vie d'un fichier donné. Dans le Chapitre IV, c'est le premier point de vue qui est adopté. Le système est considéré de manière globale. Le système est constitué d'un grand nombre de fichiers qui peuvent avoir chacun deux copies au maximum. Chaque copie disparaît au bout d'un temps aléatoire. Un mécanisme centralisé de sauvegarde permet alors de restaurer les copies perdues. Un fichier dont les deux copies ont été détruites est définitivement perdu. Le système est étudié dans le cas limite où le nombre de fichiers tend vers l'infini. Afin de décrire correctement le système, trois échelles de temps différentes sont étudiées. Ralentir le temps permet de comprendre le mécanisme de sauvegarde ; laisser le temps inchangé permet de définir la capacité du système ; accélérer le temps permet d'évaluer la vitesse de perte des fichiers. Le principe de moyennage stochastique est également observé à l'échelle de temps la plus rapide. Dans le chapitre V, le point de vue d'un fichier donné est adopté. Des liens sont établis avec les modèles classiques d'Ehrenfest, issu de la physique statistique, et d'Erlang, issu des télécommunications. Des méthodes basées sur les martingales sont utilisées pour calculer la transformée de Laplace des temps d'atteinte de ces deux processus. Ces transformées permettent alors d'estimer le comportement asymptotique de ces temps d'atteinte et notamment le temps de disparition d'un fichier.
85

Étude de quelques modèles cinétiques décrivant le phénomène d'évaporation en gravitation / Study of several kinetic models describing the evaporation phenomenon in gravitation

Carcaud, Pierre 02 June 2014 (has links)
L'étude de l'évolution de galaxies, et tout particulièrement du phénomène d'évaporation, a été pour la première fois menée à l'aide de modèles physiques, par Chandrasekhar notamment, dans les années 40. Depuis, de nouveaux modèles plus sophistiqués ont été introduits par les physiciens. Ces modèles d'évolution des galaxies sont des modèles cinétiques; bien connus et bien étudiés par les mathématiciens. Cependant, l'aspect évaporation (le fait que des étoiles sortent du système étudié) n'avait pas encore été étudié mathématiquement, à ma connaissance. La galaxie est vue comme un gaz constitué d'étoiles et le modèle consiste en une équation de Vlasov-Poisson, l'interaction étant la gravitation universelle, couplée avec au second membre un terme de collision de type Landau. On rajoute à ce modèle une condition d'évaporation qui consiste à dire que les étoiles dont l'énergie cinétique est suffisamment élevée pour quitter le système sont exclues. Ce modèle étant trop compliqué à étudier tel quel, je propose dans cette thèse plusieurs modèles simplifiés qui sont des premières étapes nécessaires à l'étude du modèle général et qui permettent de mieux comprendre les difficultés à surmonter. Dans une première partie, je m'intéresse au cas homogène en espace, pour lequel le terme de Vlasov-Poisson est remplacé par une simple dérivée en temps. Je fais une étude précise du cas à symétrie radiale en vitesse avec un potentiel Maxwellien, le terme de Landau étant alors remplacé par un terme de type Fokker-Planck, et je montre dans ce cas l'existence et l'unicité d'une solution régulière et l'existence d'un profil asymptotique des solutions. Dans le cas homogène général, je montre l'existence et l'unicité d'une solution régulière tout pendant que la masse ne s'est pas totalement évaporée. J'illustre ces résultats théoriques par des simulations numériques réalisés à l'aide de schéma numériques conservateurs. Dans une seconde partie, je m'intéresse au cas non homogène en espace en dérivant un modèle hydrodynamique pour un modèle de type Vlasov-BGK (plus simple que le modèle Vlasov-Poisson-Landau) avec évaporation. / The study of the evolution of the galaxies, and more specially of the evaporation phenomenon, was for the first time carried out, by Chandrasekhar in particular, in the 40s. Since then, more sophisticated models have been introduced by physicists. These models are kinetics models; well-known and well-studied by mathematicians. However, the evaporation (the fact that stars leave the galaxy) has never been studied before, to my knowledge. The galaxy is seen as a gaz of stars and the model is formed by a Vlasov-Poisson equation, with the gravitational interaction, coupled with Kernel of collision of Landau. A condition of evaporation is added to this model, saying the stars with a large enough kinetic energy are excluded. As this model is too complicated to be studied, I propose in this thesis several simpler models which constitute first steps toward the study of the general model and which inform us about the difficulties implied. In the first part, I am interested in the space-homogeneous model, for which the Vlasov-Poisson term is replaced by a simple time derivative. I make a precise study of the spherically symmetric case with a Maxwellian potential for which the the Landau term is replaced by a Fokker-Planck typed term, and I show the existence of a unique regular solution and the fact that this solution admits an asymptotical profile. In the general homogeneous case, I show the existence of a unique regular solution as long as the mass has not totally disappeared. Theses theoretical results are illustrated with numerical simulations obtained with conservative schemes. In the second part, I am interested in the inhomogeneous case and I derive an hydro-dynamical model for a Vlasov-BGK model (a simpler model than Vlasov-Poisson-Landau) with evaporation.
86

Analyse statistique de données issues de batteries en usage réel sur des véhicules électriques, pour la compréhension, l’estimation et la gestion des phénomènes de vieillissement / Statistical analysis of battery signals in real electric vehicle uses, for comprehension, estimation and management of ageing phenomena

Barré, Anthony 17 October 2014 (has links)
Le marché des véhicules électriques connait actuellement un développement important motivé par diverses raisons. Cependant, des limites liées à leurs performances constituent des inconvénients majeurs à une croissance des ventes de plus grande importance. Les performances et durée de vie des batteries utilisées sont au cœur des préoccupations des utilisateurs. Les batteries sont sujettes à des pertes de performances au fil du temps, dus à des phénomènes complexes impliquant des interactions entre les diverses conditions de vie de celles-ci. Dans l'objectif d'améliorer la compréhension et l'estimation du vieillissement d'une batterie, ces travaux étudient des données issues d'usages réels de batteries sur des véhicules électriques. En particulier, l'étude consiste en l'adaptation d'approches statistiques fondées sur les données mesurées, mettant en évidence des interactions entre variables, ainsi que la création de méthodes d'estimation du niveau de performance de batterie uniquement basé sur les mesures obtenues. Les résultats de ces méthodologies ont permis d'illustrer l'apport d'une approche statistique, par exemple en démontrant la présence d'informations contenues dans les signaux issus de la batterie, utiles pour l'estimation de son état de santé. / Due to different reason The electrical vehicle market is undergoing important developments. However the limits associated with performance represent major drawbacks to increase the sales even more. The batteries performance and lifetime are the main focus of EV users. Batteries are subject to performance loss due to complex phenomena implying interactions between the different life conditions of the battery. In order to improve the understanding and estimation of battery aging, the studies were based on datasets from real use ev batteries. More precisely, this study consists in the adaptation and application of statistical approaches on the available data in order to highlight the interactions between variables, as well as the creation of methods for the estimation of battery performance. The obtained results allowed to illustrate the interests of a statistical approach. For example the demonstration of informations contained in the signals coming from the battery which are useful for the estimation of its state of health.
87

Modélisation multi-échelles et calculs parallèles appliqués à la simulation de l'activité neuronale / Multiscale modeling and parallel computations applied to the simulation of neuronal activity

Bedez, Mathieu 18 December 2015 (has links)
Les neurosciences computationnelles ont permis de développer des outils mathématiques et informatiques permettant la création, puis la simulation de modèles représentant le comportement de certaines composantes de notre cerveau à l’échelle cellulaire. Ces derniers sont utiles dans la compréhension des interactions physiques et biochimiques entre les différents neurones, au lieu d’une reproduction fidèle des différentes fonctions cognitives comme dans les travaux sur l’intelligence artificielle. La construction de modèles décrivant le cerveau dans sa globalité, en utilisant une homogénéisation des données microscopiques est plus récent, car il faut prendre en compte la complexité géométrique des différentes structures constituant le cerveau. Il y a donc un long travail de reconstitution à effectuer pour parvenir à des simulations. D’un point de vue mathématique, les différents modèles sont décrits à l’aide de systèmes d’équations différentielles ordinaires, et d’équations aux dérivées partielles. Le problème majeur de ces simulations vient du fait que le temps de résolution peut devenir très important, lorsque des précisions importantes sur les solutions sont requises sur les échelles temporelles mais également spatiales. L’objet de cette étude est d’étudier les différents modèles décrivant l’activité électrique du cerveau, en utilisant des techniques innovantes de parallélisation des calculs, permettant ainsi de gagner du temps, tout en obtenant des résultats très précis. Quatre axes majeurs permettront de répondre à cette problématique : description des modèles, explication des outils de parallélisation, applications sur deux modèles macroscopiques. / Computational Neuroscience helped develop mathematical and computational tools for the creation, then simulation models representing the behavior of certain components of our brain at the cellular level. These are helpful in understanding the physical and biochemical interactions between different neurons, instead of a faithful reproduction of various cognitive functions such as in the work on artificial intelligence. The construction of models describing the brain as a whole, using a homogenization microscopic data is newer, because it is necessary to take into account the geometric complexity of the various structures comprising the brain. There is therefore a long process of rebuilding to be done to achieve the simulations. From a mathematical point of view, the various models are described using ordinary differential equations, and partial differential equations. The major problem of these simulations is that the resolution time can become very important when important details on the solutions are required on time scales but also spatial. The purpose of this study is to investigate the various models describing the electrical activity of the brain, using innovative techniques of parallelization of computations, thereby saving time while obtaining highly accurate results. Four major themes will address this issue: description of the models, explaining parallelization tools, applications on both macroscopic models.
88

Géométrie et topologie des processus périodiquement corrélés induit par la dilation : Application à l'étude de la variabilité des épidémies pédiatriques saisonnières / Geometry and topology of periodically correlated processes : Analysis of the variability of seasonal pediatric epidemics

Dugast, Maël 21 December 2018 (has links)
Chaque année lors de la période hivernale, des phénomènes épidémiques affectent l’organisation des services d’urgences pédiatriques et dégradent la qualité de la réponse fournie. Ces phénomènes présentent une forte variabilité qui rend leur analyse difficile. Nous nous proposons d’étudier cette volatilité pour apporter une vision nouvelle et éclairante sur le comportement de ces épidémies. Pour ce faire, nous avons adopté une vision géométrique et topologique originale directement issue d’une application de la théorie de la dilation: le processus de variabilité étant périodiquement corrélé, cette théorie fournit un ensemble de matrices dites de dilations qui portent toute l’information utile sur ce processus. Cet ensemble de matrices nous permet de représenter les processus stochastiques comme des éléments d’un groupe de Lie particulier, à savoir le groupe de Lie constitué de l’ensemble des courbes sur une variété. Il est alors possible de comparer des processus par ce biais. Pour avoir une perception plus intuitive du processus de variabilité, nous nous sommes ensuite concentrés sur le nuage de points formé par l’ensemble des matrices de dilations. En effet, nous souhaitons mettre en évidence une relation entre la forme temporelle d’un processus et l’organisation de ces matrices de dilations. Nous avons utilisé et développé des outils d’homologie persistante et avons établi un lien entre la désorganisation de ce nuage de points et le type de processus sous-jacents. Enfin nous avons appliqué ces méthodes directement sur le processus de variabilité pour pouvoir détecter le déclenchement de l’épidémie. Ainsi nous avons établi un cadre complet et cohérent, à la fois théorique et appliqué pour répondre à notre problématique. / Each year emergency department are faced with epidemics that affect their organisation and deteriorate the quality of the cares. The analyse of these outbreak is tough due to their huge variability. We aim to study these phenomenon and to bring out a new paradigm in the analysis of their behavior. With this aim in mind, we propose to tackle this problem through geometry and topology: the variability process being periodically correlated, the theory of dilation exhibit a set of matrices that carry all the information about this process. This set of matrices allow to map the process into a Lie group, defined as the set of all curves on a manifold. Thus, it is possible to compare stochastic processes using properties of Lie groups. Then, we consider the point cloud formed by the set of dilation matrices, to gain more intuitions about the underlying process. We proved a relation between the temporal aspect of the signal and the structure of the set of its dilation matrices. We used and developped persistent homology tools, and were able to classify non-stationary processes. Eventually, we implement these techniques directly on the process of arrivals to detect the trigger of the epidemics. Overall we established a complete and a coherent framework, both theoretical and practical.
89

Analyse Numérique et discrétisation par éléments spectraux avec joints des équations tridimensionnelles de l'électromagnétisme

El Rhabi, Mohammed 04 December 2002 (has links) (PDF)
Cette thèse a pour objet l'analyse et la discrétisation numérique des équations tridimensionnelles de l'électromagnétisme. Ces travaux débutent par l'étude de ces équations dans un domaine b orné multiplement connexe. Un théorème d'existence général a été établi, en proposant une nouvelle approche du problème, en le reformulant à l'aide d'un opérateur approprié, tenant compte des omplexités géométriques du domaine. Dans la suite, après avoir donnée un résultat de régularité, on propose une approximation numérique de la solution par une méthode spectrale. La méthode est, d'une part, analysée numériquement dans le cas d'une décomposition conforme du domaine, et d'autre, implantée dans le cadre d'un code 3D. Des tests numériques illustrant les prévisions théoriques sont exposés et comparés à ceux obtenus par une méthode d'éléments finis de type P1 qu'on présentera sommairement. En outre, les quatre premières valeurs propres du problème discret sont calculées et comparées à celui du spectre exact. La dernière partie de cette thèse est consacrée à l'étude d'une décomposition de domaine par une méthode spectrale avec joints pour le problème de Maxwell. Il est utile de souligner que les paramètres physiques sont considérés dans cette partie comme pouvant être hétérogènes. On applique cette méthode à un problème type présenté. Ce dernier permet d'unifier deux approches qui habituellement sont distinguées: le problème d'évolution de Maxwell, et le problème de Maxwell en régime harmonique. Des estimations d'erreurs sont démontrées, elles reposent sur un lemme, qui est une variante du second lemme de Strang, permettant de décomposer l'erreur en la somme de trois erreurs principales: l'erreur sur la meilleure approximation, l'erreur de consistance et l'erreur d'intégration numérique. Cette dernière étant obtenue de ma ière classique, les deux autres erreurs ont nécessité une recherche plus approfondie, notamment, la définition d'opérateurs discrets et un Lemme d'augmentation de degré pour l'erreur sur la meilleure approximation. Enfin des courbes d'erreurs et des tests numériques sont exposés validant un code de calcul tridimensionnel développé pour l'approximation de la solution du problème type (pour des paramètres physiques homogènes et hétérogènes).
90

Contribution au contrôle de surfaces planes et sphériques de précision nanométrique.

Picart, Pascal 15 December 1995 (has links) (PDF)
Le sujet de ce mémoire est l'étude d'un interféromètre de Fizeau a décalage de phase pour la mesure de surfaces planes et sphériques a des précisions nanométriques. Nous avons recensé et étudié les sources de limitation et recherche les conditions ou les solutions rendant leur contribution inférieure a un millième de longueur d'onde en valeur crête à crête (la longueur d'onde est égale a 632,8 nanomètres). Six sources potentielles d'erreurs ont été examinées: la source laser, la détection, l'élément qui crée le déphasage, le diffuseur mobile du système d'imagerie, les aberrations géométriques des composants optiques et la nature même des interférences. Nous avons optimise la configuration interférométrique. De nouveaux algorithmes ont été développes. Ils sont basés sur des méthodes des moindres carres non linéaires. Ces algorithmes sont auto calibrés mais demandent beaucoup de temps de calcul. Pour obtenir des resultats rapidement, nous avons complete nos techniques de depouillement par une méthode basée sur une correction a posteriori de la formule de carre. La validation a montré les performances de l'instrument. Avec les méthodes basées sur les moindres carrés, les mesures de bruit ont montre que les fluctuations aléatoires sont de l'ordre de 0,21 nanomètres rms ; les erreurs systématiques ont une contribution inférieure a 1,8 nanomètres crête à crête. La cale piézo-électrique qui réalise le déphasage, et le bruit de la détection, sont en fait les principales sources de limitation. La correction des défauts de positionnement de la cale piézo-électrique a été essayée sur l'algorithme de carre et sa post correction ; les résultats indiquent une exactitude meilleure que 1 nanomètre crête à crête. L'interféromètre de Fizeau a décalage de phase a été applique a l'étalonnage absolu de surfaces planes. Une méthode basée sur des combinaisons de translations et de rotations d'une des surfaces par rapport a l'autre, a été présentée. Cette méthode a été utilisée pour la mesure d'une surface plane en silice.

Page generated in 0.0285 seconds