Spelling suggestions: "subject:"probabilistic""
161 |
Analyse des trains de spike à large échelle avec contraintes spatio-temporelles : application aux acquisitions multi-électrodes rétiniennes / Analysis of large scale spiking networks dynamics with spatio-temporal constraints : application to multi-electrodes acquisitions in the retinaNasser, Hassan 14 March 2014 (has links)
L’évolution des techniques d’acquisition de l’activité neuronale permet désormais d'enregistrer simultanément jusqu’à plusieurs centaines de neurones dans le cortex ou dans la rétine. L’analyse de ces données nécessite des méthodes mathématiques et numériques pour décrire les corrélations spatiotemporelles de la population neuronale. Une méthode couramment employée est basée sur le principe d’entropie maximale. Dans ce cas, le produit N×R, où N est le nombre de neurones et R le temps maximal considéré dans les corrélations, est un paramètre crucial. Les méthodes de physique statistique usuelles sont limitées aux corrélations spatiales avec R = 1 (Ising) alors que les méthodes basées sur des matrices de transfert, permettant l’analyse des corrélations spatio-temporelles (R > 1), sont limitées à N×R≤20. Dans une première partie, nous proposons une version modifiée de la méthode de matrice de transfert, basée sur un algorithme de Monte-Carlo parallèle, qui nous permet d’aller jusqu’à N×R=100. Dans la deuxième partie, nous présentons la bibliothèque C++ Enas, dotée d’une interface graphique développée pour les neurobiologistes. Enas offre un environnement hautement interactif permettant aux utilisateurs de gérer les données, effectuer des analyses empiriques, interpoler des modèles statistiques et visualiser les résultats. Enfin, dans une troisième partie, nous testons notre méthode sur des données synthétiques et réelles (rétine, fournies par nos partenaires biologistes). Notre analyse non exhaustive montre l’avantage de considérer des corrélations spatio-temporelles pour l’analyse des données rétiniennes; mais elle montre aussi les limites des méthodes d’entropie maximale. / Recent experimental advances have made it possible to record up to several hundreds of neurons simultaneously in the cortex or in the retina. Analyzing such data requires mathematical and numerical methods to describe the spatio-temporal correlations in population activity. This can be done thanks to Maximum Entropy method. Here, a crucial parameter is the product N×R where N is the number of neurons and R the memory depth of correlations (how far in the past does the spike activity affects the current state). Standard statistical mechanics methods are limited to spatial correlation structure with R = 1 (e.g. Ising model) whereas methods based on transfer matrices, allowing the analysis of spatio-temporal correlations, are limited to NR ≤ 20. In the first part of the thesis we propose a modified version of the transfer matrix method, based on the parallel version of the Montecarlo algorithm, allowing us to go to NR=100. In a second part we present EnaS, a C++ library with a Graphical User Interface developed for neuroscientists. EnaS offers highly interactive tools that allow users to manage data, perform empirical statistics, modeling and visualizing results. Finally, in a third part, we test our method on synthetic and real data sets. Real data set correspond to retina data provided by our partners neuroscientists. Our non-extensive analysis shows the advantages of considering spatio-temporal correlations for the analysis of retina spike trains, but it also outlines the limits of Maximum Entropy methods.
|
162 |
Vers une représentation du contexte thématique en Recherche d'Information / Generative models of topical context for Information RetrievalDeveaud, Romain 29 November 2013 (has links)
Quand des humains cherchent des informations au sein de bases de connaissancesou de collections de documents, ils utilisent un système de recherche d’information(SRI) faisant office d’interface. Les utilisateurs doivent alors transmettre au SRI unereprésentation de leur besoin d’information afin que celui-ci puisse chercher des documentscontenant des informations pertinentes. De nos jours, la représentation du besoind’information est constituée d’un petit ensemble de mots-clés plus souvent connu sousla dénomination de « requête ». Or, quelques mots peuvent ne pas être suffisants pourreprésenter précisément et efficacement l’état cognitif complet d’un humain par rapportà son besoin d’information initial. Sans une certaine forme de contexte thématiquecomplémentaire, le SRI peut ne pas renvoyer certains documents pertinents exprimantdes concepts n’étant pas explicitement évoqués dans la requête.Dans cette thèse, nous explorons et proposons différentes méthodes statistiques, automatiqueset non supervisées pour la représentation du contexte thématique de larequête. Plus spécifiquement, nous cherchons à identifier les différents concepts implicitesd’une requête formulée par un utilisateur sans qu’aucune action de sa part nesoit nécessaire. Nous expérimentons pour cela l’utilisation et la combinaison de différentessources d’information générales représentant les grands types d’informationauxquels nous sommes confrontés quotidiennement sur internet. Nous tirons égalementparti d’algorithmes de modélisation thématique probabiliste (tels que l’allocationde Dirichlet latente) dans le cadre d’un retour de pertinence simulé. Nous proposonspar ailleurs une méthode permettant d’estimer conjointement le nombre de conceptsimplicites d’une requête ainsi que l’ensemble de documents pseudo-pertinent le plusapproprié afin de modéliser ces concepts. Nous évaluons nos approches en utilisantquatre collections de test TREC de grande taille. En annexes, nous proposons égalementune approche de contextualisation de messages courts exploitant des méthodesde recherche d’information et de résumé automatique / When searching for information within knowledge bases or document collections,humans use an information retrieval system (IRS). So that it can retrieve documentscontaining relevant information, users have to provide the IRS with a representationof their information need. Nowadays, this representation of the information need iscomposed of a small set of keywords often referred to as the « query ». A few wordsmay however not be sufficient to accurately and effectively represent the complete cognitivestate of a human with respect to her initial information need. A query may notcontain sufficient information if the user is searching for some topic in which she is notconfident at all. Hence, without some kind of context, the IRS could simply miss somenuances or details that the user did not – or could not – provide in query.In this thesis, we explore and propose various statistic, automatic and unsupervisedmethods for representing the topical context of the query. More specifically, we aim toidentify the latent concepts of a query without involving the user in the process norrequiring explicit feedback. We experiment using and combining several general informationsources representing the main types of information we deal with on a dailybasis while browsing theWeb.We also leverage probabilistic topic models (such as LatentDirichlet Allocation) in a pseudo-relevance feedback setting. Besides, we proposea method allowing to jointly estimate the number of latent concepts of a query andthe set of pseudo-relevant feedback documents which is the most suitable to modelthese concepts. We evaluate our approaches using four main large TREC test collections.In the appendix of this thesis, we also propose an approach for contextualizingshort messages which leverages both information retrieval and automatic summarizationtechniques
|
163 |
Terminaison en temps moyen fini de systèmes de règles probabilistes / Termination within a finite mean time of probabilistic rules based systemsGarnier, Florent 17 September 2007 (has links)
Nous avons dans cette thèse cherché à définir un formalisme simple pour pouvoir modéliser des systèmes où se combinent des phénomènes non-déterministes et des comportements aléatoires. Nous avons choisi d'étendre le formalisme de la réécriture pour lui permettre d'exprimer des phénomènes probabilistes, puis nous avons étudié la terminaison en temps moyen fini de ce modèle. Nous avons également présenté une notion de stratégie pour contrôler l'application des règles de réécriture probabilistes et nous présentons des critères généraux permettant d'identifier des classes de stratégies sous lesquelles les systèmes de réécriture probabilistes terminent en temps moyen fini. Afin de mettre en valeur notre formalisme et les méthodes de preuve de terminaison en temps moyen fini, nous avons modélisé un réseau de stations \WIFI~ et nous montrons que toutes les stations parviennent à émettre leurs messages dans un temps moyen fini. / In this thesis we define a new formalism that allows to model transition systems where transitions can be either probabilistic or non deterministic. We choose to extend the rewriting formalism because it allows to simply express non-deterministic behavior. Latter, we study the termination of such systems and we give some criteria that imply the termination within a finite mean number of rewrite steps. We also study the termination of such systems when the firing of probabilistic rules are controlled by strategies. In this document, we use our techniques to model the \WIFI~ protocol and show that a pool of stations successfully emits all its messages within a finite mean time.
|
164 |
Effets de la variabilité des propriétés de matériaux cimentaires sur les transferts hygrothermiques : développement d’une approche probabiliste / Variability impacts of cementitious materials properties on the hygrothermal tranfers : development of a probabilistic approachIssaadi, Nabil 02 December 2015 (has links)
Ce travail concerne la modélisation numérique et expérimentale de la variabilité des propriétés thermo-hydriques de matériaux cimentaires en vue de l’évaluation de son impact sur la prédiction du comportement hygrothermique de parois de bâtiments. Une approche probabiliste qui prend en compte la variabilité spatiale des propriétés de matériaux lors des transferts couplés de chaleur et d’humidité a été développée. Elle est basée sur la génération, par la décomposition modale de Karhunen-Loève, de champs aléatoires spatialement corrélés. Une implémentation d’un modèle de transfert hygrothermique dans un code de simulation numérique a été ensuite réalisée en adoptant cette démarche stochastique. Cette dernière, qui considère comme variables d’entrée des champs aléatoires, permet de quantifier l’incidence de cette variabilité sur le comportement hygrothermique d’une paroi de bâtiment. Une étude préalable, dédiée à l’évaluation de l’incidence de la variabilité aléatoire du coefficient de diffusion, a été entreprise en considérant une variabilité de ±30% pour un mortier et de ±20% pour un BHP suivant une loi de distribution normale. Aussi, nous avons relevé un certain nombre d’incertitudes possibles de la teneur en eau à saturation tout en montrant leurs effets sensibles sur le résultat de la prédiction du comportement hygrothermique. Ces études ont permis de mettre en exergue l’importance de la prise en compte des incertitudes sur les données du matériau lors des simulations numériques des transferts hygrothermiques. Sur le plan expérimental, une campagne d’évaluation de la variabilité spatiale des paramètres les plus influents a été menée. Cette campagne a été réalisée sur un voile de dimension 2x1,2 m fabriqué au laboratoire. À l’issue de ce programme expérimental, l’espérance, la variance et la longueur de corrélation des propriétés étudiées (porosité à l’eau, perméabilité à la vapeur, isotherme de sorption et perméabilité au gaz) ont été déterminées. Ces trois paramètres sont indispensables pour la bonne mise en œuvre de la décomposition de Karhunen-Loève. Aussi, une autre campagne de caractérisation expérimentale a été menée sur des pâtes de ciment, mortiers et béton. Elle a été divisée en trois grandes parties selon les propriétés étudiées : (i) Les propriétés microstructurales et d’hydratation où l’on retrouve les mesures des porosités à l’eau et au mercure ainsi que les distributions de la taille des pores et une analyse de l’effet du taux d’hydratation de matériaux cimentaires sur leurs propriétés hygrothermiques. (ii) Les propriétés hydriques : dans cette partie, une analyse sous différents angles (évolution en fonction de l’âge des matériaux, en fonction de la température, effet des constituants des matériaux, etc.) a été réalisée sur les isothermes de sorption et sur la perméabilité à la vapeur d’eau. (iii) Les propriétés thermiques où des mesures de conductivités thermiques et de chaleurs spécifiques ont été effectuées. Les résultats de l’étude ont mis en exergue les limites des approches déterministes suite à leurs confrontations avec les résultats obtenus par l’approche probabiliste, mise en œuvre dans le cadre du présent travail. / This study deals with the experimental and the numerical modeling of the variability properties of cement based materials to evaluate their effects on the prediction of hygrothermal behavior of building envelops. A probabilistic approach taking into account the spatial variability of the materials properties during the coupled heat and mass transfer has been developed. It is based on the generation of spatially correlated random fields by the Karhunen Loève decomposition. The stochastic model’s program has been implemented in a numerical simulation code. Using this tool that considers the input variables as random fields, the impact of this variability on the hygrothermal behavior of building envelops was quantified. A prior study dealing with the assessment of the effect of the diffusion coefficient random variability was carried out by considering a variation of ±30% for mortar and ±20% for high performance concrete (HPC) according to a normal distribution. Also, we have identified some possible uncertainties of the water content at saturation and showed their significant impact on the prediction of hygrothermal behavior of the material. These studies highlight the importance of considering the data uncertainties of building materials during numerical simulation of hygrothermal transfers. At the experimental level, the spatial variability of the most influential parameters was evaluated. It was carried out by manufacturing a concrete wall in lab. At the end of this experimental program, the expected value, standard deviation and the correlation length of the studied properties (water porosity, water vapor permeability, sorption isotherm and gas permeability) were determined. These three parameters are important for the successful implementation of Karhunen Loeve decomposition. Also, another experimental program was conducted on cement pastes, mortars and concrete. It was divided into three parts according to the studied properties:(i) Hydrations and microstructural properties which include the measurement of water and mercury porosity, the pore size distributions and an analysis of some techniques for stopping cement hydration.(ii) Hydric properties: where an analysis of the sorption and the water vapor permeability was performed considering their evolution with materials ages, temperature…(iii) Thermal properties where measurement of specific heat and thermal conductivity were performed. The result of the study highlighted the limits of deterministic approaches after their confrontation with the obtained results using the probabilistic one developed in this work.
|
165 |
Extraction de corpus parallèle pour la traduction automatique depuis et vers une langue peu dotée / Extraction a parallel corpus for machine translation from and to under-resourced languagesDo, Thi Ngoc Diep 20 December 2011 (has links)
Les systèmes de traduction automatique obtiennent aujourd'hui de bons résultats sur certains couples de langues comme anglais – français, anglais – chinois, anglais – espagnol, etc. Les approches de traduction empiriques, particulièrement l'approche de traduction automatique probabiliste, nous permettent de construire rapidement un système de traduction si des corpus de données adéquats sont disponibles. En effet, la traduction automatique probabiliste est fondée sur l'apprentissage de modèles à partir de grands corpus parallèles bilingues pour les langues source et cible. Toutefois, la recherche sur la traduction automatique pour des paires de langues dites «peu dotés» doit faire face au défi du manque de données. Nous avons ainsi abordé le problème d'acquisition d'un grand corpus de textes bilingues parallèles pour construire le système de traduction automatique probabiliste. L'originalité de notre travail réside dans le fait que nous nous concentrons sur les langues peu dotées, où des corpus de textes bilingues parallèles sont inexistants dans la plupart des cas. Ce manuscrit présente notre méthodologie d'extraction d'un corpus d'apprentissage parallèle à partir d'un corpus comparable, une ressource de données plus riche et diversifiée sur l'Internet. Nous proposons trois méthodes d'extraction. La première méthode suit l'approche de recherche classique qui utilise des caractéristiques générales des documents ainsi que des informations lexicales du document pour extraire à la fois les documents comparables et les phrases parallèles. Cependant, cette méthode requiert des données supplémentaires sur la paire de langues. La deuxième méthode est une méthode entièrement non supervisée qui ne requiert aucune donnée supplémentaire à l'entrée, et peut être appliquée pour n'importe quelle paires de langues, même des paires de langues peu dotées. La dernière méthode est une extension de la deuxième méthode qui utilise une troisième langue, pour améliorer les processus d'extraction de deux paires de langues. Les méthodes proposées sont validées par des expériences appliquées sur la langue peu dotée vietnamienne et les langues française et anglaise. / Nowadays, machine translation has reached good results when applied to several language pairs such as English – French, English – Chinese, English – Spanish, etc. Empirical translation, particularly statistical machine translation allows us to build quickly a translation system if adequate data is available because statistical machine translation is based on models trained from large parallel bilingual corpora in source and target languages. However, research on machine translation for under-resourced language pairs always faces to the lack of training data. Thus, we have addressed the problem of retrieving a large parallel bilingual text corpus to build a statistical machine translation system. The originality of our work lies in the fact that we focus on under-resourced languages for which parallel bilingual corpora do not exist in most cases. This manuscript presents our methodology for extracting a parallel corpus from a comparable corpus, a richer and more diverse data resource over the Web. We propose three methods of extraction. The first method follows the classical approach using general characteristics of documents as well as lexical information of the document to retrieve both parallel documents and parallel sentence pairs. However, this method requires additional data of the language pair. The second method is a completely unsupervised method that does not require additional data and it can be applied to any language pairs, even under resourced language pairs. The last method deals with the extension of the second method using a third language to improve the extraction process (triangulation). The proposed methods are validated by a number of experiments applied on the under resourced Vietnamese language and the English and French languages.
|
166 |
Automates cellulaires probabilistes et processus itérés ad libitum / Probabilistic cellular automata and processes iterated ad libitumCasse, Jérôme 19 November 2015 (has links)
La première partie de cette thèse porte sur les automates cellulaires probabilistes (ACP) sur la ligne et à deux voisins. Pour un ACP donné, nous cherchons l'ensemble de ces lois invariantes. Pour des raisons expliquées en détail dans la thèse, ceci est à l'heure actuelle inenvisageable de toutes les obtenir et nous nous concentrons, dans cette thèse, surles lois invariantes markoviennes. Nous établissons, tout d'abord, un théorème de nature algébrique qui donne des conditions nécessaires et suffisantes pour qu'un ACP admette une ou plusieurs lois invariantes markoviennes dans le cas où l'alphabet E est fini. Par la suite, nous généralisons ce résultat au cas d'un alphabet E polonais après avoir clarifié les difficultés topologiques rencontrées. Enfin, nous calculons la fonction de corrélation du modèleà 8 sommets pour certaines valeurs des paramètres du modèle en utilisant une partie desrésultats précédents. / The first part of this thesis is about probabilistic cellular automata (PCA) on the line and with two neighbors. For a given PCA, we look for the set of its invariant distributions. Due to reasons explained in detail in this thesis, it is nowadays unthinkable to get all of them and we concentrate our reections on the invariant Markovian distributions. We establish, first, an algebraic theorem that gives a necessary and sufficient condition for a PCA to have one or more invariant Markovian distributions when the alphabet E is finite. Then, we generalize this result to the case of a polish alphabet E once we have clarified the encountered topological difficulties. Finally, we calculate the 8-vertex model's correlation function for some parameters values using previous results.The second part of this thesis is about infinite iterations of stochastic processes. We establish the convergence of the finite dimensional distributions of the α-stable processes iterated n times, when n goes to infinite, according to parameter of stability and to drift r. Then, we describe the limit distributions. In the iterated Brownian motion case, we show that the limit distributions are linked with iterated functions system.
|
167 |
Optimisation combinée des coûts de transport et de stockage dans un réseau logistique dyadique, multi-produits avec demande probabiliste / Optimization combined costs of transportation and storage in a logistics network dyadic, multi application with probabilistic requestBahloul, Khaled 08 April 2011 (has links)
Le but de cette thèse est de proposer des méthodes de gestion des approvisionnements adaptées à des contextes particuliers afin de minimiser les coûts logistiques engendrés dans un réseau logistique multi produits, multi niveaux confronté à une demande probabiliste. Au cours de cette thèse, nous nous sommes attachés à : - Proposer des méthodes de gestion des stocks et du transport pour des familles de produits dans différents contextes : - Une première politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande aléatoire et répétitive. Cette politique est définie par un niveau de commande et par un niveau de ré-complètement de stock pour chaque produit et une période de réapprovisionnement. Dès qu’un produit atteint le niveau de commande, un réapprovisionnement de tous les produits de la famille est déclenché. - Une deuxième politique de réapprovisionnement est proposée pour une famille de produits caractérisée par une demande très aléatoire et ponctuelle. Cette politique est basée sur les ruptures de stock. A chaque rupture d’un produit présent dans le stock il y a déclenchement d’un réapprovisionnement de tous les produits de la famille. - Proposer une méthode de classification multicritères afin de constituer des groupes de produits relevant d’une politique donnée, chaque classe ou famille regroupant des produits réagissant identiquement. Cette classification des produits en familles homogènes permet d’identifier les caractéristiques déterminantes dans le choix des méthodes de gestion de stock et de transport. - Analyser et comparer les performances de ces deux politiques d’approvisionnement par rapport à des politiques de référence, ainsi que leur sensibilité au regard de quelques paramètres discriminants : variabilité de la demande ; coût des produits ; coût des commandes urgentes… / The aim of this work is to propose methods of inventory management tailored to specific contexts in order to minimize logistics costs incurred in a logistics network multi-product, multi-level faces a probabilistic demand. In my research work, we have focused on the following scientific key-issues: - The proposal of methods of inventory and transportation management for products families in different contexts. The first one is defined to solve the problems identified in a product family characterized by a variable and repetitive demand. This policy is defined by an ordering and a replenishment level for each product and a periodic review. As soon as a product reaches the ordering level, replenishment of the same family products is triggered. • The second one is dedicated to a product family which is characterized by a very punctual and variable demand. This policy is based on inventory shortages. Each shortage of a product in store triggers replenishment of all products of the same family. - The proposal of a multi-criteria classification method in order to select the suitable inventory management method according to specificities of the product and the demand - The analysis and performance comparison of the two procurement policies proposed with standard policies, and their sensitivity with respect to some parameters discriminating: demand variability, cost of products, cost of rush orders.
|
168 |
Contributions à la quantification et à la propagation des incertitudes en mécanique numériqueNouy, Anthony 10 December 2008 (has links) (PDF)
La quantification et la propagation des incertitudes dans les modèles physiques apparaissent comme des voies essentielles vers l'amélioration de la prédiction de leur réponse. Le développement d'outils de modélisation des incertitudes et d'estimation de leur impact sur la réponse d'un modèle a constitué un axe de recherche privilégié dans de nombreux domaines scientifiques. Cette dernière décennie, un intérêt croissant a été porté à des méthodes numériques basées sur une vision fonctionnelle des incertitudes. Ces méthodes, couramment baptisées ``méthodes spectrales stochastiques'', sont issues d'un mariage fructueux de l'analyse fonctionnelle et de la théorie des probabilités.<br /><br />Reposant sur des bases mathématiques fortes, les méthodes spectrales de type Galerkin semblent constituer une voie prometteuse pour l'obtention de prédictions numériques fiables de la réponse de modèles régis par des équations aux dérivées partielles stochastiques (EDPS). Plusieurs inconvénients freinent cependant l'utilisation de ces techniques et leur transfert vers des applications de grande taille : le temps de calcul, les capacités de stockage mémoire requises et le caractère ``intrusif'', nécessitant une bonne connaissance des équations régissant le modèle et l'élaboration de solveurs spécifiques à une classe de problèmes donnée. Un premier volet de mes travaux de recherche a consisté à proposer une stratégie de résolution alternative tentant de lever ces inconvénients. L'approche proposée, baptisée méthode de décomposition spectrale généralisée, s'apparente à une technique de réduction de modèle a priori. Elle consiste à rechercher une décomposition spectrale optimale de la solution sur une base réduite de fonctions, sans connaître la solution a priori. <br /><br />Un deuxième volet de mes activités a porté sur le développement d'une méthode de résolution d'EDPS pour le cas où l'aléa porte sur la géométrie. Dans le cadre des approches spectrales stochastiques, le traitement d'aléa sur l'opérateur et le second membre est en effet un aspect aujourd'hui bien maîtrisé. Par contre, le traitement de géométrie aléatoire reste un point encore très peu abordé mais qui peut susciter un intérêt majeur dans de nombreuses applications. Mes travaux ont consisté à proposer une extension de la méthode éléments finis étendus (X-FEM) au cadre stochastique. L'avantage principal de cette approche est qu'elle permet de traiter le cas de géométries aléatoires complexes, tout en évitant les problèmes liés au maillage et à la construction d'espaces d'approximation conformes.<br /><br />Ces deux premiers volets ne concernent que l'étape de prédiction numérique, ou de propagation des incertitudes. Mes activités de recherche apportent également quelques contributions à l'étape amont de quantification des incertitudes à partir de mesures ou d'observations. Elles s'insèrent dans le cadre de récentes techniques de représentation fonctionnelle des incertitudes. Mes contributions ont notamment porté sur le développement d'algorithmes efficaces pour le calcul de ces représentations. En particulier, ces travaux ont permis la mise au point d'une méthode d'identification de géométrie aléatoire à partir d'images, fournissant une description des aléas géométriques adaptée à la simulation numérique. Une autre contribution porte sur l'identification de lois multi-modales par une technique de représentation fonctionnelle adaptée.
|
169 |
Modèle probabiliste de systèmes distribués et concurrents. Théorèmes limite et application à l'estimation statistique de paramètresAbbes, Samy 14 October 2004 (has links) (PDF)
Pour la gestion de grands systèmes distribués (réseaux de<br />télécommunications par exemple) il est utile d'étudier des<br />modèles de concurrence sous la sémantique de traces. Dans<br />cette optique, on propose une extension probabiliste des<br />structures d'événements et des réseaux de Petri 1-bornés<br />(réseaux markoviens).<br />On prouve un propriété de Markov forte pour ces modèles,<br />et on donne des applications à la récurrence des réseaux.<br />On montre une Loi forte des grands nombres pour<br />les réseaux récurrents et suffisement synchrones,<br />avec applications a l'estimation statistique de<br />paramètres locaux.
|
170 |
Sur une classe de systèmes dissipatifs hors d'équilibreCoppex, François 17 March 2005 (has links) (PDF)
Nous considérons des systèmes dissipatifs, hors d'équilibre, de faible densité, et constitués d'un grand nombre de particules classiques en interaction. Dans une première partie, nous étudions l'annihilation balistique probabiliste, où les particules ont une trajectoire balistique sauf lorsqu'elles entrent en contact, s'annihilant alors avec probabilité p et subissant une collision élastique avec probabilité (1-p). Nous établissons pour ce système sans loi de conservation une description hydrodynamique résultant de la théorie cinétique. L'analyse de stabilité linéaire de l'état homogène montre alors que l'amplification des fluctuations par la dynamique est un phénomène transitoire. Dans la seconde partie, nous présentons un modèle mésoscopique décrivant le phénomène de brisure spontanée de symétrie observé dans certaines expériences sur la matière granulaire vibrée.
|
Page generated in 0.0915 seconds