• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 91
  • 53
  • Tagged with
  • 269
  • 147
  • 116
  • 101
  • 82
  • 60
  • 53
  • 45
  • 45
  • 40
  • 37
  • 36
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Etude de nouvelles formes de matériaux basés sur le magnésium pour le stockage réversible de grandes quantités d'hydrogène - Effet d'addition d'éléments de transition

Girard, Grégory 19 October 2009 (has links) (PDF)
L'objectif de cette thèse est l'étude de nouvelles formes d'activation de matériaux à base de MgH2 en vue du stockage réversible de grandes quantités d'hydrogène. La température assez élevée de la réaction du magnésium à l'hydrogène est considérée être un frein à de nombreuses applications. Ici, de nouveaux alliages de formule Ca-Mg-Ni ont été élaborés pour permettre de travailler à des températures plus basses. Cependant leur capacité de stockage reste plus faible quoique déjà meilleure que la référence LaNi5. Sachant que la cinétique d'hydruration est favorisée dans des matériaux présentant une microstructuration très fine voir une taille de grains nanométrique, un travail pionnier a été réalisé en utilisant le procédé d'extrusion ECAP, en référence au procédé standard par "ball milling". L'hydruration des matériaux extrudés a ensuite été mise en œuvre de façon convaincante. Si le broyage de MgH2 avec additifs de type métaux de transition conduit à des cinétiques de sorption rapides avec la création de cristallites nanostructurés, la réduction de la taille des interfaces avec les particules d'additif a été simulée à partir de couches nanométriques déposées par DLP afin de tenter de mieux comprendre le phénomène d'activation rentrant en jeu lors de l'hydruration du magnésium. Enfin, l'étude d'hydrures ternaires métastables élaborés à hautes températures et sous hautes pressions a été effectuée afin d'analyser l'activation du magnésium atomiquement "dopé" de façon structurale.
242

Lévitation d'atomes par interférences et Transport bidimensionnel en présence de désordre

Robert-De-Saint-Vincent, Martin 09 December 2010 (has links) (PDF)
Cette thèse présente deux expériences de physique atomique, réalisées sur un échantillon de Rubidium 87 ultra-froid. Nous abordons les thématiques de l'interférométrie atomique, ainsi que des propriétés de transport en milieu désordonné. Dans la première expérience, nous développons une méthode de suspension des atomes contre la gravité, en vue d'optimiser le temps d'interrogation d'interféromètres atomiques. Les atomes sont périodiquement diffractés sur une onde lumineuse stationnaire, utilisée comme miroir de Bragg pour réfléchir l'échantillon et ainsi empêcher sa chute. Toutefois, en approchant le régime de réseau mince, l'onde atomique est séparée vers de nombreuses trajectoires qui se recombinent périodiquement. Nous montrons que les interférences entre ces composantes peuvent être exploitées pour bloquer les pertes vers les voies en chute libre. Ce nouvel interféromètre pourrait être une alternative intéressante pour maintenir un senseur inertiel ou une horloge atomique en suspension dans un volume réduit, tout en permettant une mesure simultanée des forces agissant sur les atomes. La seconde expérience porte sur les propriétés de transport dans un milieu bidimensionnel désordonné. En particulier, des interférences entre ondes de matière peuvent bloquer le transport - phénomène connu sous le nom de localisation d'Anderson. Nous confinons les atomes entre deux nappes de lumière répulsives, et générons le désordre à l'aide d'une figure de tavelures. Nous observons une propagation diffusive, dont nous extrayons des coefficients de diffusion en accord avec une modélisation numérique. Nous explorons ensuite un régime de plus basse énergie, où un comportement subdiffusif, classiquement piégé sous le seuil de percolation, ou encore localisé au sens d'Anderson, pourrait être observé. Finalement, l'étude de l'influence du désordre sur la transition de Berezinskii-Kosterlitz-Thouless en deux dimensions est maintenant à portée de l'expérience.
243

Modélisation probabiliste en biologie moléculaire et cellulaire

Yvinec, Romain 05 October 2012 (has links) (PDF)
De nombreux travaux récents ont démontré l'importance de la stochasticité dans l'expression des gènes à différentes échelles. On passera tout d'abord en revue les principaux résultats expérimentaux pour motiver l'étude de modèles mathématiques prenant en compte des effets aléatoires. On étudiera ensuite deux modèles particuliers où les effets aléatoires induisent des comportements intéressants, en lien avec des résultats expérimentaux: une dynamique intermittente dans un modèle d'auto-régulation de l'expression d'un gène; et l'émergence d'hétérogénéité à partir d'une population homogène de protéines par modification post-traductionnelle.\\ Dans le Chapitre I, nous avons étudié le modèle standard d'expression des gènes à trois variables: ADN, ARN messager et protéine. L'ADN peut être dans deux états, respectivement ''ON'' et ''OFF''. La transcription (production d'ARN messagers) peut avoir lieu uniquement dans l'état ''ON''. La traduction (production de protéines) est proportionnelle à la quantité d'ARN messager. Enfin la quantité de protéines peut réguler de manière non-linéaire les taux de production précédent. Nous avons utilisé des théorèmes de convergence de processus stochastique pour mettre en évidence différents régimes de ce modèle. Nous avons ainsi prouvé rigoureusement le phénomène de production intermittente d'ARN messagers et/ou de protéines. Les modèles limites obtenues sont alors des modèles hybrides, déterministes par morceaux avec sauts Markoviens. Nous avons étudié le comportement en temps long de ces modèles et prouvé la convergence vers des solutions stationnaires. Enfin, nous avons étudié en détail un modèle réduit, calculé explicitement la solution stationnaire, et étudié le diagramme de bifurcation des densités stationnaires. Ceci a permis 1) de mettre en évidence l'influence de la stochasticité en comparant aux modèles déterministes; 2) de donner en retour un moyen théorique d'estimer la fonction de régulation par un problème inverse. \\ Dans le Chapitre II, nous avons étudié une version probabiliste du modèle d'agrégation-fragmentation. Cette version permet une définition de la nucléation en accord avec les modèles biologistes pour les maladies à Prion. Pour étudier la nucléation, nous avons utilisé une version stochastique du modèle de Becker-Döring. Dans ce modèle, l'agrégation est réversible et se fait uniquement par attachement/détachement d'un monomère. Le temps de nucléation est définit comme le premier temps où un noyau (c'est-à-dire un agrégat de taille fixé, cette taille est un paramètre du modèle) est formé. Nous avons alors caractérisé la loi du temps de nucléation dans ce modèle. La distribution de probabilité du temps de nucléation peut prendre différente forme selon les valeurs de paramètres: exponentielle, bimodale, ou de type Weibull. Concernant le temps moyen de nucléation, nous avons mis en évidence deux phénomènes importants. D'une part, le temps moyen de nucléation est une fonction non-monotone du paramètre cinétique d'agrégation. D'autre part, selon la valeur des autres paramètres, le temps moyen de nucléation peut dépendre fortement ou très faiblement de la quantité initiale de monomère . Ces caractérisations sont importantes pour 1) expliquer des dépendances très faible en les conditions initiales, observées expérimentalement; 2) déduire la valeur de certains paramètres d'observations expérimentales. Cette étude peut donc être appliqué à des données biologiques. Enfin, concernant un modèle de polymérisation-fragmentation, nous avons montré un théorème limite d'un modèle purement discret vers un modèle hybride, qui peut-être plus utile pour des simulations numériques, ainsi que pour une étude théorique.
244

Partage de secret et théorie algorithmique de l'information

Kaced, Tarik 04 December 2012 (has links) (PDF)
Notre travail sur le partage de secret se base sur les points de vue de la Théorie de l'Information de Shannon et de la Complexité de Kolmogorov. Nous allons expliquer comment ces trois sujets sont intimement liés. Les inégalités d'information jouent un rôle central dans cette thèse: ce sont les inégalités pour l'entropie de Shannon, qui correspondent également aux inégalités valides pour la complexité de Kolmogorov. La Théorie Algorithmique de l'Information introduite par Kolmogorov formalise l'idée d'aléatoire pour les chaînes de caractères. Ce sont là deux raisons justifiant à elles seules la notion de partage de secret algorithmique dans le cadre de la Théorie Algorithmique de l'information (si l'on sait partager un secret aléatoire, on peut partager n'importe quel secret). Originalement étudié par sa définition combinatoire, le partage de secret a été plus tard généralisé par une formulation dans le langage de la théorie de l'information. Cette étape a permis l'utilisation des inégalités d'information, et s'est révélée très importante dans la caractérisation de l'efficacité des schémas de partage de secret. L'étude de ces inégalités n'en est qu'à ses débuts. Nous y contribuons en introduisant la notion d'inégalité essentiellement conditionnelle, qui montre une fois de plus que ces inégalités ne sont pas encore complètement comprises.
245

Recherche conjointe d'ondes gravitationnelles et de neutrino cosmiques de haute énergie avec les détecteurs VIRGO-LIGO et ANTARES

Bouhou, Boutayeb 19 December 2012 (has links) (PDF)
L'objectif de ce travail est la détection conjointe d'ondes gravitationnelles et de neutrinos cosmique de haute énergie à travers une approche multi-messagers. Les astronomies "neutrinos" et "ondes gravitationnelles" sont encore en phase de développement, mais elles sont appelées à jouer un rôle fondamental dans le futur. En effet, ces "messagers" peuvent parcourir de grandes distances grâce à leur faible interaction avec la matière (contrairement aux photons qui, à haute énergie, sont rapidement absorbés), sans être affectés par les champs magnétiques (contrairement aux rayons cosmiques chargés). Ils peuvent également s' échapper de milieux denses et fournir des informations sur les processus qui ont lieu au coeur des sources astrophysique (les photons s' échappent des couches périphériques des objets célestes). En un mot, ces astronomies sont susceptibles d'ouvrir une nouvelle fenêtre d'observation sur le cosmos. La collaboration ANTARES a construit en Méditerranée un télescope sous-marin de neutrino de haute énergie d'une surface de détection proche de 0.1 km². C'est le télescope le plus sensible pour la partie du ciel observée. Les interféromètres VIRGO et LIGO sont des détecteurs terrestres pour l'observation directe d'ondes gravitationnelles, instalés en Europe et aux états-Unis d'Amérique respectivement. Les instruments ANTARES, VIRGO et LIGO offrent une sensibilité inégalée dans la zone de recherche commune. Le premier chapitre de cette thèse introduit les motivations théoriques pour une recherche jointe d'ondes gravitationnelles et de neutrinos de haute énergies en développant les différents scénarios d'émission. Le deuxième et troisième chapitres sont consacrés à l'étude des techniques de détection avec les interféromètres VIRGO-LIGO et le télescope à neutrinos ANTARES. Les quatriéme et cinquième chapitres de ce travail présentent les résultats d'analyses de données combinées d'ANTARES, VIRGO et LIGO prises séparement pendant les années 2007 et 2009-2010.
246

Réflexion et diffraction d'atomes lents par un miroir à onde évanescente

Henkel, Carsten 11 December 1996 (has links) (PDF)
Une onde évanescente lumineuse permet de réaliser un miroir à atomes, à condition que ceux-ci soient incidents avec une énergie cinétique suffisamment faible. Dans le régime de faible saturation, les atomes sont réfléchis de façon cohérente par un potentiel répulsif, le potentiel dipolaire. Nous caractérisons la réflexion d'un point de vue quantique, moyennant une solution analytique de l'équation de (\sc Schrödinger). La théorie de la diffraction d'atomes par une onde évanescente stationnaire est développée. Nous introduisons l'approximation du réseau de phase mince, valable dans le régime semi-classique, qui montre qu'en incidence normale la diffraction est efficace pour une faible modulation spatiale de l'intensité lumineuse. Pour interpréter la diffraction d'atomes en incidence rasante, il faut prendre en compte des transitions (\sc Raman) stimulées entre les sous-niveaux magnétiques. La réflexion atomique devient diffuse lorsque la rugosité de la surface du diélectrique, au-dessus de laquelle se propage l'onde évanescente, dépasse la longueur d'onde atomique incidente. La distribution angulaire des atomes diffusés donne accès à la densité spectrale de rugosité pour des échelles spatiales autour de la longueur d'onde lumineuse.
247

Rôle de l'isospin dans la transition de phase liquide-gaz de la matière nucléaire

Ducoin, C. 03 October 2006 (has links) (PDF)
La matière nucléaire présente une transition de phase du type liquide-gaz. Ce caractère bien connu est dû au profil de l'interaction nucléaire (attractive à moyenne portée et répulsive à courte portée). Ainsi, la thermodynamique de la matière nucléaire symétrique est analogue à celle d'un fluide de Van der Waals. L'étude se révèle plus complexe dans le cas de la matière asymétrique, composée de neutrons et protons en proportion arbitraire. L'isospin, qui distingue les deux constituants, donne une mesure de cette proportion. Dans l'étude de la matière asymétrique, il s'agit d'un degré de liberté supplémentaire, ajoutant une dimension à l'espace des observables à considérer. <br />La transition liquide-gaz nucléaire est associée au phénomène de multi-fragmentation observé dans les collisions d'ions lourds, ainsi qu'à la physique des étoiles compactes : les systèmes concernés sont riches en neutrons, donc affectés par le degré de liberté d'isospin. <br />Le travail présenté ici est une étude théorique des effets d'isospin apparaissant dans la transition liquide-gaz de la matière nucléaire asymétrique. Une approche de champ moyen est employée, avec une interaction nucléaire effective de type Skyrme. Nous démontrons la présence d'une transition du premier ordre pour la matière asymétrique, et étudions le phénomène de distillation d'isospin qui l'accompagne. Le cas d'une séparation de phase à l'équilibre thermodynamique est comparé à celui d'une décomposition spinodale. Les effets de taille finie sont abordés, ainsi que l'influence du gaz d'électrons présent dans le contexte astrophysique.
248

Wireless Link Quality Modelling and Mobility Management for Cellular Networks

Nguyen, Van Minh 20 June 2011 (has links) (PDF)
La qualité de communication dans un réseau sans fil est déterminée par la qualité du signal, et plus précisément par le rapport signal à interférence et bruit. Cela pousse chaque récepteur à se connecter à l'émetteur qui lui donne la meilleure qualité du signal. Nous utilisons la géométrie stochastique et la théorie des extrêmes pour obtenir la distribution de la meilleure qualité du signal, ainsi que celles de interférence et du maximum des puissances reçues. Nous mettons en évidence comment la singularité de la fonction d'affaiblissement modifie leurs comportements. Nous nous intéressons ensuite au comportement temporel des signaux radios en étudiant le franchissement de seuils par un processus stationnaire X (t). Nous démontrons que l'intervalle de temps que X (t) passe au-dessus d'un seuil γ → −∞ suit une distribution exponentielle, et obtenons 'egalement des r'esultats caract'erisant des franchissements par X (t) de plusieurs seuils adjacents. Ces r'esultats sont ensuite appliqu'es 'a la gestion de mobilit'e dans les r'eseaux cellulaires. Notre travail se concentre sur la fonction de 'handover measurement'. Nous identifions la meilleure cellule voisine lors d'un handover. Cette fonction joue un rôle central sur expérience perçue par l'utilisateur. Mais elle demande une coopération entre divers mécanismes de contrôle et reste une question difficile. Nous traitons ce problème en proposant des approches analytiques pour les réseaux émergents de types macro et pico cellulaires, ainsi qu'une approche d'auto- optimisation pour les listes de voisinage utilisées dans les réseaux cellulaires actuels.
249

Méthodes probabilistes pour l'évaluation de risques en production industrielle.

Oger, Julie 16 April 2014 (has links) (PDF)
Dans un contexte industriel compétitif, une prévision fiable du rendement est une information primordiale pour déterminer avec précision les coûts de production et donc assurer la rentabilité d'un projet. La quantification des risques en amont du démarrage d'un processus de fabrication permet des prises de décision efficaces. Durant la phase de conception d'un produit, les efforts de développement peuvent être alors identifiés et ordonnés par priorité. Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances d'un produit donné, la construction de la probabilité du risque défaillance est développée dans cette thèse. La relation complexe entre le processus de fabrication et le produit conçu (non linéaire, caractéristiques multi-modales...) est assurée par une méthode de régression bayésienne. Un champ aléatoire représente ainsi, pour chaque configuration du produit, l'information disponible concernant la probabilité de défaillance. Après une présentation du modèle gaussien, nous décrivons un raisonnement bayésien évitant le choix a priori des paramètres de position et d'échelle. Dans notre modèle, le mélange gaussien a priori, conditionné par des données mesurées (ou calculées), conduit à un posterior caractérisé par une distribution de Student multivariée. La nature probabiliste du modèle est alors exploitée pour construire une probabilité de risque de défaillance, définie comme une variable aléatoire. Pour ce faire, notre approche consiste à considérer comme aléatoire toutes les données inconnues, inaccessibles ou fluctuantes. Afin de propager les incertitudes, une approche basée sur les ensembles flous fournit un cadre approprié pour la mise en oeuvre d'un modèle bayésien imitant le raisonnement d'expert. L'idée sous-jacente est d'ajouter un minimum d'information a priori dans le modèle du risque de défaillance. Notre méthodologie a été mise en oeuvre dans un logiciel nommé GoNoGo. La pertinence de cette approche est illustrée par des exemples théoriques ainsi que sur un exemple réel provenant de la société STMicroelectronics.
250

Théorèmes asymptotiques pour les équations de Boltzmann et de Landau

Carrapatoso, Kléber 09 December 2013 (has links) (PDF)
Nous nous intéressons dans cette thèse à la théorie cinétique et aux systèmes de particules dans le cadre des équations de Boltzmann et Landau. Premièrement, nous étudions la dérivation des équations cinétiques comme des limites de champ moyen des systèmes de particules, en utilisant le concept de propagation du chaos. Plus précisément, nous étudions les probabilités chaotiques sur l'espace de phase de ces systèmes de particules : la sphère de Boltzmann, qui correspond à l'espace de phase d'un système de particules qui évolue conservant le moment et l'énergie ; et la sphère de Kac, correspondant à un système de particules qui conserve seulement l'énergie. Ensuite, nous nous intéressons à la propagation du chaos, avec des estimations quantitatives et uniforme en temps, pour les équations de Boltzmann et Landau. Deuxièmement, nous étudions le comportement asymptotique en temps grand des solutions de l'équation de Landau.

Page generated in 0.0715 seconds