Spelling suggestions: "subject:"méthodes dde"" "subject:"méthodes dee""
251 |
MaCARI : une méthode d'accès déterministe et économe en énergie pour les réseaux de capteurs sans filChalhoub, Gérard 09 December 2009 (has links) (PDF)
Un réseau de capteur sans fil est un ensemble de noeuds communicants, généralement miniatures et capables de fonctionner avec peu d'énergie. Certaines applications imposent à ces réseaux de capteurs sans fil d'être économes en énergie pour prolonger la durée de vie du réseau, d'autres nécessitent un comportement déterministe qui se traduit généralement par des délais de traversée du réseau bornés et/ou un taux de trames perdues inférieur à un seuil critique. Pour économiser significativement de l'énergie, une entité doit se mettre en mode sommeil. Durant cette période, elle sera inactive donc incapable de participer à l'ativité du réseau. L'usage de périodes de sommeil est un handicap pour l'aspect déterministe et pour le respect de contraintes temporelles. Le travail de cette thèse est centré sur les spécifications, le dévelopement et l'évaluation sous différentes formes d'une méthode d'accès au medium adaptée au déterminisme et aux exigences de qualité de service telles que l'absence de collisions et la garantie d'un délai borné de bout-en-bout, tout en conservant une faible consommation énergétique. La solution proposée repose sur la segmentation temporelle des activités, une synchronisation multi-sauts et une différentiation de services basée sur des stratégies de routage adaptées.
|
252 |
Etude par résonance paramagnétique électronique et activation neutronique du comportement d'ions lanthanides dans la fluorine : application à l'étude géochimique des filons de Montroc et du Burc (Tarn)Meary, Alain 17 November 1983 (has links) (PDF)
Dans le but de préciser les conditions, de formation des gisements de fluorine, des analyses de lanthanides ont été effectuées' dans une quarantaine d'échantillons provenant de coupes' transversales' de filons hydrothermaux de basse température (mines du Burc et de Montroc du district de l'Albigeois'dans le Tarn). Deux techniques complémentaires ont été utilisées: La Résonance Paramagnétique Electronique (RPE) et l'activation neutronique. Il est alors possible, par comparaison des mesures'de concentrations obtenues à partir de ces deux techniques, d'évaluer pour certaines terres rares ce que nous appelons'leur "défficit en spins'" . un tel déficit indique que la terre rare n'est pas seulement présente dans l'échantillon sous la (les) forme(s) paramagnétique(s) observée(s) par RPE. Notre mémoire est composé de quatre chapitres - Dans le premier chapitre nous décrivons de façon détaillée le cadre géologique de l'Albigeois en insistant plus particulièrement sur ce qui le distingue des autres districts fluorés du Massif Central. - Le deuxième chapitre est consacré à la présentation des deux gisements choisis (Montroc et le Burc) et à la description des différentes coupes que nous avons levées et échantillonnées. - Le troisième chapitre décrit tout d'abord les deux techniques utilisées. Il rend compte ensuite de l'étude expérimentale des variations des rapports, ( Gd3+ ) /(Gdtotal), (Eu2+) /( EUtotal) et (Ce3+- Fi) /(Cetotal) dans les filons de Montroc et du Burc et des interprétations que nous proposons. Il traite également du comportement de deux autres éléments: le néodyme (mine de Montroc) et l'ytterbium (mines du Burc et de Montroc). - Dans le quatrième chapitre nous proposons une interprétation de l'anomalie en europium des fluorines, ce qui nous permet d'apporter des précisions sur le modèle génétique du filon de Montroc (Deloule 1981 ) . Une grande partie des résultats consignés dans les chapitres trois et quatre fait l'objet de deux articles soumis à publication. En annexe, nous joignons deux autres articles - Le premier, "Nouvelle méthode d'étude des terres rares dans les gisements fluorés basée sur des corrélations RPE-Analyse par Activation Neutronique", représente en quelque sorte la genèse de notre travail. - Le second,"l'ion paramagnétique Tm2 dans la fluorine - Un témoin de la radioactivité dans le gisement" se situe dans le même axe de recherche.
|
253 |
Modèles Formels pour la Programmation et la Composition de Systèmes Distribués CorrectsHenrio, Ludovic 19 July 2012 (has links) (PDF)
Mes travaux de recherche portent sur les modèles de programmation distribuée, principalement par objets et composants. Dans ce domaine, j'ai travaillé à fournir des outils facilitant la programmation d'applications distribuées à large échelle et vérifiant la correction de leur comportement. Pour faciliter la programmation d'applications distribuées je me suis intéressé à la mise au point de langages avec un fort niveau d'abstraction: objets actifs, squelettes algorithmiques, composants. Afin de vérifier la correction du comportement d'une application j'ai collaboré à la mise au point d'outils de spécification et de vérification comportementales d'applications distribuées. Mes travaux ont pour but de fournir un modèle formel des langages de programmations, des bibliothèques, et des environnements d'exécution fournies au programmeur afin de garantir un comportement sûr des applications distribuées. Ma thèse m'a permis de mettre au point le calcul ASP modélisant lecomportement des objets actifs et des futurs. Depuis, nous avons créé une version fonctionnelle de ce calcul que nous avons modélisé en Isabelle/HOL. Aussi j'ai fortement contribué à la définition d'un modèle à composants distribués -- le GCM (Grid Component model)--, à sa formalisation et à son utilisation pour programmer des composants adaptables ou autonomes. Enfin, j'ai contribué à la spécification et la vérification comportementale des programmes utilisant des objets actifs et des composants afin de garantir la sûreté de leur exécution. Actuellement, nous travaillons à la fois à une extension multi-threadée du modèle à objets actifs mieux adaptée aux machines multi-coeurs, et à l'utilisation de méthodes formelles pour mettre au point et prouver la correction d'un algorithme de diffusion pour réseau pair-à-pair de type CAN (Content Adressable Network). Ce manuscrit fournit une vue d'ensemble de tous ces travaux.
|
254 |
Apprentissage a contrario et architecture efficace pour la détection d'évènements visuels significatifsBurrus, Nicolas 08 December 2008 (has links) (PDF)
Pour assurer la robustesse d'un algorithme de détection, il est nécessaire de maîtriser son point de fonctionnement, et en particulier son taux de fausses alarmes. Cette tâche est particulièrement difficile en vision artificielle à cause de la grande variabilité des images naturelles, qui amène généralement à introduire des paramètres choisis a priori qui limitent la portée et la validité des algorithmes. Récemment, l'approche statistique a contrario a montré sa capacité à détecter des structures visuelles sans autre paramètre libre que le nombre moyen de fausses alarmes tolérées, en recherchant des entités dont certaines propriétés sont statistiquement trop improbables pour être le fruit du hasard. Les applications existantes reposent toutefois sur un cadre purement analytique qui requiert un travail important de modélisation, rend difficile l'utilisation de caractéristiques multiples et limite l'utilisation d'heuristiques de recherche dirigées par les données. Nous proposons dans cette thèse d'assouplir ces restrictions en ayant recours à de l'apprentissage pour les quantités non calculables analytiquement. Nous illustrons l'intérêt de la démarche à travers trois applications : la détection de segments, la segmentation en régions homogènes et la détection d'objets à partir d'une base de photos. Pour les deux premières applications, nous montrons que des seuils de détection robustes peuvent être appris à partir d'images de bruit blanc. Pour la dernière, nous montrons que quelques exemples d'images naturelles ne contenant pas d'objets de la base suffisent pour obtenir un algorithme de détection fiable. Enfin, nous remarquons que la monotonicité du raisonnement a contrario permet d'intégrer incrémentalement des informations partielles. Cette propriété nous conduit à proposer une architecture "anytime" pour la détection d'objets, c'est-à-dire capable de fournir des détections progressivement au cours de son exécution, en commençant par les objets les plus saillants.
|
255 |
Méthodes sismologiques pour l'étude de la fracturation dans les glaciers alpins : glaciers d'Argentière et du GornerRoux, Pierre-François 03 March 2008 (has links) (PDF)
Le mouvement des glaciers alpins est fortement conditionné par un grand nombre de processus complexes, alliant à la fois l'hydrologie, la mécanique, la thermodynamique, et dont la taille caractéristique peut varier de l'échelle microscopique à l'échelle macroscopique. Les mécanismes de fracturation peuvent être associés à des causes aussi nombreuses que diverses : frottement basal, ouverture de crevasses, variations de la température (fracturation thermique), variations de hauteur d'eau (fracturation hydraulique). Dans tous les cas, il a été demontré par le passé que la fracturation était génératrice de sismicité, enregistrable à l'aide de sismomètres. Cette sismicité permet par conséquent l'auscultation des conditions mécaniques d'un glacier, et en particulier son champ de contrainte.<br />Nous nous proposons, dans ce travail, d'appliquer des méthodes sismologiques inédites pour l'étude et la caractérisation de la fracturation dans les glaciers alpins, au travers de deux exemples (le glacier d'Argentière, dans le massif du Mont-Blanc, et le glacier du Gorner, dans le massif du Mont Rose, en Suisse). La localisation des sources a été effectuée par le biais de techniques d'antennes. Dans ce cadre, nous avons développé une méthode de recherche sur grille, bien adaptée à ces objets de taille limitée. Cette dernière permet le calcul de la densité de probabilité complète de la position de l'hypocentre. Elle nous a permis de mettre en évidence une activité sismique en essaim sur le glacier d'Argentière, et dont il a été possible de calculer une magnitude locale. Nous avons également montré que les séismes profonds ayant lieu au glacier du Gorner sont localisés à proximité immédiate de l'interface glace - roche. Parallèlement, d'autres techniques (corrélation de bruit, beamforming) nous ont permis de préciser l'information obtenue par la méthode de recherche exhaustive.
|
256 |
L'éco-conception dans les PME : les mécanismes du cheval de Troie méthodologique et du choix de trajectoires comme vecteurs d'intégration de l'environnement en conceptionReyes Carillo, Tatiana 14 December 2007 (has links) (PDF)
Ce travail de recherche propose deux nouveaux mécanismes d'intégration de l'environnement en conception; le premier repose sur l'identification de trajectoires d'intégration élémentaires (permettant de guider sur le long terme le processus d'intégration) tandis que le second repose sur la maîtrise de la conception d'un outil d'éco-conception par l'ensemble des acteurs du processus de conception (permettant de générer une impulsion décisive au processus d'intégration). Pour le premier mécanisme, un travail d'enquêtes a permis d'avoir une vision globale du domaine de l'éco-conception et de tracer trois modèles de trajectoires élémentaires, dont celle fondée sur le déploiement des outils et méthodes. Le deuxième mécanisme a été nommé « Cheval de Troie Méthodologique » (CTM) car la stratégie sous-jacente est d'introduire un prétexte de travail collaboratif (l'outil d'éco-conception à co-construire) sous une forme appropriable et de fournir la compétence à l'organisation pour lui permettre de le faire évoluer ultérieurement ; ainsi ce CTM, favorise la propagation des connaissances à tous les niveaux de l'entreprise et permet à l'entreprise de progresser le long d'une trajectoire d'intégration en passant d'une démarche d'éco-conception partielle à une méthodologie d'éco-innovation compatible avec les exigences d'un développement durable. Ces deux mécanismes ont été expérimentés au sein de Transfix, société fabricant des transformateurs, sur une période de deux années et ont permis de mettre en évidence les bénéfices d'une stratégie d'intégration conçue avec un déclencheur sous la forme d'un CTM et guidée par une trajectoire d'intégration « outils et méthodes d'éco-conception ».
|
257 |
Imagerie microonde d'objets enterrés : modélisations numériques bidimensionnelles et étude de l'extension tridimensionnelleAliferis, Ioannis 06 December 2002 (has links) (PDF)
Dans une première partie, une méthode de reconstruction du profil de permittivité et de conductivité -- basée sur une méthode de bigradient conjugué et une technique de préservation des discontinuités, précédemment développée dans le cas d'une illumination par ondes planes -- est étendue de façon à prendre en compte le champ proche arbitraire d'antennes émettrices. La robustesse de l'algorithme est étudiée en simulant des erreurs de mesure du champ diffracté. Le choix des différents paramètres est examiné de façon à appréhender la quantité d'information nécessaire pour une reconstruction optimale. Dans une deuxième partie, on développe une méthode de différences finies pour la résolution des équations de Maxwell en régime harmonique, en deux et trois dimensions. Le maillage est terminé par des couches parfaitement adaptées et l'intégrale de Kirchhoff est appliquée à la transformation champ proche - champ lointain. Cette méthode se prête à une utilisation en imagerie tridimensionnelle.
|
258 |
Modélisation de la microstructuration dans les polymères chargés. Application à la mise en forme.Pruliere, Etienne 14 November 2007 (has links) (PDF)
Cette thèse étudie la possibilité de simuler des écoulements complexes (polymères chargés, suspensions de fibres courtes, polymères) en prenant en compte la structure à l'échelle microscopique dans le cadre de la théorie cinétique. Il y a un couplage fort entre la structure microscopique et la cinématique à l'échelle macroscopique. Le caractère multidimensionnel de l'équation de Fokker-Planck décrivant la microstructure du fluide rend la simulation difficile avec des approches déterministes classiques. Pour palier ce problème, plusieurs méthodes visant à réduire les dimensions sont développées et testées. <br /><br />Ces méthodes sont appliquées en particulier dans le cas des écoulements recirculants. Le cas d'une recirculation ajoute une difficulté supplémentaire car nous ne connaissons ni les conditions initiales, ni les conditions aux limites. Or les recirculations se trouvent dans beaucoup d'écoulements industriels, lors de la mise en forme des matériaux. Pour cette raison nous avons développé des méthodes numériques spécifiques à ce type d'écoulement.<br /><br />Finalement, une partie de la thèse est dédiée à une étude expérimentale permettant de valider les résultats numériques obtenus et d'étudier les phénomènes physiques entrant en jeu dans la mise en forme des polymères chargés.
|
259 |
Champs de densité d'énergie pour la vibroacoustique basse et moyenne fréquence des structures complexes utilisant un modèle numérique stochastique : application à la partition structurale des automobilesKassem, Morad 10 December 2009 (has links) (PDF)
Ce travail de recherche s'inscrit dans le cadre de l'analyse vibroacoustique des structures complexes. Il propose une nouvelle approche énergétique utilisant le champ de densité d'énergie afin de simplifier une telle analyse. Cette approche est basée sur un modèle numérique stochastique construit à l'aide de l'approche probabiliste non paramétrique des incertitudes de modélisation et de paramètres. L'approche énergétique stochastique développée correspond à une nouvelle représentation du système vibroacoustique en terme des grandeurs énergétiques aléatoires. Un modèle vibroacoustique énergétique moyen est alors construit en prenant la moyenne statistique des grandeurs énergétiques. On dispose alors d'un modèle énergétique moyen pour analyser la vibroacoustique des systèmes complexes dans la bande des basses et des moyennes fréquences alors que la méthode SEA ne permet pas d'analyser cette bande de fréquence. L'analyse des propriétés des grandeurs énergétiques moyennes utilisées pour la construction du modèle vibroacoustique énergétique permet de construire une version simplifiée conduisant à un modèle énergétique simplifié pour lequel une méthodologie de partition structurale par zone est établie. Une application de cette approche énergétique et de la méthodologie de partition structurale par zone est présentée pour une voiture constituée d'une structure automobile couplée avec sa cavité acoustique interne
|
260 |
Détermination de propriétés des glaciers polaires par modélisation numérique et télédétection,Morlighem, Mathieu 22 December 2011 (has links) (PDF)
Les calottes polaires, ou inlandsis, sont parmi les principaux contributeurs à la montée des océans. Ces systèmes dynamiques gagnent de la masse par accumulation de neige, et en perdent par fonte au contact de l'océan et à la surface, ainsi que par le vêlage d'icebergs. Depuis plus de trois décennies, les observations ont montré que les calottes polaires de l'Antarctique et du Groenland perdent plus de masse qu'ils n'en gagnent. L'évolution des glaciers suite à ce déséquilibre de masse est devenue aujourd'hui l'une des problématiques les plus importantes des implications du changement climatique. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) a identifié la contribution des glaciers comme l'un des facteurs clés d'incertitude de prédiction de l'élévation du niveau des mers. La modélisation numérique est le seul outil efficace pour répondre à cette question. Cependant, modéliser l'écoulement de glace à l'échelle du Groenland ou de l'Antarctique représente un défi à la fois scientifique et technique. Deux aspects clés de l'amélioration de la modélisation des glaciers sont abordés dans cette thèse. Le premier consiste à déterminer certaines propriétés non mesurables de la glace par méthode inverse. La friction ou la rigidité des barrières de glace, sont des paramètres qui ne peuvent être mesurés directement et doivent donc être déduits à partir d'observations par télédétection. Nous appliquons ici ces inversions pour trois modèles d'écoulement de glace de complexité croissante: le modèle bidimensionnel de MacAyeal/Morland, le modèle dit d'ordre supérieur de Blatter/Pattyn et le modèle full-Stokes. Les propriétés ainsi calculées sont ensuite utilisées pour initialiser des modèles grande-échelle et pour déterminer le degré de complexité minimum nécessaire pour reproduire correctement la dynamique des glaciers. Le second aspect abordé dans ce travail est l'amélioration de la consistance des données pour la modélisation numérique. Les données disponibles sont souvent issues de campagnes de mesures s'étalant sur plusieurs années et dont résolutions spatiales varient, ce qui rend leur utilisation pour des simulations numériques difficiles. Nous présentons ici un algorithme basé sur la conservation de la masse et les méthodes inverses pour construire des épaisseurs de glace qui sont consistantes avec les mesures de vitesse. Cette approche empêche la redistribution artificielle de masse qu'engendrent généralement les autres méthodes de cartographie de l'épaisseur de glace, ce qui améliore considérablement l'initialisation des modèles d'écoulement de glace. Les avancées présentées ici sont des étapes importantes afin de mieux caractériser de manière précise les glaciers et de modéliser leur évolution de manière réaliste.
|
Page generated in 0.0497 seconds