1021 |
Contribution à l'algorithmique distribuée de contrôle : arbres couvrants avec et sans containtesButelle, Franck 01 March 1994 (has links) (PDF)
Nous présentons dans cette thèse une étude sur des<br />algorithmes distribués asynchrones et déterministes de<br />contröle. Un système distribué consiste en un réseau<br />de sites (processeurs, ordinateurs ou réseaux locaux). Dans cette<br />thèse, nous ne considérons que des réseaux de sites<br />communicants n'ayant ni mémoire partagée ni horloge globale.<br />De nombreux problèmes de l'algorithmique distribuée sont<br />réductibles à la construction d'un Arbre Couvrant qui est la<br />structure de contrôle qui nous intéresse.<br /><br />Nous étudions deux types d'algorithmes~: ceux utilisant<br />la notion de phase logique et les autres qui ne considèrent aucun<br />mécanisme de synchronisation. Ces derniers ont des comportements<br />imprévisibles améliorant la tolérance aux fautes. Nous<br />présentons un nouvel algorithme de ce type associé à une<br />élection qui n'est pas une recherche d'extremum contrairement<br />à l'usage. Cet algorithme est comparable au meilleur<br />algorithme connu qui utilise des jetons et des phases logiques<br />induisant un comportement plus "séquentiel".<br /><br />D'autres algorithmes, construisant des AC contraints, sont<br />considérés. En particulier l'AC de Diamètre Minimum qui<br />est, à notre connaissance, un problème qui n'a jamais<br />été étudié dans ce domaine. Le diamètre d'un<br />graphe est la somme des poids des arêtes du plus long des plus<br />courts chemins. Si nous considérons la complexité temporelle,<br />cette contrainte est d'un intérêt &vident. Nous proposons<br />différents algorithmes suivant que la tolérance aux fautes est<br />nécessaire ou non.<br /><br />Finalement, l'étude pratique des algorithmes distribués sur<br />des réseaux de grande taille nous a conduit à la construction<br />d'un simulateur. Il permet l'exécution d'un même code source<br />sur des machines séquentielles ou parallèles.
|
1022 |
Codage par latence et STDP : des clés pour comprendre le traitement visuel rapideGuyonneau, Rudy 31 March 2006 (has links) (PDF)
La théorie du traitement visuel rapide se base sur un codage par latence de l'information visuelle, et explique ainsi sa rapidité. Nous démontrons dans cette thèse qu'un mécanisme de plasticité synaptique dépendant des temps de décharges, la STDP, permet, au sein de cette théorie, d'expliquer la formation de sélectivités neuronales à même de produire des réponses rapides et sélectives. Par STDP, un neurone va concentrer ses poids synaptiques sur les entrées les plus précoces, une loi qui se traduit au niveau des populations par l'émergence de représentations inspirées de la voie ventrale, lorsque le système est exposé à des images naturelles.<br />Nous montrons de plus, par une expérience de psychophysique, que le traitement visuel rapide est non seulement précis mais qu'il présente aussi une quasi-invariance à la rotation des images.
|
1023 |
Élaboration et caractérisation de couches minces d'oxyde de zinc.<br />Application à la photoprotection du polycarbonateMoustaghfir, Abdellah 25 November 2004 (has links) (PDF)
Cette thèse a pour objet l'élaboration et l'étude des propriétés de revêtements d'oxyde de zinc en vue de protéger le polycarbonate (PC) contre la photodégradation et ainsi d'augmenter la durabilité de ce polymère. Ces revêtements ont été déposés par pulvérisation cathodique radiofréquence à effet magnétron dans un plasma argon-oxygène. La phase plasma a été caractérisée par spectroscopie d'émission optique en fonction des paramètres de pulvérisation. Les couches de ZnO ont été soumises à des traitements thermiques dans différentes atmosphères (air, azote, vide). Il en résulte une modification de leur composition, de leurs propriétés structurales et optiques et de leurs contraintes internes.<br />L'adhésion du revêtement sur un film de polycarbonate a été caractérisée au moyen du test de pelage. Elle dépend des conditions de dépôt. Pour l'améliorer, différents traitements plasma (Ar, Ar-O2, CO2) de courte durée ont été appliqués au polymère. Ils ont augmenté l'énergie de surface du PC, le meilleur traitement étant celui à base de dioxyde de carbone. Ils ont permis une fonctionnalisation de la surface qui a été mise en en évidence par XPS.<br />L'étude de la photodégradation du PC montre que l'effet photoprotecteur du revêtement de ZnO dépend de son épaisseur et de ses conditions d'élaboration. L'introduction de couches supplémentaires d'alumine a apporté une meilleure protection du PC en évitant l'action photocatalytique de ZnO et en améliorant ses propriétés mécaniques.
|
1024 |
Traitement de Signal Appliqué aux Etalons Primaires de Fréquence : Amélioration de leur Exactitude et de leur StabilitéMakdissi, Alaa 24 September 1999 (has links) (PDF)
La définition de la seconde est basée, depuis 1967, sur les propriétés atomiques de l'atome de césium. Une horloge atomique est l'instrument qui permet de réaliser cette définition avec une exactitude limitée par plusieurs sources de perturbations. Toute amélioration dans les performances des horloges atomiques est la bienvenue pour les diverses applications, actuelles et futures, qui utilisent ces horloges. L'objet de ce travail de thèse est d'améliorer les performances de l'étalon primaire de fréquence (JPO) à jet de césium du Laboratoire Primaire du Temps et des Fréquences. Les résultats obtenus se traduisent par les performances suivants : Notre Horloge JPO est maintenant l'horloge, à jet thermique, la plus exacte au monde, avec une exactitude de 6,3 x 10-15. Elle est également l'horloge à jet thermique la plus stable, avec une stabilité à court terme de 3 x 10-13/sqrt(t) où t est le temps d'intégration en seconde.<br />L'obtention de ces bons résultats est liée à la maîtrise des fuites micro-ondes grâce à la conception et à la réalisation d'une cavité de Ramsey. La bonne exactitude est due aux nouvelles techniques de traitement du signal (problèmes inverses, régularisation. analyse cepstrale, ...) que nous avons introduites pour mieux évaluer les effets perturbateurs. La bonne stabilité profite de l'étude détaillée du système d'asservissement dans une horloge ainsi que de la réalisation matérielle et logicielle d'une boucle d'asservissement numérique de haute qualité.
|
1025 |
Automatisation des tâches documentaires dans un catalogue de santé en ligne.Neveol, Aurelie 29 November 2005 (has links) (PDF)
La Recherche d'Information a pour objectif de permettre aux utilisateurs d'accéder rapidement et efficacement au contenu d'une collection de document.<br />Dans le domaine de la santé, le nombre de ressources électroniques disponibles augmente de manière exponentielle, et la nécessité de disposer de solutions<br />automatiques se fait sentir à plusieurs étapes de la chaîne d'information. Les documents, en particulier les textes, doivent être sélectionnés selon des critères de qualité pour être inclus dans des catalogues; ils doivent également être décrits à l'aide de mots clés et catégorisés en spécialités médicales afin de faciliter les recherches effectuées dans les catalogues. Ces taches<br />constituent un défi pour le Traitement Automatique de la Langue Naturelle car elles impliquent une "compréhension" du contenu des documents par un système automatique. Ce travail de thèse engage une réflexion sur la répartition des tâches documentaires entre l'homme et la machine dans le cadre particulier du Catalogue et Index des Sites Médicaux Francophones (CISMeF). A ce titre, il aborde l'automatisation des tâches documentaires dans le catalogue de santé en ligne CISMeF. Cette thèse apporte une contribution au développement de ressources linguistiques en français pour le domaine de la santé, et présente des systèmes de veille documentaire et de description automatiques de ressources de santé. Sur ce dernier point, l'accent a été mis sur l'indexation à l'aide de paires de descripteurs issues du thésaurus MeSH.
|
1026 |
Optique adaptative, traitement d'image et étude des noyaux actifs de galaxieGratadour, Damien 30 November 2005 (has links) (PDF)
À travers mon travail de thèse sur les noyaux actifs de galaxie, dans le proche IR, avec un grand télescope (8-10m) muni d'une optique adaptative, j'ai été amené à faire intervenir des disciplines d'horizons très différents. <br /><br />Plus précisément, il s'agissait d'obtenir des données sur des noyaux actifs de galaxie avec NaCo, de créer et/ou d'adapter de nouvelles techniques de traitement pour les observations avec une optique adaptative, pour enfin interpréter les données ainsi traitées, notamment en les comparant à des modèles numériques. L'acquisition de cette double compétence a été particulièrement favorisée par le statut de ma thèse qui avait pour cadre une collaboration entre l'ONERA et le LESIA.<br /><br />Le problème astrophysique auquel je me suis attaqué est celui de la structuration de l'environnement immédiat des Noyaux Actifs de Galaxie (NAGs) et en particulier du test de l'hypothèse d'un tore de gaz moléculaire et de poussières ainsi que de son interaction avec un jet issu du NAG. Les échelles de ces structures (dizaine de pc) impliquent une résolution angulaire très élevée et la variété des phénomènes en jeu induit des morphologies parfois complexes qu'il est impératif de distinguer d'artefacts instrumentaux subtils.<br />Trois techniques de renforcement de la résolution angulaire et du contraste ont été développées ou améliorées dans ce travail :<br />- Le recentrage d'image sub-pixelique, grâce à un algorithme de type<br /> maximum de vraisemblance<br />- La déconvolution d'image sous contraintes<br />- La reconstruction de la fonction d'étalement de point de l'instrument<br /> avec les données d'analyse de front d'onde<br /><br />Dans chaque cas, la méthode a été appliquée à des données réelles et a permis effectivement un gain important sur la finesse angulaire et donc, au final, sur le retour astrophysique, avec plusieurs résultats originaux en particulier concernant NGC1068 le plus étudié des noyaux de Seyfert de type 2 :<br />- Dans le cas d'Arp 220, prototype des noyaux de galaxie ultra-lumineuses, deux composantes nucléaires ont pu être clairement identifiées, pour la première fois à 3.8µm dans la partie Est du coeur d'Arp 220, permettant d'établir un lien direct entre le proche et le moyen IR. De plus, un double bras d'émission, probablement la zone d'interaction des deux galaxies en fusion, est clairement mis en évidence, entre la source Ouest et les deux sources Est du coeur.<br />- Dans le cas de NGC 1068, de nouvelles structures à la morphologie très particulière (vagues quasi-périodiques), encadrant le jet radio, ont été mises en évidence en bande L' et M d'une part et en bande Ks d'autre part grâce aux premières observations coronographiques jamais réalisées dans le domaine extragalactique. Ces structures dont la formation n'est pas encore expliquée, témoignent d'une interaction forte du jet avec la Narrow Line Region. Une étude photométrique précise dans ces 3 bandes m'a aussi permis de conclure que la poussière dans ces structures était majoritairement composée de nano-grains, peut-être des nano-diamants. En plus d'avoir montré que le cœur était résolu, des observations spectroscopiques de la source la plus centrale m'ont enfin permis d'apporter un certain nombre d'éléments en faveur du modèle unifié des NAG, notamment la présence d'une cavité de sublimation des grains et la présence de gaz moléculaire non dissocié à petite distance du NAG. Le modèle de transfert radiatif dans le tore, développé dans le cadre de ma thèse, a permis de montrer la cohérence de l'ensemble des données.<br />- Dans le cas de NGC 7469, une structure micro-spirale a été mise en évidence grâce à la déconvolution dans les 2" centrales de cette galaxie de Seyfert de type I. De plus des observations spectroscopiques montrent des raies en émissions de l'hydrogène moléculaire sur la ligne de visée de la source la plus centrale, argument fort en faveur du modèle unifié des NAG.<br />- J'ai également contribué à la réduction de données des mesures faites sur le trou noir supermassif du Centre Galactique de 3 à 5 µm qui ont montré la fréquence importante des flares et leur localisation dans un volume de quelques rayons de Schwarzschild. <br /><br />Un certain nombre d'autres observations ont été réalisées durant cette thèse et sont en cours d'exploitation : on citera notamment les premières observations polarimétriques à haute résolution du jet de M87 dans l'IR proche.
|
1027 |
L'annihilation des positrons galactiques : analyse et interprétation des données INTEGRALLonjou, Vincent 28 September 2005 (has links) (PDF)
L'origine des positrons galactiques reste un des sujets les plus controversés de l'Astrophysique des hautes énergies depuis la découverte de la raie d'annihilation électron-positron en provenance du centre galactique à la fin des années 1970. L'étude de la raie d'annihilation à 511 keV est actuellement un des objectifs majeurs de SPI : le spectromètre d'INTEGRAL.<br />Cette thèse s'ouvre sur l'étude de la partie centrale de SPI: son plan de détection. La procédure de calibration en énergie ainsi que l'étude de la dégradation des détecteurs sont reportées. Par la suite, une étude approfondie du bruit de fond instrumental permet d'utiliser SPI dans les meilleures conditions. Le traitement des données aboutit alors à des cartes du ciel et des spectres avec une précision inégalée. Pour finir, les contributions des diverses sources potentielles de positrons galactiques sont confrontées aux résultats obtenus.
|
1028 |
Méthode de régularisation entropique et application au calcul de la fonction de distribution des ondesProt, Olivier 01 July 2005 (has links) (PDF)
La détermination des directions de propagation d'une onde électromagn?etique, à partir des mesures du champ, est un problème “mal-posé”. En utilisant le concept de fonction de distribution des ondes (FDO), cela revient `a “inverser” un opérateur linéaire non-bijectif. Nous avons développé une méthode de régularisation entropique pour résoudre ce problème. L'utilisation de l'entropie est numériquement avantageuse et permet de déterminer une solution contenant l'information minimale requise par la donnée. Une généralisation de la méthode a ensuite été étudiée. Le calcul effectif de la FDO a été effectué d'abord dans le cas du vide sur des données synthétiques, puis sur des données provenant du satellite FREJA. La méthode est automatique, robuste et permet de déterminer des solutions stables. Les résultats obtenus sont en accord avec ceux obtenus par d'autres méthodes. Ils sont toutefois plus diffus, ce qui est préférable dans la situation considérée.
|
1029 |
Architecture dédiée au traitement d'image base sur les équations aux dérivées partiellesDejnozkova, Eva January 2004 (has links) (PDF)
Les méthodes de traitement d'images fondées sur les équations aux dérivées partielles (EDP) bénéficient d'une attention particulière de la part de la communauté scientifique. Le nombre d'applications a considérablement augmenté après la formulation du problème sous forme d'ensembles de niveaux. Les EDPs s'appliquent dans de nombreux domaines tels le filtrage des images (diffusion non-linéaire), les contours actifs utilisés pour la segmentation des images statiques (graphe de Voronoï, Ligne de Partage des Eaux, plus court chemin, détection d'objets), aussi bien que des séquences d'images (suivi d'objets) ou encore des méthodes plus récentes tel le shape-from-shading. Les applications industrielles de ces méthodes sont néanmoins très limitées, d'une part par une complexité considérable de calculs (nombre d'itérations très élevé, par ex.), d'autre part par des difficultés rencontrées lors d'implantation embarquées (consommation d'énergie, exigences mémoire). Quelques expériences temps-réel ont été publiées avec des super-calculateurs ou des accélérateurs graphiques. Quant aux applications embarquées, elles sont à notre connaissance quasi-inexistantes. Notre but est de proposer une architecture dédiée, facilitant tant l'implantation temps-réel qu'embarquée. En vue de cet objectif nous proposons un nouvel algorithme de solution de l'équation Eikonale/calcul de fonction distance qui procède en parallèle, élimine l'usage des files d'attente hiérarchiques et permet d'obtenir la solution sur la totalité ou seulement sur une partie de l'image (le narrow band). La complexité de cet algorithme, nommé Massive Marching, est linéaire. Nous estimons que l'impact de Massive Marching est d'autant plus important pour la communauté de Morphologie Mathématique, qu'il s'agit du premier algorithme permettant d'obtenir en parallèle la ligne de partage des eaux non-biaisée. Ensuite, nous proposons deux types d'architecture (i) SIMD et (ii) plusieurs coeurs de processeurs embarqués implantant Massive Marching en parallèle ou semi-parallèle. Ces mêmes types d'architecture peuvent être utilisés pour implanter un filtrage aussi bien que des méthodes à évolution d'interface. La même architecture peut donc être utilisée pour implanter une application complète, composée de différents types d'algorithmes comme par exemple filtrage suivi par segmentation.
|
1030 |
Contribution à l'étude de l'effet des conditions d'usinage d'éprouvettes en composites à matrice polymère sur leur réponse mécaniqueGhidossi, Patrick 12 1900 (has links) (PDF)
Pour déterminer les lois de comportement et les paramètres mécaniques des matériaux composites, des éprouvettes sont couramment fabriquées par fraisage. Ces opérations de coupe par enlèvement de matière génèrent des efforts et des gradients de température importants, d'où risques d'endommagements au niveau des surfaces usinées. Le but de cette étude est d'évaluer expérimentalement l'interdépendance qui peut exister entre la préparation d'éprouvettes en composites par usinage et leurs performances mécaniques. Quatre matériaux composites à matrice polymère renforcés de fibres sont étudiés dans trois types d'essais mécaniques. Les dommages inhérents à la coupe sont qualifiés suivant les orientations des fibres et les configurations d'attaque de l'outil. Le traitement statistique des résultats expérimentaux permet de dégager les paramètres de coupe significativement influents, d'abord sur les dommages créés, puis sur les performances mécaniques. Deux critères d'endommagement sont définis pour caractériser les pertes des performances mécaniques en fonction des configurations d'usinage. Une recommandation de préparation des éprouvettes guide la détermination des conditions de coupe des éprouvettes d'essais en composites à matrice époxyde renforcés de fibres.
|
Page generated in 0.0744 seconds