Spelling suggestions: "subject:"adaptation""
1 |
Commande linéaire adaptative : solutions bornées et leurs propriétésPraly, Laurent 10 June 1988 (has links) (PDF)
Pas de résumé
|
2 |
Modélisation des chaînes d'acquisition pour améliorer l'identification des cristaux du LabPETLemieux, François January 2012 (has links)
La tomographie d'émission par positrons (TEP) dédiée aux petits animaux est une technique d'imagerie métabolique très utile pour la recherche biomédicale en raison de la grande similitude du génome de la souris transgénique à celui de l'humain. Cette imagerie, de type fonctionnelle, est généralement couplée à une imagerie anatomique comme la tomodensitométrie (TDM) pour améliorer les diagnostics. C'est dans cette sphère de recherche que des travaux sont menés à Sherbrooke pour intégrer les deux modalités d'imagerie en utilisant les mêmes détecteurs et la même chaîne électronique basée sur des photodiodes à avalanche (PDA). Le premier scanner de cette génération est appelé le LabPET. Le LabPET est disponible avec 1536, 3072 ou 4608 PDA selon la longueur axiale. Malgré un rapport signal/bruit plus faible que d'autres capteurs, les PDA, couplées individuellement aux paires de cristaux, permettent d'obtenir une excellente résolution spatiale et un faible temps mort. Par contre, comme deux cristaux dont les constantes de décroissante sont différentes sont couplés à la même PDA, une identification est requise pour localiser l'interaction du rayonnement gamma et obtenir la bonne ligne de réponse. Actuellement, un filtre adaptatif avec un modèle unique de référence de la chaîne électronique pour tout le scanner permet de retrouver la fonction de transfert du cristal avec un taux d'erreur pouvant atteindre moins de 1%. Le modèle de référence contient toutes les informations connues a priori de la chaîne d'acquisition. Le modèle unique pour tout le scanner est correct comme preuve de faisabilité, mais s'avère en pratique non représentatif à cause de la variabilité des détecteurs et des composants électroniques. Un modèle non approprié dégrade l'identification globale des cristaux, ce qui affecte la résolution d'image. Ce projet de maîtrise vise à pallier ce problème en calculant automatiquement un modèle personnalisé pour chaque canal. Quatre algorithmes basés sur différentes minimisations de la fonction de coût, soit le filtre de Wiener, la maximisation de la ressemblance, la minimisation du biais temporel et la minimisation du taux d'erreur, ont été développés et caractérisés comme modèle individuel du canal. Le premier est un algorithme standard pour modéliser un signal, le second ressemble beaucoup au filtre de Wiener, mais avec quelques approximations en moins. Le troisième utilise de l'information connue a priori sur les cristaux et le dernier maximise directement l'identification des cristaux. Un taux d'erreur d'identification de cristaux pour le modèle unique de la chaîne d'acquisition dans le scanner LabPET 4-cm de Sherbrooke est d'environ 3,53 % pour une fenêtre en énergie de 350-650 keV. Les nouveaux modèles personnalisés des chaînes ont obtenu respectivement des taux d'erreurs de plus de 10 %, 3,66 %, 2,96 % et 1,45 % en fonction des algorithmes présentés précédemment. Ainsi, il devient évident qu'un modèle individuel et optimal pour chaque canal permet d'améliorer le taux d'erreur moyen pour le scanner, et ce, sans changer l'architecture matérielle ou logicielle, mais au dépend d'un temps de calibration plus longue.
|
3 |
Secure routing and medium access protocols in wireless multi-hop networks / Sécurité des protocoles de routage et d’accès au médium dans les réseaux sans fil multi-sautsDjahel, Soufiene 03 December 2010 (has links)
Récemment, les comportements malveillants dans les réseaux sans fil multi-sauts ont attiré l’attention de la communauté scientifique. La prolifération rapide du nombre de dispositifs sans fil ainsi que la diversification des applications basées sur ces réseaux ont grandement contribué à l’amélioration de la qualité de vie ainsi que la modernisation de la société. Cependant, la nécessité de sécuri ser ces réseaux et de garantir la robustesse de leurs services est devenue une préoccupation majeure. En effet, les caractéristiques spécifiques de ces réseaux, telles que l’absence d’infrastructure et l’absence d’une entité centrale de confiance, font que les réponses à leurs problèmes de sécurité sont tout à fait différentes de celles des réseaux filaires. De plus, le manque de confiance entre les nœuds rend ces problèmes encore plus critiques. L’objectif de cette thèse vise à contribuer au renforcement de la sécurité dans les réseaux sans fil multi-sauts. Elle se focalise sur l’étude des comportements malveillants au niveau des couches MAC et réseau. Nous nous intéressons au développement de nouvelles solutions pour faire face à l’attaque du trou noir ”Black hole” dans le contexte du protocole OLSR, ainsi qu’analyser le comportement des nœuds cupides ”Greedy” au niveau de la couche MAC, dans toutes ses versions.Une attaque de trou noir peut être menée suivant deux scénarios. Le premier scénario consiste à lancer l’attaque, exclusivement, au niveau de la couche réseau. Le second scénario consiste en une attaque multi-couches. Dans le cadre de cette thèse, nous analysons l’impact de ces deux types d’attaques et proposons des contre-mesures appropriées. Au niveau de la couche MAC, nous étudions particulièrement le comportement cupide adaptatif dans le cadre des réseaux sans fil maillés et nous proposons une solution originale baptisée, FLSAC, afin de prévenir ce type de menace. Dans le cadre des réseaux mobiles ad hoc (MANETs), nous définissons un nouveau modèle de comportement des nœuds cupides. Nous développons aussi un nouvel algorithme de backoff, dont l’avantage principal est d’assurer une détection rapide des nœuds cupides non conformes aux spécifications du protocole IEEE802.11. Cet algorithme offre un mécanisme de réaction qui incite un nœud cupide à se comporter correctement en lui donnant la chance de se repentir après détection. / While the rapid proliferation of mobile devices along with the tremendous growth of various applications using wireless multi-hop networks have significantly facilitate our human life, securing and ensuring high quality services of these networks are still a primary concern. In particular, anomalous protocol operation in wireless multi-hop networks has recently received considerable attention in the research community. These relevant security issues are fundamentally different from those of wireline networks due to the special characteristics of wireless multi-hop networks, such as the limited energy resources and the lack of centralized control. These issues are extremely hard to cope with due to the absence of trust relationships between the nodes.To enhance security in wireless multi-hop networks, this dissertation addresses both MAC and routing layers misbehaviors issues, with main focuses on thwarting black hole attack in proactive routing protocols like OLSR, and greedy behavior in IEEE 802.11 MAC protocol. Our contributions are briefly summarized as follows. As for black hole attack, we analyze two types of attack scenarios: one is launched at routing layer, and the other is cross layer. We then provide comprehensive analysis on the consequences of this attack and propose effective countermeasures. As for MAC layer misbehavior, we particularly study the adaptive greedy behavior in the context of Wireless Mesh Networks (WMNs) and propose FLSAC (Fuzzy Logic based scheme to Struggle against Adaptive Cheaters) to cope with it. A new characterization of the greedy behavior in Mobile Ad Hoc Networks (MANETs) is also introduced. Finally, we design a new backoff scheme to quickly detect the greedy nodes that do not comply with IEEE 802.11 MAC protocol, together with a reaction scheme that encourages the greedy nodes to become honest rather than punishing them.
|
4 |
Estimation non-paramétrique de la fonction de répartition et de la densitéHaddou, Mohammed January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
5 |
Traitement STAP en environnement hétérogène. Application à la détection radar et implémentation sur GPU / STAP processing in heterogeneous environment. Application to radar detection and implementation on GPUDegurse, Jean-François 15 January 2014 (has links)
Les traitements spatio-temporels adaptatifs (STAP) sont des traitements qui exploitent conjointement les deux dimensions spatiale et temporelle des signaux reçus sur un réseau d'antennes, contrairement au traitement d'antenne classique qui n'exploite que la dimension spatiale, pour leur filtrage. Ces traitements sont particulièrement intéressants dans le cadre du filtrage des échos reçus par un radar aéroporté en provenance du sol pour lesquels il existe un lien direct entre direction d'arrivée et fréquence Doppler. Cependant, si les principes des traitements STAP sont maintenant bien acquis, leur mise en œuvre pratique face à un environnement réel se heurte à des points durs non encore résolus dans le contexte du radar opérationnel. Le premier verrou, adressé par la thèse dans une première phase, est d'ordre théorique, et consiste en la définition de procédures d'estimation de la matrice de covariance du fouillis sur la base d'une sélection des données d'apprentissage représentatives, dans un contexte à la fois de fouillis non homogène et de densité parfois importante des cibles d'intérêts. Le second verrou est d'ordre technologique, et réside dans l'implémentation physique des algorithmes, lié à la grande charge de calcul nécessaire. Ce point, crucial en aéroporté, est exploré par la thèse dans une deuxième phase, avec l'analyse de la faisabilité d'une implémentation sur GPU des étapes les plus lourdes d'un algorithme de traitement STAP. / Space-time adaptive processing (STAP) is a processing that makes use of both the spatial and the temporal dimensions of the received signals by an antenna array, whereas conventional antenna processing only exploits the spatial dimension to perform filtering. These processing are very powerful to remove ground echoes received by airborne radars, where there is a direct relation between the arrival angle and the Doppler frequency. However, if the principles of STAP processing are now well understood, their performances are limited when facing practical situations. The first part of this thesis, is theoretical, and consists of defining effective procedures to estimate the covariance matrix of the clutter using a representative selection of training data, in a context of both non-homogeneous clutter and sometimes high density of targets. The second point studied in this thesis is technological, and lies in the physical implementation of the selected algorithms, because of their high computational workload requirement. This is a key point in airborne operations, and is explored by the thesis in a second phase, with the analysis of the feasibility of implementation on GPU of the heaviest stages of a STAP processing.
|
6 |
Contrôle adaptatif, techniques de régularisation et applications en analyse d'images / Adaptive control, regularization techniques and their applications in imageAmur, Khua Bux 19 September 2011 (has links)
Dans cette thèse nous nous intéressons à l'étude de problèmes d'analyse mathématique d'images issus du domaine de la vision par ordinateur. Nous considérons des modèles variationnels d'estimation du flot optique et des problèmes de correspondance en stéréo-vision. La résolution de ces modèles variationnels est basée sur la minimisation de fonctionnelles énergies qui comportent deux termes : un terme de données et un terme de régularisation. Ce dernier est du au caractère mal posé de ces problèmes. L'objet du travail de thèse est d'étudier et mettre en œuvre un contrôle adaptatif du paramètre de régularisation qui permette de la choisir au mieux en chaque point du domaine de calcul. Ce contrôle est rendu possible par les estimations a posteriori qui fournissent un critère de sélection « optimal » du paramètre. Cette technique a été introduite par Z. Belhachmi et F, Hecht et appliquée avec succès au problème d'optique flot dans le cas de la régularisation de Tikhonov. Nous la considérons ici pour l'estimation de l'optique flot et la problème de correspondance en stéréo-vision dans le cas de la régularisation par variation totale. L'efficacité de la méthode est manifeste pour faire ressortir les arêtes (discontinuités de champs optiques. En effet, à ces endroits le paramètre de régularisation diminue et aux endroits plus homogènes le paramètre augmente. Ce comportement nous a encouragé à l'expérimenter pour d'autres problèmes d'analyse d'images comme de débruitage, nous avons rajouté un chapitre préliminaire sur le modèle de Perona-Malik / An adaptive control and regularization techniques are studied for some linear and nonlinear ill-posed problems in image processing and computer vision. These methods are based on variational approach which constitutes the minimization of a suitable energy functional made up of two parts data term obtained from constancy of grey value assumption and regularization term which cope with ill-posed problem by its filling in effect property. We have provided a novel adaptive approach for optic flow and stero vision problems. Which is based on adaptive finite element method using unstructutred grid as the domain of computation, which allow the automatic choice of local optimal regularization parameters. Various linear and nonlinear variational models have been considered in this thesis for scientific computations of optic flow and stereo vision problems and an efficient adaptive control is obtained. This novel regularization strategy is controlled by the regularization parameter [alpha] which depends on space and a posteriori error estimator called residual error indicator. This local adptive behavior has encouraged us to experiment with other problems in image analysis such as denoising, we add a preliminary chapter on hte model of Perona-Malik. This work falls in to the category novel and advanced numerical strategies for scientific computations specifically for image motion problems
|
7 |
Modélisation 3d par éléments finis de la macroségrégation lors de la solidification d'alliages binairesGouttebroze, Sylvain 25 November 2005 (has links) (PDF)
Cette thèse a pour objectif d'étudier la modélisation et la résolution numérique de la macroségrégation pendant la solidification de lingots d'alliages métalliques binaires. La macroségrégation est une hétérogénéité de la concentration en éléments d'alliages à l'échelle du lingot. Ces changements de concentration affectent de manière importante les propriétés mécaniques et chimiques du matériau. Il est donc essentiel de pouvoir prédire ces hétérogénéités pour assurer la qualité des lingots. Après avoir décrit le contexte tant industriel que bibliographique de ce travail, nous préciserons les différents modèles implémentés dans le code de calcul THERCAST, un logiciel de solidification développé au CEMEF. La description des équations macroscopiques employées sera précédée d'une discussion sur la manière de valider la modélisation de la macroségrégation. Nous aborderons ensuite la théorie du remaillage adaptatif et nous décrirons les éléments essentiels de la stratégie de remaillage développée dans le cadre de cette thèse. Ces modèles seront appliqués à la simulation de la solidification de plusieurs lingots. La validation se fera sur un lingot de petite taille par comparaison avec des résultats expérimentaux et des simulations avec d'autres logiciels. Ensuite nous analyserons en détail les prédictions de THERCAST sur un lingot plan, un lingot 3D similaire à un lingot industriel et finalement un lingot plus petit qui nous permettra une étude numérique plus complète. Les limitations de notre modélisation et les phénomènes qu'elle a permis de mettre en évidence seront enfin discutés et permettront de définir quelques orientations intéressantes pour poursuivre cette étude de la macroségrégation.
|
8 |
Résumé de flux de données ditribuésChiky, Raja 23 January 2009 (has links) (PDF)
Ces dernières années, sont apparues de nombreuses applications, utilisant des données en nombre potentiellement illimité, provenant de façon continue de capteurs distribués afin d'alimenter un serveur central. Les données sont utilisées à des fins de surveillance, de supervision, de déclenchement d'alarmes en temps réel, ou plus généralement à la production de synthèses d'aide à la décision à partir de plusieurs flux. Le volume des données collectées est généralement trop grand pour être entièrement stocké. Les systèmes de gestion de flux de données (SGFD) permettent de gérer facilement, et de façon générique les flux de données : les données sont traitées au fil de l'eau sans les archiver. Toutefois, dans certaines applications, on ne souhaite pas perdre complètement l'ensemble des flux de données afin de pouvoir analyser les données du passé et du présent. Il faut donc prévoir un stockage de l'historique du flux. Nous considérons dans cette thèse, un environnement distribué décrit par une collection de plusieurs capteurs distants qui envoient des flux de données numériques et unidimensionnelles à un serveur central unique. Ce dernier a un espace de stockage limité mais doit calculer des agrégats, comme des sommes ou des moyennes, à partir des données de tout sous-ensemble de capteurs et sur un large horizon temporel. Deux approches sont étudiées pour construire l'historique des flux de données :(1) Echantillonnage spatial en ne considérant qu'un échantillon aléatoire des sources qu'on observe dans le temps ; (2) Echantillonnage temporel en considérant toutes les sources mais en échantillonnant les instants observés de chaque capteur. Nous proposons une méthode générique et optimisée de construction de résumés à partir de flux de données distribués : A partir des flux de données observés à une période de temps t -1, nous déterminons un modèle de collecte de données à appliquer aux capteurs de la période t. Le calcul des agrégats se base sur l'inférence tatistique dans le cas de l'échantillonnage spatial et sur l'interpolation dans le cas de l'échantillonnage temporel. A notre connaissance, il n'existe pas de méthodes d'interpolation qui estiment les erreurs à tout instant et qui prennent en compte le flux de données ou courbe à interpoler et son intégrale. Nous proposons donc deux approches : la première se base sur le passé des courbes pour l'interpolation (approche naive) ; et la seconde utilise à un processus stochastique pour modéliser l'évolution des courbes (approche stochastique).
|
9 |
Modélisation parcimonieuse application à la sélection de variables et aux données STAP /Maria, Sébastien Fuchs, Jean-jacques January 2006 (has links) (PDF)
Thèse doctorat : Traitement du signal et télécommmunications : Rennes 1 : 2006. / Bibliogr. p. 145-154.
|
10 |
Research and application of adaptive finite element Mesh generationShan, Ju-Lin Guo, Ying Qiao @Zhang, Hong-Wu. @Guan, Zhen-Gun. January 2007 (has links) (PDF)
Reproduction de : Thèse doctorat : Mécanique : Reims : 2007. / Texte en chinois, résumé et légendes en anglais. Titre provenant de l'écran titre. Bibliogr. f. 140-150.
|
Page generated in 0.0448 seconds