Spelling suggestions: "subject:"résolution"" "subject:"ésolution""
91 |
Le puits à retournement temporel dans le domaine audible : un outil de focalisation et d'imagerie à haute résolution de sources sonores et vibratoiresBavu, Éric January 2008 (has links)
Le développement de techniques de focalisation et d'imagerie à haute résolution pour les sources acoustiques et vibratoires à basse fréquence est l'un des enjeux de la recherche actuelle en acoustique, notamment pour exciter localement et analyser des structures vibroacoustiques complexes tout en conservant des propriétés de haute résolution. Ces propriétés sont nécessaires lorsque la taille des objets étudiés est plus petite que la longueur d'onde mise en jeu. Nous désirons une méthode flexible, rapide, précise, non invasive, et unifiée d'excitation et d'analyse. Celle-ci doit être applicable tant dans le domaine des vibrations dans les structures que dans le domaine des ondes acoustiques tridimensionnelles. Pour cela, nous nous basons sur la technique du puits à retournement temporel, qui n'a, à ce jour, été mise en oeuvre que pour la focalisation d'ondes de Lamb dans une cavité ergodique ou avec des ondes électromagnétiques. Aucune technique d'imagerie n'a, avant cette thèse, été dérivée du puits à retournement temporel. La méthode du puits à retournement temporel est adaptée pour la focalisation à basse fréquence. Elle permet d'exciter localement une structure avec une grande intensité, et possède des capacités de super-résolution. Malgré tout, nous démontrons que cette méthode est difficilement applicable en situation pratique, puisqu'elle fait perdre le caractère non invasif nécessaire à la plupart des applications. En revanche, nous présentons dans ce manuscrit une technique nouvelle d'imagerie de sources vibratoires et acoustiques, basée sur le puits à retournement temporel. Cette technique non invasive d'imagerie, utilisant des dispositifs de mesure similaires aux techniques de formations de voies ou d'holographie en champ proche, permet d'obtenir une image des sources vibratoires ou acoustiques à très haute résolution de manière rapide. L'approche de cette nouvelle méthode d'imagerie est décrite. Des applications à l'imagerie de sources d'impact sur une plaque encastrée, ainsi qu'à l'imagerie de sources acoustiques en champ libre et en milieu sous-marin profond sont proposées. Une application à l'imagerie de sources acoustiques à basse fréquence sur une guitare est développée. Ces résultats représentent les premières applications de l'imagerie par puits à retournement temporel numérique. Les limites, la théorie, et la mise en oeuvre de cette technique d'imagerie à haute résolution sont étudiées et détaillées. II est démontré que cet outil possède des performances et des limites similaires à l'holographie en champ proche, tout en dépassant les capacités à basse fréquence des techniques classiques de localisation limitées en résolution couramment utilisées, comme le beamforming ou le retournement temporel.
|
92 |
Identification des cristaux dans un détecteur Phoswich appliqué à la tomographie d'émission par positronsYousefzadeh, Hoorvash Camilia January 2010 (has links)
La tomographie d'émission par positrons (TEP) occupe une place de choix dans le domaine de l'imagerie moléculaire par sa capacité d'obtenir des informations ultrasensibles et quantitatives sur des processus métaboliques, physiologiques ou cellulaires. De plus, grâce à la similitude des génomes de l'homme et de petits rongeurs comme la souris, elle attire un grand intérêt dans le domaine de la recherche médicale, allant de la détection précoce de différentes formes de cancers jusqu'au développement de nouveaux médicaments. Toutefois, pour tirer profit des images acquises lors d'études animales, des scanners de plus en plus performants sont nécessaires. Le LabPETTM, le scanner TEP petit animal conçu par les efforts unis du Groupe de recherche en appareillage médicale de Sherbrooke (GRAMS) et du Centre d'imagerie moléculaire de Sherbrooke (CIMS) se démarque des autres scanners d'une part par son couplage individuel des photodiodes à avalanche à une paire de cristaux scintillateurs et d'autre part par une numérisation hâtive des signaux et un traitement numérique parallèle. Cela permet d'y implanter des algorithmes de traitement de signaux puissants. Le filtre de Wiener est une des techniques utilisées dans le LabPETTM pour optimiser à la fois le rendement et la capacité d'identification du cristal (IC) excité par le rayonnement émis dans le scanner par les radioisotopes. Les travaux de cette thèse portent, dans une première partie, sur le développement et l'implantation d'une version plus complète et ajustée de la méthode d'IC basée sur le filtre de Wiener. L'amélioration de cette technique porte sur l'utilisation des deux caractéristiques élémentaires des cristaux, soit leur constante de temps et leur rendement lumineux pour une IC plus précise et rapide. Une telle IC peut être réalisée même avec des cristaux possédant des caractéristiques très similaires, et pour des énergies très basses - jusqu'à 100 keV. Dans une deuxième partie, les performances de la méthode d'IC Wiener ont été évaluées en tenant compte de la contribution des différentes sources de bruit de la chaîne d'acquisition d'un scanner TEP. L'influence du bruit de multiplication de la photodiode à avalanche (un bruit non-stationnaire et poissonien), le bruit électronique (un bruit stationnaire et gaussien), ainsi que l'effet de l'utilisation des filtres de mise en forme rapide CR-RC n sur les résultats de l'algorithme d'IC ont été étudiés grâce au développement d'un simulateur de TEP qui imite les signaux de sortie du LabPETTM. Finalement, la possibilité d'utiliser la méthode d'IC Wiener pour discriminer des détecteurs multicouches, composés de trois et quatre cristaux, a été étudiée. L'implantation de cet algorithme dans un scanner TEP permettra à court terme d'améliorer les performances de démultiplexage des détecteurs et, de ce fait, la résolution spatiale axiale du système. Des techniques de modélisations du bruit non-stationnaire sont proposées pour rehausser les résultats de l'algorithme d'IC. En se basant sur les résultats de l'algorithme d'IC, il est possible de développer des techniques pour mesurer l'énergie déposée dans les cristaux et parvenir à une séparation des évènements Compton diffusés entre les cristaux d'un même détecteur comparativement aux autres diffusions Compton. A plus long terme, ceci permettra de bonifier la sensibilité du scanner.
|
93 |
Classification multi-échelle d'images à très haute résolution spatiale basée sur une nouvelle approche texturaleDelahaye, Alexandre January 2016 (has links)
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires.
Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations. / Abstract : Classifying remote sensing images is an increasingly difficult task due to the availability of very high spatial resolution (VHSR) data. The amount of details in such images is a major obstacle to the use of spectral classification methods as well as most textural classification algorithms, including statistical methods. However, structural methods offer an interesting alternative to this issue: these object-oriented approaches focus on analyzing the structure of an image in order to interpret its meaning. In the first part of this thesis, we propose a new algorithm belonging to this category: KPC (KeyPoint-based Classification). KPC is based on keypoint detection and analysis and offers an efficient answer to the issue of classifying VHSR images. Tests led on artificial and real remote sensing images have proven its discriminating power.
Furthermore, many studies have proven that evidential fusion (based on Dempster-Shafer theory) is well-suited to remote sensing images because of its ability to handle abstract concepts such as ambiguity and uncertainty. However, few studies did focus on the application of this theory to complex textural data such as structural data. This issue is dealt with in the second part of this thesis; we focused on fusing multiscale KPC classifications with the help of Dempster-Shafer theory. Tests have shown that this multi-scale approach leads to an increase in classification efficiency when the original image has a low quality. Our study also points out a substantial potential for improvement gained from the estimation of intermediate classifications reliability and provides ideas to get these estimations.
|
94 |
Les pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un contexte d'implantation du modèle Réponse à l'interventionAllard, Magali January 2016 (has links)
Depuis 2010, le modèle Réponse à l'intervention (RàI) est de plus en plus prescrit dans les cadres de référence en orthopédagogie des commissions scolaires du Québec (Boudreau et Allard, 2015). D'abord, pour identifier les élèves susceptibles de présenter un trouble d'apprentissage et, parallèlement, pour organiser des services adaptés aux besoins des élèves en difficulté d'apprentissage incluant ceux intégrés à la classe ordinaire. Ce modèle, validé par la recherche s’opérationnalise, entre autres, par l'approche résolution de problème et celle par protocole standardisé (Fuchs et Fuchs, 2007; Marshall, 2010). Ces approches permettent de préciser la pratique pédagogique et orthopédagogique en déterminant puis hiérarchisant les modalités d'intervention et d'évaluation auprès des élèves ciblés en intensification. Or, ce modèle ne définit pas, à l’heure actuelle, la structure collaborative devant être déployée entre l’orthopédagogue et l’enseignant, deux acteurs importants impliqués dans ce modèle d’identification des troubles d'apprentissage (Barnes et Harlacher, 2008), ce qui nous amène à nous intéresser aux pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un contexte d'implantation du modèle RàI. Dans le cadre de ce mémoire, nous visons ainsi à mieux documenter et définir les pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un tel contexte. Pour ce faire, des entretiens semi-dirigés ont été menés afin d'identifier les pratiques de collaboration utilisées, et dégager celles considérées comme exclusives, communes ou conflictuelles. Au total, 30 thèmes ont été identifiés et 85 pratiques sont réparties dans les différents niveaux du modèle RàI.
|
95 |
Imager les zones de formation des planètes autour des étoiles jeunes dans le cadre de reconstruction d'images pour le VLTIRenard, Stéphanie 10 November 2010 (has links) (PDF)
Les planètes se forment très probablement dans les disques de gaz et de poussière détectés autour des étoiles jeunes en cours de formation. L'étude de ces disques circumstellaires est donc indispensable pour comprendre la formation des planètes et l'origine de notre système solaire. Au vu des distances des régions de formation stellaires les plus proches, observer la partie des disques situées entre 0.1 et 10 UA correspond à des échelles spatiales de l'ordre de la milli-arcseconde. L'interférométrie infrarouge est un outil adapté pour atteindre de telles échelles spatiales et, par conséquent, pour étudier l'environnement proche des étoiles jeunes. Cependant, un interféromètre ne produit pas une image directe de l'objet observé. Les données obtenues jusqu'à présent sont peu nombreuses et utilisées uniquement pour contraindre des modèles théoriques. Avec l'arrivée de nouveaux instruments, les données interférométriques peuvent être utilisées pour reconstruire des images indépendamment de modèles paramétriques, comme il est habituellement fait dans le domaine radio. Le présent travail vise à appliquer la méthode de reconstruction d'images à des données interférométriques en infrarouge proche d'objets jeunes. Dans un premier temps, une étude systématique de la méthode de reconstruction d'images est réalisée sur l'algorithme MiRA et des règles pratiques pour les utilisateurs en sont extraits. Il est également démontré qu'il vaut mieux augmenter la couverture du plan (u; v), et ce de manière la plus homogène possible, plutôt que de diminuer les barres d'erreur sur les données. Dans un deuxième temps, la méthode est appliquée à une Herbig Ae, MWC275, donnant lieu à la première image de l'environnement proche d'une étoile jeune complexe. Suite à la pauvreté de la couverture (u; v), une image évidente à interpréter n'est pas réalisable malgré l'utilisation de paramètres adéquats. Une méthodologie impliquant l'utilisation d'un modèle de l'objet est donc indispensable afin de ne pas sur-interpréter les structures dans l'image reconstruite. Finalement, la technique est appliquée à d'autres objets jeunes. Ces nouvelles applications renforcent l'intérêt d'utiliser la reconstruction d'images comme technique d'analyse mais confirment également la prudence à avoir lors de l'analyse des images reconstruites.
|
96 |
Deux méthodes de résolution d'équations algébriques, le procédé des réduites, l'algorithme de RouthChion, Jean 26 November 1965 (has links) (PDF)
.
|
97 |
Relations entre les habiletés mathématiques et la mémoire de travail et effets d’un entraînement de la mémoire de travail chez des élèves du premier cycle du primaireCharest-Girard, Camille January 2017 (has links)
La mémoire de travail (MdeT) est le sujet de plusieurs études récentes, notamment en raison des liens qu'elle entretient avec des variables d’intérêt telles que l’intelligence (Kuhn, 2016), le langage (Dehn, 2008) et les apprentissages (Alloway & Alloway, 2010). Le modèle de la MdeT de Baddeley et Hitch (1974) est le plus souvent utilisé dans les études sur le développement cognitif (Kroesbergen, van’t Noordende, & Kolkman, 2014). Ce modèle est dit multi-composantes puisqu’il divise la MdeT en trois principales composantes, soit l’administrateur central, la boucle phonologique et le calepin visuo-spatial. Ces trois composantes sont liées à la performance générale en mathématiques (p. ex., De Smedt et al., 2009, Meyer, Salimpoor, Wu, Geary, & Menon, 2010; Rasmussen & Bisanz, 2005). Par contre, les résultats restent divergents quant aux liens entre les composantes de la MdeT et des habiletés mathématiques spécifiques. La présente recherche vise donc à préciser, en premier lieu, les liens qui unissent les composantes de la MdeT à la performance en arithmétique et en résolution de problèmes chez des enfants tout-venant de 1re et de 2e année. Pour ce faire, 77 enfants tout-venant ont été évalués. Les résultats montrent que la MdeT est liée à la performance en arithmétique et en résolution de problèmes. Par contre, le calepin visuo-spatial n’est pas impliqué, ce qui sous-tend l’usage de stratégies verbales dès la 1re année. L’implication des deux autres composantes de la MdeT varie, quant à elle, selon le niveau scolaire, mais pas selon l’habileté mathématique. Effectivement, alors que l’administrateur central est impliqué en arithmétique et en résolution de problèmes en 1re et en 2e année, la boucle phonologique n’est impliquée qu’en 1re année, ce qui sous-tend un changement vers des stratégies de récupération directe en mémoire à long terme en 2e année. La présence de liens entre la MdeT et les mathématiques ouvre par ailleurs la porte à des interventions prometteuses, telles que l’entrainement de la MdeT, pour améliorer les performances en mathématiques. Notre recherche vise donc, en second lieu, à vérifier les effets d’un entrainement de la MdeT sur les principales composantes de la MdeT et sur la performance en arithmétique et en résolution de problèmes chez des jeunes du premier cycle du primaire. Pour vérifier les effets de l’entrainement, 73 participants ont été séparés entre un groupe contrôle de type liste d’attente et un groupe expérimental qui a bénéficié d’un entrainement de la MdeT pendant 6 semaines. Les enfants ont été évalués à trois reprises, soit avant l’entrainement, tout de suite après l’entrainement et 6 mois plus tard. Les résultats révèlent que l’entrainement informatisé de la MdeT améliore seulement les capacités de l’administrateur central; ces gains, dans la modalité verbale, tendent à se maintenir sur 6 mois contrairement à ceux en modalité visuo-spatiale. Les bienfaits de l’entrainement ne se transfèrent pas à la performance en mathématiques. En revanche, un effet compensatoire est observé en résolution de problèmes, puisqu’une amélioration de la performance est observée chez les enfants qui avaient une plus faible MdeT au départ. Ainsi, les effets de l’entrainement sont spécifiques; de façon générale, à la MdeT et plus particulièrement à l’administrateur central, et de façon différentielle, aux habiletés de résolution de problèmes pour les élèves ayant de plus faibles capacités de MdeT.
|
98 |
Impacts de l’introduction des techniques d’information et de communication et de la pédagogie par résolution de problèmes sur les conceptions des élèves : l’enseignement de la neurotransmission en classe de terminale / Impacts of the introduction of tice and problem based learnign on pupil conceptions : teaching of the neurotransmission in final year of secondary schoolLaribi, Rym 15 December 2009 (has links)
Cette recherche a pour objectif principal l'étude de l’impact de l'intégration d'outils informatiques et de la pédagogie par résolution de problèmes à l'enseignement de la neurophysiologie. La première partie de la thèse porte sur l'enseignement de la notion de la neurotransmission en classe de terminales Scientifiques : analyse épistémologique et historique du concept, étude des programmes et des manuels scolaires. Dans la deuxième partie, une analyse des conceptions des élèves de terminale concernant la transmission du message nerveux au niveau de la synapse a été effectuée. Dans une troisième partie des situations didactiques ont été conçues et testées : par résolution de problème et par des simulations informatisées. Les résultats de la recherche tendent à prouver que l’intégration des simulations informatisées ou la pédagogie par résolution des problèmes dans l'enseignement de la neurophysiologie augmente l’efficacité de l’enseignement du concept de la neurotransmission, et que par contre, la pédagogie par résolution de problèmes semble être une alternative plus efficace pour le changement conceptuel / This search aims to study the impact of the integration of computing tools and the pedagogy by resolution of problems in the teaching of the neurophysiology. The first part of the thesis concerns neurotransmission’s teaching in final year of secondary school: epistemological analysis, history of neurotransmission concept and analysis of the programs and the textbooks. The second part interests the pupils’ conceptions concerning the transmission of the nervous message in the synapse. In the third part didactic situations were conceived and tested: situation using PBL and simulations. The results of the search tend to prove that the integration of the simulations or the pedagogy by PBL increases the efficiency of the teaching of the concept of the neurotransmission, and that on the other hand, the pedagogy by PBL seems to be a more effective alternative
|
99 |
Routage par déflexion dans les réseaux tout optique à commutation de burstsMetnani, Ammar January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
100 |
Étude de systèmes de bandes d'absorption de complexes du nickel (II) : considérations théoriques sur l'influence des interactions entre états électroniques et du couplage entre modes normauxGonzález, Emmanuel January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.0547 seconds