• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 191
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 962
  • 353
  • 283
  • 190
  • 149
  • 103
  • 94
  • 91
  • 89
  • 89
  • 86
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

La construction des relations sémantiques en résolution de problèmes mathématiques au deuxième cycle du primaire

Morin, Émélie 17 April 2018 (has links)
Cette thèse décrit la construction des relations sémantiques en cours de résolution de problèmes écrits en mathématique chez deux élèves sourds de deuxième cycle du primaire. L'étude se situant dans une approche constructiviste et développementale, les élèves ont été suivis et soutenus dans le cheminement de leur pensée par entrevue clinique. Pour cela, ils ont été invités à lire chaque problème donné une première fois et à l'expliquer, révélant ainsi leur représentation initiale. Par la suite, les questions ou commentaires de l'adulte avaient pour but de permettre tant à l'élève d'exprimer oralement les relations construites et ses procédés de construction, qu'à l'adulte de le soutenir dans la création de liens manquants jusqu'à la construction complète du système de relations. Tous les propos des élèves ont été retenus. Une première analyse a permis de suivre pas à pas ces propos pour répondre à la question suivante : Comment l'élève construit-il les relations sémantiques en cours de lecture et de résolution du problème? Le cadre d'analyse a été constitué autour des moments où l'élève cherche à construire les relations ambiguës et autour des difficultés à compléter la structure logique imposée par le problème donné. Une deuxième analyse consistait à vérifier si la question est l'élément qui structure l'ensemble des relations sémantiques. Les hypothèses successives de solutions ont été présentées en synthèse. On constate que la question précise le but induisant ainsi une structuration du problème, mais elle n'impose pas à elle seule la construction et la coordination de l'ensemble des relations du système à reconstituer. En effet, bien qu'à un degré différent, les deux élèves ont le plus souvent réduit, selon la relation explicite exprimée dans la question, le système complexe des problèmes donnés en un système simple. Deux types d'obstacles ont été identifiés. Un moindre concerne la formulation linguistique de certains concepts mathématiques et un deuxième, d'ordre logique interpropositionnelle. Les deux élèves ont alors démontré des difficultés à construire certaines relations et à faire une relation sur une relation. La capacité d'appréhender simultanément l'ensemble des relations du système complexe d'un problème donné est ce qui permet de reconstituer ce système.
392

Résolution des problèmes d'optimisation combinatoire avec une stratégie de retour-arrière basée sur l'apprentissage par renforcement

Bachiri, Ilyess 23 April 2018 (has links)
Les problèmes d’optimisation combinatoire (Constraint Optimization Problems – COP) sont souvent difficiles à résoudre et le choix de la stratégie de recherche a une influence importante sur la performance du solveur. Pour de résoudre un problème d’optimisation combinatoire en explorant un arbre de recherche, il faut choisir une heuristique de choix de variable (qui définit l’ordre dans lequel les variables vont être instanciées), une heuristique de choix de valeur (qui spécifie l’ordre dans lequel les valeurs seront essayées), et une stratégie de retour-arrière (qui détermine vers quel noeud effectuer les retours-arrière lorsqu’une feuille de l’arbre est rencontrée). Pour les stratégies de retour-arrière, il y a celles dont les retours-arrière sont totalement déterministes (e.g. Depth-First Search – DFS) et d’autres qui s’appuient sur des mécanismes d’évaluation de noeuds plus dynamiques (e.g. Best-First Search). Certaines (e.g. Limited Discrepancy Search – LDS) peuvent être implémentées soit comme un algorithme itératif déterministe ou un évaluateur de noeud. Une stratégie est dite adaptative quand elle s’adapte dynamiquement à la structure du problème et identifie les zones de l’espace de recherche qui contiennent les “bonnes” solutions. Dans ce contexte, des stratégies de branchement adaptatives ont été proposées (e.g. Impact-Based Search – IBS) ainsi qu’une stratégie de retour-arrière adaptative (e.g. Adaptive Discrepancy Search – ADS), proposée pour les problèmes d’optimisation distribués. À notre connaissance, aucune stratégie adaptative qui utilise l’apprentissage par renforcement (Reinforcement Learning – RL) pour supporter son mécanisme d’apprentissage n’a été proposée dans la littérature. Nous pensons que les techniques de RL permettront un apprentissage plus efficace et qu’une stratégie de retour-arrière munie de ces techniques aura le potentiel de résoudre les problèmes d’optimisation combinatoire plus rapidement. Dans ce mémoire, nous proposons un algorithme (RLBS) qui “apprend” à faire des retours-arrière de manière efficace lors de l’exploration d’arbres non-binaires. Plus précisément, il s’agit une stratégie de retour-arrière qui se base sur l’apprentissage automatique pour améliorer la performance du solveur. En fait, nous utilisons l’apprentissage par renforcement pour identifier les zones de l’espace de recherche qui contiennent les bonnes solutions. Cette approche a été développée pour les problèmes d’optimisation combinatoire dont l’espace de recherche est encodé dans un arbre non-binaire. Comme les arbres sont non-binaires, on a l’occasion d’effectuer plusieurs retours-arrière vers chaque noeud durant l’exploration. Ceci permet d’apprendre quels noeuds mènent vers les meilleures récompenses en général (c’est-à-dire, vers les feuilles les plus intéressantes). Le branchement est effectué en utilisant une stratégie de choix de variable/valeur quelconque. Toutefois, quand un retour-arrière est nécessaire, la sélection du noeud cible s’appuie sur l’apprentissage par renforcement. RLBS est évalué sur cinq instances industrielles du problème de la planification des opérations du rabotage du bois et a été comparé à ADS et à LDS sur cette même application. RLBS dépasse LDS et ADS, en termes de temps de calcul nécessaire à la résolution, sur chacune de ces instances-là et trouve la solution optimale plus rapidement. Les expérimentations ont montré que RLBS est en moyenne 4 fois plus rapide que ADS, et 6 fois plus rapide que LDS. RLBS a aussi été évalué sur une instance jouet du même problème et a été comparé à IBS. RLBS surpasse largement IBS. Il est capable de trouver une solution optimale en explorant beaucoup moins de noeuds que le nombre nécessaire à IBS pour trouver une telle solution. / Combinatorial optimization problems are often very difficult to solve and the choice of a search strategy has a tremendous influence over the solver’s performance. To solve a problem using search, one needs to choose a variable selection strategy (defining the order in which variables will be instantiated), a value selection strategy (that specifies the sequence in which we will try the variable possible values) and a backtracking strategy (that determines to which node we should backtrack/backjump, when a leaf is reached or a dead-end is encountered). When it comes to backtracking strategies, there are some that are encoded into full deterministic algorithms (e.g. Depth-First Search – DFS), and others that rely on more dynamic node evaluator mechanisms (e.g. Best-First Search). Others (e.g. Limited Discrepancy Search – LDS) can be implemented as a deterministic iterative algorithm or as a node evaluator. A strategy is said to be adaptive when it dynamically adapts to the structure of the problem and identifies the areas of the search space that contain good solutions. Some have proposed adaptive branching strategies (e.g. Impact-based Search – IBS) or a backtracking strategy (e.g. Adaptive Discrepancy Search – ADS) proposed for distributed optimization problems. To our current knowledge, no adaptive backtracking strategy that relies on Reinforcement Learning (RL) has been proposed yet. We believe that RL techniques could allow a more efficient learning process and that, provided with these techniques, a backtracking strategy has a great potential of solving combinatorial optimization problems in a faster way. In this thesis, we introduce an algorithm (RLBS) that learns to efficiently backtrack when searching non-binary trees. We consider a machine learning approach which improves the performance of the solver. More specifically, we use reinforcement learning to identify the areas of the search space that contain good solutions. The approach was developed for optimization problems for which the search space is encoded as a non-binary tree. Since the trees are non-binary, we have the opportunity to backtrack multiple times to each node during the search. This allows learning which nodes generally lead to the best rewards (that is, to the most interesting leaves). Branching can be carried on using any variable/value selection strategy. However, when backtracking is needed, the selection of the target node involves reinforcement learning. RLBS is evaluated on five instances of the lumber planing problem using real idustrial data, and it is compared to LDS and ADS. It outperforms classic (non-adaptive) search strategies (DFS, LDS), an adaptive branching strategy (IBS), and an adaptive backtracking strategy (ADS) on every instance of this problem. Experiments have shown that RLBS is on average 4 times faster than ADS, and 6 times faster than LDS. RLBS is also evaluated on a toy instance of the lumber planing problem and compared to IBS. RLBS substantially outperforms IBS by solving the problem to optimality much faster.
393

Les prises de décision des élèves du 3e cycle du primaire lors de la résolution de problèmes de proportion : une analyse des contrôles mobilisés

Rhéaume, Stéphanie 02 February 2024 (has links)
Le développement de la capacité à résoudre des problèmes mathématiques demeure une question vive en éducation. Plusieurs auteurs (Fagnant et Vlassis, 2010; Houdement, 2011; Lajoie et Bednarz, 2014; Scott, 2015) et instances (OCDE, 2014b; UNESCO, 2015) constatent qu’il est essentiel pour résoudre des problèmes mathématiques d’aller au-delà de la connaissance de contenus spécifiques et voir au développement d’aptitudes et d’habiletés à résoudre des problèmes. Dans cette optique, la notion de contrôle s’avère un soutien important pour l’élève au moment de prendre des décisions quant aux ressources mathématiques à privilégier lors d’une résolution (raisonnements, contenus mathématiques, procédures, méthodes). Néanmoins, nous en savons peu à ce jour quant aux éléments qui peuvent guider les prises de décision des élèves du primaire lors de la résolution de problèmes. À cet effet, cette recherche vise à documenter et comprendre les décisions prises par des élèves du primaire dans l’action de résoudre un problème mathématique, sous l’angle du contrôle mobilisé. À partir de la notion de contrôle de Saboya (2010) et d’une analyse inductive favorisant l’émergence de catégories complémentaires appuyées par des travaux issus de la didactique des mathématiques, du Mathematics Education, de la psychopédagogie et de la psychologie cognitive portant sur la résolution de problèmes (Clément, 2009; Focant et Grégoire, 2008; Julo, 1995, 2002; Richard, 2004; Schoenfeld, 1985, 1992; Verschaffel et De Corte, 2008), nous avons élaboré un cadre conceptuel pour circonscrire et pour étudier la mobilisation du contrôle par les élèves du primaire lorsqu’ils résolvent des problèmes mathématiques. Afin d’atteindre l’objectif de documenter et comprendre les prises de décision des élèves du primaire dans l'action de résoudre un problème mathématique, sous l’angle du contrôle mobilisé, nous avons mené une recherche qualitative auprès de 18 élèves de 5e année du primaire provenant de trois classes issues de trois écoles différentes. Des entretiens d’explicitations ont été menés auprès de ces élèves afin d'en savoir davantage sur les décisions prises lors des résolutions de trois problèmes de proportion. Dans l’ensemble, leurs explicitations des prises de décision viennent éclairer l’activité de résolution de problèmes de proportion chez des élèves du 3e cycle du primaire du point de vue du contrôle. Les analyses nous informent sur leur manière de mobiliser différentes composantes du contrôle déjà identifiées par la recherche, telles que l’anticipation, la vérification, le discernement et le contrôle sémantique, tandis que d'autres émergeront de nos analyses, telles que le contrôle sur les nombres et les opérations ou le contrôle restreignant. Par ailleurs, l’analyse inductive mène à la proposition d’un cadre d’analyse ainsi qu’à la mise en évidence de trois contrôles pouvant être mobilisés par ces élèves, un contrôle structural, un contrôle opérationnel et un contrôle restreignant. Cette analyse inductive a d’autre part guidé la construction de la grille d’analyse du contrôle. L’analyse des résultats mène à plusieurs autres constats. Entre autres, nous constatons que des élèves ne savent pas parfois comment faire pour mobiliser une composante du contrôle, comme la vérification. En outre, il ressort de l’analyse que le contrôle ne garantit pas la réussite du problème : les élèves peuvent exercer une ou des composantes du contrôle sans obtenir la bonne réponse, voire abandonner le problème. Aussi, nous notons que la présence de certaines variables dans les problèmes influence la mobilisation des composantes du contrôle chez les élèves. Finalement, l’analyse a permis d’identifier deux rôles inhérents au contrôle qui ont un impact sur les prises de décision, le rôle d’un contrôle interne à l’élève et le rôle d’un contrôle externe à l’élève. Le contrôle interne illustre l’engagement réfléchi de l’élève envers la résolution tandis que le contrôle externe pointe la place qu’occupent des croyances et des attentes scolaires dans les décisions des élèves en résolution de problèmes. D'un point de vue théorique, cette thèse élargit notre compréhension de la notion de contrôle en mathématiques aux prises de décision dans la résolution de problèmes mathématiques. Elle illustre l’importance du contrôle, entre autres par l'enrichissement des cadres proposés précédemment et par l'identification de 3 types de contrôle. Du point de vue méthodologique, elle propose une grille d’analyse du contrôle lors de la résolution de problèmes mathématiques. Du point de vue pratique, cette recherche conclut que la mobilisation du contrôle en résolution de problèmes mathématiques est un enjeu central à considérer lors de l’enseignement et l’apprentissage de la résolution de problèmes en mathématiques. Notamment, par la prise en compte de l'existence d'un contrôle restreignant négativement l'activité mathématique de l'élève et l’importance du développement des outils de contrôle chez les élèves. Des enjeux qui méritent l’attention du milieu de la recherche et de l’enseignement des mathématiques. Mots-clés : résolution de problèmes mathématiques, prises de décision, contrôle, primaire, proportionnalité. / The development of the ability to solve mathematical problems remains a lively question in education. Many authors (Fagnant and Vlassis, 2010; Houdement, 2011; Lajoie and Bednarz, 2014; Scott, 2015) and organizations (OECD, 2014b; UNESCO, 2015) observe that in order to solve mathematical problems, it is essential to go beyond specific content knowledge and ensure the development of skills and abilities related to problem solving. With this in mind, the notion of control becomes an important support to the student when the time comes to make decisions regarding the mathematical resources to favour when solving a problem (reasoning, mathematical knowledges, procedures, methods). Nevertheless, to date, little is known about the components which guide elementary school students during problem solving. To this end, this research aims to document and understand the decisions made by elementary school students when they are solving a mathematical problem from the standpoint of mobilized control. Based on the notion of control by Saboya (2010) and on an inductive analysis favouring the emergence of complementary categories supported by works from mathematics didactics, Mathematics Education, educational psychology and cognitive psychology on problem solving (Clément, 2009; Focant and Grégoire, 2008; Julo, 1995, 2002; Richard, 2004; Schoenfeld, 1985, 1992; Verschaffel and De Corte, 2008), we designed a conceptual model to define and study the mobilization of control by elementary school students when they are solving mathematical problems. In order to reach our goal to document and understand, in terms of mobilized control, elementary school students’ decisions when they are solving mathematical problems, we conducted a qualitative research on eighteen fifth grade students from three classes located in three different schools. Explicitation interviews were conducted with these students in an effort to achieve better knowledge on the decisions they made while working on three problems that focused on proportionality. For the most part, their explicitations on decision-making shed light on proportionality problem solving for students in Cycle Three of elementary education in terms of control. Analyses show how they mobilize several components of control which were identified in previous research, such as anticipation, verification, discernment and semantic control. Moreover, inductive analysis leads to the proposition of an analysis framework and to the identification of three types of control that may be exercised by elementary school students: structural control, operational control and restrictive control. This inductive analysis also guided the development of a control analysis grid. Furthermore, the analysis of these results leads to many other observations. For instance, we notice that some students ignore how to mobilize one form of control, such as verification. In addition, the analysis demonstrates that control does not guarantee success in solving a problem: students can use one or many components of control without getting the right answer, perhaps even give up on the problem. We also observe that the presence of certain variables in the situational problems influences the students’ mobilization of control components. Finally, the analysis brought to light two roles that are inherent to control and have an impact on decision-making as well: the role of a control that is internal to the student, and the role of a control that is external to the student. The former, internal control, conveys the deliberate involvement of the student in the problem, while the latter, external control, emphasizes the importance of beliefs and academic expectations in the students’ decisions when solving problems. From a theoretical perspective, this thesis broadens our understanding of the notion of control in mathematics, specifically in the decisions that are made when solving problems. It illustrates the importance of control by, amongst other things, the enrichment of the previously suggested frameworks and by the identification of three types of control. From a methodological perspective, it provides a grid to analyze control when solving mathematical problems. From a practical perspective, this research comes to the conclusion that control mobilization in mathematical problems solving is a central issue that must be considered when teaching and learning to solve mathematical problems, notably by considering the existence of a control that negatively restricts the student’s mathematical activity and by the importance of the development of control tools by the students. These issues deserve the attention of the research and mathematics teaching communities.Key words: mathematical problems solving, decision-making, control, elementary school, proportionality.
394

Les effets d'un programme créatif de problémation sur la capacité d'idéation d'infirmières psychiatriques

Lazure, Hélène 25 April 2018 (has links)
Les effets d'un sentiment d'échec éprouvé par les infirmières psychiatriques dans leur travail font douter de l'efficacité, dans ce domaine, de l'application intégrale de la méthode de résolution de problèmes utilisée de façon générale en soins infirmiers. Pour les infirmières psychiatriques, le fait de développer les habiletés spécifiques à la phase d'identification des problèmes pourrait constituer une façon différente et efficace d'augmenter leurs habiletés créatrices dans la résolution des problèmes auxquels elles sont confrontées quotidiennement. Pour aider les infirmières psychiatriques à utiliser l'identification même des problèmes comme un instrument pouvant les aider à augmenter quantitativement et qualitativement leurs solutions à ces problèmes, un programme créatif a été mis en oeuvre. Le but de cette recherche est précisément de savoir s'il y a une relation entre ce programme créatif de problémation et la capacité d'idéation des infirmières psychiatriques en ce qui a trait à la fluidité, la flexibilité et l'originalité des solutions. La connaissance d'une telle relation pourrait constituer une réponse à la problématique de cette recherche. / Québec Université Laval, Bibliothèque 2014
395

Impacts des étapes de pré-traitement des données de diffusion sur la tractographie - Imagerie de diffusion

Boré, Arnaud January 2012 (has links)
Ce mémoire présente l'ensemble des étapes de pré-traitement appliquées aux images provenant de l'imagerie par résonance magnétique de diffusion afin de conseiller les meilleurs paramètres dans une étude de tractographie. L'imagerie de diffusion nous donne l'information locale des déplacements moyens des molécules d'eau dans le cerveau. Cette information nous permet d'inférer l'architecture de la matière blanche. La reconstruction du signal de diffusion fait appel à différentes méthodes plus ou moins aptes à restituer la complexité des configurations de fibres. Dans ce mémoire, nous proposons une nouvelle méthode de reconstruction du phénomène de diffusion basée sur la décomposition en ondelettes sphériques. Ensuite, en combinant ces informations à tous les points du cerveau nous reconstruisons le réseau de fibres de la matière blanche par un algorithme de tractographie déterministe. Afin d'initier cet algorithme, nous proposons une nouvelle méthode d'initialisation dans le but de mieux gérer la complexité des configurations de fibres au sein d'un seul voxel. Les fibres reconstruites sont très difficiles à évaluer dans le cerveau car nous ne connaissons pas la configuration réelle des fibres. Pour être en mesure d'évaluer nos méthodes de reconstruction, nous utilisons un fantôme calquant la complexité des configurations de fibres trouvées dans le cerveau. Dans ce mémoire, nous proposons un ensemble de métriques et un système de notations permettant d'évaluer automatiquement la qualité des résultats d'une tractographie. Nous concluons l'étude concernant les données synthétiques par un ensemble de conseils sur les paramètres à utiliser afin d'obtenir des résultats de tractographie optimaux. Finalement, nous évaluons qualitativement les résultats de tractographie issus de données réelles afin de confirmer nos choix sur les données fantômes.
396

Geometric characterization and simulation of cell-mediated resorption for porous bone substitutes using micro computed tomography and advanced fuzzy method / Caractérisation géométrique par la logique floue et simulation de la résorption cellulairement assistée de substituts poreux pour tissus osseux par microtomographie à rayons X

Bashoor Zadeh, Mahdieh January 2011 (has links)
The objective of this thesis is to provide an improved characterization of porous scaffolds. A more focused objective is to provide a computational model simulating the cell mediated resorption process of resorbable bone substitutes. The thesis is structured in three scientific manuscripts. The first manuscript used fuzzy-based image treatment methods to analyse images generated by micro-computed tomography. From the literature, it is known that the fuzzy-based method helps to improve the accuracy of the characterization, in particular for scaffolds featuring a relatively small pore size. In addition, a new algorithm was introduced to determine both pore and interconnection sizes. The surface area of bone substitutes was quantified by using marching cube algorithm. Besides, the so-called Lattice Boltzmann method was used to characterize the permeability of the investigated scaffolds. Scaffolds made of [béta]-tricalcium phosphate ([béta]-Ca[subscript 3](PO[subscript 4])[subscript 2]) and presenting a constant porosity and four variable pore sizes were examined. The average pore size (diameter) of the four bone substitute groups (denominated with a letter from group A to D) was measured to be 170.3«1.7, 217.3«5.2, 415.8«18.8 and 972.3«10.9 [micro]m. Despite this significant change in pore size, the pore interconnection size only increased slightly, in the range of 61.7 to 85.2 [micro]m. The average porosity of the four groups was 52.3«1.5 %. The surface density of scaffolds decreased from 11.5 to 3.3 mm[superscript -1], when the pore size increased. The results revealed that the permeability of scaffolds is in the same order of magnitude and increased from 1.1?10[superscript -10] to 4.1?10[superscript -10] m[superscript 2] with increasing the pore size. The second manuscript was devoted to the use of subvoxelization algorithm and high-resolution scanner, in an attempt to further improve the accuracy of the results, in particular, of the small pore scaffolds. As expected, an increase of the image resolution from 15 to 7.5 [micro]m significantly eased the segmentation process and hence improved scaffold characterization. Subvoxelization also improved the results specifically in terms of interconnection sizes. Specifically, much smaller interconnection sizes were yielded after applying the subvoxelization process. For example, the mean interconnection size of small pore size groups, group A and B, dropped from 63 to 20 and 30 [micro]m, respectively. Furthermore, due to more details obtained from subvoxelization and high-resolution scanning, additional effects so called"boundary effects" were observed. The boundary effects can yield misleading results in terms of interconnection sizes. The means to reduce these effects were proposed. The third manuscript focused on the simulation and understanding of cell mediated resorption of bone graft substitutes. A computer model was developed to simulate the resorption process of four bone substitute groups. [mu]CT data and new"image processing" tools such as labelling and skeletonization were combined in an algorithm to perform the steps of resorption simulation algorithm. The proposed algorithm was verified by comparing simulation results with the analytical results of a simple geometry and biological in vivo data of bone substitutes. A correlation coefficient between the simulation results and both analytical and experimental data, was found to be larger than 0.9. Local resorption process revealed faster resorption in external region specifically at earlier resorption time. This finding is in agreement with the in vivo results. Two definitions were introduced to estimate the resorption rate; volume resorption rate and linear resorption rate. The volume resorption rate was proportional to accessible surface and decreased when the pore size increased, while the linear resorption rate was proportional to thickness of material and increased with increasing the pore size. In addition, the simulation results revealed no effect of resorption direction on resorption behaviour of substitutes. However, the resorption rate of small pore size samples was decreased with increasing the minimum interconnection size required for cell ingrowth, to 100 [micro]m. This thesis combined novel"image processing" tools and subvoxelization method to improve the characterization of porous bone substitutes used in the bone repair process. The improved characterization allowed a more accurate simulation process. The simulation data were consistent with previously obtained biological data of the same group and allows understanding the local resorption process. The available tools and results are expected to help with the design of optimal substitute for bone repair."--Résumé abrégé par UMI.
397

Interpolation temporelle des images avec estimation de mouvement raffinée basée pixel et réduction de l'effet de halo

Tran, Thi Thuy Ha January 2010 (has links)
Dans le présent travail, après un résumé de l'état de l'art, une nouvelle interpolation temporelle des images avec réduction de halo est proposée. D'abord, pour la télévision de définition standard, une estimation de mouvement dont la résolution est le pixel, est suggérée. L'estimation se fait par l'appariement des blocs, et est suivie par un raffinement basé pixel en considérant des vecteurs de mouvement environnant. La réduction de halo se faisant à l'aide d'une fenêtre glissante de forme adaptative ne recourt pas à une détection explicite des régions d'occlusion. Ensuite, pour la télévision à haute définition, dans le but de réduire la complexité, l'estimation de mouvement de résolution pixel ainsi que la réduction de halo sont généralisées dans le contexte d'une décomposition hiérarchique. L'interpolation finale proposée est générique et est fonction à la fois de la position de l'image et de la fiabilité de l'estimation. Plusieurs . post-traitements pour améliorer la qualité de l'image sont aussi suggérés. L'algorithme proposé intégré dans un ASIC selon la technologie de circuit intégré contemporain fonctionne en temps réel.
398

Conception, caractérisation et optimisation de SPAD en technologie Dalsa HV CMOS 0.8 μm pour intégration dans un 3D-SiPM

Parent, Samuel January 2016 (has links)
Résumé : Les photodiodes à avalanche monophotonique (SPAD) sont d'intérêts pour les applications requérant la détection de photons uniques avec une grande résolution temporelle, comme en physique des hautes énergies et en imagerie médicale. En fait, les matrices de SPAD, souvent appelés photomultiplicateurs sur silicium (SiPM), remplacent graduellement les tubes photomultiplicateurs (PMT) et les photodiodes à avalanche (APD). De plus, il y a une tendance à utiliser les matrices de SPAD en technologie CMOS afin d'obtenir des pixels intelligents optimisés pour la résolution temporelle. La fabrication de SPAD en technologie CMOS commerciale apporte plusieurs avantages par rapport aux procédés optoélectroniques comme le faible coût, la capacité de production, l'intégration d'électronique et la miniaturisation des systèmes. Cependant, le défaut principal du CMOS est le manque de flexibilité de conception au niveau de l'architecture du SPAD, causé par le caractère fixe et standardisé des étapes de fabrication en technologie CMOS. Un autre inconvénient des matrices de SPAD CMOS est la perte de surface photosensible amenée par la présence de circuits CMOS. Ce document présente la conception, la caractérisation et l'optimisation de SPAD fabriqués dans une technologie CMOS commerciale (Teledyne DALSA 0.8µm HV CMOS - TDSI CMOSP8G). Des modifications de procédé sur mesure ont été introduites en collaboration avec l'entreprise CMOS pour optimiser les SPAD tout en gardant la compatibilité CMOS. Les matrices de SPAD produites sont dédiées à être intégrées en 3D avec de l'électronique CMOS économique (TDSI) ou avec de l'électronique CMOS submicronique avancée, produisant ainsi un SiPM 3D numérique. Ce SiPM 3D innovateur vise à remplacer les PMT, les APD et les SiPM commerciaux dans les applications à haute résolution temporelle. L'objectif principal du groupe de recherche est de développer un SiPM 3D avec une résolution temporelle de 10 ps pour usage en physique des hautes énergies et en imagerie médicale. Ces applications demandent des procédés fiables avec une capacité de production certifiée, ce qui justifie la volonté de produire le SiPM 3D avec des technologies CMOS commerciales. Ce mémoire étudie la conception, la caractérisation et l'optimisation de SPAD fabriqués en technologie TDSI-CMOSP8G. / Abstract : Single Photon Avalanche Diodes (SPAD) generate much interest in applications which require single photon detection and excellent timing resolution, such as high energy physics and medical imaging. In fact, SPAD arrays such as Silicon PhotoMultipliers (SiPM) are gradually replacing PhotoMultiplier Tubes (PMT) and Avalanche PhotoDiodes (APD). There is now a trend moving towards SPAD arrays in CMOS technologies with smart pixels control for high timing demanding applications. Making SPAD in commercial CMOS technologies provides several advantages over optoelectronic processes such as lower costs, higher production capabilities, easier electronics integration and system miniaturization. However, the major drawback is the lack of flexibility when designing the SPAD architecture because all fabrication steps are fixed by the CMOS technology used. Another drawback of CMOS SPAD arrays is the loss of photosensitive areas caused by the CMOS circuits integration. This document presents SPAD design, characterization and optimization made in a commercial CMOS technology (Teledyne DALSA 0.8 µm HV CMOS - TDSI CMOSP8G). Custom process variations have been performed in partnership with the CMOS foundry to optimize the SPAD while keeping the CMOS line compatibility. The realized SPAD and SPAD arrays are dedicated to 3D integration with either low-cost TDSI CMOS electronics or advanced deep sub-micron CMOS electronics to perform a 3D digital SiPM (3D-SiPM). The novel 3D-SiPM is intended to replace PMT, APD and commercially available SiPM in timing demanding applications. The group main objective is to develop a 10 ps timing resolution 3D-SiPM for use in high energy physics and medical imaging applications. Those applications require reliable technologies with a certified production capability, which justifies the actual effort to use commercial CMOS line to develop our 3D-SiPM. This dissertation focuses on SPAD design, characterization and optimization made in the TDSI-CMOSP8G technology.
399

Caractérisation des aérosols atmosphériques en milieu urbain par télédétection à très haute résolution spatiale

Thomas, Colin 11 January 2010 (has links) (PDF)
La réalisation de nouveaux instruments de télédétection à très haute résolution spatiale offre la possibilité d'étudier plus précisément les villes. Pour ces études, la connaissance de l'atmosphère et plus particulièrement des aérosols peut s'avérer essentielle. Le but de cette thèse est donc de développer une méthode de caractérisation des aérosols adaptée aux images de télédétection des milieux urbains à l'échelle métrique dans les domaines visible et proche-infrarouge. Dans un premier temps, les propriétés optiques de ces particules ont été étudiées en utilisant les données fournies par 68 stations urbaines du réseau AERONET. Ensuite, afin de pouvoir évaluer l'impact des aérosols présents dans les villes sur le signal, un code de transfert radiatif 3D a été réalisé : AMARTIS v2. L'utilisation de cet outil pour une scène urbaine typique a permis de quantifier l'impact des particules sur le signal, à l'ombre et au soleil, en fonction de leurs propriétés optiques. Enfin, une méthode de télédétection des aérosols a été définie, basée sur l'observation de transitions ombre/soleil. Afin de mettre en oeuvre cette méthode, un code d'inversion a été développé : OSIS. Une étude de sensibilité d'OSIS a alors été menée à partir d'images synthétiques générées avec AMARTIS v2 et une utilisation expérimentale a été effectuée sur des acquisitions PELICAN obtenues lors de la campagne aéroportée MUSARDE sur la ville de Toulouse. Ces études ont notamment permis de quantifier la précision intrinsèque d'OSIS, comparable aux précisions obtenues avec les produits satellitaires pour l'inversion des épaisseurs optiques, et de montrer que cette procédure est applicable à tout instrument à très haute résolution spatiale, multispectral ou hyperspectral, aéroporté ou satellitaire.
400

Etude et réalisation d'une caméra thermique destinée à un système d'optique adaptative : application à l'étude de la matière circumstellaire autour d'étoiles binaires pré-séquence principale

Geoffray, Hervé 16 October 1998 (has links) (PDF)
Ce travail de thèse concerne le suivi d'une caméra infrarouge sensible dans la gamme 1-5 p.m (COMIC), depuis la caractérisation en laboratoire de la mosaïque de détecteurs, jusqu'à son utilisation dans le cadre d'observations astronomiques, sur le système d'Optique Adaptative ADONIS au télescope de 3.60 m de l'Observatoire Européen Austral (ESO), au Chili. Ce manuscrit comporte trois parties qui suivent l'enchainement chronologique "naturel" de l'étude, dans des lieux de travail différents. La première partie concerne la mosaïque de détecteurs COMIC (IRCCD 128X128 HgCdTe), en commençant par sa caractérisation en laboratoire, pour finir par sa mise en opération sous télescope, au sein de la caméra COMIC. Elle s'est d'abord déroulée au sein du Laboratoire Infrarouge (LETI/DOPT/CEA-Grenoble), puis à l'ESO, au Chili. La deuxième partie traite des spécificités de l'observation infrarouge avec un instrument d'Optique Adaptative. Cette partie est le résultat de l'expérience acquise au cours d'un long séjour à l'ESO. Elle unit le point de vue technique de la première partie à celui de l'astronome utilisateur. Enfin, une illustration du potentiel de l'instrument (COMIC+ADONIS) est donnée en troisième partie dans le cadre d'un programme astronomique bien défini: l'étude de la matière circumstellaire dans des systèmes binaires pré-Séquence Principale. Cette dernière étude a été menée à l'Observatoire de Grenoble.

Page generated in 0.0849 seconds