• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 36
  • 10
  • Tagged with
  • 128
  • 128
  • 74
  • 68
  • 34
  • 32
  • 27
  • 27
  • 21
  • 18
  • 16
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Conception de métaheuristiques d'optimisation pour la segmentation d'images : application aux images IRM du cerveau et aux images de tomographie par émission de positons / Metaheuristics optimisation for image segmentation : application to brain MRI images and positron emission tomography images

Benaichouche, Ahmed Nasreddine 10 December 2014 (has links)
La segmentation d'image est le processus de partitionnement d'une image numérique en régions, non chevauchées, homogènes vis-à-vis de certaines caractéristiques, telles que le niveau de gris, la texture, le mouvement, etc. Elle a des applications dans plusieurs domaines comme l'imagerie médicale, la détection d'objets, la biométrie, l'imagerie par satellite, la navigation de robot, la vidéosurveillance, etc. Le processus de segmentation représente une étape cruciale dans les systèmes de vision par ordinateur, car les caractéristiques et décisions sont extraites et prises à partir de son résultat. Les premiers algorithmes de segmentation d'image ont vu le jour dans les années 1970. Depuis, de nombreuses techniques et méthodes de segmentation ont été expérimentées pour essayer d'améliorer les résultats. Néanmoins, jusqu'à nos jours, aucun algorithme de segmentation d'image n'arrive à fournir des résultats parfaits sur une large variété d'images. Les "métaheuristiques" sont des procédures conçues pour résoudre des problèmes d'optimisation dits difficiles. Ce sont en général des problèmes aux données incomplètes, incertaines, bruitées ou confrontés à une capacité de calcul limitée. Les métaheuristiques ont connu un succès dans une large variété de domaines. Cela découle du fait qu'elles peuvent être appliquées à tout problème pouvant être exprimé sous la forme d'un problème d'optimisation de critère(s). Ces méthodes sont, pour la plupart, inspirées de la physique (recuit simulé), de la biologie (algorithmes évolutionnaires) ou de l'éthologie (essaims particulaires, colonies de fourmis).Ces dernières années, l'introduction des métaheuristiques dans le domaine du traitement d'images a permis d'étudier la segmentation sous un angle différent, avec des résultats plus ou moins réussis. Dans le but d'apporter notre contribution et d'améliorer davantage les performances des méthodes de segmentation, nous avons proposé des algorithmes basés régions, contours et hybrides, mettant en œuvre des métaheuristiques d'optimisation dans des approches mono et multiobjectif. Les méthodes proposées ont été évaluées sur des bases de données expérimentales composées d'images synthétiques, d'images IRM simulées et d'images IRM réelles ainsi que des images de tomographie par émission de positons (TEP). Les résultats obtenus sont significatifs et prouvent l'efficacité des idées proposées / Image segmentation is the process of partitioning a digital image into homogeneous non-overlapped regions with respect to some characteristics, such as gray value, motion, texture, etc. It is used in various applications like medical imaging, objects detection, biometric system, remote sensing, robot navigation, video surveillance, etc. The success of the machine vision system depends heavily on its performance, because characteristics and decisions are extracted and taken from its result. The first image segmentation algorithms were introduced in the 70's. Since then, various techniques and methods were experimented to improve the results. Nevertheless, up till now, no method produces a perfect result for a wide variety of images. Metaheuristics are a high level procedure designed to solve hard optimization problems. These problems are in general characterized by their incomplete, uncertain or noised data, or faced to low computing capacity. Metaheuristics have been extremely successful in a wide variety of fields and demonstrate significant results. This is due to the fact that they can applied to solve any problem which can be formulated as an optimization problem. These methods are, mainly, inspired from physics (simulated annealing), biology (evolutionary algorithms), or ethology (particle swarm optimization, ant colony optimization).In recent years, metaheuristics are starting to be exploited to solve segmentation problems with varying degrees of success and allow to consider the problem with different perspectives. Bearing this in mind, we propose in this work three segmentation and post-segmentation approaches based on mono or multiobjective optimization metaheuristics. The proposed methods were evaluated on databases containing synthetic images, simulated MRI images, real MRI images and PET images. The obtained results show the efficiency of the proposed ideas
32

Imagerie SPR optimisée en résolution pour l'étude et la détection de bactéries / Resolution optimized SPR imaging for the study and detection of bacteria

Boulade, Marine 18 April 2019 (has links)
L’étude, la détection et l’identification de pathogènes est une problématique majeure pour la sécurité alimentaire et la médecine. Cependant, les pathogènes bactériens présents à de faibles concentrations nécessitent souvent une période de plus de 36h pour être identifiés par les méthodes standards. Ce délai est extrêmement contraignant pour des domaines où la rapidité du diagnostic est un facteur clé. Il y a donc une forte demande pour le développement d’outils pour mieux comprendre le comportement bactérien et ainsi développer des techniques de détection plus rapides et plus performantes.Les systèmes d’imagerie SPR sont largement utilisés pour l’analyse d’interactions moléculaires, car ils permettent une mesure en parallèle, en temps réel et sans marquage, tout en étant faciles d’utilisation et compatibles avec des milieux complexes. Cette technique a montré son efficacité pour l'étude et la détection de bactéries en utilisant les interactions moléculaires avec les anticorps, mais les délais de détection restent pénalisants.Dans ce contexte, un nouveau système d’imagerie permettant l’étude et la détection spécifique de pathogènes bactériens performant est développé en mettant à profit les avancées récentes en imagerie SPR optimisée en résolution. Notre système permet d'améliorer les temps de détection de pathogènes en milieux modèles grâce à sa capacité à détecter des bactéries individuelles. Il peut également être utilisé pour l'étude de l'interaction entre bactéries et surfaces spécifiques. Des premiers tests montrent que notre instrument est capable de caractériser le comportement bactérien de plusieurs souches bactériennes en interaction avec des surfaces fonctionnalisées par des espèces chimiques différentes / The study, detection and identification of pathogens is a major issue for food safety and medicine. However, bacterial pathogens present at low concentrations often require a period of more than 36 hours to be identified by standard methods. This delay is extremely constraining for areas where rapid diagnosis is a key factor. There is therefore a strong demand for the development of tools to better understand bacterial behavior and thus develop faster and more efficient detection techniques.SPR imaging systems are widely used for the analysis of molecular interactions, as they allow parallel, real-time and unlabeled measurement, while being easy to use and compatible with complex media. This technique has proven effective in the study and detection of bacteria using molecular interactions with antibodies, but detection times remain penalizing.In this context, a new imaging system allowing the study and specific detection of high-performance bacterial pathogens is being developed, taking advantage of recent advances in SPR imaging optimized in resolution. Our system improves pathogen detection times in model environments through its ability to detect individual bacteria. It can also be used to study the interaction between bacteria and specific surfaces. Initial tests show that our instrument is capable of characterizing the bacterial behaviour of several bacterial strains in interaction with surfaces functionalized by different chemical species.
33

How large spheres spin and move in turbulent flows

Zimmermann, Robert 13 July 2012 (has links) (PDF)
Le but de ce travail de thèse est l'étude de la dynamique de sphères de grande taille dans un écoulement fortement turbulent. Pour ce faire, nous avons développé une nouvelle technique optique permettant de suivre la dynamique à 6 dimensions - position et orientation absolues - de plusieurs particules dans un écoulement complexe. Bien que la taille des particules soit comparable à l'échelle intégrale de l'écoulement, nous trouvons que sa dynamique de rotation et de translation est intermittente. De plus, nous observons que la translation et la rotation sont reliées par la force de Magnus. La répartition statistique de l'accélération n'est pas gaussienne et l'échange d'énergie avec le fluide est gouverné par la théorie mathématique des grandes déviations. Nous trouvons que le diamètre influence fortement la manière dont la particule explore l'écoulement. Nous avons ensuite appliqué le suivi de position et d'orientation à une particule instrumentée. Ce système mesure en permanence l'accélération lagrangienne qu'il subit via un accéléromètre embarqué et émet l'information à travers une électronique radio fréquence. L'orientation absolue est nécessaire pour exprimer les signaux de l'accéléromètre et ceux du suivi optique dans un repère commun; cela nous permet de comparer rigoureusement les mesures issues de ces deux techniques indépendantes. À partir de ces résultats nous avons développé des méthodes pour inférer des propriétés de l'écoulement à partir des signaux d'accélération de la particule instrumentée.
34

Sparse coding for machine learning, image processing and computer vision / Représentations parcimonieuses en apprentissage statistique, traitement d’image et vision par ordinateur

Mairal, Julien 30 November 2010 (has links)
Nous étudions dans cette thèse une représentation particulière de signaux fondée sur une méthode d’apprentissage statistique, qui consiste à modéliser des données comme combinaisons linéaires de quelques éléments d’un dictionnaire appris. Ceci peut être vu comme une extension du cadre classique des ondelettes, dont le but est de construire de tels dictionnaires (souvent des bases orthonormales) qui sont adaptés aux signaux naturels. Un succès important de cette approche a été sa capacité à modéliser des imagettes, et la performance des méthodes de débruitage d’images fondées sur elle. Nous traitons plusieurs questions ouvertes, qui sont reliées à ce cadre : Comment apprendre efficacement un dictionnaire ? Comment enrichir ce modèle en ajoutant une structure sous-jacente au dictionnaire ? Est-il possible d’améliorer les méthodes actuelles de traitement d’image fondées sur cette approche ? Comment doit-on apprendre le dictionnaire lorsque celui-ci est utilisé pour une tâche autre que la reconstruction de signaux ? Y a-t-il des applications intéressantes de cette méthode en vision par ordinateur ? Nous répondons à ces questions, avec un point de vue multidisciplinaire, en empruntant des outils d’apprentissage statistique, d’optimisation convexe et stochastique, de traitement des signaux et des images, de vison par ordinateur, mais aussi d'optimisation sur des graphes. / We study in this thesis a particular machine learning approach to represent signals that that consists of modelling data as linear combinations of a few elements from a learned dictionary. It can be viewed as an extension of the classical wavelet framework, whose goal is to design such dictionaries (often orthonormal basis) that are adapted to natural signals. An important success of dictionary learning methods has been their ability to model natural image patches and the performance of image denoising algorithms that it has yielded. We address several open questions related to this framework: How to efficiently optimize the dictionary? How can the model be enriched by adding a structure to the dictionary? Can current image processing tools based on this method be further improved? How should one learn the dictionary when it is used for a different task than signal reconstruction? How can it be used for solving computer vision problems? We answer these questions with a multidisciplinarity approach, using tools from statistical machine learning, convex and stochastic optimization, image and signal processing, computer vision, but also optimization on graphs.
35

Formal models of visual perception based on cortical architectures / Modèles formels de la perception visuelle basés sur des architectures corticales

Favali, Marta 18 April 2017 (has links)
L’objectif de cette thèse est de développer des modèles mathématiques de perception visuelle basés sur des architectures corticales et de les appliquer pour reproduire des expériences phénoménologiques ainsi que pour traiter des images naturelles. Nous nous concentrons sur les tâches de vision de bas niveau et nous sommes intéressés par le problème du groupement et de l’individuation des unités perceptives. Nous ferons face au problème de la reconstruction des figures illusoires et de la détection des vaisseaux rétiniens dans les images optiques. Ensuite, nous considérerons le problème du codage et du décodage de l’activité cérébrale du cortex visuel obtenue par Imagerie par Résonance Magnétique fonctionnelle (IRMf). Ceci permet d’estimer la structure du cortex d’un patient spécifique et éventuellement de reconstruire le stimulus visuel de l’activité IRMf, dans une stratégie “de lecture du cerveau”. La distinction entre notre approche et l’état de la littérature consiste à utiliser des modèles neuromathématiques du cortex comme connaissance a priori pour régulariser la structure estimée. Même si c’est un objectif à long terme, nous proposons une première approche pour améliorer les résultats dans ce domaine. L’ensemble du travail de cette thèse a été développé en tenant compte des résultats de la phénoménologie de la perception et des résultats de la neurophysiologie. Dans le domaine de la phénoménologie de la perception, au début du siècle dernier, la théorie de la psychologie de la Gestalt a défini l’intégration des contours et en particulier Wertheimer [1938], Kohler [1947], Kofka [1935] ont défini le regroupement des lois de perception. Celles-ci sont cruciales dans la construction d’objets visuels : les éléments avec des caractéristiques en commun peuvent être regroupés pour former un nouvel objet visuel plus grand. Des expériences psychophysiques ont été proposées pour mesurer les paramètres quantitatifs de ces lois. Un intérêt particulier de cette thèse est le concept de champ d’association introduit par Field et al. [1993] lequel code différents principes de la Gestalt (dont la bonne continuation et la proximité).Ces auteurs ont montré que la co-linéarité de stimulus et la co-circularité jouent un rôle important dans la caractéristique du groupement. Leur étude a montré comment les chances de percevoir un chemin curviligne étaient élevées si l’orientation de ses éléments était tangente à ce chemin. D’autre part, en neurophysiologie, une grande quantité d’expériences confirment que le problème du groupement et de détection des contours est effectué par le cortex visuel primaire (V1) [Hubel, 1995]. Un cadre mathématique, basé sur les instruments différentiels, a été introduit pour formaliser ces résultats. Les premiers modèles géométriques sont dus à Koenderink and van Doorn... / The objective of this thesis is to develop mathematical models of visual perception based on cortical architectures and to apply them to reproduce phenomenological experiments and to process natural images. We primarly focus on low level vision tasks and in particular we are interested in the problem of grouping and of individuation of perceptual units. In this setting we will face the problem of the reconstruction of illusory figures and the detection of retinal vessels in optical images. Then we consider the problem of encoding and decoding of the fMRI signal from in vivo acquired brain activity of visual cortex. This allows to estimate the structure of the cortex of a specific human patient and eventually to reconstruct the visual stimulus from fMRI activity, in a so called “brain reading” strategy. The difference between our approach and the state of the art literature consists in using previously defined neuromathematical models of the cortices as a-priori knowledge to regularise in vivo estimated structure. Even if it is a long term objective, we propose a first approach to improve the results in this field. The entire work of this thesis has been developed taking into account results from phenomenology of perception and results of neurophysiology.In the field of the phenomenology of perception, at the beginning of the last century, the theory of the Gestalt psychology [Wertheimer, 1938, Kohler, 1947, Kofka, 1935] defined the integration of contours and in particular they defined grouping laws underlying perception. These are crucial in the construction of visual objects: points with characteristics in common can be grouped together to form a new visual object. Many psychophysical experiments have been proposed to measure the quantitative parameters of these laws. A particular interest of this thesis is the concept of association fields introduced by Field et al. [1993] which encodes different Gestalt principles (as good continuation, proximity). They showed that stimulus co-linearity and co-circularity play an important role for the feature of grouping. Their study showed how chances of perceiving the curvilinear path were high if the orientation of its features was the one tangent at that point and collapsed as their relative orientation deviated from being tangent...
36

Automatic detection of visual cues associated to depression / Détection automatique des repères visuels associés à la dépression

Pampouchidou, Anastasia 08 November 2018 (has links)
La dépression est le trouble de l'humeur le plus répandu dans le monde avec des répercussions sur le bien-être personnel, familial et sociétal. La détection précoce et précise des signes liés à la dépression pourrait présenter de nombreux avantages pour les cliniciens et les personnes touchées. Le présent travail visait à développer et à tester cliniquement une méthodologie capable de détecter les signes visuels de la dépression afin d’aider les cliniciens dans leur décision.Plusieurs pipelines d’analyse ont été mis en œuvre, axés sur les algorithmes de représentation du mouvement, via des changements de textures ou des évolutions de points caractéristiques du visage, avec des algorithmes basés sur les motifs binaires locaux et leurs variantes incluant ainsi la dimension temporelle (Local Curvelet Binary Patterns-Three Orthogonal Planes (LCBP-TOP), Local Curvelet Binary Patterns- Pairwise Orthogonal Planes (LCBP-POP), Landmark Motion History Images (LMHI), and Gabor Motion History Image (GMHI)). Ces méthodes de représentation ont été combinées avec différents algorithmes d'extraction de caractéristiques basés sur l'apparence, à savoir les modèles binaires locaux (LBP), l'histogramme des gradients orientés (HOG), la quantification de phase locale (LPQ) et les caractéristiques visuelles obtenues après transfert de modèle issu des apprentissage profonds (VGG). Les méthodes proposées ont été testées sur deux ensembles de données de référence, AVEC et le Wizard of Oz (DAICWOZ), enregistrés à partir d'individus non diagnostiqués et annotés à l'aide d'instruments d'évaluation de la dépression. Un nouvel ensemble de données a également été développé pour inclure les patients présentant un diagnostic clinique de dépression (n = 20) ainsi que les volontaires sains (n = 45).Deux types différents d'évaluation de la dépression ont été testés sur les ensembles de données disponibles, catégorique (classification) et continue (régression). Le MHI avec VGG pour l'ensemble de données de référence AVEC'14 a surpassé l'état de l’art avec un F1-Score de 87,4% pour l'évaluation catégorielle binaire. Pour l'évaluation continue des symptômes de dépression « autodéclarés », LMHI combinée aux caractéristiques issues des HOG et à celles issues du modèle VGG ont conduit à des résultats comparatifs aux meilleures techniques de l’état de l’art sur le jeu de données AVEC'14 et sur notre ensemble de données, avec une erreur quadratique moyenne (RMSE) et une erreur absolue moyenne (MAE) de 10,59 / 7,46 et 10,15 / 8,48 respectivement. La meilleure performance de la méthodologie proposée a été obtenue dans la prédiction des symptômes d'anxiété auto-déclarés sur notre ensemble de données, avec une RMSE/MAE de 9,94 / 7,88.Les résultats sont discutés en relation avec les limitations cliniques et techniques et des améliorations potentielles pour des travaux futurs sont proposées. / Depression is the most prevalent mood disorder worldwide having a significant impact on well-being and functionality, and important personal, family and societal effects. The early and accurate detection of signs related to depression could have many benefits for both clinicians and affected individuals. The present work aimed at developing and clinically testing a methodology able to detect visual signs of depression and support clinician decisions.Several analysis pipelines were implemented, focusing on motion representation algorithms, including Local Curvelet Binary Patterns-Three Orthogonal Planes (LCBP-TOP), Local Curvelet Binary Patterns- Pairwise Orthogonal Planes (LCBP-POP), Landmark Motion History Images (LMHI), and Gabor Motion History Image (GMHI). These motion representation methods were combined with different appearance-based feature extraction algorithms, namely Local Binary Patterns (LBP), Histogram of Oriented Gradients (HOG), Local Phase Quantization (LPQ), as well as Visual Graphic Geometry (VGG) features based on transfer learning from deep learning networks. The proposed methods were tested on two benchmark datasets, the AVEC and the Distress Analysis Interview Corpus - Wizard of Oz (DAICWOZ), which were recorded from non-diagnosed individuals and annotated based on self-report depression assessment instruments. A novel dataset was also developed to include patients with a clinical diagnosis of depression (n=20) as well as healthy volunteers (n=45).Two different types of depression assessment were tested on the available datasets, categorical (classification) and continuous (regression). The MHI with VGG for the AVEC’14 benchmark dataset outperformed the state-of-the-art with 87.4% F1-Score for binary categorical assessment. For continuous assessment of self-reported depression symptoms, MHI combined with HOG and VGG performed at state-of-the-art levels on both the AVEC’14 dataset and our dataset, with Root Mean Squared Error (RMSE) and Mean Absolute Error (MAE) of 10.59/7.46 and 10.15/8.48, respectively. The best performance of the proposed methodology was achieved in predicting self-reported anxiety symptoms in our dataset, with RMSE/MAE of 9.94/7.88.Results are discussed in relation to clinical and technical limitations and potential improvements in future work.
37

Routage pour la gestion de l'énergie dans les réseaux de capteurs sans fil / Routing protocols for energy management in wireless sensor networks

Yousef, Yaser 08 July 2010 (has links)
Avec l'émergence des nouvelles technologies, les communications sans fil n'ont cessé de croître afin de permettre aux utilisateurs un accès à l'information et aux services électroniques, et ceci indépendamment de leur position géographique. Les réseaux sans fil ont aussi trouvé leur place pour des applications spécifiques telles que les transmissions radio utilisées pour l'interconnexion de capteurs. Ce type de réseau peut être considéré comme un sous-ensemble des réseaux ad hoc. Des contraintes spécifiques s'appliquent alors aux utilisateurs de ces réseaux, telles que la difficulté d'accès pour la maintenance, les problèmes liés à la miniaturisation et au nombre élevé de capteurs. L'objectif de cette thèse est d'étudier les contraintes énergétiques liées à l'utilisation des batteries à capacité limitée pour l'alimentation des capteurs. Pour atteindre cet objectif, nous avons proposé de représenter les réseaux de capteurs à travers une image à échelle de gris : les zones claires correspondant aux zones riches en énergie, alors que les zones sombres représentent des régions avec une capacité énergétique faible. Des filtres issus du monde de traitement d'image sont alors appliqués à cette image représentant l'énergie. Ainsi, nous proposons des filtres de convolution de type Sobel ou de type filtre moyen pour nos algorithmes de routage et nous construisons une matrice énergétique pour chaque capteur. Cette matrice est alors utilisée avec le produit de convolution pour guider le routage. Les différents algorithmes proposés font ensuite l'objet de simulations avec le simulateur de réseaux OMNeT++. / With the emergence of new technologies, wireless communications have been developed in order to allow users an access to information and to electronic services, independently of their geographical position. Wireless networks have also been developed for specific applications such as radio transmissions used for interconnection of sensors. This type of network can be considered as a subset of ad hoc networks. On other side, this implies specific constraints on users, such as the problem of the access for maintenance, the problems of miniaturization, and the large number of sensors. The objective of this thesis is to focus on energy constraints related to the use of batteries with limited capacity for the supply of sensors. In our work, we propose routing algorithms to route information while controlling energy consumption. To achieve this goal, we have represented the sensor network as a grayscale image: light areas represent regions rich in energy, whereas dark areas represent regions with low energy capacity. Filters used in image processing are then applied to the image representing the energy. Thus, we propose convolution filters like Sobel or mean filter in our routing algorithms and we construct an energy matrix for each sensor. This matrix will be used with the convolution to find the best path. The proposed algorithms are verified by simulations performed with the network simulator OMNeT++.
38

Capteur d'humidité en Silicium poreux pour la fiabilité des Systems in package

Ludurczak, Willy 03 November 2008 (has links) (PDF)
La problématique de cette thèse est l'amélioration de la fiabilité des systèmes électroniques encapsulés, concernant l'herméticité et les perturbations causées par les infiltrations d'humidité. Le travail consiste en l'étude d'un capteur pour mesurer in situ le taux d'humidité dans les cavités des systèmes encapsulés. Comparativement aux actuelles techniques d'évaluation de l'herméticité, l'intérêt du dispositif réside dans la généralisation du test à chaque cavité, le contrôle de l'atmosphère de la cavité sur une longue période d'utilisation, et la correction automatique de la dérive occasionnée (packaging intelligent).<br />Deux structures en Si poreux (SP) ont été étudiées pour réaliser des capteurs, et ont d'abord été caractérisées d'un point de vue morphologique. Les deux couches ont la même porosité de 45 %. Les mesures de sorption d'azote appliquées aux théories BET et BJH ont montré que SP1 et SP2 présentaient respectivement des surfaces spécifiques de 330 et 223 m²/g, et des diamètres poreux moyens de 4,3 et 5.5 nm. Une nouvelle méthode de caractérisation basée sur le traitement d'image de surface de Si poreux est présentée. La méthode permet d'estimer les distributions de taille de pore, porosité, surface spécifique et fraction volumique d'oxyde. Elle est validée par la cohérence des résultats obtenus, comparés à ceux donnés par les théories de sorption. Outre le caractère complet de l'analyse, les avantages de cette méthode sont sa simplicité de mise en œuvre, sa non restriction à une gamme de taille de pores, et l'absence d'hypothèse mathématique sur l'estimation de la DTP.<br />Les tests électriques ont montré que SP1 présentait une résistance supérieure à SP2 et que le capteur basé sur SP1 présentait une plus grande sensibilité vis-à-vis de la prise d'humidité : -90 % entre 0 et 80 % d'humidité relative. La spécificité du transport électrique dans les structures étudiées a été mise en évidence expérimentalement, conduisant à l'hypothèse d'une barrière de potentiels à l'interface Si - Si poreux. La plus grande résistance présentée par SP1 a été explicitée par sa plus grande fraction volumique d'oxyde, ainsi que les effets plus prononcés de confinement quantique et de déplétion de surface.<br />L'utilité d'un capteur d'humidité in situ en Si poreux pour l'herméticité des systems in package a été démontrée par les résultats expérimentaux d'un prototype.
39

Architecture et validation comportementale en VHDL d'un calculateur parallèle dédié à la vision

Collette, Thierry 14 September 1992 (has links) (PDF)
Actuellement, l'accélération des opérations de traitement d'images est principalement obtenue par l'utilisation de calculateurs parallèles. De tels processeurs, a flot d'instructions unique et a flots de données multiples (simd), sont développés, mais s'ils s'avèrent efficaces pour les opérations de traitement d'images dites de bas niveau, ou la structure des données reste la même, ils se heurtent a de nombreux problèmes lorsqu'il s'agit des opérations de moyen et de haut niveau. Notamment lors des opérations de moyen niveau, une réorganisation aléatoire des données sur les processeurs doit être effectuée, tache difficilement exécutable sur les structures parallèles synchrones a mémoire distribuée. Le but de cette thèse était d'étendre les capacités d'un calculateur simd, afin qu'il puisse exécuter, efficacement, les opérations de traitement d'images de moyen niveau. L'étude des algorithmes représentatifs de cette classe d'opérations dégage les limites de ce calculateur que des modifications d'architecture permettent d'affranchir. C'est ainsi que Sympatix, le nouveau calculateur SIMD, a été proposé. Afin de le valider, son modèle comportemental décrit en VHDL langage de description de matériel a été élaboré. Grâce a ce modèle, les performances de la nouvelle structure sont ainsi directement mesurées, par simulations d'algorithmes de traitement d'images. L'approche par modélisation VHDL permet, de plus, d'effectuer la conception électronique descendante du système, ce qui, par ailleurs, offre un couplage aise entre les modifications architecturales du système et leur cout électronique. Les résultats obtenus montrent que Sympatix est adapte aux opérations de traitement d'images de bas et de moyen niveau, qu'il est ouvert a un calculateur de haut niveau, et qu'il est capable de supporter d'autres applications de vision. Ce manuscrit présente également, une méthodologie de conception descendante, basée sur le vhdl, et destinée aux architectes de systèmes électroniques
40

Vers un demonstrateur pour la détection autonome des objets à bord de Gaia

Mignot, Shan 10 January 2008 (has links) (PDF)
La mission Pierre Angulaire de l'ESA, Gaia, doit bâtir un catalogue d'étoiles limité seulement par leurs magnitudes. Ce milliard d'objets doit être détecté à bord pour pouvoir être observé et les exigences scientifiques et techniques font de ce problème un défi d'ingénierie. Nous avons élaboré un prototype pour estimer les performances accessibles et servir au dimensionnement de l'électronique à bord (TDA PDHE). Il s'appuie sur une séquence de quatre tâches: la calibration des données issues des CCDs, l'estimation du fond de ciel, l'identification des objets et, enfin, leur caractérisation pour commander les observations elles-mêmes. Bien qu'inspirée par des études antérieures (APM, Sextractor), cette approche a été intégralement révisée et adaptée aux spécificités de Gaia. Suite aux recommandations du TDA PDHE, une implémentation mixte est proposée qui traite les volumes de données importants et soumis aux contraintes de temps-réel ``dures'' avec de l'électronique dédiée (FPGA) et réalise les traitements complexes ou variables via du logiciel. Cette partition correspond aussi à subdiviser les opérations précédentes en un domaine pixel et un domaine objet. Notre démonstrateur montre que les attentes scientifiques sont satisfaites en termes de complétude, de précision et de robustesse à la diversité des configurations. Techniquement parlant, notre pipeline, optimisé quant à la surface et la consommation électrique, permet l'identification d'une technologie cible. Notre modèle n'a pas été retenu pour les phases industrielles de Gaia mais, outre son utilité avérée dans le projet, représente une R&D pour la génération de satellites à venir.

Page generated in 0.4773 seconds