• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 36
  • 10
  • Tagged with
  • 128
  • 128
  • 74
  • 68
  • 34
  • 32
  • 27
  • 27
  • 21
  • 18
  • 16
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Transfert sécurisé d'Images par combinaison de techniques de compression, cryptage et de marquage

Rodrigues, José Marconi 31 October 2006 (has links) (PDF)
Les réseaux numériques ont fortement évolué ces dernières années et sont devenus<br />inévitables pour la communication moderne. Les images transmises sur ces réseaux<br />sont des données particulières du fait de leur quantité importante d'information. La<br />transmission des images soulève donc un nombre important de problèmes qui ne sont pas<br />encore tous résolus. Nous citons, par exemple, la sécurité, la confidentialité, l'intégrité<br />et l'authenticité des images pendant leur transmission. Certaines applications médicales<br />exigent une association stricte entre l'image et des données contextuelles. La protection<br />des informations haute résolution (hautes fréquences des images, détails, visualisation<br />réglable) connaît actuellement une demande forte. Durant cette thèse, nos travaux de<br />recherche ont conduit à la création de trois nouvelles approches permettant de sécuriser<br />le transfert d'images. Les deux premières méthodes s'appuient sur des codages hybrides :<br />emploi conjoint de cryptage, insertion de données cachées et compression. La troisième<br />approche s'appuie sur le travail de Droogenbroeck et Benedett. Nous proposons un<br />cryptage sélectif pour protéger la transmission d'images. Il permet de crypter de manière<br />sélective l'image en protégeant les informations des détails tout en restant compatible<br />aux standards de compression d'images.
52

Etude microstructurelle du transport par charriage de mélanges bidisperses à forte pente

Hergault, Virginie 29 June 2011 (has links) (PDF)
Le transport par charriage reste un phénomène mal compris en raison notamment de la polydispersité des particules et de la ségrégation résultante. Nous avons mené une étude expérimentale à l'échelle de la particule dans le but de comparer le mouvement de billes de verre sphériques de 4~mm et 6~mm et d'analyser la ségrégation de mélanges de deux tailles. Les particules sont entraînées dans un mouvement quasi-bidimensionnel par un écoulement turbulent et supercritique dans un canal à forte pente sur un lit mobile sous des conditions d'équilibre de charriage. Les écoulements ont été filmés sur le côté et analysés par traitement d'image afin de déterminer les trajectoires des particules, leur état de mouvement (arrêt, roulement, saltation) et la hauteur d'eau. Alors que les billes de 6~mm des cas unimodaux sont principalement en roulement, la saltation est prédominante pour les billes de 4~mm et les billes du mélange. Nos données monodisperses supportent le modèle d'érosion-dépôt de cite{Char06}. Les profils de vitesse présentent trois zones (exponentielle, linéaire, logarithmique). De même que les profils de concentration, ils ont des similitudes avec les profils en charriage côtier et en écoulement granulaire sec. Nos expériences bidisperses ont révélé un phénomène de ségrégation assimilable au processus de "kinetic sieving".
53

Modèles déformables et Multirésolution pour la détection de contours en traitement d'images

El Omary, Youssef 24 October 1994 (has links) (PDF)
Les modèles déformables ou les contours actifs sont utilisés pour extraire les caractéristiques visuelles dans une image, en particulier les contours d'objets.<br />Notre propos dans cette thèse, est d'étudier ces modèles dans un environnement multirésolution.<br />Commençant par une étude des contours actifs à haute résolution, nous démontrons un théorème d'existence pour les contours actifs fermés et les contours actifs à extrémités libres. Nous présentons ensuite un nouveau modèle appelé la bulle déformable, qui a l'avantage d'avoir une représentation discrète, d'être relativement robuste au bruit et à la texture et d'agir par faibles déformations.<br />Ensuite nous étudions quelques techniques de multirésolution, en présentant les avantages et les inconvénients de chacune. A travers une proposition que nous avons montrée, nous établissons le lien entre la multirésolution et la notion de minimisation d'énergie.<br />Enfin, nous terminons par une proposition originale qui consiste à faire coopérer les contours actifs et la multirésolution. Cette coopération s'agrémente de plusieurs approches pour faire passer le contour du haut de la pyramide vers sa base. Elle associe entre autres une factorisation du modèle des contours actifs, d'une part selon une démarche de type membrane effectuée à basse résolution, et d'autre part selon une démarche de type plaque mince au travers des différentes résolutions supérieures permettant de réajuster le contour détecté jusqu'à la résolution initiale.
54

Image processing algorithms for the visualization of interventional devices in X-ray fluoroscopy / Algorithmes de traitement d'images pour la visualisation d'outils interventionnels dans des séquences de fluoroscopie par rayons X

Bismuth, Vincent 09 January 2012 (has links)
La pose de stent est l'option de traitement la plus courante de la maladie coronarienne, l'une des principales causes de mortalité dans le monde. Lors d'une procédure de pose de stent, le médecin insère des outils chirurgicaux dans le réseau vasculaire du patient. La progression de ces outils a l’intérieur du corps est suivie en temps réel sous uroscopie par rayons X. Trois outils, en particulier, jouent un rôle crucial dans la procédure : le guide, le ballon d'angioplastie et le stent. Le guide apparaît dans les images sous la forme d'une structure curviligne ne. Le ballon, monte sur le guide, est équipé de deux marqueurs radio-opaques à ses extrémités. Le stent est un maillage métallique qui se projette en une forme complexe dans les images uroscopiques. Le stent, dont le bon déploiement est essentiel au succès du geste médical, est souvent très difficilement visible dans les images. Les travaux présentés dans cette thèse poursuivent un double objectif. Il s'agit d'une part, de concevoir, d’étudier et de valider des techniques de traitement d'image visant à améliorer la visualisation des stents. D'autre part, nous étudions la traitement des structures curvilignes (comme les guides) pour lesquelles nous proposons un nouvel outil. Nous présentons des algorithmes de traitement d'image dédiés a la visualisation 2D et3D des stents. Nous sommes amenés, dans ce but, à détecter, suivre et recaler, de manière complètement automatique, les outils nécessaires a la pose de stent que sont le guide et le ballon. Le stent étant a peine visible dans les images, nous ne cherchons pas à le localiser directement à l'aide de techniques de traitement d'images. La position et le mouvement du stent sont déterminés par nos algorithmes […]. Nous avons évalué la performance des ces outils pour la visualisation des stents en 2D, sur une large base de près de 200 cas cliniques. Il en ressort que notre méthode surpasse les méthodes utilisées jusqu'ici sur le plan de la qualité image. La validation exhaustive que nous avons menée, confirme que nous avions atteint un niveau compatible avec son introduction commerciale. Le logiciel qui en résulte est désormais installé sur un grand nombre de sites cliniques, ou il est régulièrement utilisé. La méthode de visualisation 3D des stents que nous proposons utilise les marqueurs pour effectuer une reconstruction tomographique compensée en mouvement. Nous exposons des résultats préliminaires sur une base de 22 cas cliniques. Il semble que notre méthode surpasse les méthodes précédemment employées aussi bien du point de vue de la qualité d’image que de l'automatisation. Les méthodes de visualisation des stents que nous proposons s’appuient sur la segmentation de la portion du guide qui traverse le stent. Nous proposons un nouvel outil pour le traitement de telles structures curvilignes que nous appelons : l'Image de Chemins Polygonaux (acronyme PPI en anglais). Cet outil repose sur la notion de chemin localement optimal. L'un des principaux avantages du PPI est d’unir dans un même cadre différents concepts pré-existants. De plus, il permet de contrôler la régularité et la longueur des structures à traiter avec une paramétrisation simple et intuitive. Avant de tirer pleinement parti des performances du PPI nous proposons un schéma algorithmique efficace pour le calculer. Nous illustrons ces utilisation pour la segmentation automatique de guide où il surpasse les techniques existantes / Stent implantation is the most common treatment of coronary heart disease, one of the major causes of death worldwide. During a stenting procedure, the clinician inserts interventional devices inside the patient's vasculature. The navigation of the devices inside the patient's anatomy is monitored in real-time, under X-ray fluoroscopy. Three specific interventional devices play a key role in this procedure: the guide-wire, the angioplasty balloon and the stent. The guide-wire appears in the images as a thin curvilinear structure. The angioplasty balloon, that has two characteristic markerballs at its extremities, is mounted on the guide-wire. The stent is a 3D metallic mesh, whose appearance is complex in the fluoroscopic images. Stents are barely visible, but the proper assessment of their deployment is key to the procedure. The objective of the work presented in this thesis is twofold. On the first hand, we aim at designing, studying and validating image processing techniques that improve the visualization of stents. On the second hand, we study the processing of curvilinear structures (like guide-wires) for which we propose a new image processing technique. We present algorithms dedicated to the 2D and 3D visualization of stents. Since the stent is hardly visible, we do not intend to directly locate it by image processing means in the images. The position and motion of the stent are inferred from the location of two landmarks: the angioplasty balloon and of the guide-wire, which have characteristic shapes. To this aim, we perform automated detection, tracking and registration of these landmarks. The cornerstone of our 2D stent visualization enhancement technique is the use of the landmarks to perform motion compensated noise reduction. We evaluated the performance of this technique for 2D stent visualization over a large database of clinical data (nearly 200 cases). The results demonstrate that our method outperforms previous state of the art techniques in terms of image quality. A comprehensive validation confirmed that we reached the level of performance required for the commercial introduction of our algorithm. It is currently deployed in a large number of clinical sites worldwide. The 3D stent visualization that we propose, uses the landmarks to achieve motion compensated tomographic reconstruction. We show preliminary results over 22 clinical cases. Our method seems to outperform previous state of the art techniques both in terms of automation and image quality. The previous stent visualization methods involve the segmentation of the part of the guide-wire extending through the stent. We propose a generic tool to process such curvilinear structures that we call the Polygonal Path Image (PPI). The PPI relies on the concept of locally optimal paths. One of its main advantages is that it unifies the concepts of several previous state of the art techniques in a single formalism. Moreover the PPI enables to control the smoothness and the length of the structures to segment. Its parametrization is simple and intuitive. In order to fully benefit from the PPI, we propose an efficient scheme to compute it. We demonstrate its applicability for the task of automated guide-wire segmentation, for which it outperforms previous state of the art techniques
55

System-Level Hardwa Synthesis of Dataflow Programs with HEVC as Study Use Case / Synthèse matérielle au niveau système des programmes flots-de-données : étude de cas du décodeur HEVC

Abid, Mariem 28 April 2016 (has links)
Les applications de traitement d'image et vidéo sont caractérisées par le traitement d'une grande quantité de données. La conception de ces applications complexes avec des méthodologies de conception traditionnelles bas niveau provoque 1'augmentation des coûts de développement. Afin de résoudre ces défis, des outils de synthèse haut niveau ont été proposés. Le principe de base est de modéliser le comportement de l'ensemble du système en utilisant des spécifications haut niveau afin de permettre la synthèse automatique vers des spécifications bas niveau pour implémentation efficace en FPGA. Cependant, l'inconvénient principal de ces outils de synthèse haut niveau est le manque de prise en compte de la totalité du système, c.-à-d. la création de la communication entre les différents composants pour atteindre le niveau système n'est pas considérée. Le but de cette thèse est d'élever le niveau d'abstraction dans la conception des systèmes embarqués au niveau système. Nous proposons un flot de conception qui permet une synthèse matérielle efficace des applications de traitement vidéo décrites en utilisant un langage spécifique à un domaine pour la programmation flot-de- données. Le flot de conception combine un compilateur flot- de-données pour générer des descriptions à base de code C et d'un synthétiseur pour générer des descriptions niveau de transfert de registre. Le défi majeur de l'implémentation en FPGA des canaux de communication des programmes flot-de-données basés sur un modèle de calcul est la minimisation des frais généraux de la communication. Pour cela, nous avons introduit une nouvelle approche de synthèse de l'interface qui mappe les grandes quantités des données vidéo, à travers des m'mémoires partagées sur FPGA. Ce qui conduit à une diminution considérable de la latence et une augmentation du débit. Ces résultats ont été démontrés sur la synthèse matérielle du standard vidéo émergent High-Efficiency Video Coding (HEVC). / Image and video processing applications are characterized by the processing of a huge amount of data. The design of such complex applications with traditional design methodologies at lowlevel of abstraction causes increasing development costs. In order to resolve the above mentioned challenges, Electronic System Level (ESL) synthesis or High-Level Synthesis (HLS) tools were proposed. The basic premise is to model the behavior of the entire system using high level specifications, and to enable the automatic synthesis to low-level specifications for efficient implementation in Field-Programmable Gate array (FPGA). However, the main downside of the HLS tools is the lack of the entire system consideration, i.e. the establishment of the communications between these components to achieve the system-level is not yet considered. The purpose of this thesis is to raise the level of abstraction in the design of embedded systems to the system-level. A novel design flow was proposed that enables an efficient hardware implementation of video processing applications described using a Domain Specific Language (DSL) for dataflow programming. The design flow combines a dataflow compiler for generating C-based HLS descriptions from a dataflow description and a C-to-gate synthesizer for generating Register-Transfer Level (RTL) descriptions. The challenge of implementing the communication channels of dataflow programs relying on Model of Computation (MoC) in FPGA is the minimization of the communication overhead. In this issue, we introduced a new interface synthesis approach that maps the large amounts of data that multimedia and image processing applications process, to shared memories on the FPGA. This leads to a tremendous decrease in the latency and an increase in the throughput. These results were demonstrated upon the hardware synthesis of the emerging High-Efficiency Video Coding (HEVC) standard.
56

Restauration d'images de noyaux cellulaires en microscopie 3D par l'introduction de connaissance a priori / Denoising 3D microscopy images of cell nuclei using shape priors

Bouyrie, Mathieu 29 November 2016 (has links)
Cette thèse aborde la problématique de la restauration d’images 3D de noyaux cellulaires fluorescents issues de la microscopie 2-photons à balayage laser d’animaux observés in vivo et in toto au cours de leur développement embryonnaire. La dégradation originale de ces images provient des limitations des systèmes optiques, du bruit intrinsèque des systèmes de détection ansi que de l’absorption et la diffusion de la lumière dans la profondeur des tissus. A la différence des propositions de “débruitage” de l’état de l’art, nous proposons ici une méthode qui prend en compte les particularités des données biologiques. Cette méthode, adaptation à la troisième dimension d’un algorithme utilisé dans l’analyse d’image astronomique, tire parti de connaissances a priori sur les images étudiées. Les hypothèses émises portent à la fois sur la détérioration du signal par un bruit supposé Mixe Poisson Gaussien (MPG) et sur la nature des objets observés. Nous traitons ici le cas de noyaux de cellules embryonnaires que nous supposons quasi sphériques.L’implémentation en 3D doit prendre en compte les dimensions de la grille d’échantillonnage de l’image. En effet ces dimensions ne sont pas identiques dans les trois directions de l’espace et un objet sphérique échantillonné sur cette grille perd cette caractéristique. Pour adapter notre méthode à une telle grille, nous avons ré-interprété le processus de filtrage, au coeur de la théorie originale, comme un processus physique de diffusion. / In this this document, we present a method to denoise 3D images acquired by 2-photon microscopy and displaying cell nuclei of animal embryos. The specimens are observed in toto and in vivo during their early development. Image deterioration can be explained by the microscope optical flaws, the acquisition system limitations, and light absorption and diffusion through the tissue depth.The proposed method is a 3D adaptation of a 2D method so far applied to astronomical images and it also differs from state-of the of-the-art methods by the introduction of priors on the biological data. Our hypotheses include assuming that noise statistics are Mixed Poisson Gaussian (MPG) and that cell nuclei are quasi spherical.To implement our method in 3D, we had to take into account the sampling grid dimensions which are different in the x, y or z directions. A spherical object imaged on this grid loses this property. To deal with such a grid, we had to interpret the filtering process, which is a core element of the original theory, as a diffusion process.
57

Etude microstructurelle du transport par charriage de mélanges bidisperses à forte pente / Experimental study of bedload transport of two-size mixtures on steep slopes at the particle scale

Hergault, Virginie 29 June 2011 (has links)
Le transport par charriage reste un phénomène mal compris en raison notamment de la polydispersité des particules et de la ségrégation résultante. Nous avons mené une étude expérimentale à l'échelle de la particule dans le but de comparer le mouvement de billes de verre sphériques de 4~mm et 6~mm et d'analyser la ségrégation de mélanges de deux tailles. Les particules sont entraînées dans un mouvement quasi-bidimensionnel par un écoulement turbulent et supercritique dans un canal à forte pente sur un lit mobile sous des conditions d'équilibre de charriage. Les écoulements ont été filmés sur le côté et analysés par traitement d'image afin de déterminer les trajectoires des particules, leur état de mouvement (arrêt, roulement, saltation) et la hauteur d'eau. Alors que les billes de 6~mm des cas unimodaux sont principalement en roulement, la saltation est prédominante pour les billes de 4~mm et les billes du mélange. Nos données monodisperses supportent le modèle d'érosion-dépôt de cite{Char06}. Les profils de vitesse présentent trois zones (exponentielle, linéaire, logarithmique). De même que les profils de concentration, ils ont des similitudes avec les profils en charriage côtier et en écoulement granulaire sec. Nos expériences bidisperses ont révélé un phénomène de ségrégation assimilable au processus de "kinetic sieving". / Bedload transport remains poorly understood partly due to the polydispersity of particles and resulting segregation. Experiments were carried out at the particle scale to compare the motion of spherical 4~mm and 6~mm glass beads and to analyze the segregation of two-size mixtures. Particles were entrained by a turbulent supercritical flow down a steep two-dimensional channel with a mobile bed under bedload equilibrium conditions. Flows were filmed from the side and analyzed by image processing to determine the particle trajectories, their state of motion (rest, rolling, saltation), and flow depth. Contrasting with the 6~mm uniform case where rolling was frequent, saltation was dominant for 4~mm beads and the two-size mixtures. Our one-size data support the erosion-deposition model of cite{Char06}. The velocity profiles exhibit three segments (exponential, linear, logarithmic). As well as concentration profiles, they are similar to profiles in sheet flows and dry granular flows. Our two-size experiments also revealed a phenomenon of segregation comparable to the kinetic sieving process.
58

Analyse quantitative des données de routine clinique pour le pronostic précoce en oncologie / Quantitative analysis of clinical routine data for early prognosis in oncology

Perier, Cynthia 14 November 2019 (has links)
L'évolution de la texture ou de la forme d'une tumeur à l'imagerie médicale reflète les modifications internes dues à la progression (naturelle ou sous traitement) d'une lésion tumorale. Dans ces travaux nous avons souhaité étudier l'apport des caractéristiques delta-radiomiques pour prédire l'évolution de la maladie. Nous cherchons à fournir un pipeline complet de la reconstruction des lésions à la prédiction, en utilisant seulement les données obtenues en routine clinique.Tout d'abord, nous avons étudié un sous ensemble de marqueurs radiomiques calculés sur IRM, en cherchant à établir quelles conditions sont nécessaires pour assurer leur robustesse. Des jeux de données artificiels et cliniques nous permettent d'évaluer l'impact de la reconstruction 3D des zones d'intérêt et celui du traitement de l'image.Une première analyse d'un cas clinique met en évidence des descripteurs de texture statistiquement associés à la survie sans évènement de patients atteints d'un carcinome du canal anal dès le diagnostic.Dans un second temps, nous avons développé des modèles d'apprentissage statistique. Une seconde étude clinique révèle qu'une signature radiomique IRM en T2 à trois paramètres apprise par un modèle de forêts aléatoires donne des résultats prometteurs pour prédire la réponse histologique des sarcomes des tissus mous à la chimiothérapie néoadjuvante.Le pipeline d'apprentissage est ensuite testé sur un jeu de données de taille moyenne sans images, dans le but cette fois de prédire la rechute métastatique à court terme de patientes atteinte d'un cancer du sein. La classification des patientes est ensuite comparée à la prédiction du temps de rechute fournie par un modèle mécanistique de l'évolution des lésions.Enfin nous discutons de l'apport des techniques plus avancées de l'apprentissage statistique pour étendre l'automatisation de notre chaîne de traitement (segmentation automatique des tumeurs, analyse quantitative de l'oedème péri-tumoral). / Tumor shape and texture evolution may highlight internal modifications resulting from the progression of cancer. In this work, we want to study the contribution of delta-radiomics features to cancer-evolution prediction. Our goal is to provide a complete pipeline from the 3D reconstruction of the volume of interest to the prediction of its evolution, using routinely acquired data only.To this end, we first analyse a subset of MRI(-extracted) radiomics biomarquers in order to determine conditions that ensure their robustness. Then, we determine the prerequisites of features reliability and explore the impact of both reconstruction and image processing (rescaling, grey-level normalization). A first clinical study emphasizes some statistically-relevant MRI radiomics features associated with event-free survival in anal carcinoma.We then develop machine-learning models to improve our results.Radiomics and machine learning approaches were then combined in a study on high grade soft tissu sarcoma (STS). Combining Radiomics and machine-learning approaches in a study on high-grade soft tissue sarcoma, we find out that a T2-MRI delta-radiomic signature with only three features is enough to construct a classifier able to predict the STS histological response to neoadjuvant chemotherapy. Our ML pipeline is then trained and tested on a middle-size clinical dataset in order to predict early metastatic relapse of patients with breast cancer. This classification model is then compared to the relapsing time predicted by the mechanistic model.Finally we discuss the contribution of deep-learning techniques to extend our pipeline with tumor automatic segmentation or edema detection.
59

Automatic Parallelization for Heterogeneous Embedded Systems / Parallélisation automatique pour systèmes hétérogènes embarqués

Diarra, Rokiatou 25 November 2019 (has links)
L'utilisation d'architectures hétérogènes, combinant des processeurs multicoeurs avec des accélérateurs tels que les GPU, FPGA et Intel Xeon Phi, a augmenté ces dernières années. Les GPUs peuvent atteindre des performances significatives pour certaines catégories d'applications. Néanmoins, pour atteindre ces performances avec des API de bas niveau comme CUDA et OpenCL, il est nécessaire de réécrire le code séquentiel, de bien connaître l’architecture des GPUs et d’appliquer des optimisations complexes, parfois non portables. D'autre part, les modèles de programmation basés sur des directives (par exemple, OpenACC, OpenMP) offrent une abstraction de haut niveau du matériel sous-jacent, simplifiant ainsi la maintenance du code et améliorant la productivité. Ils permettent aux utilisateurs d’accélérer leurs codes séquentiels sur les GPUs en insérant simplement des directives. Les compilateurs d'OpenACC/OpenMP ont la lourde tâche d'appliquer les optimisations nécessaires à partir des directives fournies par l'utilisateur et de générer des codes exploitant efficacement l'architecture sous-jacente. Bien que les compilateurs d'OpenACC/OpenMP soient matures et puissent appliquer certaines optimisations automatiquement, le code généré peut ne pas atteindre l'accélération prévue, car les compilateurs ne disposent pas d'une vue complète de l'ensemble de l'application. Ainsi, il existe généralement un écart de performance important entre les codes accélérés avec OpenACC/OpenMP et ceux optimisés manuellement avec CUDA/OpenCL. Afin d'aider les programmeurs à accélérer efficacement leurs codes séquentiels sur GPU avec les modèles basés sur des directives et à élargir l'impact d'OpenMP/OpenACC dans le monde universitaire et industrielle, cette thèse aborde plusieurs problématiques de recherche. Nous avons étudié les modèles de programmation OpenACC et OpenMP et proposé une méthodologie efficace de parallélisation d'applications avec les approches de programmation basées sur des directives. Notre expérience de portage d'applications a révélé qu'il était insuffisant d'insérer simplement des directives de déchargement OpenMP/OpenACC pour informer le compilateur qu'une région de code particulière devait être compilée pour être exécutée sur la GPU. Il est essentiel de combiner les directives de déchargement avec celles de parallélisation de boucle. Bien que les compilateurs actuels soient matures et effectuent plusieurs optimisations, l'utilisateur peut leur fournir davantage d'informations par le biais des clauses des directives de parallélisation de boucle afin d'obtenir un code mieux optimisé. Nous avons également révélé le défi consistant à choisir le bon nombre de threads devant exécuter une boucle. Le nombre de threads choisi par défaut par le compilateur peut ne pas produire les meilleures performances. L'utilisateur doit donc essayer manuellement différents nombres de threads pour améliorer les performances. Nous démontrons que les modèles de programmation OpenMP et OpenACC peuvent atteindre de meilleures performances avec un effort de programmation moindre, mais les compilateurs OpenMP/OpenACC atteignent rapidement leur limite lorsque le code de région déchargée a une forte intensité arithmétique, nécessite un nombre très élevé d'accès à la mémoire globale et contient plusieurs boucles imbriquées. Dans de tels cas, des langages de bas niveau doivent être utilisés. Nous discutons également du problème d'alias des pointeurs dans les codes GPU et proposons deux outils d'analyse statiques qui permettent d'insérer automatiquement les qualificateurs de type et le remplacement par scalaire dans le code source. / Recent years have seen an increase of heterogeneous architectures combining multi-core CPUs with accelerators such as GPU, FPGA, and Intel Xeon Phi. GPU can achieve significant performance for certain categories of application. Nevertheless, achieving this performance with low-level APIs (e.g. CUDA, OpenCL) requires to rewrite the sequential code, to have a good knowledge of GPU architecture, and to apply complex optimizations that are sometimes not portable. On the other hand, directive-based programming models (e.g. OpenACC, OpenMP) offer a high-level abstraction of the underlying hardware, thus simplifying the code maintenance and improving productivity. They allow users to accelerate their sequential codes on GPU by simply inserting directives. OpenACC/OpenMP compilers have the daunting task of applying the necessary optimizations from the user-provided directives and generating efficient codes that take advantage of the GPU architecture. Although the OpenACC / OpenMP compilers are mature and able to apply some optimizations automatically, the generated code may not achieve the expected speedup as the compilers do not have a full view of the whole application. Thus, there is generally a significant performance gap between the codes accelerated with OpenACC/OpenMP and those hand-optimized with CUDA/OpenCL. To help programmers for speeding up efficiently their legacy sequential codes on GPU with directive-based models and broaden OpenMP/OpenACC impact in both academia and industry, several research issues are discussed in this dissertation. We investigated OpenACC and OpenMP programming models and proposed an effective application parallelization methodology with directive-based programming approaches. Our application porting experience revealed that it is insufficient to simply insert OpenMP/OpenACC offloading directives to inform the compiler that a particular code region must be compiled for GPU execution. It is highly essential to combine offloading directives with loop parallelization constructs. Although current compilers are mature and perform several optimizations, the user may provide them more information through loop parallelization constructs clauses in order to get an optimized code. We have also revealed the challenge of choosing good loop schedules. The default loop schedule chosen by the compiler may not produce the best performance, so the user has to manually try different loop schedules to improve the performance. We demonstrate that OpenMP and OpenACC programming models can achieve best performance with lesser programming effort, but OpenMP/OpenACC compilers quickly reach their limit when the offloaded region code is computed/memory bound and contain several nested loops. In such cases, low-level languages may be used. We also discuss pointers aliasing problem in GPU codes and propose two static analysis tools that perform automatically at source level type qualifier insertion and scalar promotion to solve aliasing issues.
60

The study of the social cues exchanged during natural interaction / L'étude des signaux sociaux lors d'interactions naturelles

Fang, Sheng 05 February 2018 (has links)
L'objectif de la thèse consiste à étudier les indices sociaux échangés lors d'interactions naturelles. Cette étude a deux principaux défis. Le premier défi réside dans la sélection des indices sociaux. Il y a des centaines de milliers de signaux sociaux. Il est important de savoir quels signaux sociaux sont essentiels pour comprendre l'interaction sociale. Le deuxième défi concerne la modélisation de l'interaction sociale. Pendant la thèse, nous nous concentrons sur ces deux défis et réalisons 3 applications: la reconnaissance des rôles, la prédiction de la personnalité et l'estimation de la cohésion. Dans l'application de la reconnaissance de rôle, nous proposons une nouvelle approche en combinant un modèle d'apprentissage automatique génératif et discriminatif. Par rapport aux approches conventionnelles, la nouvelle approche a non seulement la capacité de traiter des données de séries temporelles et de modéliser la synchronie des signaux sociaux, mais aussi une forte capacité de discrimination.Dans l'application de la prédiction de la personnalité, nous proposons une nouvelle catégorisation des caractéristiques, qui divise les signaux sociaux en trois groupes, les caractéristiques intra-personnelles, les caractéristiques dyadiques et les caractéristiques de One_VS_All. Cette catégorisation aide à comprendre la relation entre les traits de personnalité / impressions sociales et les catégories d'indices sociaux.La dernière application, appelée estimation de la cohésion, prédit la cohésion entre les participants aux réunions. Nous recueillons des annotations de la cohésion des réunions dans une base de données publique et estimons la cohésion avec un ensemble de caractéristiques abondantes. / The goal of this Ph.D. work is to study the social cues exchanged during natural interaction. This study has 2 main challenges. The first challenge lies in the selection of social cues. There are hundreds of thousands social cues. It's important to find out which social signals are essential to understand social interaction. The second challenge concerns the modelling of social interaction. During the Ph.D. work, we focus on these two challenge and realize 3 applications: role recognition, personality prediction and cohesion estimation.In the application of role recognition, we propose a new approach by combining a generative and a discriminative machine learning model. Compared to conventional approaches, the new approach has not only the ability to process time-series data and model the synchrony of social signals, but also a strong capacity in discrimination.In the application of personality prediction, we propose a new feature categorization, which divides the social signals into 3 groups, Intra-Personal features, Dyadic features, and One_VS_All features. This categorization helps to understand the relation between personality traits/social impressions and the categories of social cues.The last application, named cohesion estimation, predicts the cohesion between the participants in small scale meetings. We collect annotations of cohesion of meetings in a public database and estimate the cohesion with an abundant feature set.

Page generated in 0.0952 seconds