• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 87
  • 13
  • 2
  • Tagged with
  • 237
  • 91
  • 56
  • 53
  • 41
  • 37
  • 32
  • 31
  • 28
  • 25
  • 24
  • 24
  • 20
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Approche Efficace de Développement de Logiciel Embarqué pour des Systèmes Multiprocesseurs sur Puce

Guerin, Xavier 12 May 2010 (has links) (PDF)
Cette dissertation montre que des applications embarquées complexes peuvent tirer partie efficacement de plateformes MP-SoC hétérogènes tout en respectant les critères de flexibilité, mise à l'échelle, portabilité et time-to-market. Elle fait la description d'un flot de conception de logiciel embarqué amélioré combinant un générateur de code, GECKO, et un environnement logiciel innovant, APES, afin d'obtenir un haut niveau d'efficacité. La contribution ainsi présentée est double : 1) un flot de conception de logiciel embarqué amélioré avec un ensemble d'outils permettant la construction automatique d'objets binaires minimaux pour une application donnée ciblant une plateforme MP-SoC donnée, et 2) un ensemble de composants logiciels modulaire et portable incluant des mécanismes de systèmes d'exploitations traditionnels ainsi que le support de multiples processeurs.
142

Contributions à la segmentation de séquences d'images au sens du mouvement dans un contexte semi-automatique

Fradet, Matthieu 22 January 2010 (has links) (PDF)
De nombreuses applications en vision par ordinateur nécessitent la distinction et le suivi des différents objets vidéo constituant une scène dynamique. Dans le contexte de la post-production, la qualité visuelle des résultats est une contrainte si forte qu'un opérateur doit pouvoir intervenir facilement et rapidement pour guider efficacement les traitements. Le but de cette thèse est de proposer de nouveaux algorithmes de segmentation au sens du mouvement. Ce document est décomposé en deux parties. Dans la première partie, deux nouvelles méthodes séquentielles et semi-automatiques de segmentation de séquences d'images au sens du mouvement sont proposées. Toutes deux exploitent la représentation d'une scène par un ensemble de couches de mouvement. L'extraction de ces dernières repose sur différents critères (mouvement, couleur, cohérence spatio-temporelle) combinés au sein d'une fonctionnelle d'énergie minimisée par coupe minimale/flot maximal dans un graphe. La seconde partie présente une nouvelle méthode pour le partitionnement automatique d'un ensemble de trajectoires de points d'intérêt. Chaque trajectoire est définie sur un intervalle temporel qui lui est propre et qui correspond aux instants auxquels le point considéré est visible. Comparée à un mouvement estimé entre deux images, l'information de mouvement fournie par une trajectoire offre un horizon temporel étendu qui permet de mieux distinguer des objets dont les mouvements sont différents. Les méthodes sont validées sur différentes séquences aux contenus dynamiques variés.
143

Study of Heavy Flavours from Muons Measured with the ALICE Detector in Proton-Proton and Heavy-Ion Collisions at the CERN-LHC

Zhang, X. 23 May 2012 (has links) (PDF)
Les collisions d'ions lourds ultra-relativistes ont pour objectif principal l'étude des propriétés de la matière nucléaire soumise à des conditions extrêmes et de température de densité d'énergie. Les calculs de la ChromoDynamique Quantique (QCD) prédisent dans ces conditions une nouvelle phase de la matière dans laquelle on assisterait au déconfinement des constituants des hadrons en un plasma de quarks et gluons (QGP). Les saveurs lourdes (charme et beauté) sont produites lors de processus durs aux premieres instants de la collision puis traversent le milieu produit durant la collision. Par conséquent, la mesure des quarkonia et des saveurs lourdes ouvertes devrait être particulièrement intéressante pour l'étude des propriétés du système créé aux premiers instants de la collision. On s'attend à ce que les saveurs lourdes ouvertes présentent des sensibilités à la densité d'énergie via les mécanismes de perte d'énergie des quarks lourds dans le milieu et que les quarkonia soient sensibles à la température initiale du système via leur dissociation par écrantage de couleur. La mesure du flot des saveurs lourdes devrait apporter des informations concernant le degré de thermalisation des quarks lourds dans le milieu nucléaire. De plus, l'observable viscosité/entropie pourrait être obtenue en combinant les mesures du facteur de modification nucléaire et de flot. En conséquence, l'étude de la production des quqrkonia et saveurs lourdes ouvertes est un domaine de recherche intensément étudié au niveau experimental et théorique. Les mesures effectuées au SPS et RHIC ont permis de mettre en évidence plusieurs caractéristiques du milieu produit mais ont aussi laissé plusieurs questions sans réponse. Avec une énergie par paire de nucléon de 15 fois supérieure à celle du RHIC, le LHC entré en fonctionnement fin 2009, a ouvert une nouvelle ère pour l'étude des propriétés du QGP. Un des plus importants aspects de ce domaine en énergie est l'abondante production de quarks lourds utilisés pour la première fois comme sonde de haute statistique du milieu. Le LHC délivra les premières collisions pp à √s = 0.9 TeV en octobre 2009 et a atteint l'énergie de √s = 7 TeV en mars 2010. Un run pp à √s = 2.76 TeV a eu lieu en mars 2011 pendant une durée limitée. Les runs Pb-Pb à √sNN = 2.76 TeV ont eu lieu fin 2010 et 2011. ALICE (A Large Ion Collider Experiment) est l'expérience dédiée à l'étude des collisions d'ions lourds au LHC. ALICE enregiste aussi des collisions pp afin de tester les calculs perturbatifs de QCD dans la région des faibles valeurs de x-Bjorken et de fournir la référence indispensable pour l'étude des collisions noyau-noyau et p-noyau. ALICE enregistrera aussi, début 2013, des collisions p-Pb/Pb-p afin d'étudier les effets nucléaires froids. Les quarkonia et saveurs lourdes ouvertes sont mesurés dans ALICE suivant leur mode de désintégration (di)-muonique, (di)-electronique et hadronique. Cette thèse concerne l'étude des saveurs lourdes ouvertes dans les collisions pp et Pb-Pb avec les muons simples mesurés aux rapidités avant avec le spectromètre à muons d'ALICE. Le document est structuré comme suit. Le premier chapitre est une introduction à la physique des collisions d'ions lourds et du diagramme de phase de la matière nucléaire. Le deuxième chapitre présente les objectifs de l'étude des saveurs lourdes ouvertes dans les collisions proton-proton, proton-noyau et noyau-noyau. Un intérêt particulier est porté au domaine en énergie du LHC. Le troisième chapitre est une description du détecteur ALICE et du spectromètre à muons. Le quatrième chapitre présente les systèmes "online" et "offline". Le cinquième chapitre est un résumé des performances du spectromètre à muons pour la mesure des saveurs lourdes ouvertes dans les collisions pp au moyen des muons simples et dimuons. Les chapitres 6 à 9 concernent l'analyse de données. Le sixième chapitre décrit l'analyse des premières collisions pp à √s = 0.9 TeV collectées avec ALICE. L'objectif principal était la compréhension de la réponse du détecteur. Ces données ont permis aussi fixer la stratégie d'analyse des saveurs lourdes ouvertes : sélection des événements, optimisation des coupures, différentes sources de bruit de fond à soustraire. Le septième chapitre présente la mesure de la section de production des saveurs lourdes ouvertes dans les collisions pp à √s = 7 TeV. La méthode d'analyse est décrite. Cela concerne la sélection des collisions et traces reconstruites dans le spectromètre à muons, la soustraction du bruit de fond (composé principalement de muons issus de la désintégration de pions et kaons primaires), les corrections, la normalisation et la détermination des incertitudes systématiques. Les résultats expérimentaux sont discutés et comparés aux calculs perturbatifs QCD (calculs "Fixed Order Next-to-Leading Log"). Cela concerne les sections efficaces de production des muons issus de la désintégration des saveurs lourdes ouvertes aux rapidités avant (2.5 < y < 4) en fonction de la rapidité et de l'impulsion transverse (pt). Le huitième chapitre aborde la mesure des muons issus de la désintégration des saveurs lourdes ouvertes dans les collisions Pb-Pb à √sNN = 2.76 TeV collectées en 2010. Les effets de milieu nucléaire sont étudiés à partir du facteur de modification nucléaire RAA. La référence pp est déterminée à partir de l'analyse des collisions pp à √s = 2.76 TeV. Le facteur de facteur modification nucléaire est étudié en fonction de pt et de la centralité de la collision. Pour comparaison, les résultats obtenus à partir de la mesure du facteur de modification nucléaire central sur périphérique (RCP) sont aussi présentés. Le neuvième chapitre commence par une revue des différentes méthodes utilisées pour la mesure de la composante de flot elliptique. Les méthodes telles que les cumulants et Lee-Yang Zeroes, permettant de supprimer les effets non-flot, sont détaillées. Des premiers résultats prometteurs concernant la mesure de la composante de flot elliptique des muons sont discutés. Ils sont obtenus avec différentes méthodes et présentés en fonction de pt et de la centralité de la collision. Le manuscrit se termine par une conclusion et des perspectives.
144

Etude du mouvement dans les séquences d'images par analyse d'ondelettes et modélisation markovienne hiérarchique. Application à la détection d'obstacles dans un milieu routier

Demonceaux, Cédric 17 December 2004 (has links) (PDF)
Ce travail a pour objectif de détecter les obstacles sur la route à partir d'une caméra montée sur un véhicule. Étant donné les contraintes que nous nous sommes fixées, un état de l'art des différentes méthodes existantes sur ce sujet montre que seule une analyse du mouvement dans les sé- quences d'images peut résoudre ce problème. En effet, cette méthode doit permettre de détecter tout type d'obstacles sur tout type de routes avec une seule caméra. Pour ce faire, nous avons développé une nouvelle méthode d'estimation de mouvement paramétrique par analyse d'ondelettes de l'équation de contrainte du flot optique (E.C.M.A.). Cette méthode multi- résolution nous a permis de contourner le problème de l'aliasage temporel inhérent à l'E.C.M.A.. Nous avons ensuite proposé de résoudre le problème de la détection de mouvement dans une scène filmée à par- tir d'une caméra mobile à l'aide d'une modélisation markovienne hiérarchique déduite de façon naturelle de l'estimation multi-résolution du mouvement. Puis, nous avons introduit une méthode de segmenta- tion au sens du mouvement entre deux images sans connaissance a priori et sans hypothèse de présence de mouvement dominant grâce à un raffinement successif de la segmentation d'une échelle grossière de l'image à l'échelle la plus fine. Chaque méthode (estimation, détection et segmentation) a été validée expérimentalement sur des séquences synthétiques et réelles. Enfin, celles-ci ont été adaptées au problème concret visé par cette thèse : la détection d'obstacles dans un milieu routier. L'utilisation d'ondelettes et de champs de Markov hiérarchiques aboutit à des solutions peu coûteuses en temps de calcul.
145

Structuration d'un flot de conception pour la biologie synthétique

Gendrault, Yves 06 December 2013 (has links) (PDF)
La biologie synthétique est une science issue du rapprochement entre les biotechnologies et les sciences pour l'ingénieur. Elle consiste à créer de nouveaux systèmes biologiques par une combinaison rationnelle d'éléments biologiques standardisés, découplés de leur contexte naturel. L'environnement, l'agroalimentaire et la santé figurent parmi ses principaux domaines d'application. Cette thèse s'est focalisée sur les aspects liés à la conception ex-vivo de ces biosystèmes artificiels. A partir des analogies réalisées entre les processus biologiques et certaines fonctions électroniques, l'accent a été mis sur la réutilisation et l'adaptation des outils de conception numériques, supportant l'approche de conception " top-down ". Ainsi, une adaptation complète des méthodes de CAO de la microélectronique a été mise en place pour la biologie synthétique. Dans cette optique, les mécanismes biologiques élémentaires ont été modélisés sous plusieurs niveaux d'abstraction, allant de l'abstraction numérique à des modèles flux de signal et des modèles conservatifs. Des modèles en logique floue ont aussi été développés pour faire le lien entre ces niveaux d'abstraction. Ces différents modèles ont été implémentés avec deux langages de description matérielle et ont été validés sur la base de résultats expérimentaux de biosystèmes artificiels parmi les plus avancés. Parallèlement au travail de formalisation des modèles destinés au flot de conception, leur amélioration a aussi été étudiée : la modélisation des interactions entre plusieurs molécules a été rendue plus réaliste et le développement de modèles de bruits biologiques a également été intégré au processus. Cette thèse constitue donc une contribution importante dans la structuration et l'automatisation d'étapes de conception pour les biosystèmes synthétiques. Elle a permis de tracer les contours d'un flot de conception complet, adapté de la microélectronique, et d'en mettre en évidence les intérêts.
146

Surveillance comportementale de systèmes et logiciels embarqués par signature disjointe

Bergaoui, Selma 06 June 2013 (has links) (PDF)
Les systèmes critiques, parmi lesquels les systèmes embarqués construits autour d'un microprocesseur mono-cœur exécutant un logiciel d'application, ne sont pas à l'abri d'interférences naturelles ou malveillantes qui peuvent provoquer des fautes transitoires. Cette thèse porte sur des protections qui peuvent être implantées pour détecter les effets de telles fautes transitoires sans faire d'hypothèses sur la multiplicité des erreurs générées. De plus, ces erreurs peuvent être soit des erreurs de flot de contrôle soit des erreurs sur les données. Une nouvelle méthode de vérification de flot de contrôle est tout d'abord proposée. Elle permet de vérifier, sans modifier le système initial, que les instructions du programme d'application sont lues sans erreur et dans le bon ordre. Les erreurs sur les données sont également prises en compte par une extension de la vérification de flot de contrôle. La méthode proposée offre un bon compromis entre les différents surcoûts, le temps de latence de détection et la couverture des erreurs. Les surcoûts peuvent aussi être ajustés aux besoins de l'application. La méthode est mise en œuvre sur un prototype, construit autour d'un microprocesseur Sparc v8. Les fonctions d'analyse de criticité développées dans le cadre de la méthodologie proposée sont également utilisées pour évaluer l'impact des options de compilation sur la robustesse intrinsèque du logiciel d'application.
147

Traitement d'images bas niveau intégré dans un capteur de vision CMOS

Amhaz, Hawraa 10 July 2012 (has links) (PDF)
Le traitement d'images classique est basé sur l'évaluation des données délivrées par un système à basede capteur de vision sous forme d'images. L'information lumineuse captée est extraiteséquentiellement de chaque élément photosensible (pixel) de la matrice avec un certain cadencementet à fréquence fixe. Ces données, une fois mémorisées, forment une matrice de données qui estréactualisée de manière exhaustive à l'arrivée de chaque nouvelle image. De fait, Pour des capteurs àforte résolution, le volume de données à gérer est extrêmement important. De plus, le système neprend pas en compte le fait que l'information stockée ai changé ou non par rapport à l'imageprécédente. Cette probabilité est, en effet, assez importante. Ceci nous mène donc, selon " l'activité "de la scène filmée à un haut niveau de redondances temporelles. De même, la méthode de lectureusuelle ne prend pas en compte le fait que le pixel en phase de lecture a la même valeur ou non que lepixel voisin lu juste avant. Cela rajoute aux redondances temporelles un taux de redondances spatialesplus ou moins élevé selon le spectre de fréquences spatiales de la scène filmée. Dans cette thèse, nousavons développé plusieurs solutions qui visent contrôler le flot de données en sortie de l'imageur enessayant de réduire les redondances spatiales et temporelles des pixels. Les contraintes de simplicité etd'" intelligence " des techniques de lecture développées font la différence entre ce que nousprésentons et ce qui a été publié dans la littérature. En effet, les travaux présentés dans l'état de l'artproposent des solutions à cette problématique, qui en général, exigent de gros sacrifices en terme desurface du pixel, vu qu'elles implémentent des fonctions électroniques complexes in situ.Les principes de fonctionnement, les émulations sous MATLAB, la conception et les simulationsélectriques ainsi que les résultats expérimentaux des techniques proposées sont présentés en détailsdans ce manuscrit.
148

Capteur d'images événementiel, asynchrone à échantillonnage non-uniforme / Asynchronous Event-driven Image Sensor

Darwish, Amani 27 June 2016 (has links)
Face aux défis actuels liés à la conception de capteurs d'images à forte résolution comme la limitation de la consommation électrique, l'augmentation du flux de données ainsi que le traitement de données associé, on propose, à travers cette thèse, un capteur d'image novateur asynchrone à échantillonnage non uniforme.Ce capteur d’images asynchrone est basé sur une matrice de pixels événementiels qui intègrent un échantillonnage non uniforme par traversée de niveaux. Contrairement aux imageurs conventionnels, où les pixels sont lus systématiquement lors de chaque trame, les pixels événementiels proposés sont consultés que lorsqu’ils contiennent une information pertinente. Cela induit un flux de données réduit et dépendant de l’image.Pour compléter la chaîne de traitement des pixels, on présente également une architecture numérique de lecture dédiée conçue en utilisant de la logique asynchrone et destinée à contrôler et à gérer le flux de données des pixels événementiels. Ce circuit de lecture numérique permet de surmonter les difficultés classiques rencontrées lors de la gestion des demandes simultanées des pixels événementiels sans dégrader la résolution et le facteur de remplissage du capteur d’images. En outre, le circuit de lecture proposé permet de réduire considérablement les redondances spatiales dans une image ce qui diminue encore le flux de données.Enfin, en combinant l'aspect échantillonnage par traversée de niveau et la technique de lecture proposée, on a pu remplacer la conversion analogique numérique classique de la chaîne de traitement des pixels par une conversion temps-numérique (Time-to-Digital Conversion). En d'autres termes, l'information du pixel est codée par le temps. Il en résulte une diminution accrue de la consommation électrique du système de vision, le convertisseur analogique-numérique étant un des composants les plus consommant du système de lecture des capteurs d'images conventionnels / In order to overcome the challenges associated with the design of high resolution image sensors, we propose, through this thesis, an innovative asynchronous event-driven image sensor based on non-uniform sampling. The proposed image sensor aims the reduction of the data flow and its associated data processing by limiting the activity of our image sensor to the new captured information.The proposed asynchronous image sensor is based on an event-driven pixels that incorporate a non-uniform sampling crossing levels. Unlike conventional imagers, where the pixels are read systematically at each frame, the proposed event-driven pixels are only read when they hold new and relevant information. This induces a reduced and scene dependent data flow.In this thesis, we introduce a complete pixel reading sequence. Beside the event-driven pixel, the proposed reading system is designed using asynchronous logic and adapted to control and manage the flow of data from event pixels. This digital reading system overcomes the traditional difficulties encountered in the management of simultaneous requests for event pixels without degrading the resolution and fill factor of the image sensor. In addition, the proposed reading circuit significantly reduces the spatial redundancy in an image which further reduces the data flow.Finally, by combining the aspect of level crossing sampling and the proposed reading technique, we replaced the conventional analog to digital conversion of the pixel processing chain by a time-to-digital Conversion (TDC). In other words, the pixel information is coded by time. This results in an increased reduction in power consumption of the vision system, the analog-digital converter being one of the most consuming reading system of conventional image sensors components
149

Le mouvement en action : estimation du flot optique et localisation d'actions dans les vidéos / Motion in action : optical flow estimation and action localization in videos

Weinzaepfel, Philippe 23 September 2016 (has links)
Avec la récente et importante croissance des contenus vidéos, la compréhension automatique de vidéos est devenue un problème majeur.Ce mémoire présente plusieurs contributions sur deux tâches de la compréhension automatique de vidéos : l'estimation du flot optique et la localisation d'actions humaines.L'estimation du flot optique consiste à calculer le déplacement de chaque pixel d'une vidéo et fait face à plusieurs défis tels que les grands déplacements non rigides, les occlusions et les discontinuités du mouvement.Nous proposons tout d'abord une méthode pour le calcul du flot optique, basée sur un modèle variationnel qui incorpore une nouvelle méthode d'appariement.L'algorithme d'appariement proposé repose sur une architecture corrélationnelle hiérarchique à plusieurs niveaux et gère les déformations non rigides ainsi que les textures répétitives.Il permet d'améliorer l'estimation du flot en présence de changements d'apparence significatifs et de grands déplacements.Nous présentons également une nouvelle approche pour l'estimation du flot optique basée sur une interpolation dense de correspondances clairsemées tout en respectant les contours.Cette méthode tire profit d'une distance géodésique basée sur les contours qui permet de respecter les discontinuités du mouvement et de gérer les occlusions.En outre, nous proposons une approche d'apprentissage pour détecter les discontinuités du mouvement.Les motifs de discontinuité du mouvement sont prédits au niveau d'un patch en utilisant des forêts aléatoires structurées.Nous montrons expérimentalement que notre approche surclasse la méthode basique construite sur le gradient du flot tant sur des données synthétiques que sur des vidéos réelles.Nous présentons à cet effet une base de données contenant des vidéos d'utilisateurs.La localisation d'actions humaines consiste à reconnaître les actions présentes dans une vidéo, comme `boire' ou `téléphoner', ainsi que leur étendue temporelle et spatiale.Nous proposons tout d'abord une nouvelle approche basée sur les réseaux de neurones convolutionnels profonds.La méthode passe par l'extraction de tubes dépendants de la classe à détecter, tirant parti des dernières avancées en matière de détection et de suivi.La description des tubes est enrichie par des descripteurs spatio-temporels locaux.La détection temporelle est effectuée à l'aide d'une fenêtre glissante à l'intérieur de chaque tube.Notre approche surclasse l'état de l'art sur des bases de données difficiles de localisation d'actions.Deuxièmement, nous présentons une méthode de localisation d'actions faiblement supervisée, c'est-à-dire qui ne nécessite pas l'annotation de boîtes englobantes.Des candidats de localisation d'actions sont calculés en extrayant des tubes autour des humains.Cela est fait en utilisant un détecteur d'humains robuste aux poses inhabituelles et aux occlusions, appris sur une base de données de poses humaines.Un rappel élevé est atteint avec seulement quelques tubes, permettant d'appliquer un apprentissage à plusieurs instances.En outre, nous présentons une nouvelle base de données pour la localisation d'actions humaines.Elle surmonte les limitations des bases existantes, telles la diversité et la durée des vidéos.Notre approche faiblement supervisée obtient des résultats proches de celles totalement supervisées alors qu'elle réduit significativement l'effort d'annotations requis. / With the recent overwhelming growth of digital video content, automatic video understanding has become an increasingly important issue.This thesis introduces several contributions on two automatic video understanding tasks: optical flow estimation and human action localization.Optical flow estimation consists in computing the displacement of every pixel in a video andfaces several challenges including large non-rigid displacements, occlusions and motion boundaries.We first introduce an optical flow approach based on a variational model that incorporates a new matching method.The proposed matching algorithm is built upon a hierarchical multi-layer correlational architecture and effectively handles non-rigid deformations and repetitive textures.It improves the flow estimation in the presence of significant appearance changes and large displacements.We also introduce a novel scheme for estimating optical flow based on a sparse-to-dense interpolation of matches while respecting edges.This method leverages an edge-aware geodesic distance tailored to respect motion boundaries and to handle occlusions.Furthermore, we propose a learning-based approach for detecting motion boundaries.Motion boundary patterns are predicted at the patch level using structured random forests.We experimentally show that our approach outperforms the flow gradient baseline on both synthetic data and real-world videos,including an introduced dataset with consumer videos.Human action localization consists in recognizing the actions that occur in a video, such as `drinking' or `phoning', as well as their temporal and spatial extent.We first propose a novel approach based on Deep Convolutional Neural Network.The method extracts class-specific tubes leveraging recent advances in detection and tracking.Tube description is enhanced by spatio-temporal local features.Temporal detection is performed using a sliding window scheme inside each tube.Our approach outperforms the state of the art on challenging action localization benchmarks.Second, we introduce a weakly-supervised action localization method, ie, which does not require bounding box annotation.Action proposals are computed by extracting tubes around the humans.This is performed using a human detector robust to unusual poses and occlusions, which is learned on a human pose benchmark.A high recall is reached with only several human tubes, allowing to effectively apply Multiple Instance Learning.Furthermore, we introduce a new dataset for human action localization.It overcomes the limitations of existing benchmarks, such as the diversity and the duration of the videos.Our weakly-supervised approach obtains results close to fully-supervised ones while significantly reducing the required amount of annotations.
150

Algèbre linéaire exacte, parallèle, adaptative et générique / Adaptive and generic parallel exact linear algebra

Sultan, Ziad 17 June 2016 (has links)
Les décompositions en matrices triangulaires sont une brique de base fondamentale en calcul algébrique. Ils sont utilisés pour résoudre des systèmes linéaires et calculer le rang, le déterminant, l'espace nul ou les profiles de rang en ligne et en colonne d'une matrix. Le projet de cette thèse est de développer des implantations hautes performances parallèles de l'élimination de Gauss exact sur des machines à mémoire partagée.Dans le but d'abstraire le code de l'environnement de calcul parallèle utilisé, un langage dédié PALADIn (Parallel Algebraic Linear Algebra Dedicated Interface) a été implanté et est basé essentiellement sur des macros C/C++. Ce langage permet à l'utilisateur d'écrire un code C++ et tirer partie d’exécutions séquentielles et parallèles sur des architectures à mémoires partagées en utilisant le standard OpenMP et les environnements parallel KAAPI et TBB, ce qui lui permet de bénéficier d'un parallélisme de données et de taches.Plusieurs aspects de l'algèbre linéaire exacte parallèle ont été étudiés. Nous avons construit de façon incrémentale des noyaux parallèles efficaces pour les multiplication de matrice, la résolution de systèmes triangulaires au dessus duquel plusieurs variantes de l'algorithme de décomposition PLUQ sont construites. Nous étudions la parallélisation de ces noyaux en utilisant plusieurs variantes algorithmiques itératives ou récursives et en utilisant des stratégies de découpes variées.Nous proposons un nouvel algorithme récursive de l'élimination de Gauss qui peut calculer simultanément les profiles de rang en ligne et en colonne d'une matrice et de toutes ses sous-matrices principales, tout en étant un algorithme état de l'art de l'élimination de Gauss. Nous étudions aussi les conditions pour qu'un algorithme de l'élimination de Gauss révèle cette information en définissant un nouvel invariant matriciel, la matrice de profil de rang. / Triangular matrix decompositions are fundamental building blocks in computational linear algebra. They are used to solve linear systems, compute the rank, the determinant, the null-space or the row and column rank profiles of a matrix. The project of my PhD thesis is to develop high performance shared memory parallel implementations of exact Gaussian elimination.In order to abstract the computational code from the parallel programming environment, we developed a domain specific language, PALADIn: Parallel Algebraic Linear Algebra Dedicated Interface, that is based on C/C + + macros. This domain specific language allows the user to write C + + code and benefit from sequential and parallel executions on shared memory architectures using the standard OpenMP, TBB and Kaapi parallel runtime systems and thus providing data and task parallelism.Several aspects of parallel exact linear algebra were studied. We incrementally build efficient parallel kernels, for matrix multiplication, triangular system solving, on top of which several variants of PLUQ decomposition algorithm are built. We study the parallelization of these kernels using several algorithmic variants: either iterative or recursive and using different splitting strategies.We propose a recursive Gaussian elimination that can compute simultaneously therow and column rank profiles of a matrix as well as those of all of its leading submatrices, in the same time as state of the art Gaussian elimination algorithms. We also study the conditions making a Gaussian elimination algorithm reveal this information by defining a new matrix invariant, the rank profile matrix.

Page generated in 0.026 seconds