• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 15
  • 5
  • 1
  • Tagged with
  • 62
  • 38
  • 38
  • 24
  • 20
  • 17
  • 17
  • 15
  • 15
  • 14
  • 12
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse en composantes indépendantes avec une matrice de mélange éparse

Billette, Marc-Olivier 06 1900 (has links)
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe. / Independent component analysis (ICA) is a method of statistical analysis where the main goal is to express the observed data (mixtures) in a linear transformation of latent variables (sources) believed to be non-Gaussian and mutually independent. In some applications, the mixtures can be grouped so that the mixtures belonging to the same group are function of the same sources. This implies that the coefficients of each column of the mixing matrix can be grouped according to these same groups and that all the coefficients of some of these groups are zero. In other words, we suppose that the mixing matrix is sparse per group. This assumption facilitates the interpretation and improves the accuracy of the ICA model. In this context, we propose to solve the problem of ICA with a sparse group mixing matrix by a method based on the adaptive group LASSO. The latter penalizes the 1-norm of the groups of coefficients with adaptive weights. In this thesis, we point out the utility of our method in applications in brain imaging, specifically in magnetic resonance imaging. Through simulations, we illustrate with an example the effectiveness of our method to reduce to zero the non-significant groups of coefficients within the mixing matrix. We also show that the accuracy of the proposed method is greater than the one of the maximum likelihood estimator with an adaptive LASSO penalization in the case where the mixing matrix is sparse per group.
32

Imagerie des faisceaux de fibres et des réseaux fonctionnels du cerveau : application à l'étude du syndrome de Gilles de la Tourette / Imaging anatomical and functional brain cortico-subcortical loops : Application to the Gilles de la Tourette syndrome

Malherbe, Caroline 28 March 2012 (has links)
L'objectif de cette thèse est d'identifier et caractériser les boucles anatomiques et fonctionnelles cortico-sous-corticales chez l'Homme, à partir de données d'imagerie par résonance magnétique fonctionnelle (IRMf) au repos et de diffusion. Une boucle est un ensemble de régions corticales, sous-corticales et cérébelleuses, qui interagissent afin d'effectuer ou de préparer une tâche.Le premier axe de ce travail vise à identifier les réseaux fonctionnels cortico-sous-corticaux en IRMf au repos. Nous proposons une méthode statistique robuste séparant l'analyse corticale de l'analyse sous-corticale. Une analyse en composantes indépendantes spatiales est d'abord réalisée individuellement sur les régions corticales, et suivie d'une classification hiérarchique. Les régions sous-corticales associées sont ensuite extraites par un modèle linéaire général dont les régresseurs comportent la dynamique des régions corticales, suivi d'une analyse de groupe à effets aléatoires. La méthode est validée sur deux jeux de données différents. Un atlas immunohistochimique des structures sous-corticales permet ensuite de déterminer la fonction sensorimotrice, associative ou limbique des réseaux obtenus. Nous montrons enfin que l'anatomie est un support pour la fonction chez des sujets sains.Le dernier axe étudie le syndrome de Gilles de la Tourette, qu'on pense être dû à un dysfonctionnement des boucles cortico-sous-corticales. Nous caractérisons d'abord les boucles cortico-sous-corticales fonctionnelles grâce à des métriques d'intégration et de théorie des graphes, et des différences en termes de connectivité sont mises en évidence entre patients adultes et volontaires sains. Nous montrons également que les boucles cortico-sous-corticales fonctionnelles chez les patients sont soutenues par l'anatomie sous-jacente. / The objective of this thesis is to identify and characterize human anatomical and functional cortico-subcortical loops, using data from resting-state functional magnetic resonance imaging (fMRI) and diffusion MRI. A loop is a set of cortical, subcortical and cerebellar regions that interact to perform or prepare for a task.We first aim to identify cortico-subcortical functional networks from resting-state fMRI data. We propose a robust statistical method that separates the analysis of cortical regions from that of subcortical structures. A spatial independent component analysis is first performed on individual cortical regions, followed by a hierarchical classification. The associated subcortical regions are then extracted by using a general linear model, the regressors of which contain the dynamics of the cortical regions, followed by a random-effect group analysis. The proposed approach is assessed on two different data sets. An immunohistochemical subcortical atlas is then used to determine the sensorimotor, associative or limbic function of the resulting networks. We finally demonstrate that anatomy is a support for function in healthy subjects.The last part is devoted to the study of the Gilles de la Tourette syndrome, thought to be due to adysfunction of cortico-subcortical loops. Firstly, cortico-subcortical functional loops are characterized using metrics such as integration and graph theory measures, showing differences in terms of connectivity between adult patients and healthy volunteers. Secondly, we show that the cortico-subcortical functional loops in patients are supported by the underlying anatomy.
33

Ordonnancement temps réel préemptif multiprocesseur avec prise en compte du coût du système d’exploitation / Multiprocessor preemptive real-time scheduling taking into account the operating system cost

Ndoye, Falou 03 April 2014 (has links)
Dans cette thèse nous étudions le problème d'ordonnancement temps réel multiprocesseur préemptif avec prise en compte du coût exact du système d'exploitation. Ce coût est formé de deux parties : une partie facile à déterminer, correspondant au coût de l'ordonnanceur et une partie difficile à déterminer, correspondant au coût de la préemption. Cette difficulté est due au fait qu'une préemption peut en engendrer une autre, pouvant ainsi créer un phénomène d'avalanche. Dans un premier temps, nous avons étudié l'ordonnancement hors ligne multiprocesseur de tâches indépendantes avec prise en compte du coût exact de la préemption et proposé une analyse d'ordonnançabilité fondée sur une heuristique d'ordonnancement multiprocesseur. Cette heuristique utilise la stratégie d'ordonnancement multiprocesseur par partitionnement. Pour prendre en compte le coût exact de la préemption sur chaque processeur nous avons utilisé la condition d'ordonnançabilité proposée par Meumeu et Sorel. Cette condition d'ordonnançabilité pour des tâches à priorités fixes, est basée sur une opération binaire d'ordonnancement qui permet de compter le nombre exact de préemption et d'ajouter leur coût dans l'analyse d'ordonnançabilité des tâches. L'heuristique proposée permet de maximiser le facteur d'utilisation restant afin de répartir équitablement les tâches sur les processeurs et de réduire leur temps de réponse. Elle produit une table d'ordonnancement hors ligne. Dans un second temps, nous avons étudié l'ordonnancement hors ligne multiprocesseur de tâches dépendantes avec prise en compte du coût exact de la préemption. Puisque la condition d'ordonnançabilité utilisée pour ordonnancer les tâches indépendantes ne s'applique qu'à des tâches à priorités fixes, elle ne permet pas de gérer les inversions de priorités que peuvent entraîner les tâches dépendantes. Nous avons donc proposé une nouvelle condition d'ordonnançabilité pour des tâches à priorités dynamiques. Elle prend en compte le coût exact de la préemption et les dépendances sans aucune perte de données. Ensuite en utilisant toujours la stratégie d'ordonnancement par partitionnement, nous avons proposé pour des tâches dépendantes une heuristique d'ordonnancement multiprocesseur qui réutilise cette nouvelle condition d'ordonnançabilité au niveau de chaque processeur. Cette heuristique d'ordonnancement prend en compte les coûts de communication inter-processeurs. Elle permet aussi de minimiser sur chaque processeur le makespan (temps total d'exécution) des tâches. Cette heuristique produit pour chaque processeur une table d'ordonnancement hors ligne contenant les dates de début et de fin de chaque tâches et de chaque commmunication inter-processeur. En supposant que nous avons une architecture multiprocesseur de type dirigée par le temps (Time-Triggered) pour laquelle tous les processeurs ont une référence de temps unique, nous avons proposé pour chacun des processeurs un ordonnanceur en ligne qui utilise la table d'ordonnancement produite lors de l'ordonnancement hors ligne. Cet ordonnanceur en ligne a l'avantage d'avoir un coût constant qui de plus est facile à déterminer de manière exacte. En effet il correspond uniquement au temps de lecture dans la table d'ordonnancement pour obtenir la tâche sélectionnée lors de l'analyse d'ordonnançabilité hors ligne, alors que dans les ordonnanceurs classiques en ligne ce coût correspond à mettre à jour la liste des tâches qui sont dans l'état prêt à l'exécution puis à sélectionner une tâche selon un algorithme, par exemple RM, DM, EDF, etc. Il varie donc avec le nombre de tâches prêtes à s'exécuter qui change d'une invocation à l'autre de l'ordonnanceur. C'est ce coût qui est utilisé dans les analyses d'ordonnançabilités évoquées ci-dessus. Un autre avantage est qu'il n'est pas nécessaire de synchroniser l'accès aux mémoires de données partagées par plusieurs tâches, car cette synchronisation a été déjà effectuée lors de l'analyse d'ordonnançabilité hors ligne. / In this thesis we studied the problem of multiprocessor preemptive real-time scheduling taking into account the exact cost of the operating system (OS). This cost is composed of two parts: a part easy to determine, corresponding to the scheduler cost and another part difficult to determine, corresponding to the preemption cost. This difficulty is due to the fact that a preemption can involve another one, being able to so create an avalanche phenomenon. First, we studied the off-line multiprocessor real-time scheduling of independent tasks taking into account the exact preemption cost. We proposed a schedulability analysis based on a multiprocessor scheduling heuristic. This heuristic uses the partitioned multiprocessor scheduling approach. In order to take into account the exact preemption cost on every processor we use the schedulability condition proposed by Meumeu and Sorel. This schedulability condition for fixed priorities tasks, is based on a binary scheduling operation which counts the exact number of preemptions and add their cost in the schedulability analysis. The proposed heuristic maximizes the remaining utilization factor to fairly distribute the tasks on processors and to reduce their response time. It produces an off-line scheduling table. Secondly, we studied the off-line multiprocessor real-time scheduling of dependent tasks taking into account the exact preemption cost. Because the schedulability condition used for scheduling independent tasks can be applied only to fixed priorities tasks, it does not allow to manage priorities inversions that are involved by dependent tasks. We proposed a new schedulability condition for dependent tasks which enables fixed and dynamic priorities. This schedulability condition takes into account the exact preemption cost and dependences between tasks without any loss of data. Always with the partitioned scheduling approach, we proposed for dependent tasks a multiprocessor scheduling heuristic which reuses, on every processor, the schedulability condition proposed previously. In addition, this scheduling heuristic takes into account the interprocessors communication costs. It also minimizes on every processor the makespan (total execution time of the tasks on all the processors). This heuristic produces for every processor an off-line scheduling table. Supposing that we have a time-triggered multiprocessor architecture such that all the processors have a unique time reference, we proposed for every processor an on-line scheduler which uses the scheduling table produced during the off-line schedulability analysis. This on-line scheduler has the advantage to have a constant cost that is easy to determine exactly.Indeed, this cost corresponds only to the time necessary to read in the scheduling table the task selected for execution. In the on-line classical scheduler, this cost corresponds to the time necessary to update the list of ready tasks in order to select a task, according to a given scheduling algorithm, for example RM, DM, EDF, etc. In this case, the cost for selecting a task varies with the number of ready tasks which changes from an invocation of the scheduler to another one. Another advantage of the proposed on-line scheduler is that it is not necessary to synchronize the access to the data shared by several tasks, because this synchronization was already done during the off-line schedulability analysis.
34

Algorithmes pour la diagonalisation conjointe de tenseurs sans contrainte unitaire. Application à la séparation MIMO de sources de télécommunications numériques / Algorithms for non-unitary joint diagonalization of tensors. Application to MIMO source separation in digital telecommunications

Maurandi, Victor 30 November 2015 (has links)
Cette thèse développe des méthodes de diagonalisation conjointe de matrices et de tenseurs d’ordre trois, et son application à la séparation MIMO de sources de télécommunications numériques. Après un état, les motivations et objectifs de la thèse sont présentés. Les problèmes de la diagonalisation conjointe et de la séparation de sources sont définis et un lien entre ces deux domaines est établi. Par la suite, plusieurs algorithmes itératifs de type Jacobi reposant sur une paramétrisation LU sont développés. Pour chacun des algorithmes, on propose de déterminer les matrices permettant de diagonaliser l’ensemble considéré par l’optimisation d’un critère inverse. On envisage la minimisation du critère selon deux approches : la première, de manière directe, et la seconde, en supposant que les éléments de l’ensemble considéré sont quasiment diagonaux. En ce qui concerne l’estimation des différents paramètres du problème, deux stratégies sont mises en œuvre : l’une consistant à estimer tous les paramètres indépendamment et l’autre reposant sur l’estimation indépendante de couples de paramètres spécifiquement choisis. Ainsi, nous proposons trois algorithmes pour la diagonalisation conjointe de matrices complexes symétriques ou hermitiennes et deux algorithmes pour la diagonalisation conjointe d’ensembles de tenseurs symétriques ou non-symétriques ou admettant une décomposition INDSCAL. Nous montrons aussi le lien existant entre la diagonalisation conjointe de tenseurs d’ordre trois et la décomposition canonique polyadique d’un tenseur d’ordre quatre, puis nous comparons les algorithmes développés à différentes méthodes de la littérature. Le bon comportement des algorithmes proposés est illustré au moyen de simulations numériques. Puis, ils sont validés dans le cadre de la séparation de sources de télécommunications numériques. / This thesis develops joint diagonalization of matrices and third-order tensors methods for MIMO source separation in the field of digital telecommunications. After a state of the art, the motivations and the objectives are presented. Then the joint diagonalisation and the blind source separation issues are defined and a link between both fields is established. Thereafter, five Jacobi-like iterative algorithms based on an LU parameterization are developed. For each of them, we propose to derive the diagonalization matrix by optimizing an inverse criterion. Two ways are investigated : minimizing the criterion in a direct way or assuming that the elements from the considered set are almost diagonal. Regarding the parameters derivation, two strategies are implemented : one consists in estimating each parameter independently, the other consists in the independent derivation of couple of well-chosen parameters. Hence, we propose three algorithms for the joint diagonalization of symmetric complex matrices or hermitian ones. The first one relies on searching for the roots of the criterion derivative, the second one relies on a minor eigenvector research and the last one relies on a gradient descent method enhanced by computation of the optimal adaptation step. In the framework of joint diagonalization of symmetric, INDSCAL or non symmetric third-order tensors, we have developed two algorithms. For each of them, the parameters derivation is done by computing the roots of the considered criterion derivative. We also show the link between the joint diagonalization of a third-order tensor set and the canonical polyadic decomposition of a fourth-order tensor. We confront both methods through numerical simulations. The good behavior of the proposed algorithms is illustrated by means of computing simulations. Finally, they are applied to the source separation of digital telecommunication signals.
35

Extraction of Fetal Cardiac Signals from an Array of Maternal Abdominal Recordings

Sameni, Reza 07 July 2008 (has links) (PDF)
Les malformations cardiaques congénitales sont parmi les malformations les plus communes à la naissance et la première cause de décès des nouveau-nés. La plupart des anomalies cardiaques sont visibles dans la morphologie des signaux électriques cardiaques, qui sont enregistrés par l'électrocardiographie qui semble contenir plus d'informations par rapport aux méthodes conventionnelles sonographiques. Par conséquent, l'étude non invasive des signaux cardiaques du foetus peut fournir un moyen efficace pour contrôler le bon fonctionnement du coeur du foetus et peut être utilisé pour la détection précoce des anomalies cardiaques.<br /><br />Dans les précédentes études, diverses méthodes ont été mises au point pour le traitement et l'extraction d'électrocardiogramme (ECG) du foetus, à partir des signaux enregistrés de la surface du corps de la mère. Toutefois, en raison du faible rapport signal/bruit de ces signaux, l'application d'électrocardiographie fétale a été limitée à l'analyse des battements cardiaques et à des enregistrements ECG invasifs pendant l'accouchement.<br /><br />Dans cette recherche, l'objectif est d'améliorer les méthodes de traitement du signal utilisées en cardiographie du foetus et d'apporter de nouvelles solutions à ce problème, en développant de nouvelles techniques de modélisation et de filtrage des signaux d'ECG du foetus enregistrés par un réseau d'électrodes placées sur le ventre maternel. L'idée de base derrière les méthodes développées, consiste à utiliser les informations a priori des signaux cardiaques, tels que leur pseudo-périodicité, afin d'améliorer les performances des méthodes existantes et de concevoir de nouvelles techniques de filtrage qui sont spécifiques aux signaux cardiaques. En raison du recouvrement des signaux du foetus avec les interférences/bruits dans différents domaines, les méthodes qui utilisent l'information dans un seul de ces domaines, ne réussissent pas à extraire les ECG foetaux. Par conséquent, nous proposons des méthodes de traitement qui utilisent les informations provenant de différents domaines, afin d'améliorer la qualité des signaux extraits.<br /><br />Théoriquement, les méthodes proposées sont des combinaisons de modèles morphologiques de l'ECG, de techniques de filtrage bayésienne ad hoc basées sur la théorie de l'estimation et de classes spéciales de filtres spatiaux issus du contexte de la séparation aveugle et semi-aveugle de sources. Il est montré que, en raison de la généralité des méthodes proposées, les mêmes procédures sont également applicables aux signaux ECG multicapteurs chez l'adulte, et peuvent être utilisées en temps réel dans les systèmes de surveillance cardiaque.<br /><br />En outre, les méthodes développées sont fondées sur la morphologie du signal cardiaque, sans prendre en compte les particularités de la théorie du volume conducteur et la propagation électromagnétique dans les milieux physiologiques. Par conséquent, les mêmes méthodes sont applicables à d'autres modalités de surveillance cardiaque, comme le magnétocardiogramme (MCG), qui sont morphologiquement similaire à l'ECG. En particulier, nous présentons une étude de cas sur l'extraction des signaux MCG de jumeaux.<br /><br />Nous présentons également une technique originale de déflation, qui vise à séparer les sous-espaces formés par les signaux d'intérêt dans des mélanges sous-déterminés. Cette idée s'avère très performante et débouche sur des applications diverses dans d'autres contextes.
36

Potentiels des données de télédétection multisources pour la cartographie géologique : Application à la région de Rehoboth (Namibie)

gomez, cecile 26 November 2004 (has links) (PDF)
Les données de télédétection dans le domaine du Visible, de l'Infrarouge et du rayonnement Gamma ont un potentiel pour la cartographie géologique. Ce potentiel est évalué sur l'exemple de la carte géologique de Rehoboth, zone semi aride de Namibie en contexte sédimentaire. Une méthode de détermination des contours géologiques a été mise au point à partir d'une combinaison de données multispectrales ASTER (3 bandes dans le Visible, 6 bandes dans l'Infrarouge Moyen), de données hyperspectrales HYPERION (242 bandes du visible à l'Infrarouge Moyen) et de données de rayonnement Gamma (K, U, Th). Cette méthode permet de préciser la géométrie de la carte. Le potentiel des données HYPERION a ensuite été évalué pour l'identification et la quantification des lithologies à partir de deux techniques : la méthode N-FindR et la méthode d'Analyse en Composantes Indépendantes (ACI). Les tests montrent que la méthode ACI permet d'identifier de façon plus fiable les composants lithologiques présents dans un pixel.
37

Analyse de scènes naturelles par Composantes Indépendantes

Le Borgne, Hervé 30 January 2004 (has links) (PDF)
De nombreuses études montrent que les détecteurs corticaux pourraient résulter de l'application d'un principe de réduction de redondance par indépendance statistique de leurs activités. L'analyse en Composantes Indépendantes est utilisée ici pour générer ces détecteurs, puis leurs performances sont analysées en terme de codage et de description pour catégoriser des images sémantiquement. La propriété d'indépendance statistique permet notamment de vaincre la « malédiction de la dimension » dans un contexte de classification d'images. Un second volet concerne la sémantique des images et la perception visuelle. Des sujets humains sont confrontés à des séries d'expérimentation, captant leur jugement de similarités visuelles, afin de pouvoir identifier les catégories sémantiques, d'apprécier l'apport de modalités perceptives comme la chrominance versus la luminance, et de mettre en évidence des asymétries perceptives.
38

Méthodes de séparation aveugle de sources non linéaires, étude du modèle quadratique 2*2

Chaouchi, Chahinez 14 June 2011 (has links) (PDF)
Cette thèse présente des méthodes de séparation aveugle de sources pour un modèle de mélange non-linéaire particulier, le cas quadratique avec auto-termes et termes croisés. Dans la première partie, nous présentons la structure de séparation étudiée qui se décline sous deux formes : étendue ou basique. Les propriétés de ce réseau récurrent sont ensuite analysées (points d'équilibre, stabilité locale). Nous proposons alors deux méthodes de séparation aveugle de sources. La première exploite les cumulants des observations en un bloc placé en amont de la structure récurrente. La deuxième méthode est basée sur une approche par maximum de vraisemblance. Le tout est validé par des simulations numériques.
39

Potentiels des données de télédétection multisources pour la cartographie géologique : Application à la région de Rehoboth (Namibie)

Gomez, Cécile 26 November 2004 (has links) (PDF)
Les données de télédétection dans le domaine du Visible, de l'Infrarouge et du rayonnement Gamma ont un potentiel pour la cartographie géologique. Ce potentiel est évalué sur l'exemple de la carte géologique de Rehoboth, zone semi aride de Namibie en contexte sédimentaire. Une méthode de détermination des contours géologiques a été mise au point à partir d'une combinaison de données multispectrales ASTER (3 bandes dans le Visible, 6 bandes dans l'Infrarouge Moyen), de données hyperspectrales HYPERION (242 bandes du visible à l'Infrarouge Moyen) et de données de rayonnement Gamma (K, U, Th). Cette méthode permet de préciser la géométrie de la carte. Le potentiel des données HYPERION a ensuite été évalué pour l'identification et la quantification des lithologies ' partir de deux techniques : la méthode N-FindR et la méthode d'Analyse en Composantes Indépendantes (ACI). Les tests montrent que la méthode ACI permet d'identifier de façon plus fiable les composants lithologiques présents dans un pixel.
40

Séparation de sources thermométriques.

Khan, Amir Ali 27 November 2009 (has links) (PDF)
Ce travail de thèse aborde un problème de la détection des fuites d'eau dans des digues en terre. L'écoulement préférentiel, un indicateur de destruction interne, résulte dans une anomalie thermique. Les capteurs DTS basés sur la fibre optique offrent une solution efficace pour les mesures spatio-temporelles de température. Les données thermométriques sont influencées par différents facteurs comme la réponse du sol, les variations saisonnières, l'environnement géomécanique, etc. Afin d'écarter des phénomènes comme les précipitations, nous proposons un critère basé sur le skewness et le kurtosis. La détection des fuites étant formulée comme un problème de séparation de sources, nous présentons un système basé sur la SVD et l'ICA pour séparer les informations utiles liées aux fuites des autres facteurs. Dans le cas où le nombre d'acquisitions en temps est limité, nous proposons un détecteur de singularités exploitant les dissimilarités entre les mesures journalières de température aux différentes distances.

Page generated in 0.0876 seconds