• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Étude de l’évolution des génomes par duplications, pertes et réarrangements

Tremblay Savard, Olivier 10 1900 (has links)
La duplication est un des évènements évolutifs les plus importants, car elle peut mener à la création de nouvelles fonctions géniques. Durant leur évolution, les génomes sont aussi affectés par des inversions, des translocations (incluant des fusions et fissions de chromosomes), des transpositions et des délétions. L'étude de l'évolution des génomes est importante, notamment pour mieux comprendre les mécanismes biologiques impliqués, les types d'évènements qui sont les plus fréquents et quels étaient les contenus en gènes des espèces ancestrales. Afin d'analyser ces différents aspects de l'évolution des génomes, des algorithmes efficaces doivent être créés pour inférer des génomes ancestraux, des histoires évolutives, des relations d'homologies et pour calculer les distances entre les génomes. Dans cette thèse, quatre projets reliés à l'étude et à l'analyse de l'évolution des génomes sont présentés : 1) Nous proposons deux algorithmes pour résoudre des problèmes reliés à la duplication de génome entier : un qui généralise le problème du genome halving aux pertes de gènes et un qui permet de calculer la double distance avec pertes. 2) Nous présentons une nouvelle méthode pour l'inférence d'histoires évolutives de groupes de gènes orthologues répétés en tandem. 3) Nous proposons une nouvelle approche basée sur la théorie des graphes pour inférer des gènes in-paralogues qui considère simultanément l'information provenant de différentes espèces afin de faire de meilleures prédictions. 4) Nous présentons une étude de l'histoire évolutive des gènes d'ARN de transfert chez 50 souches de Bacillus. / Gene duplication is one of the most important types of events affecting genomes during their evolution because it can create novel gene function. During the evolution process, genomes are also affected by inversions, translocations (including chromosome fusions and fissions), transpositions and deletions. Studying the evolution of genomes is important to get a better understanding of the biological mechanisms involved, which types of events are more frequent than others and what was the gene content in the ancestral species just to name a few. In order to analyze these different aspects of genome evolution, efficient algorithms need to be developed to infer ancestral genomes, evolutionary histories, homology relationships between genes and to compute distances between genomes. In this thesis, four different projects related to the study and analysis of genome evolution are presented: 1) We developed two algorithms to solve problems related to whole genome duplication: one that generalizes the genome halving problem to gene losses, and one that allows to compute the double distance with losses. 2) We developed a new method to infer evolutionary histories of orthologous tandemly arrayed gene clusters. 3) We proposed a new graph-theoretic approach to infer inparalogs that simultaneously considers the information given by multiple species in order to make better inferences of inparalogous gene pairs. 4) We studied the evolutionary history of the tRNA genes of 50 Bacillus strains.
242

Modèles d'encodage parcimonieux de l'activité cérébrale mesurée par IRM fonctionnelle / Parsimonious encoding models for brain activity measured by functional MRI

Bakhous, Christine 10 December 2013 (has links)
L'imagerie par résonance magnétique fonctionnelle (IRMf) est une technique non invasive permettant l'étude de l'activité cérébrale au travers des changements hémodynamiques associés. Récemment, une technique de détection-estimation conjointe (DEC) a été développée permettant d'alterner (1) la détection de l'activité cérébrale induite par une stimulation ainsi que (2) l'estimation de la fonction de réponse hémodynamique caractérisant la dynamique vasculaire; deux problèmes qui sont généralement traités indépendamment. Cette approche considère une parcellisation a priori du cerveau en zones fonctionnellement homogènes et alterne (1) et (2) sur chacune d'entre elles séparément. De manière standard, l'analyse DEC suppose que le cerveau entier peut être activé par tous les types de stimuli (visuel, auditif, etc.). Cependant la spécialisation fonctionnelle des régions cérébrales montre que l'activité d'une région n'est due qu'à certains types de stimuli. La prise en compte de stimuli non pertinents dans l'analyse, peut dégrader les résultats. La sous-famille des types de stimuli pertinents n'étant pas la même à travers le cerveau une procédure de sélection de modèles serait très coûteuse en temps de calcul. De plus, une telle sélection a priori n'est pas toujours possible surtout dans les cas pathologiques. Ce travail de thèse propose une extension de l'approche DEC permettant la sélection automatique des conditions (types de stimuli) pertinentes selon l'activité cérébrale qu'elles suscitent, cela simultanément à l'analyse et adaptativement à travers les régions cérébrales. Des exemples d'analyses sur des jeux de données simulés et réels, illustrent la capacité de l'approche DEC parcimonieuse proposée à sélectionner les conditions pertinentes ainsi que son intérêt par rapport à l'approche DEC standard. / Functional magnetic resonance imaging (fMRI) is a noninvasive technique allowing the study of brain activity via the measurement of hemodynamic changes. Recently, a joint detection-estimation (JDE) framework was developed and relies on both (1) the brain activity detection and (2) the hemodynamic response function estimation, two steps that are generally addressed in a separate way. The JDE approach is a parcel-based model that alternates (1) and (2) on each parcel successively. The JDE analysis assumes that all delivered stimuli (e.g. visual, auditory, etc.) possibly generate a response everywhere in the brain although activation is likely to be induced by only some of them in specific brain areas. Inclusion of irrelevant events may degrade the results. Since the relevant conditions or stimulus types can change between different brain areas, a model selection procedure will be computationally expensive. Furthermore, criteria are not always available to select the relevant conditions prior to activation detection, especially in pathological cases. The goal of this work is to develop a JDE extension allowing an automatic selection of the relevant conditions according to the brain activity they elicit. This condition selection is done simultaneously to the analysis and adaptively through the different brain areas. Analysis on simulated and real datasets illustrate the ability of our model to select the relevant conditions and its interest compare to the standard JDE analysis.
243

Défense intégrative du réalisme scientifique contre l’argument pessimiste / An Integrative Defense of Scientific Realism against the Pessimistic Argument

Künstler, Raphaël 27 May 2014 (has links)
Il est souvent arrivé que, par le passé, les scientifiques affirment l'existence d'objets inobservables dont ils rejettent aujourd'hui l'existence. Quelle leçon tirer de ce fait ? On est tenté d'en conclure que les méthodes qu'emploient les scientifiques pour connaître l'inobservable ne sont pas fiables, de sorte que cette connaissance serait située hors de leur portée. Cette thèse identifie et rejette deux présupposés qui conduisent à cette conclusion, à savoir que la méthode de l'hypothèse serait la seule manière de produire des connaissances des inobservables, et que cette méthode se déploierait de manière instantanée. Si, au contraire, les modalités concrètes de l'activité expérimentale et la dimension diachronique de la recherche théorique sont prises en compte, chacun de ces deux présupposés doit être rejeté comme abstrait. La connaissance des effondrements théoriques passés légitime alors la croyance en la vérité des théories actuelles. / History of science presents us with numerous cases in which scientists conclude that an unobservable entity previously posited as real actually does not exist. What the lesson is to be drawn from this fact ? One is tempted to draw the conclusion that the methods employed by scientists to produce knowledge of unobservable objects are not reliable: gaining this knowledge would be beyond their reach. This thesis identifies and rejects two presuppositions that lead to this conclusion: that the method of hypothesis is the only way to produce knowledge of unobservables and that it can be employed in an instantaneous manner. On the contrary, if the concrete modalities of the experimental activity and the diachronical dimension of theoretical research are taken into account, each of these two presuppositions appear to be too abstract and should be rejected. Knowledge of past theoretical collapses then legitimates the belief in the truth of current scientific theories.
244

Extraction automatique de protocoles de communication pour la composition de services Web / Automatic extraction of communication protocols for web services composition

Musaraj, Kreshnik 13 December 2010 (has links)
La gestion des processus-métiers, des architectures orientées-services et leur rétro-ingénierie s’appuie fortement sur l’extraction des protocoles-métier des services Web et des modèles des processus-métiers à partir de fichiers de journaux. La fouille et l’extraction de ces modèles visent la (re)découverte du comportement d'un modèle mis en œuvre lors de son exécution en utilisant uniquement les traces d'activité, ne faisant usage d’aucune information a priori sur le modèle cible. Notre étude préliminaire montre que : (i) une minorité de données sur l'interaction sont enregistrées par le processus et les architectures de services, (ii) un nombre limité de méthodes d'extraction découvrent ce modèle sans connaître ni les instances positives du protocole, ni l'information pour les déduire, et (iii) les approches actuelles se basent sur des hypothèses restrictives que seule une fraction des services Web issus du monde réel satisfont. Rendre possible l'extraction de ces modèles d'interaction des journaux d'activité, en se basant sur des hypothèses réalistes nécessite: (i) des approches qui font abstraction du contexte de l'entreprise afin de permettre une utilisation élargie et générique, et (ii) des outils pour évaluer le résultat de la fouille à travers la mise en œuvre du cycle de vie des modèles découverts de services. En outre, puisque les journaux d'interaction sont souvent incomplets, comportent des erreurs et de l’information incertaine, alors les approches d'extraction proposées dans cette thèse doivent être capables de traiter ces imperfections correctement. Nous proposons un ensemble de modèles mathématiques qui englobent les différents aspects de la fouille des protocoles-métiers. Les approches d’extraction que nous présentons, issues de l'algèbre linéaire, nous permettent d'extraire le protocole-métier tout en fusionnant les étapes classiques de la fouille des processus-métiers. D'autre part, notre représentation du protocole basée sur des séries temporelles des variations de densité de flux permet de récupérer l'ordre temporel de l'exécution des événements et des messages dans un processus. En outre, nous proposons la définition des expirations propres pour identifier les transitions temporisées, et fournissons une méthode pour les extraire en dépit de leur propriété d'être invisible dans les journaux. Finalement, nous présentons un cadre multitâche visant à soutenir toutes les étapes du cycle de vie des workflow de processus et des protocoles, allant de la conception à l'optimisation. Les approches présentées dans ce manuscrit ont été implantées dans des outils de prototypage, et validées expérimentalement sur des ensembles de données et des modèles de processus et de services Web. Le protocole-métier découvert, peut ensuite être utilisé pour effectuer une multitude de tâches dans une organisation ou une entreprise. / Business process management, service-oriented architectures and their reverse engineering heavily rely on the fundamental endeavor of mining business process models and Web service business protocols from log files. Model extraction and mining aim at the (re)discovery of the behavior of a running model implementation using solely its interaction and activity traces, and no a priori information on the target model. Our preliminary study shows that : (i) a minority of interaction data is recorded by process and service-aware architectures, (ii) a limited number of methods achieve model extraction without knowledge of either positive process and protocol instances or the information to infer them, and (iii) the existing approaches rely on restrictive assumptions that only a fraction of real-world Web services satisfy. Enabling the extraction of these interaction models from activity logs based on realistic hypothesis necessitates: (i) approaches that make abstraction of the business context in order to allow their extended and generic usage, and (ii) tools for assessing the mining result through implementation of the process and service life-cycle. Moreover, since interaction logs are often incomplete, uncertain and contain errors, then mining approaches proposed in this work need to be capable of handling these imperfections properly. We propose a set of mathematical models that encompass the different aspects of process and protocol mining. The extraction approaches that we present, issued from linear algebra, allow us to extract the business protocol while merging the classic process mining stages. On the other hand, our protocol representation based on time series of flow density variations makes it possible to recover the temporal order of execution of events and messages in the process. In addition, we propose the concept of proper timeouts to refer to timed transitions, and provide a method for extracting them despite their property of being invisible in logs. In the end, we present a multitask framework aimed at supporting all the steps of the process workflow and business protocol life-cycle from design to optimization.The approaches presented in this manuscript have been implemented in prototype tools, and experimentally validated on scalable datasets and real-world process and web service models.The discovered business protocols, can thus be used to perform a multitude of tasks in an organization or enterprise.
245

When is consumer desire impacted by difficulty of recall ? : the effects of the type of information, expectation and time pressure

Huaman Ramirez, Richard 08 December 2015 (has links)
Cette thèse doctorale démontre que la difficulté pour un consommateur de se rappeler ses expériences passées de consommation d’un produit préféré influence son désir. Plus particulièrement, ce travail étudie comment le désir est influencé par le type d’information, sémantique ou épisodique, que l’individu se rappelle sur ses expériences passées de consommation pendant une tâche de rappel difficile, ainsi que par la difficulté attendue de la tâche de rappel et par la pression du temps. Nous avons utilisé une méthode expérimentale et avons conduit trois études empiriques. Les hypothèses ont été testées à partir de données collectées de trois échantillons différents : des consommateurs Péruviens, Chinois et Français. Les participants sont principalement des étudiants universitaires. Un total d’onze scénarios expérimentaux ont été présentés aux participants, incluant divers types de produits (boissons rafraîchissantes, produits hédoniques et activités de loisir). Notre contribution peut aider les professionnels en marketing à agir en prenant en compte le rappel des consommations gratifiantes passées. Afin d’évoquer davantage de désir chez le consommateur, les conditions devraient rendre difficile le fait pour celui-ci de se rappeler ses expériences gratifiantes de consommation passées ; les marketeurs devraient se focaliser notamment sur l’information sémantique des expériences passées et soumettre le consommateur à une pression temporelle. Cette recherche se focalise sur un rappel holistique d’expériences passées et sur le processus de récupération d’information à partir de la mémoire, et confirme la théorie du processus dual de Chaiken et Trope (1998) / This thesis demonstrates that difficulty in recalling past consumption of a preferred product influences the desire to consume that product. More specifically, this research evaluate how desire is influenced by what kind of information from past consumption experience is recalled (semantic or episodic information) during a difficult recall task, by the expected difficulty of recall task, and by time pressure. An experimental method was adopted and three empirical studies were conducted. Hypotheses were tested on data collected across different samples: Peruvian, Chinese, and French consumers. Participants were principally university students. A total of eleven experimental scenarios were presented to participants including different types of products (soft drinks, hedonic products, and leisure activities). Questionnaires were administrated by web and face-to-face. Our contribution has the potential to help marketers take action regarding the recall of past rewarding consumptions. To evoke more desire, consumers must be conditioned to difficult recalls of past consumptions of preferred products; marketers must specially focus on semantic information of past experiences and condition consumers with a time pressure. The results suggest that the type of information processed (semantic versus episodic) and time pressure influence the effect of the difficult recall of past consumption on desire. This research focuses on a holistic recall of past experiences and the retrieval process of information from memory, and confirms the Chaiken and Trope (1998)’s Dual-Process Theory
246

Modèles bayésiens pour la détection de synchronisations au sein de signaux électro-corticaux / Bayesian models for synchronizations detection in electrocortical signals

Rio, Maxime 16 July 2013 (has links)
Cette thèse propose de nouvelles méthodes d'analyse d'enregistrements cérébraux intra-crâniens (potentiels de champs locaux), qui pallie les lacunes de la méthode temps-fréquence standard d'analyse des perturbations spectrales événementielles : le calcul d'une moyenne sur les enregistrements et l'emploi de l'activité dans la période pré-stimulus. La première méthode proposée repose sur la détection de sous-ensembles d'électrodes dont l'activité présente des synchronisations cooccurrentes en un même point du plan temps-fréquence, à l'aide de modèles bayésiens de mélange gaussiens. Les sous-ensembles d'électrodes pertinents sont validés par une mesure de stabilité calculée entre les résultats obtenus sur les différents enregistrements. Pour la seconde méthode proposée, le constat qu'un bruit blanc dans le domaine temporel se transforme en bruit ricien dans le domaine de l'amplitude d'une transformée temps-fréquence a permis de mettre au point une segmentation du signal de chaque enregistrement dans chaque bande de fréquence en deux niveaux possibles, haut ou bas, à l'aide de modèles bayésiens de mélange ricien à deux composantes. À partir de ces deux niveaux, une analyse statistique permet de détecter des régions temps-fréquence plus ou moins actives. Pour développer le modèle bayésien de mélange ricien, de nouveaux algorithmes d'inférence bayésienne variationnelle ont été créés pour les distributions de Rice et de mélange ricien. Les performances des nouvelles méthodes ont été évaluées sur des données artificielles et sur des données expérimentales enregistrées sur des singes. Il ressort que les nouvelles méthodes génèrent moins de faux-positifs et sont plus robustes à l'absence de données dans la période pré-stimulus / This thesis promotes new methods to analyze intracranial cerebral signals (local field potentials), which overcome limitations of the standard time-frequency method of event-related spectral perturbations analysis: averaging over the trials and relying on the activity in the pre-stimulus period. The first proposed method is based on the detection of sub-networks of electrodes whose activity presents cooccurring synchronisations at a same point of the time-frequency plan, using bayesian gaussian mixture models. The relevant sub-networks are validated with a stability measure computed over the results obtained from different trials. For the second proposed method, the fact that a white noise in the temporal domain is transformed into a rician noise in the amplitude domain of a time-frequency transform made possible the development of a segmentation of the signal in each frequency band of each trial into two possible levels, a high one and a low one, using bayesian rician mixture models with two components. From these two levels, a statistical analysis can detect time-frequency regions more or less active. To develop the bayesian rician mixture model, new algorithms of variational bayesian inference have been created for the Rice distribution and the rician mixture distribution. Performances of the new methods have been evaluated on artificial data and experimental data recorded on monkeys. It appears that the new methods generate less false positive results and are more robust to a lack of data in the pre-stimulus period
247

Méthode d'inférence par bootstrap pour l'estimateur sisVIVE en randomisation mendélienne

Dessy, Tatiana 11 1900 (has links)
No description available.
248

Dynamic models of segregation / Modèles dynamiques de ségrégation

Dubois, Florent 15 November 2017 (has links)
Cette thèse étudie les causes et conséquences du processus de ségrégation résidentielle dans l’Afrique du Sud (AFS) post-Apartheid. Nous nous intéressons à plusieurs aspects encore débattus dans la littérature. Le premier concerne l’impact des préférences des individus pour la composition raciale de leur voisinage sur la ségrégation. Le second a trait à l’impact de la ségrégation résidentielle sur les niveaux de revenus des différents groupes raciaux. Le dernier quantifie les différentes causes de la ségrégation. Dans le premier chapitre, nous réconcilions la littérature théorique sur l’impact des préférences pour la composition raciale du voisinage avec les observations empiriques de niveaux décroissants de ségrégation aux US et en AFS. Nous soutenons l’idée que si les individus internalisent les apports économiques et sociaux de chaque nouvel arrivant dans leur voisinage alors des voisinages intégrés peuvent émerger. Cet effet est empiriquement plus fort que l’homophilie et le racisme. Dans le second chapitre, nous étudions l’impact de la ségrégation sur l’ensemble de la distribution des revenus. Nous montrons que la ségrégation a un effet positif sur les hauts revenus pour les Blancs tandis qu’elle a un effet négatif pour les Noirs au bas de la distribution. L’effet de la ségrégation est souvent plus important que l’effet de l’éducation. Enfin, dans le troisième chapitre, nous quantifions l’impact de chaque déterminant de la ségrégation. Nous trouvons que le manque d’accès aux services publics de base est le déterminant principal, alors que les différences de caractéristiques sociodémographiques ne comptent que pour une faible part pour les quartiers les plus ségrégués. / This thesis studies the causes and consequences of the residential segregation process in the post-Apartheid South Africa.Inside this general issue, we are interested in several aspects still debated in the literature on residential segregation. Thefirst concerns the impact of individuals’ preferences for the racial composition of their neighborhood on the segregationlevels. The second question deals with the impact of residential segregation on the income levels of each racial group. Thelast issue is related to quantifying the different causes of segregation.Three chapters constitute this thesis. In the first chapter, we reconcile the theoretical literature on the impact of preferencesfor the racial composition of the neighborhood with the empirical evidences of declining levels of segregation in theUnited-States and South Africa. We argue that if individuals internalize the economic and social life that a new entrantbrings with him, then integrated neighborhoods can emerge. This effect is empirically stronger than homophilly andracism. In the second chapter, we study the impact of residential segregation on the whole income distribution. We showthat residential segregation has a positif effect on top incomes for Whites, whereas it has a negatif effect for Blacks at thebottom of the distribution. The effect of residential segregation is even more important than the effect of education inmost cases. In the third chapter, we quantify the impact of each determinant of segregation. We find that the lackof access to basic public services is the main determinant, whereas differences in sociodemographics only account for asmall part in the most segregated areas.
249

Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique / Multivariate methods for the joint analysis of neuroimaging and genetic data

Le floch, Edith 28 September 2012 (has links)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée. / Brain imaging is increasingly recognised as an interesting intermediate phenotype to understand the complex path between genetics and behavioural or clinical phenotypes. In this context, a first goal is to propose methods to identify the part of genetic variability that explains some neuroimaging variability. Classical univariate approaches often ignore the potential joint effects that may exist between genes or the potential covariations between brain regions. Our first contribution is to improve the sensitivity of the univariate approach by taking advantage of the multivariate nature of the genetic data in a local way. Indeed, we adapt cluster-inference techniques from neuroimaging to Single Nucleotide Polymorphism (SNP) data, by looking for 1D clusters of adjacent SNPs associated with the same imaging phenotype. Then, we push further the concept of clusters and we combined voxel clusters and SNP clusters, by using a simple 4D cluster test that detects conjointly brain and genome regions with high associations. We obtain promising preliminary results on both simulated and real datasets .Our second contribution is to investigate exploratory multivariate methods to increase the detection power of imaging genetics studies, by accounting for the potential multivariate nature of the associations, at a longer range, on both the imaging and the genetics sides. Recently, Partial Least Squares (PLS) regression or Canonical Correlation Analysis (CCA) have been proposed to analyse genetic and transcriptomic data. Here, we propose to transpose this idea to the genetics vs. imaging context. Moreover, we investigate the use of different strategies of regularisation and dimension reduction techniques combined with PLS or CCA, to face the overfitting issues due to the very high dimensionality of the data. We propose a comparison study of the different strategies on both a simulated dataset and a real fMRI and SNP dataset. Univariate selection appears to be necessary to reduce the dimensionality. However, the generalisable and significant association uncovered on the real dataset by the two-step approach combining univariate filtering and L1-regularised PLS suggests that discovering meaningful imaging genetics associations calls for a multivariate approach.
250

Application of random matrix theory to future wireless flexible networks. / Application des matrices aléatoires aux futurs réseaux flexibles de communications sans fil

Couillet, Romain 12 November 2010 (has links)
Il est attendu que les radios flexibles constituent un tournant technologique majeur dans le domaine des communications sans fil. Le point de vue adopté en radios flexibles est de considérer les canaux de communication comme un ensemble de ressources qui peuvent être accédées sur demande par un réseau primaire sous licence ou de manière opportuniste par un réseau secondaire à plus faible priorité. Du point de vue de la couche physique, le réseau primaire n’a aucune information sur l’existence de réseaux secondaires, de sorte que ces derniers doivent explorer l’environnement aérien de manière autonome à la recherche d’opportunités spectrales et exploiter ces ressources de manière optimale. Les phases d’exploration et d’exploitation, qui impliquent la gestion de nombreux agents, doivent être très fiables, rapides et efficaces. L’objectif de cette thèse est de modéliser, d’analyser et de proposer des solutions efficaces et quasi optimales pour ces dernières opérations.En ce qui concerne la phase d’exploration, nous calculons le test optimal de Neyman-Pearson de détection de plusieurs sources primaires via un réseau de capteurs. Cette procédure permet à un réseau secondaire d’établir la présence de ressources spectrales disponibles. La complexité calculatoire de l’approche optimale appelle cependant la mise en place de méthodes moins onéreuses, que nous rappelons et discutons. Nous étendons alors le test de détection en l’estimation aveugle de la position de sources multiples, qui permet l’acquisition d’informations détaillées sur les ressources spectrales disponibles.Le second volet de cette thèse est consacré à la phase d’exploitation optimale des ressources au niveau du réseau secondaire. Pour ce faire, nous obtenons une approximation fine du débit ergodique d’un canal multi-antennes à accès multiples et proposons des solutions peu coûteuses en termes de feedback afin que les réseaux secondaires s’adaptent rapidement aux évolutions rapides du réseau primaire. / Future cognitive radio networks are expected to come as a disruptive technological advance in the currently saturated field of wireless communications. The idea behind cognitive radios is to think of the wireless channels as a pool of communication resources, which can be accessed on-demand by a primary licensed network or opportunistically preempted (or overlaid) by a secondary network with lower access priority. From a physical layer point of view, the primary network is ideally oblivious of the existence of a co-localized secondary networks. The latter are therefore required to autonomously explore the air in search for resource left-overs, and then to optimally exploit the available resource. The exploration and exploitation procedures, which involve multiple interacting agents, are requested to be highly reliable, fast and efficient. The objective of the thesis is to model, analyse and propose computationally efficient and close-to-optimal solutions to the above operations.Regarding the exploration phase, we first resort to the maximum entropy principle to derive communication models with many unknowns, from which we derive the optimal multi-source multi-sensor Neyman-Pearson signal sensing procedure. The latter allows for a secondary network to detect the presence of spectral left-overs. The computational complexity of the optimal approach however calls for simpler techniques, which are recollected and discussed. We then proceed to the extension of the signal sensing approach to the more advanced blind user localization, which provides further valuable information to overlay occupied spectral resources.The second part of the thesis is dedicaded to the exploitation phase, that is, the optimal sharing of available resources. To this end, we derive an (asymptotically accurate) approximated expression for the uplink ergodic sum rate of a multi-antenna multiple-access channel and propose solutions for cognitive radios to adapt rapidly to the evolution of the primary network at a minimum feedback cost for the secondary networks.

Page generated in 0.0686 seconds