• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Méthodes multivariées pour l'analyse jointe de données de neuroimagerie et de génétique / Multivariate methods for the joint analysis of neuroimaging and genetic data

Le floch, Edith 28 September 2012 (has links)
L'imagerie cérébrale connaît un intérêt grandissant, en tant que phénotype intermédiaire, dans la compréhension du chemin complexe qui relie les gènes à un phénotype comportemental ou clinique. Dans ce contexte, un premier objectif est de proposer des méthodes capables d'identifier la part de variabilité génétique qui explique une certaine part de la variabilité observée en neuroimagerie. Les approches univariées classiques ignorent les effets conjoints qui peuvent exister entre plusieurs gènes ou les covariations potentielles entre régions cérébrales.Notre première contribution a été de chercher à améliorer la sensibilité de l'approche univariée en tirant avantage de la nature multivariée des données génétiques, au niveau local. En effet, nous adaptons l'inférence au niveau du cluster en neuroimagerie à des données de polymorphismes d'un seul nucléotide (SNP), en cherchant des clusters 1D de SNPs adjacents associés à un même phénotype d'imagerie. Ensuite, nous prolongeons cette idée et combinons les clusters de voxels avec les clusters de SNPs, en utilisant un test simple au niveau du "cluster 4D", qui détecte conjointement des régions cérébrale et génomique fortement associées. Nous obtenons des résultats préliminaires prometteurs, tant sur données simulées que sur données réelles.Notre deuxième contribution a été d'utiliser des méthodes multivariées exploratoires pour améliorer la puissance de détection des études d'imagerie génétique, en modélisant la nature multivariée potentielle des associations, à plus longue échelle, tant du point de vue de l'imagerie que de la génétique. La régression Partial Least Squares et l'analyse canonique ont été récemment proposées pour l'analyse de données génétiques et transcriptomiques. Nous proposons ici de transposer cette idée à l'analyse de données de génétique et d'imagerie. De plus, nous étudions différentes stratégies de régularisation et de réduction de dimension, combinées avec la PLS ou l'analyse canonique, afin de faire face au phénomène de sur-apprentissage dû aux très grandes dimensions des données. Nous proposons une étude comparative de ces différentes stratégies, sur des données simulées et des données réelles d'IRM fonctionnelle et de SNPs. Le filtrage univarié semble nécessaire. Cependant, c'est la combinaison du filtrage univarié et de la PLS régularisée L1 qui permet de détecter une association généralisable et significative sur les données réelles, ce qui suggère que la découverte d'associations en imagerie génétique nécessite une approche multivariée. / Brain imaging is increasingly recognised as an interesting intermediate phenotype to understand the complex path between genetics and behavioural or clinical phenotypes. In this context, a first goal is to propose methods to identify the part of genetic variability that explains some neuroimaging variability. Classical univariate approaches often ignore the potential joint effects that may exist between genes or the potential covariations between brain regions. Our first contribution is to improve the sensitivity of the univariate approach by taking advantage of the multivariate nature of the genetic data in a local way. Indeed, we adapt cluster-inference techniques from neuroimaging to Single Nucleotide Polymorphism (SNP) data, by looking for 1D clusters of adjacent SNPs associated with the same imaging phenotype. Then, we push further the concept of clusters and we combined voxel clusters and SNP clusters, by using a simple 4D cluster test that detects conjointly brain and genome regions with high associations. We obtain promising preliminary results on both simulated and real datasets .Our second contribution is to investigate exploratory multivariate methods to increase the detection power of imaging genetics studies, by accounting for the potential multivariate nature of the associations, at a longer range, on both the imaging and the genetics sides. Recently, Partial Least Squares (PLS) regression or Canonical Correlation Analysis (CCA) have been proposed to analyse genetic and transcriptomic data. Here, we propose to transpose this idea to the genetics vs. imaging context. Moreover, we investigate the use of different strategies of regularisation and dimension reduction techniques combined with PLS or CCA, to face the overfitting issues due to the very high dimensionality of the data. We propose a comparison study of the different strategies on both a simulated dataset and a real fMRI and SNP dataset. Univariate selection appears to be necessary to reduce the dimensionality. However, the generalisable and significant association uncovered on the real dataset by the two-step approach combining univariate filtering and L1-regularised PLS suggests that discovering meaningful imaging genetics associations calls for a multivariate approach.
442

Algorithmic contributions to bilevel location problems with queueing and user equilibrium : exact and semi-exact approaches

Dan, Teodora 08 1900 (has links)
No description available.
443

Le déplacement en zones côtières : entre anticipation et gestion des risques naturels : perspectives juridiques / Displacement in coastal areas : between anticipation and management of natural risks : legal perspectives

Huteau, Charlotte 01 July 2016 (has links)
Les zones côtières ont depuis longtemps été attractives pour leur potentiel économique, et leur intérêt touristique et résidentiel. Elles ont fait l’objet d’une implantation massive dans tous les pays du monde. Or, les littoraux sont non seulement fragilisés par cette anthropisation, mais sont également sujet à des dégradations liées au changement climatique. À l’élévation du niveau de la mer souvent mise en avant dans les médias s’ajoute l’érosion intensifiée par les tempêtes et ouragans à répétition. Alors qu’émerge depuis plusieurs années la question des déplacés environnementaux ne disposant d’aucun statut protecteur, et dont le symbole le plus extrême est la situation de certains petits États insulaires dont le territoire est menacé de disparition par la montée des eaux, la question de la gestion de cette problématique dans le respect des droits humains se pose de manière accrue. L’enjeu de ce travail, s’appuyant sur des pays au profil différent : Bangladesh, États-Unis, France, petits États insulaires (notamment les Maldives, Kiribati, Tuvalu), est de rechercher les causes profondes de cette contrainte devenue tellement intense qu’elle conduit au déplacement, pour favoriser l’adaptation sur place ou mettre en œuvre un déplacement non plus conçu comme un échec mais comme une stratégie d’adaptation. Ce changement de perspective impliquera de mobiliser des outils juridiques issus de branches variées du droit (urbanisme, assurance, responsabilité et droit humanitaire, etc.) et surtout de respecter certains principes afin d’assurer l’anticipation et l’acceptation de la démarche par les populations. Fort de l’étude de ces exemples, il s’agira d’identifier ces éléments communs tout en mettant en lumière et en tenant compte des spécificités de chaque pays, de chaque communauté. / Coastal areas have always been attractive for their economic potential and their touristic and residential interest. They have been massively settled in countries all over the world. However, while coastlines are weakened by human impact, they are also subject to degradations due to climate change. Besides the sea-level rise, often emphasized by the media, we must consider the erosion caused by storms and hurricanes. The current context is strongly marked by the question of the environmental displaced persons who do not have any status. This situation can be illustrated by the small island states whose territory is threatened by the sea-level rise. Thus, the issue of managing these problems in respect with human rights arises to an increased extent. The challenge of this work, supported by different country profiles: Bangladesh, USA, France, Small Island States (including the Maldives, Kiribati, Tuvalu), is to seek the root causes of this dilemma that has become so intense that it leads to displacement, and then to promote and facilitate adaptation in-situ or adopt new displacement policies that are no longer perceived as a failure but as an adaptation strategy towards risks. This change of perspective intends to mobilize legal tools from various branches of law (Urbanism, Insurance, Liability and humanitarian law, etc.). It also intends to respect principles to ensure anticipation and acceptance of the approach by the people. With the study of these examples, we must identify these commons elements and take into account the specificities of each country and each community.
444

Implementation trade-offs for FGPA accelerators / Compromis pour l'implémentation d'accélérateurs sur FPGA

Deest, Gaël 14 December 2017 (has links)
L'accélération matérielle désigne l'utilisation d'architectures spécialisées pour effectuer certaines tâches plus vite ou plus efficacement que sur du matériel générique. Les accélérateurs ont traditionnellement été utilisés dans des environnements contraints en ressources, comme les systèmes embarqués. Cependant, avec la fin des règles empiriques ayant régi la conception de matériel pendant des décennies, ces quinze dernières années ont vu leur apparition dans les centres de calcul et des environnements de calcul haute performance. Les FPGAs constituent une plateforme d'implémentation commode pour de tels accélérateurs, autorisant des compromis subtils entre débit/latence, surface, énergie, précision, etc. Cependant, identifier de bons compromis représente un défi, dans la mesure où l'espace de recherche est généralement très large. Cette thèse propose des techniques de conception pour résoudre ce problème. Premièrement, nous nous intéressons aux compromis entre performance et précision pour la conversion flottant vers fixe. L'utilisation de l'arithmétique en virgule fixe au lieu de l'arithmétique flottante est un moyen efficace de réduire l'utilisation de ressources matérielles, mais affecte la précision des résultats. La validité d'une implémentation en virgule fixe peut être évaluée avec des simulations, ou en dérivant des modèles de précision analytiques de l'algorithme traité. Comparées aux approches simulatoires, les méthodes analytiques permettent une exploration plus exhaustive de l'espace de recherche, autorisant ainsi l'identification de solutions potentiellement meilleures. Malheureusement, elles ne sont applicables qu'à un jeu limité d'algorithmes. Dans la première moitié de cette thèse, nous étendons ces techniques à des filtres linéaires multi-dimensionnels, comme des algorithmes de traitement d'image. Notre méthode est implémentée comme une analyse statique basée sur des techniques de compilation polyédrique. Elle est validée en la comparant à des simulations sur des données réelles. Dans la seconde partie de cette thèse, on se concentre sur les stencils itératifs. Les stencils forment un motif de calcul émergeant naturellement dans de nombreux algorithmes utilisés en calcul scientifique ou dans l'embarqué. À cause de cette diversité, il n'existe pas de meilleure architecture pour les stencils de façon générale : chaque algorithme possède des caractéristiques uniques (intensité des calculs, nombre de dépendances) et chaque application possède des contraintes de performance spécifiques. Pour surmonter ces difficultés, nous proposons une famille d'architectures pour stencils. Nous offrons des paramètres de conception soigneusement choisis ainsi que des modèles analytiques simples pour guider l'exploration. Notre architecture est implémentée sous la forme d'un flot de génération de code HLS, et ses performances sont mesurées sur la carte. Comme les résultats le démontrent, nos modèles permettent d'identifier les solutions les plus intéressantes pour chaque cas d'utilisation. / Hardware acceleration is the use of custom hardware architectures to perform some computations faster or more efficiently than on general-purpose hardware. Accelerators have traditionally been used mostly in resource-constrained environments, such as embedded systems, where resource-efficiency was paramount. Over the last fifteen years, with the end of empirical scaling laws, they also made their way to datacenters and High-Performance Computing environments. FPGAs constitute a convenient implementation platform for such accelerators, allowing subtle, application-specific trade-offs between all performance metrics (throughput/latency, area, energy, accuracy, etc.) However, identifying good trade-offs is a challenging task, as the design space is usually extremely large. This thesis proposes design methodologies to address this problem. First, we focus on performance-accuracy trade-offs in the context of floating-point to fixed-point conversion. Usage of fixed-point arithmetic instead of floating-point is an affective way to reduce hardware resource usage, but comes at a price in numerical accuracy. The validity of a fixed-point implementation can be assessed using either numerical simulations, or with analytical models derived from the algorithm. Compared to simulation-based methods, analytical approaches enable more exhaustive design space exploration and can thus increase the quality of the final architecture. However, their are currently only applicable to limited sets of algorithms. In the first part of this thesis, we extend such techniques to multi-dimensional linear filters, such as image processing kernels. Our technique is implemented as a source-level analysis using techniques from the polyhedral compilation toolset, and validated against simulations with real-world input. In the second part of this thesis, we focus on iterative stencil computations, a naturally-arising pattern found in many scientific and embedded applications. Because of this diversity, there is no single best architecture for stencils: each algorithm has unique computational features (update formula, dependences) and each application has different performance constraints/requirements. To address this problem, we propose a family of hardware accelerators for stencils, featuring carefully-chosen design knobs, along with simple performance models to drive the exploration. Our architecture is implemented as an HLS-optimized code generation flow, and performance is measured with actual execution on the board. We show that these models can be used to identify the most interesting design points for each use case.
445

Hyperfiction, creativity and postmodern novel / L'hyperfiction, la créativité et le roman postmoderne

Darougari, Baharak 29 September 2018 (has links)
Depuis l’invention du terme hypertexte par Ted Nelson en 1965, il y a eu des débats fréquents à propos des mérites et des dangers des textes numériques, pour savoir si le développement des technologies informatiques causerait l’obsolescence des supports imprimés. Les prophéties étaient apocalyptiques et l’avenir des livres semblait sombre. Environ cinquante ans plus tard, tant les supports imprimés qui étaient condamnés que les hypertextes numériques qui semblaient être leurs exécuteurs existent encore. Les romans sont toujours populaires et les hypertextes aussi. Nul n’est dépassé ou éradiqué par l’autre. Au contraire, la coexistence des livres et leurs homologues numériques a affecté notre perception des textes, des lecteurs, des auteurs et de l’expérience de lecture. Plus important, l’échange entre les deux médias a eu comme résultat l’apparition d’une fiction expérimentale exceptionnelle à la fois sur écran et sur papier. La conjonction entre la fiction et les technologies numériques est au centre de ce projet qui vise à d’étudier l’hyperfiction, ses racines dans la fiction traditionnelle et ses descendants imprimés. / Since Ted Nelson coined the term “hypertext” in 1965, there have been frequent debates on the merits and dangers of digital texts and whether the development of digital technology would outdate the print-based medium. The prophecies were apocalyptic and the future of books seemed bleak. About fifty years later, the doomed print-based medium and the digital hypertexts, their would-be executioners,both still exist. Novels are still popular and so is hyperfiction. Neither outdated or eradicated the other. Instead, the coexistence of books and their digital counterparts has affected ourperception of text, reader, writer and the reading experience. More importantly, the exchange between the two media has resulted in exceptional experimental fiction both on screen and on paper. The conjunction between fiction and digital technology is of concern to this project which attempts to study hyperfiction, its roots in fiction and its printed descendants.
446

Phase entrainment and perceptual cycles in audition and vision / Entraînement de phase et cycles perceptifs dans l'audition et la vision

Zoefel, Benedikt 08 December 2015 (has links)
Des travaux récents indiquent qu'il existe des différences fondamentales entre les systèmes visuel et auditif: tandis que le premier semble échantillonner le flux d'information en provenance de l'environnement, en passant d'un "instantané" à un autre (créant ainsi des cycles perceptifs), la plupart des expériences destinées à examiner ce phénomène de discrétisation dans le système auditif ont mené à des résultats mitigés. Dans cette thèse, au travers de deux expériences de psychophysique, nous montrons que le sous-échantillonnage de l'information à l'entrée des systèmes perceptifs est en effet plus destructif pour l'audition que pour la vision. Cependant, nous révélons que des cycles perceptifs dans le système auditif pourraient exister à un niveau élevé du traitement de l'information. En outre, nos résultats suggèrent que du fait des fluctuations rapides du flot des sons en provenance de l'environnement, le système auditif tend à avoir son activité alignée sur la structure rythmique de ce flux. En synchronisant la phase des oscillations neuronales, elles-mêmes correspondant à différents états d'excitabilité, le système auditif pourrait optimiser activement le moment d'arrivée de ses "instantanés" et ainsi favoriser le traitement des informations pertinentes par rapport aux événements de moindre importance. Non seulement nos résultats montrent que cet entrainement de la phase des oscillations neuronales a des conséquences importantes sur la façon dont sont perçus deux flux auditifs présentés simultanément ; mais de plus, ils démontrent que l'entraînement de phase par un flux langagier inclut des mécanismes de haut niveau. Dans ce but, nous avons créé des stimuli parole/bruit dans lesquels les fluctuations de l'amplitude et du contenu spectral de la parole ont été enlevés, tout en conservant l'information phonétique et l'intelligibilité. Leur utilisation nous a permis de démontrer, au travers de plusieurs expériences, que le système auditif se synchronise à ces stimuli. Plus précisément, la perception, estimée par la détection d'un clic intégré dans les stimuli parole/bruit, et les oscillations neuronales, mesurées par Electroencéphalographie chez l'humain et à l'aide d'enregistrements intracrâniens dans le cortex auditif chez le singe, suivent la rythmique "de haut niveau" liée à la parole. En résumé, les résultats présentés ici suggèrent que les oscillations neuronales sont un mécanisme important pour la discrétisation des informations en provenance de l'environnement en vue de leur traitement par le cerveau, non seulement dans la vision, mais aussi dans l'audition. Pourtant, il semble exister des différences fondamentales entre les deux systèmes: contrairement au système visuel, il est essentiel pour le système auditif de se synchroniser (par entraînement de phase) à son environnement, avec un échantillonnage du flux des informations vraisemblablement réalisé à un niveau hiérarchique élevé. / Recent research indicates fundamental differences between the auditory and visual systems: Whereas the visual system seems to sample its environment, cycling between "snapshots" at discrete moments in time (creating perceptual cycles), most attempts at discovering discrete perception in the auditory system failed. Here, we show in two psychophysical experiments that subsampling the very input to the visual and auditory systems is indeed more disruptive for audition; however, the existence of perceptual cycles in the auditory system is possible if they operate on a relatively high level of auditory processing. Moreover, we suggest that the auditory system, due to the rapidly fluctuating nature of its input, might rely to a particularly strong degree on phase entrainment, the alignment between neural activity and the rhythmic structure of its input: By using the low and high excitability phases of neural oscillations, the auditory system might actively control the timing of its "snapshots" and thereby amplify relevant information whereas irrelevant events are suppressed. Not only do our results suggest that the oscillatory phase has important consequences on how simultaneous auditory inputs are perceived; additionally, we can show that phase entrainment to speech sound does entail an active high-level mechanism. We do so by using specifically constructed speech/noise sounds in which fluctuations in low-level features (amplitude and spectral content) of speech have been removed, but intelligibility and high-level features (including, but not restricted to phonetic information) have been conserved. We demonstrate, in several experiments, that the auditory system can entrain to these stimuli, as both perception (the detection of a click embedded in the speech/noise stimuli) and neural oscillations (measured with electroencephalography, EEG, and in intracranial recordings in primary auditory cortex of the monkey) follow the conserved "high-level" rhythm of speech. Taken together, the results presented here suggest that, not only in vision, but also in audition, neural oscillations are an important tool for the discretization and processing of the brain's input. However, there seem to be fundamental differences between the two systems: In contrast to the visual system, it is critical for the auditory system to adapt (via phase entrainment) to its environment, and input subsampling is done most likely on a hierarchically high level of stimulus processing.
447

Développement d’un biomarqueur de qualité spermatique chez deux espèces de crevettes Palaemonidae : état des lieux le long du continuum estuaire / littoral de la Seine / Development of biomarker of sperm quality in two shrimp species of Palaemonidae : inventory along the estuary / littoral continuum of the Seine

Erraud, Alexandre 25 May 2018 (has links)
La fitness et a fortiori la survie d'une population dépendent de la stratégie et des performances de reproduction façonnées par son environnement. Par conséquent, les biomarqueurs traduisant une altération de la fonction de reproduction présentent un intérêt particulier. L'atteinte de la fertilité mâle au sein de la faune sauvage a notamment été adressée comme une problématique majeure susceptible de représenter une menace pour le maintien des populations. Toutefois, peu de méthodologies sont aujourd'hui disponibles chez des espèces pertinentes pour aborder cette problématique dans le cadre de programmes de biosurveillance environnementale, notamment chez les crustacés en dépit de leur représentativité au sein du règne animal et de leurs indispensables fonctions au sein des écosystèmes. Dans ce contexte, les présents travaux avaient pour objectif de proposer une ou plusieurs méthodologies basées sur la mesure de marqueurs de fonctionnalité et d'intégrité spermatique chez des crevettes Palaemonidae. Les investigations se sont portées sur deux espèces, une estuarienne, Palaemon longirostris, et une côtière, Palaemon serratus, pour leur complémentarité vis-à-vis du continuum estuaire - littoral. Compte tenu des nombreuses spécificités structurelles et fonctionnelles des spermatozoïdes de crustacés, I nombre de marqueurs transposables vers ces espèces s'est finalement avéré limité. Aussi, après une brève prospection, l'effort de recherche a rapidement été recentré sur la mesure de l'intégrité de l'ADN. Dès lors, la démarche scientifique a été construite de sorte à évaluer, point par point, la pertinence de la méthodologie développée dans une perspective d'application de l'outil dans le cadre de la surveillance environnementale. Une étape préliminaire d'optimisation et de validation méthodologique du test Cornet a démontré que, contrairement à une grande majorité de type spermatique, l'adaptation de ce test sur les spermatozoïdes de Palaemonidae ne nécessite aucune modification particulière du protocole. La dynamique de la réponse biologique en termes d'apparitions, de rémanence et d'effets possibles sur la fitness a été évaluée en conditions contrôlées au laboratoire. Ainsi, des expositions ex vivo et in vivo ont été conduites en utilisant une variété de génotoxiques modèles présentant différents modes d'actions. Les résultats ont attesté de la sensibilité, de la reproductibilité et du caractère intégrateur de la réponse. En revanche, aucun lien entre un ADN spermatique endommagé et une altération du succès de reproduction pré-éclosion n'a pu être établi. Parallèlement, une approche in situ a été conduite en vue de caractériser la valeur basale de la réponse mesurée. Différentes stratégies ont dû être adoptées en fonction des contraintes propres au milieu de vie de chacune des deux espèces. Un référentiel et une valeur seuil, communs aux deux espèces, ont pu être définis, soulignant le potentiel de transférabilité inter-espèces de l'outil. La méthodologie ainsi finalisée, a été éprouvée dans le cadre de plusieurs campagnes de suivi de différentes populations indigènes de l'estuaire et de la baie de Seine en 2015 et 2016. Les résultats se sont révélés très cohérents au regard de la pression de contamination et de la dynamique hydro-sédimentaire de la baie de Seine. En définitive, l'intégrité de l'ADN spermatique chez les Palaemonidae est opérationnelle en l'état pour un déploiement in situ en tant que biomarqueur d'exposition à un stress génotoxique. De futurs études devront néanmoins être conduites (1) pour mieux discerner les implications de ces dommages spermatiques en termes d'impact sur le recrutement des nouvelles cohortes et (2) éprouver la transférabilité de la méthodologie à d'autres espèces de crevettes et sur une plus large échelle géographique. / The environment shapes the reproduction's strategy and performance of a population, influencing its fitness and a fortiori its survival. Therefore, biomarkers that alter reproductive functions represent a great interest in ecotoxicology. The reduction of male fertility in wildlife can represent a threat to the population's survival. Moreover, fcw methodologies are available for species that are relevant to address this issue on envimnmental biomonitoring programs, especially for crustaceans, despite their representativeness in the wildlife and their essential functions within ecosysterns. The present work aimed to propose methodologies based on the measurement of functionality and integrity spermatic biomarkers on Palaemonidae shrimps. We studied two species, an estuarine, Palaemon longirostris, and a coastal species. Palaemon serratus. due to their complementaiity on the continuum estuary-littoral ecosystem. Howevcr, crustaceans' sperm has many structuraI and functional characteristics, the number of transposable markers is limited. Thereafter, the research effort was refocused on the measurement of the DNA integrity and this inethod was evaluated for its adequacy for a biomonitoring study. We optitrtized and validate the Cornet assay for the Palaemonidae species, and the dynamic of the biological response in ternis of appearances, persistence, and possible effects on fitness was evaluated under controlled conditions in the laboratoiy. Furthermore, ex-vivo and in-vivo exposures were conducted using genotoxic models with different modes of action. On the one hand, results attested to the sensibility, the reproducibility and the integrating character of the response, on the other hand, no correlation between damaged sperm DNA and an altération of the pre-hatch stage of development was established. In paralIel, an in-situ approach was conducted to characterize the baseline level of the measured response, taking into consideration the specific constraints of each species' habitat. We were able to define a common baseline level and a threshold value for both species, highlighting the potential of the tool for inter-species transferability. This method was tested with native populations from the estuary and from the Seine Bay in 2015 and 20] 6. And, the results proved to be consistent with the contamination pressure and the hydro-sedimentary dynamics of the Seine Bay. Ultimately, the DNA integrity of sperm in Palaemonidae seems to be functional for in-situ deploytnents as a biomarker of exposure to genotoxic stress. Nevertheless, future studies should be conducted (1) to botter discern the implications of this spermatic damage on the recruitment of new cohorts and, (2) to test the transferability of the methodology to other shrimp species and on a wider geographical scale.
448

A Game Theoretic Framework for User Association & Inter-cell Interference Management in LTE Cellular Networks / Optimisation de la gestion des interférences inter-cellulaires et de l'attachement des mobiles dans les réseaux cellulaires LTE

Trabelsi, Nessrine 20 December 2016 (has links)
Conduit par une croissance exponentielle dans les appareils mobiles et une augmentation continue de la consommation individuelle des données, le trafic de données mobiles a augmenté de 4000 fois au cours des 10 dernières années et près de 400millions fois au cours des 15 dernières années. Les réseaux cellulaires homogènes rencontrent de plus en plus de difficultés à gérer l’énorme trafic de données mobiles et à assurer un débit plus élevé et une meilleure qualité d’expérience pour les utilisateurs.Ces difficultés sont essentiellement liées au spectre disponible et à la capacité du réseau.L’industrie de télécommunication doit relever ces défis et en même temps doit garantir un modèle économique pour les opérateurs qui leur permettra de continuer à investir pour répondre à la demande croissante et réduire l’empreinte carbone due aux communications mobiles. Les réseaux cellulaires hétérogènes (HetNets), composés de stations de base macro et de différentes stations de base de faible puissance,sont considérés comme la solution clé pour améliorer l’efficacité spectrale par unité de surface et pour éliminer les trous de couverture. Dans de tels réseaux, il est primordial d’attacher intelligemment les utilisateurs aux stations de base et de bien gérer les interférences afin de gagner en performance. Comme la différence de puissance d’émission est importante entre les grandes et petites cellules, l’association habituelle des mobiles aux stations de bases en se basant sur le signal le plus fort, n’est plus adaptée dans les HetNets. Une technique basée sur des offsets individuelles par cellule Offset(CIO) est donc nécessaire afin d’équilibrer la charge entre les cellules et d’augmenter l’attraction des petites cellules (SC) par rapport aux cellules macro (MC). Cette offset est ajoutée à la valeur moyenne de la puissance reçue du signal de référence(RSRP) mesurée par le mobile et peut donc induire à un changement d’attachement vers différents eNodeB. Comme les stations de bases dans les réseaux cellulaires LTE utilisent les mêmes sous-bandes de fréquences, les mobiles peuvent connaître une forte interférence intercellulaire, en particulier en bordure de cellules. Par conséquent, il est primordial de coordonner l’allocation des ressources entre les cellules et de minimiser l’interférence entre les cellules. Pour atténuer la forte interférence intercellulaire, les ressources, en termes de temps, fréquence et puissance d’émission, devraient être alloués efficacement. Un modèle pour chaque dimension est calculé pour permettre en particulier aux utilisateurs en bordure de cellule de bénéficier d’un débit plus élevé et d’une meilleure qualité de l’expérience. L’optimisation de tous ces paramètres peut également offrir un gain en consommation d’énergie. Dans cette thèse, nous proposons une solution dynamique polyvalente effectuant une optimisation de l’attachement des mobiles aux stations de base et de l’allocation des ressources dans les réseaux cellulaires LTE maximisant une fonction d’utilité du réseau qui peut être choisie de manière adéquate.Notre solution, basée sur la théorie des jeux, permet de calculer les meilleures valeurs pour l’offset individuelle par cellule (CIO) et pour les niveaux de puissance à appliquer au niveau temporel et fréquentiel pour chaque cellule. Nous présentons des résultats des simulations effectuées pour illustrer le gain de performance important apporté par cette optimisation. Nous obtenons une significative hausse dans le débit moyen et le débit des utilisateurs en bordure de cellule avec 40 % et 55 % de gains respectivement. En outre, on obtient un gain important en énergie. Ce travail aborde des défis pour l’industrie des télécoms et en tant que tel, un prototype de l’optimiseur a été implémenté en se basant sur un trafic HetNets émulé. / Driven by an exponential growth in mobile broadband-enabled devices and a continue dincrease in individual data consumption, mobile data traffic has grown 4000-fold over the past 10 years and almost 400-million-fold over the past 15 years. Homogeneouscellular networks have been facing limitations to handle soaring mobile data traffic and to meet the growing end-user demand for more bandwidth and betterquality of experience. These limitations are mainly related to the available spectrumand the capacity of the network. Telecommunication industry has to address these challenges and meet exploding demand. At the same time, it has to guarantee a healthy economic model to reduce the carbon footprint which is caused by mobile communications.Heterogeneous Networks (HetNets), composed of macro base stations and low powerbase stations of different types, are seen as the key solution to improve spectral efficiency per unit area and to eliminate coverage holes. In such networks, intelligent user association and interference management schemes are needed to achieve gains in performance. Due to the large imbalance in transmission power between macroand small cells, user association based on strongest signal received is not adapted inHetNets as only few users would attach to low power nodes. A technique based onCell Individual Offset (CIO) is therefore required to perform load balancing and to favor some Small Cell (SC) attraction against Macro Cell (MC). This offset is addedto users’ Reference Signal Received Power (RSRP) measurements and hence inducing handover towards different eNodeBs. As Long Term Evolution (LTE) cellular networks use the same frequency sub-bands, mobile users may experience strong inter-cellxv interference, especially at cell edge. Therefore, there is a need to coordinate resource allocation among the cells and minimize inter-cell interference. To mitigate stronginter-cell interference, the resource, in time, frequency and power domain, should be allocated efficiently. A pattern for each dimension is computed to permit especially for cell edge users to benefit of higher throughput and quality of experience. The optimization of all these parameters can also offer gain in energy use. In this thesis,we propose a concrete versatile dynamic solution performing an optimization of user association and resource allocation in LTE cellular networks maximizing a certainnet work utility function that can be adequately chosen. Our solution, based on gametheory, permits to compute Cell Individual Offset and a pattern of power transmission over frequency and time domain for each cell. We present numerical simulations toillustrate the important performance gain brought by this optimization. We obtain significant benefits in the average throughput and also cell edge user through put of40% and 55% gains respectively. Furthermore, we also obtain a meaningful improvement in energy efficiency. This work addresses industrial research challenges and assuch, a prototype acting on emulated HetNets traffic has been implemented.
449

Reconstruction et analyse de trajectoires 2D d'objets mobiles par modélisation Markovienne et la théorie de l'évidence à partir de séquences d'images monoculaires - Application à l'évaluation de situations potentiellement dangereuses aux passages à niveau / Reconstruction and analysis of moving objects trajectoiries from monocular images sequences, using Hidden Markov Model and Dempster-Shafer Theory-Application for evaluating dangerous situations in level crossings

Salmane, Houssam 09 July 2013 (has links)
Les travaux présentés dans ce mémoire s’inscrivent dans le cadre duprojet PANsafer (Vers un Passage A Niveau plus sûr), lauréat de l’appel ANR-VTT2008. Ce projet est labellisé par les deux pôles de compétitivité i-Trans et Véhiculedu Futur. Le travail de la thèse est mené conjointement par le laboratoire IRTESSETde l’UTBM et le laboratoire LEOST de l’IFSTTAR.L’objectif de cette thèse est de développer un système de perception permettantl’interprétation de scénarios dans l’environnement d’un passage à niveau. Il s’agitd’évaluer des situations potentiellement dangereuses par l’analyse spatio-temporelledes objets présents autour du passage à niveau.Pour atteindre cet objectif, le travail est décomposé en trois étapes principales. Lapremière étape est consacrée à la mise en place d’une architecture spatiale des capteursvidéo permettant de couvrir de manière optimale l’environnement du passageà niveau. Cette étape est mise en oeuvre dans le cadre du développement d’unsimulateur d’aide à la sécurité aux passages à niveau en utilisant un système deperception multi-vues. Dans ce cadre, nous avons proposé une méthode d’optimisationpermettant de déterminer automatiquement la position et l’orientation descaméras par rapport à l’environnement à percevoir.La deuxième étape consisteà développer une méthode robuste de suivi d’objets enmouvement à partir d’une séquence d’images. Dans un premier temps, nous avonsproposé une technique permettant la détection et la séparation des objets. Le processusde suivi est ensuite mis en oeuvre par le calcul et la rectification du flotoptique grâce respectivement à un modèle gaussien et un modèle de filtre de Kalman.La dernière étape est destinée à l’analyse des trajectoires 2D reconstruites parl’étape précédente pour l’interprétation de scénarios. Cette analyse commence parune modélisation markovienne des trajectoires 2D. Un système de décision à basede théorie de l’évidence est ensuite proposé pour l’évaluation de scénarios, aprèsavoir modélisé les sources de danger.L’approche proposée a été testée et évaluée avec des données issues de campagnesexpérimentales effectuées sur site réel d’un passage à niveau mis à disposition parRFF. / The main objective of this thesis is to develop a system for monitoringthe close environment of a level crossing. It aims to develop a perception systemallowing the detection and the evaluation of dangerous situations around a levelcrossing.To achieve this goal, the overall problem of this work has been broken down intothree main stages. In the first stage, we propose a method for optimizing automaticallythe location of video sensors in order to cover optimally a level crossingenvironment. This stage addresses the problem of cameras positioning and orientationin order to view optimally monitored scenes.The second stage aims to implement a method for objects tracking within a surveillancezone. It consists first on developing robust algorithms for detecting and separatingmoving objects around level crossing. The second part of this stage consistsin performing object tracking using a Gaussian propagation optical flow based modeland Kalman filtering.On the basis of the previous steps, the last stage is concerned to present a newmodel to evaluate and recognize potential dangerous situations in a level crossingenvironment. This danger evaluation method is built using Hidden Markov Modeland credibility model.Finally, synthetics and real data are used to test the effectiveness and the robustnessof the proposed algorithms and the whole approach by considering various scenarioswithin several situations.This work is developed within the framework of PANsafer project (Towards a saferlevel crossing), supported by the ANR-VTT program (2008) of the French NationalAgency of Research. This project is also labelled by Pôles de compétitivité "i-Trans"and "Véhicule du Futur". All the work, presented in this thesis, has been conductedjointly within IRTES-SET laboratory from UTBM and LEOST laboratory fromIFSTTAR.
450

Quel est le niveau de détail pertinent pour modéliser la croissance d'une forêt mélangée ? Comparaison d'une famille de modèles et application aux peuplements mélangés chêne sessile - pin sylvestre

Pérot, Thomas 26 June 2009 (has links) (PDF)
Face à l'intérêt grandissant pour les forêts mélangées, des d'outils et des modèles adaptés à leur gestion sont nécessaires. L'objectif de cette thèse est de montrer comment la construction et la comparaison de modèles ayant différents niveaux de détail peuvent nous aider à choisir le niveau le plus approprié pour modéliser la croissance d'un peuplement mélangé dans un contexte d'application donné. A partir de données récoltées dans des peuplements mélangés chêne sessile (Quercus petraea L.) pin sylvestre (Pinus sylvestris L.), nous avons construit une famille de modèles à différents niveaux de détail : un modèle arbre indépendant des distances (MAID), un modèle arbre dépendant des distances (MADD), trois modèles peuplement et un modèle intermédiaire entre le MAID et le MADD utilisant des distributions de voisinage. Pour que la comparaison de ces modèles soit pertinente, nous avons assuré une cohérence entre les modèles en utilisant plusieurs approches. Ces modèles nous ont permis d'acquérir des connaissances sur la croissance et la dynamique de ces forêts en particulier sur les interactions spatiales et temporelles entre le chêne et le pin. Ainsi le MAID a permis de montrer qu'il peut y avoir des phénomènes de compensation de croissance entre les deux espèces. Le MADD a permis de montrer que dans ces peuplements la compétition intraspécifique est supérieure à la compétition interspécifique. Un modèle peuplement obtenu à partir du MADD a permis d'étudier l'influence du taux de mélange sur la production. Pour évaluer la qualité prédictive des modèles, nous avons utilisé un jeu de données indépendant obtenu en partageant nos données avant la construction des modèles. Nous avons ainsi montré que le MAID était plus performant que le MADD pour prédire les accroissements individuels. Les modèles ont aussi été comparés sur des exemples d'applications mettant en œuvre des simulations à court ou moyen terme. La démarche proposée présente un intérêt aussi bien pour la compréhension du phénomène étudié que pour sa modélisation dans un but prédictif. En regroupant l'ensemble des résultats acquis, ce travail nous a permis d'apprécier la pertinence d'un type de modèle en fonction du contexte d'utilisation. Cette démarche très générale pourrait être appliquée à la modélisation d'autres processus comme la mortalité ou la régénération.

Page generated in 0.1838 seconds