• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 23
  • Tagged with
  • 257
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

IRM de diffusion du Q-space : Acquisition et pré-traitements

Caruyer, Emmanuel 18 July 2012 (has links) (PDF)
Le but général de cette thèse est de proposer de nouvelles méthodes d'acquisition et de traitement du signal en imagerie par résonance magnétique (IRM) de diffusion, dans le but d'ouvrir de nouvelles perspectives dans la reconstruction de la structure de la matière blanche \emph{in vivo}. L'IRM de diffusion est une technique d'imagerie non invasive qui mesure localement, en chaque voxel, la diffusion des molécules d'eau. Le déplacement de ces dernières étant contraint par la présence de tissus, le fait de pouvoir caractériser la diffusion des molécules d'eau apporte des informations sur la nature, l'orientation, la microstructure des tissus biologiques sous-jacents. La forte anisotropie observée dans la matière blanche fait de l'IRM de diffusion un outil privilégié pour l'étude de la connectivité cérébrale. Une des premières techniques d'acquisition et de reconstruction, appelée IRM du tenseur de diffusion, est maintenant utilisée de manière routinière en clinique, pour le diagnostique de certaines maladies neurologiques, ou encore en planification préopératoire. L'IRM du tenseur de diffusion repose sur un modèle de diffusion gaussien cependant, qui est limité quand il s'agit de décrire des configurations de tissus complexes à l'intérieur d'un voxel, par exemple quand plusieurs faisceaux de fibres se croisent. Dès lors, on a cherché ces dernières années à développer des techniques qui ne reposent pas sur un modèle a priori, afin de décrire de manière plus précise le déplacement des molécules d'eau, et dépasser les limitations du modèle tensoriel. La plupart de ces techniques, dites à haute résolution angulaire, sollicitent un temps d'acquisition généralement long, et mettent en jeu des problèmes de reconstruction non triviaux. Dans la première partie de cette thèse, nous décrivons la structure microscopique des tissus de la matière blanche du cerveau, et présentons la physique de formation des images en IRM de diffusion. Nous faisons un état de l'art des méthodes de reconstruction, et des techniques d'acquisition proposées à ce jour. En ce qui concerne les méthodes de reconstruction, nous faisons la distinction suivant qu'elles soient basées sur un modèle ou non. La première contribution de cette thèse est liée à la reconstruction paramétrique du signal de diffusion dans une base de fonctions continues. Cette contribution fait suite à une méthode proposée récemment, appelée transformée de Fourier sphérique, et y apporte une modification pour une reconstruction continue. Nous réduisons de façon significative la dimension de la base, tout en décrivant aussi bien le signal de diffusion. Nous donnons également l'expression de l'opérateur de régularisation de Laplace en fonction des coefficients dans cette base, afin de limiter l'impact du bruit sur la reconstruction. La seconde contribution est également liée à la reconstruction du signal de diffusion, et à la fonction de distribution d'orientation, dans un contexte d'application clinique. Nous proposons une méthode de reconstruction en temps réel basée sur le filtre de Kalman pour la probabilité marginale de diffusion angulaire. Nous développons un algorithme pour détecter les mouvements du patient, de façon précise et avec une grande sensibilité, et ce sans surcoût, comparé aux systèmes utilisant une camera et des algorithmes de vision robotique. Les deux dernières contributions présentées dans cette thèse sont liées aux techniques d'acquisition en IRM de diffusion, en particulier pour l'élaboration de schémas d'acquisition sur une ou plusieurs sphères dans l'espace de Fourier. Nous présentons d'abord une méthode géométrique pour placer des points dans l'espace de Fourier sur plusieurs sphères, en optimisant la couverture angulaire sur chacune des sphères, mais également de façon globale. Puis nous cherchons à établir un lien entre le schéma d'acquisition et la base de fonctions utilisée pour la reconstruction, et nous proposons en particulier une méthode pour élaborer un protocole d'acquisition qui permette de minimiser le nombre de conditionnement, pour la reconstruction dans la base des harmoniques sphériques, et dans la base de Fourier sphérique modifiée, proposée dans cette thèse. En conclusion de cette étude sur l'acquisition, nous pensons que l'élaboration du schéma d'échantillonnage doit être motivée à la fois pour répondre aux contraintes physiques du scanner, et par le choix de la base dans laquelle le signal sera reconstruit. Ces nouveaux schémas d'échantillonnage sont disponibles au téléchargement sur mon site internet.
242

Développement de méthodes d’analyse directe de polluants organiques volatils à l’état de traces dans l’air et les biogaz

Badjagbo, Koffi 09 1900 (has links)
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets. / It is known that benzene, toluene, ethylbenzene and xylene isomers, volatile organic compounds (VOCs) commonly called BTEX, have toxic health effects on humans and plants depending on duration and levels of exposure. Benzene in particular is classified carcinogenic, and exposure to benzene at concentrations above 64 g/m3 can be fatal within 5–10 minutes. Therefore, real-time monitoring of BTEX in ambient air is essential for the early warning detection associated with their release and in estimating the potential exposure risks to living beings and the environment. In this thesis, a real-time analysis method for BTEX in ambient air was developed and validated. The method is based on the direct-air sampling technique coupled with tandem mass spectrometry using atmospheric pressure chemical ionization (direct APCI-MS/MS). Validation of the method has shown that it is sensitive (limit of detection LOD 1–2 μg/m3), precise (relative standard deviation RSD < 10%), accurate (accuracy > 95%) and selective. Ambient air samples from an industrial waste landfill site and various automobile repair shops were analyzed by the developed method. Comparison of results with those obtained by online gas chromatography coupled with a flame ionization detector (GC-FID) technique exhibited similar results. The capacity of the method for the fast evaluation of potential risks associated with an exposure to BTEX has been demonstrated through a field study with health risk assessment for workers at three automobile repair shops and through experiments under simulated atmospheres. Concentrations measured in the ambient air of the garages were in the ranges of 8.9–25 µg/m3 for benzene, 119–1156 µg/m3 for toluene, 9–70 µg/m3 for ethylbenzene, and 45–347 µg/m3 for xylenes. A total environmental daily dose of 1.46 10-3–2.52 10-3 mg/kg/day was determined for benzene. The estimated cancer risk due to the total environmental exposure to benzene was between 1.1 10-5 and 1.8 10-5 for the workers studied. A novel APCI-MS/MS method was also developed and validated for the direct analysis of octamethylcyclotetrasiloxane (D4) and decamethylcyclopentasiloxane (D5) in air and biogases. D4 and D5 are cyclic volatile siloxanes widely used in industrial processes and consumer products as replacement solvents for the tropospheric ozone forming VOCs, such as BTEX. Their ubiquitous presence in ambient air samples, due to the growing consumption, raises the need for toxicity studies which require qualitative and quantitative trace analysis of these compounds. Furthermore, the presence of trace amounts of these substances in a biogas hampers its use as a source of renewable energy by causing expensive damages to the equipment. Thus, siloxane analysis of the biogas is essential in determining if purification is needed before the use for energy production. The method developed in this study for these aims has good sensitivity (LOD 4–6 μg/m3), good precision (RSD < 10%), good accuracy (> 93%) and high selectivity. It was also shown that by using this method with hexamethyl-d18-disiloxane as an internal standard, detection and quantification of D4 and D5 in real biogas samples can be done with a better sensitivity (LOD ~ 2 μg/m3), high precision (RSD < 5%), and high accuracy (> 97%). Various biogas samples collected from the landfill site of the Complexe Environnemental de Saint-Michel in Montreal have been successfully analyzed by this new method. Concentrations measured were in the ranges of 131–1275 µg/m3 for D4 and 250–6226 µg/m3 for D5. These results represent the first primary-literature-reported data on siloxanes D4 and D5 contents of landfill-derived biogases as a function of the refuse age.
243

Synergie infrarouge et micro-onde pour la restitution atmosphérique

Paul, Maxime 30 September 2013 (has links) (PDF)
L'étude du climat et la météorologie nécessitent des modèles, mais également des bases de données indépendantes, issues d'observations in situ ou satellites. L'importance de ces dernières grandit. Nous proposons, dans cette thèse, d'optimiser leur utilisation pour restituer, à l'échelle globale, des profils atmosphériques de température et de vapeur d'eau. La contribution des surfaces terrestres sur le rayonnement conditionne la qualité des restitutions au-dessus des continents. Un schéma d'inversion bayésienne de l'équation de transfert radiatif a donc été mis au point. Il permet de restituer simultanément la température et l'émissivité hyper-spectrale infrarouge de la surface, à partir des mesures de l'instrument IASI. Une chaîne opérationnelle a été construite, entrainant la création d'une base de données d'émissivités infrarouges et de températures de surface depuis 2007. Ces informations de surface sont ensuite intégrées dans un algorithme de restitution de profils atmosphériques. Elles permettent une diminution notable de l'erreur, notamment dans les basses couches de l'atmosphère, cruciales en météorologie. Les réseaux de neurones utilisées pour les restitutions nécessitent des bases d'apprentissage. Nous avons donc mis au point une méthode d'échantillonnage de variables hétérogènes et de grande dimension. Enfin, nous avons montré que l'utilisation conjointe des observations infrarouges et micro-ondes est une source prometteuse d'amélioration de la télédétection satellite. La synergie entre des instruments tels IASI, AMSU-A et MHS sur la plateforme MetOp permet de mieux restituer les profils atmosphériques.
244

Improving sampling, optimization and feature extraction in Boltzmann machines

Desjardins, Guillaume 12 1900 (has links)
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires. / Despite the current widescale success of deep learning in training large scale hierarchical models through supervised learning, unsupervised learning promises to play a crucial role towards solving general Artificial Intelligence, where agents are expected to learn with little to no supervision. The work presented in this thesis tackles the problem of unsupervised feature learning and density estimation, using a model family at the heart of the deep learning phenomenon: the Boltzmann Machine (BM). We present contributions in the areas of sampling, partition function estimation, optimization and the more general topic of invariant feature learning. With regards to sampling, we present a novel adaptive parallel tempering method which dynamically adjusts the temperatures under simulation to maintain good mixing in the presence of complex multi-modal distributions. When used in the context of stochastic maximum likelihood (SML) training, the improved ergodicity of our sampler translates to increased robustness to learning rates and faster per epoch convergence. Though our application is limited to BM, our method is general and is applicable to sampling from arbitrary probabilistic models using Markov Chain Monte Carlo (MCMC) techniques. While SML gradients can be estimated via sampling, computing data likelihoods requires an estimate of the partition function. Contrary to previous approaches which consider the model as a black box, we provide an efficient algorithm which instead tracks the change in the log partition function incurred by successive parameter updates. Our algorithm frames this estimation problem as one of filtering performed over a 2D lattice, with one dimension representing time and the other temperature. On the topic of optimization, our thesis presents a novel algorithm for applying the natural gradient to large scale Boltzmann Machines. Up until now, its application had been constrained by the computational and memory requirements of computing the Fisher Information Matrix (FIM), which is square in the number of parameters. The Metric-Free Natural Gradient algorithm (MFNG) avoids computing the FIM altogether by combining a linear solver with an efficient matrix-vector operation. The method shows promise in that the resulting updates yield faster per-epoch convergence, despite being slower in terms of wall clock time. Finally, we explore how invariant features can be learnt through modifications to the BM energy function. We study the problem in the context of the spike & slab Restricted Boltzmann Machine (ssRBM), which we extend to handle both binary and sparse input distributions. By associating each spike with several slab variables, latent variables can be made invariant to a rich, high dimensional subspace resulting in increased invariance in the learnt representation. When using the expected model posterior as input to a classifier, increased invariance translates to improved classification accuracy in the low-label data regime. We conclude by showing a connection between invariance and the more powerful concept of disentangling factors of variation. While invariance can be achieved by pooling over subspaces, disentangling can be achieved by learning multiple complementary views of the same subspace. In particular, we show how this can be achieved using third-order BMs featuring multiplicative interactions between pairs of random variables.
245

Méthode de discrétisation adaptée à une logique événementielle pour l'utra-faible consommation : application à la reconnaissance de signaux physiologiques / Discretization method adapted to an event-logic architecture for ultra-low power consumption : a physiological pattern recognition application

Le Pelleter, Tugdual 13 May 2015 (has links)
Les systèmes embarqués mobiles font partis intégrante de notre quotidien. Afin de les rendre plus adaptésaux usages, ils ont été miniaturisés et leur autonomie a été augmentée, parfois de façon très considérable.Toutefois, les propositions d’amélioration butent désormais sur les possibilités de la technologie des circuitsintégrés. Pour aller plus loin, il faut donc envisager de repenser la chaîne de traitement du signal afin deréduire la consommation de ces dispositifs. Cette thèse développe une approche originale pour exploiterefficacement l’échantillonnage par traversée de niveaux d’une part et, d’autre part, associe cet échantillonnageà une logique évènementielle afin de réduire drastiquement la consommation d’énergie des systèmesintégrés autonomes. Une méthode de discrétisation adaptée à une application de reconnaissance de signauxphysiologiques, utilisée comme exemple dans cette thèse, y est présentée. Un premier prototype en logiqueévènementielle (asynchrone) sur circuit FPGA a permis de valider cette stratégie et de démontrer les bénéficesde cet échantillonnage dédié en termes de réduction de l’activité par rapport à un échantillonnage uniforme.Un second prototype en logique asynchrone et conçu en technologie CMOS AMS 0.35 μm a permis de validerpar simulation électrique un gain extrêmement important sur la consommation électrique du dispositif. / Our everyday life is highly dependent on mobile embedded systems. In order to make them suitable to differentapplications, they have underwent size reduction and lifetime extension. However, these improvementsare currently limited by the possibilities of the integrated circuits technologies. In order to push back theboundaries, it is necessary to reconsider the whole digital signal processing chain from scratch to sustain thepower consumption reduction in this kind of system. This work develops on the first hand a strategy thatsmartly uses the level-crossing sampling scheme and on the other combines this sampling method with eventlogicto highly reduce the power consumption in mobile embedded systems. A discretisation method adaptedto the recognition of physiological patterns application is described. A first event-logic (asynchronous) prototypeimplemented on FPGA proved the potential benefits that an adapted sampling scheme could offersto reduce activity compared to a uniform sampling scheme. Electrical simulations performed on a secondprototype, also designed in asynchronous logic, with CMOS AMS 0.35 μm technology, validated a high gainin power consumption.
246

Améliorer les connaissances sur les processus écologiques régissant les dynamiques de populations d'auxiliaires de culture : modélisation couplant paysages et populations pour l'aide à l'échantillonnage biologique dans l'espace et le temps / Improving knowledge about ecological processes underlying natural enemies population dynamics : coupling landscape and population modelling to optimise biological sampling in space and time

Bellot, Benoit 18 April 2018 (has links)
Une alternative prometteuse à la lutte chimique pour la régulation des ravageurs de culture consiste à favoriser les populations de leurs prédateurs en jouant sur la structure du paysage agricole. L'identification de structures spatio-temporelles favorables aux ennemis naturels peut se faire par l'exploration de scénarios paysagers via une modélisation couplée de paysages et de dynamiques de population. Dans cette approche, les dynamiques de populations sont simulées sur des paysages virtuels aux propriétés structurales contrôlées, et l'observation des motifs de populations associés permet l'identification de structures favorables. La modélisation des dynamiques de populations repose cependant sur une connaissance fine des processus écologiques et de leur variabilité entre les différentes unités du paysage. L'état actuel des connaissances sur les mécanismes écologiques régissant les dynamiques des ennemis naturels de la famille des carabidés demeure l'obstacle majeur à la recherche in silico de scénarios paysagers favorables. La littérature sur les liens entre motifs de population de carabes et variables paysagères permet de formuler un ensemble d'hypothèses en compétition sur ces mécanismes. Réduire le nombre de ces hypothèses en analysant les convergences entre les motifs de population qui leur sont associés, et étudier la stabilité de ces convergences le long d'un gradient paysager apparaît comme une première étape nécessaire vers l'amélioration de la connaissance sur les processus écologiques. Dans une première partie, nous proposons une heuristique méthodologique basée sur la simulation de modèles de réaction-diffusion porteurs de ces hypothèses en compétition. L'étude des motifs de population a permis d'effectuer une typologie des modèles en fonction de leur réponse à une variable paysagère, via un algorithme de classification, réduisant ainsi le nombre d’hypothèses en compétition. La sélection de l'hypothèse la plus plausible parmi cet ensemble irréductible doit s'effectuer sur la base d'une observation des motifs de population sur le terrain. Cela implique que ces derniers soient caractérisés à des résolutions spatiales et temporelles suffisantes pour sélectionner une unique hypothèse parmi celles en compétition. Dans la deuxième partie, nous proposons une heuristique méthodologique permettant de déterminer a priori des stratégies d'échantillonnage maximisant la robustesse de la sélection d'hypothèses écologiques. Dans un premier temps, la simulation de modèles de réaction-diffusion représentatifs des hypothèses écologiques en compétition permet de générer des données biologiques virtuelles en tout point de l'espace et du temps. Ces données biologiques sont ensuite échantillonnées suivant des protocoles différant dans l'effort total d'échantillonnage, le nombre de dates, le nombre de points par unité d'espace et le nombre de réplicats de paysages. Les motifs des populations sont caractérisés à partir de ces échantillons. Le potentiel des stratégies d'échantillonnage est évalué via un algorithme de classification qui classe les modèles biologiques selon les motifs de population associés. L'analyse des performances de classification, i.e. la capacité de l'algorithme à discriminer les processus écologiques, permet de sélectionner un protocole d'échantillonnage optimal. Nous montrons également que la manière de distribuer l'effort d'échantillonnage entre ses composantes spatiales et temporelles est un levier majeur sur l'inférence des processus écologiques. La réduction du nombre d'hypothèses en compétition et l'aide à l'échantillonnage pour la sélection de modèles répondent à un besoin fort dans le processus d'acquisition de connaissances écologiques pour l'exploration in silico de scénarios paysagers favorisant des services écosystémiques. Nous discutons dans une dernière partie des implications de nos travaux et de leurs perspectives d'amélioration. / A promising alternative to the chemical control of pests consists in favoring their natural enemies populations by managing the agricultural landscape structure. Identifying favorable spatio-temporal structures can be performed through the exploration of landscape scenarios using coupled models of landscapes and population dynamics. In this approach, population dynamics are simulated on virtual landscapes with controlled properties, and the observation of population patterns allows for the identification of favorable structures. Population modeling however relies on a good knowledge about the ecological processes and their variability within the landscape elements. Current state of knowledge about the ecological mechanisms underlying natural enemies’ of the carabid family population dynamics remains a major obstacle to in silico investigation of favorable landscape scenarios. Literature about the relationship between carabid population and landscape properties allows the formulation of competing hypotheses about these processes. Reducing the number of these hypotheses by analyzing the convergence between their associated population patterns and investigating the stability of their convergence along a landscape gradient appears to be a necessary tep towards a better knowledge about ecological processes. In a first step, we propose a heuristic method based on the simulation of reaction-diffusion models carrying these competing hypotheses. Comparing the population patterns allowed to set a model typology according to their response to the landscape variable, through a classification algorithm, thus reducing the initial number of competing hypotheses. The selection of the most likely hypothesis from this irreducible set must rely on the observation of population patterns on the field. This implies that population patterns are described with spatial and temporal resolutions that are fine enough to select a unique hypothesis among the ones in competition. In the second part, we propose a heuristic method that allows determining a priori sampling strategies that maximize the robustness of ecological hypotheses selection. The simulation of reaction-diffusion models carrying the ecological hypotheses allows to generate virtual population data in space and time. These data are then sampled using strategies differing in the total effort, number of sampling locations, dates and landscape replicates. Population patterns are described from these samples. The sampling strategies are assessed through a classification algorithm that classifies the models according to the associated patterns. The analysis of classification performances, i.e. the ability of the algorithm to discriminate the ecological processes, allows the selection of optimal sampling designs. We also show that the way the sampling effort is distributed between its spatial and temporal components is strongly impacting the ecological processes inference. Reducing the number of competing ecological hypotheses, along with the selection of sampling strategies for optimal model inference both meet a strong need in the process of knowledge improvement about the ecological processes for the exploration of landscape scenarios favoring ecosystem services. In the last chapter, we discuss the implications and future prospects of our work.
247

Méthodes pour la réduction d’attaques actives à passives en cryptographie quantique

Lamontagne, Philippe 12 1900 (has links)
No description available.
248

Contribution au développement d’un banc de mesures temporelles 4-canaux pour la caractérisation avancée de composants et de sous-systèmes RF non linéaires / Contribution to the development of a 4-channel time -domain measurement set-up for advanced characterization of RF non-linear components and subsystems

Ayari, Lotfi 12 December 2016 (has links)
Les communications futures pour les applications civiles et militaires utilisent des signaux modulés complexes large bande qui seront émis à travers des amplificateurs de puissance multivoie de type DOHERTY qui devront avoir des performances en puissance, rendement, OBO et largeur de bande qui constituent aujourd’hui un véritable défi à relever. Pour ce faire les concepteurs ont besoin d’outils de caractérisation temporelle permettant la mesure normalisées et l’optimisation des tensions et courants aux accès des dispositifs non linéaires sous pointes ou connectorisés. Ce travail de thèse a permis de mettre en œuvre cet outil de caractérisation temporelle qui a été utilisé pour répondre à des besoins spécifiques pour la modélisation de transistor, pour l’optimisation de leur fonctionnement en termes de stabilité impulsion à impulsion, pour la recherche des conditions optimales de leur fonctionnement dans un amplificateur de type Doherty. Pour cette mise en œuvre une modélisation mathématique des échantillonneurs a été réalisée pour évaluer leurs performances et choisir le mieux adapté à la mesure temporelle RF. Des procédures d’étalonnages rigoureuses ont été développées pour obtenir simultanément des formes d’ondes temporelles calibrées à spectre très large (Basse fréquences jusqu’aux Hyperfréquences). / The future communications for civil and military applications will use complex wideband modulated signals to be transmitted through multi-channel DOHERTY power amplifiers which should have high performance in terms of power, efficiency, OBO, and bandwidth. In order to meet these stringent requirements, designers need time-domain characterization tools for calibrated measurements and for optimizing voltages and currents at both ports of non-linear connectorized or on-wafer devices. This work successfully implements time-domain characterization tools used to meet specific needs for transistor modeling, to optimize their operation in terms of pulse to pulse stability, and to search optimal conditions of their operation modes in a Doherty power amplifier. For this implementation, mathematical modeling is performed to evaluate sampler’s performances in terms of time-domain sampling efficiency in order to choose the best suited sampling architecture for RF time-domain measurements. Rigorous calibration procedures have been developed to obtain simultaneously full time-domain calibrated waveforms (from low Frequencies to Microwave frequencies).
249

Etude de l’imagerie de tenseur de diffusion en utilisant l’acquisition comprimée / Investigation of cardiac diffusion tensor imaging using compressed sensing

Huang, Jianping 13 December 2015 (has links)
L’étude de la structure microscopique des fibres du coeur offre une nouvelle approche pour expliquer les maladies du coeur et pour trouver des moyens de thérapie efficaces. L’imagerie de tenseur de diffusion par résonance magnétique (DTMR) ou l’imagerie de tenseur de diffusion (DTI) fournit actuellement un outil unique pour étudier les structures tridimensionnelles (3D) de fibres cardiaques in vivo. Cependant, DTI est connu pour souffrir des temps d'acquisition longs, ce qui limite considérablement son application pratique et clinique. Les méthodes traditionnelles pour l’acquisition et la reconstruction de l’image ne peuvent pas résoudre ce problème. La motivation principale de cette thèse est alors d’étudier des techniques d'imagerie rapide en reconstruisant des images de haute qualité à partir des données fortement sous-échantillonnées. La méthode adoptée est basée sur la nouvelle théorie de l’acquisition comprimée (CS). Plus précisément, nous étudions l’utilisation de la théorie de CS pour l’imagerie par résonance magnétique (IRM) et DTI cardiaque. Tout d'abord, nous formulons la reconstruction de l’image par résonance magnétique (MR) comme un problème d'optimisation avec les contraintes de trames ajustées guidées par les données (TF) et de variation totale généralisée (TGV) dans le cadre de CS, dans lequel, le TF guidé par les données est utilisé pour apprendre de manière adaptative un ensemble de filtres à partir des données fortement sous-échantillonné afin d’obtenir une meilleure approximation parcimonieuse des images, et le TGV est dédié à régulariser de façon adaptative les régions d'image et à réduire ainsi les effets d'escalier. Ensuite, nous proposons une nouvelle méthode CS qui emploie conjointement la parcimonie et la déficience de rang pour reconstruire des images de DTMR cardiaques à partir des données de l'espace k fortement sous-échantillonnées. Puis, toujours dans le cadre de la théorie CS, nous introduisons la contrainte de rang faible et la régularisation de variation totale (TV) dans la formulation de la reconstruction par CS. Deux régularisations TV sont considérées: TV locale (i.e. TV classique) et TV non locale (NLTV). Enfin, nous proposons deux schémas de sous-échantillonnage radial aléatoire (angle d’or et angle aléatoire) et une méthode d’optimisation avec la contrainte de faible rang et la régularisation TV pour traiter des données espace k fortement sous-échantillonnées en DTI cardiaque. Enfin, nous comparons nos méthodes avec des stratégies existantes de sous-échantillonnage radial telles que l’angle uniforme, l’angle uniforme perturbé aléatoirement, l’angle d’or et l’angle aléatoire. / The investigation of the micro fiber structures of the heart provides a new approach to explaining heart disease and investigating effective therapy means. Diffusion tensor magnetic resonance (DTMR) imaging or diffusion tensor imaging (DTI) currently provides a unique tool to image the three-dimensional (3D) fiber structures of the heart in vivo. However, DTI is known to suffer from long acquisition time, which greatly limits its practical and clinical use. Classical acquisition and reconstruction methods do not allow coping with the problem. The main motivation of this thesis is then to investigae fast imaging techniques by reconstructing high-quality images from highly undersampled data. The methodology adopted is based on the recent theory of compressed sensing (CS). More precisely, we address the use of CS for magnetic resonance imaging (MRI) and cardiac DTI. First, we formulate the magnetic resonance (MR) image reconstruction as a problem of optimization with data-driven tight frame (TF) and total generalized variation (TGV) constraints in the framework of CS, in which the data-driven TF is used to adaptively learn a set of filters from the highly under-sampled data itself to provide a better sparse approximation of images and the TGV is devoted to regularizing adaptively image regions and thus supprressing staircase effects. Second, we propose a new CS method that employs joint sparsity and rank deficiency prior to reconstruct cardiac DTMR images from highly undersampled k-space data. Then, always in the framework of CS theory, we introduce low rank constraint and total variation (TV) regularizations in the CS reconstruction formulation, to reconstruct cardiac DTI images from highly undersampled k-space data. Two TV regularizations are considered: local TV (i.e. classical TV) and nonlocal TV (NLTV). Finally, we propose two randomly perturbed radial undersampling schemes (golden-angle and random angle) and the optimization with low rank constraint and TV regularizations to deal with highly undersampled k-space acquisitons in cardiac DTI, and compare the proposed CS-based DTI with existing radial undersampling strategies such as uniformity-angle, randomly perturbed uniformity-angle, golden-angle, and random angle.
250

Etude et mise en œuvre d’un banc intégré et étalonné 4 canaux pour la caractérisation temporelle de dispositifs non-linéaires hyperfréquences / Study and implementation of a 4-channel integrated and calibrated time-domain characterization system for the characterization of non-linear microwave devices

Farah, Saïd 10 March 2017 (has links)
Ce travail de cette thèse propose une conception et une réalisation d’un banc intégré de caractérisation temporelle des dispositifs RF non-linéaires conçu avec des récepteurs de type THA. Ce banc est une version miniaturisée, moins onéreuse et à performances comparables d’un banc similaire « éclaté » et développé au sein d’XLIM. Le banc intégré développé dans ce travail est entièrement étalonné. Il est versatile vis-à-vis des techniques de sous échantillonnage mis en œuvre pour mesurer des signaux RF sur des temps d’acquisition très différents (<50 µs ou < quelques ms). La technique CIS est utilisée pour l’acquisition périodiques de signaux RF périodiques de durée courtes. La technique DQD est utilisée pour l’acquisition périodiques ou apériodique de signaux RF périodiques ou apériodiques. Cet outil a été utilisé pour extraire, à partir des formes d’ondes temporelles mesurées à leurs accès, plusieurs paramètres caractéristiques (AM/AM- AM/PM, EVM) d’amplificateurs GaN de gamme 10 à 50 W soumis à des excitations simples ou à des signaux modulés. Ce manuscrit décrit aussi la mise en œuvre le développement, parallèlement au travail précédent, d’une plateforme de laboratoire de travaux pratiques à distance pour le projet européen TEMPUS EOLES. / This work proposes the design and the realization of a 4-channel integrated and calibrated time-domain characterization system for the characterization of non-linear microwave devices. This integrated measurement system uses THA based receivers. This is a miniaturized, less expensive and comparable version of a similar laboratory available tool developed within XLIM. The integrated instrument developed in this work is fully calibrated. It is versatile with respect to sub-sampling techniques used to measure RF signals over very different acquisition times (<50 µs or < few ms). The CIS technique is used for the periodic acquisition of periodic short duration RF signals. The DQD technique is used for the periodic or aperiodic acquisition of periodic or aperiodic RF signals. This tool was used to extract, from the measured time-domain waveforms at their ports, several characteristic parameters (AM/AM-AM/PM, EVM) of GaN amplifiers operating in the 10 to 50 W range and excited with simple or modulated signals. This manuscript also describes the implementation, and the development, performed along with the previous work, of a laboratory platform for remote practical works in the context of the European project TEMPUS EOLES.

Page generated in 0.0801 seconds