• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 78
  • 21
  • Tagged with
  • 255
  • 105
  • 52
  • 32
  • 31
  • 31
  • 30
  • 29
  • 25
  • 25
  • 21
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Contributions à la statistique des processus et à l'estimation fonctionnelle

Rachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.
192

Déterminants environnementaux et socio-économiques, leur influence sur les métaux traces et les produits pharmaceutiques dans les cours d'eau : étude comparée sur deux rivières de France et d'Ukraine

Vystavna, Yuliya 09 March 2012 (has links) (PDF)
Les objectifs de cette étude comparative de deux bassins versants en France et en Ukraine sont de trois ordres. i) déterminer l'occurrence des micropolluants émergents (métaux traces et molécules pharmaceutiques) dans les eaux de surface, ii) permettre leur évaluation qualitative et quantitative et enfin iii) estimer leur distribution en fonction du contexte socio-économique. Cette recherche porte sur l'analyse de l'origine, sur les propriétés physico-chimiques et sur le comportement des micropolluants (métaux traces et molécules pharmaceutiques) dans les eaux des rivières Jalle (Bordeaux, France) et Udy & Lopan (Kharkiv, Ukraine). Un suivi des métaux traces et des produits pharmaceutiques dans les eaux naturelles de surface dans différents contextes et conditions climatiques a été réalisé. La description et l'analyse des facteurs environnementaux et socio-économiques influençant l'hydrochimie locale en vue de conclure sur l'opportunité et l'intérêt des micropolluants émergents comme indicateurs anthropogéniques du contexte socio-économique et environnemental d'un bassin versant ont été mis en oeuvre. L'étude a combiné des techniques de prélèvements d'échantillons d'eau classiques et par capteurs passifs in situ. L'analyse semi quantitative des micropolluants émergents a porté sur les métaux traces (sondes DGT) et les produits pharmaceutiques (POCIS). L'usage de ces capteurs a permis d'évaluer les différentes formes d'éléments, les sources, les variations saisonnières et spatiales, l'accumulation et les risques environnementaux. A partir des données environnementales collectées, acquises, actualisées et validées il a été possible de modéliser la consommation régionale de médicaments dans le cas de (1) la région de Kharkiv, en Ukraine, sur les rivières Lopan et Udy du bassin Seversky Donets et (2) la région de Bordeaux, en France, sur la rivière Jalle, du bassin de la Garonne. Les sites ont été sélectionnés pour représenter une diversité tant du point de vue de l'état de pollution des eaux (nature et flux) que de celui du paysage socio-économique (contexte urbain, social et indicateurs économiques). Les résultats majeurs de cette étude sont : (i) méthodologique pour le développement et la validation de protocoles d'échantillonnage classique et passif (intérêt, limites, recommandations), ii) analytique quant à la mesure des éléments traces des eaux de surface naturelles dans des conditions extrêmes, iii) scientifique par l'obtention d'un jeu de données sur l'hydrochimie des éléments traces ( présence, accumulation, origine et variabilité spatiale et temporelle et iv) prospectif quant à l'usage des métaux traces et de produits pharmaceutiques comme traceurs anthropiques de l'état des eaux naturelles de surfaces et reflet du contexte socio économique. La modélisation socio-économique (statistique) et environnementale (balance de masse) aide à comprendre l'évolution de la qualité des eaux de surface dans leur contexte régional et permet d'identifier certains contaminants comme des indicateurs des activités anthropiques d'un bassin versant et permet de définir une typologie. L'ensemble des résultats de la thèse ont présentés sous la forme d'articles publiés ou soumis dans des revues scientifiques internationales.
193

Applications du Compressed Sensing à l'imagerie biologique de microscopie

Marim, Marcio 08 April 2011 (has links) (PDF)
La technique d'acquisition compressée (compressed sensing, CS) est une nouvelle théorie pour l'échantillonnage qui fût introduite afin de permettre l'acquisition ef- ficace de signaux compressibles. Dans cette thèse, nous avons étudié des applica- tions pratiques de cette technique d'échantillonnage, où les acquisitions sont réal- isées dans le domaine de Fourier, menant aux deux principales contributions suiv- antes : (i) Débruitage d'image : Les images microscopiques présentent souvent des dégradations dûs à des artefacts complexes, associés à du bruit ou encore des mauvaises conditions d'éclairage. En microscopie à fluorescence, le bruit et le pho- toblanchiment altèrent la qualité de l'image. Notre travail a consisté à exploiter la théorie d'acquisition compressée comme un outil de débruitage d'image. Nous avons utilisé plusieurs acquisitions aléatoires dans le domaine de Fourier, et la variation totale comme un a priori sur la parcimonie spatiale. La composition des différentes images de reconstruction correspondant aux différents ensembles de mesures aléa- toires renforce la cohérence spatiale de composants du signal significatifs et per- met de décorréler les composants bruités. Nous avons étudié les relations entre la parcimonie d'un signal et les statistiques et la performance pour la réduction du bruit sous différentes conditions initiales de bruitage. Nous avons montré que la technique proposée, basée sur un a priori sur la parcimonie du signal et sur des échantillonnages aléatoires dans le domaine de Fourier, permet d'obtenir des im- ages avec un rapport signal/bruit (SNR) au pire égal à celui obtenu avec les méth- odes de débruitage classiques, tout en utilisant un nombre limité d'échantillons. Sous réserve de pouvoir acquérir l'image dans le domaine de Fourier, le schéma de débruitage proposé fournirait une méthode d'acquisition rapide nécessitant un temps d'exposition moindre, réduisant les effets de photoblanchiment. (ii) Acquisi- tion compressée en microscopie holographique : En microscopie, les données en sortie deviennent considérables, impliquant notamment l'utilisation de capteurs haute-définition (i.e. beaucoup d'échantillons par acquisition) et l'augmentation des temps d'acquisition. La théorie de l'acquisition compressée fournit des outils pour la reconstruction d'images, nécessitant moins d'échantillons que les approches clas- siques. Cependant, les quelques mesures nécessaires doivent être prises dans un domaine incohérent au domaine spatiale, ce qui est difficile à réaliser en microscopie conventionnelle. Nous avons tout d'abord proposé un schéma de calcul permettant l'acquisition de séquences temporelles de mesures d'amplitude dans le domaine de Fourier, et l'estimation de l'information manquante sur la phase par interpolation de spectre de quelques acquisitions complètes d'images. Cette approche a été mise en pratique dans le contexte de l'imagerie rapide, utilisée pour des cellules en mou- vement. Dans un deuxième temps nous avons implanté un schéma d'acquisition compressée pratique, conçu pour l'holographie numérique. Ce schéma permet de mesurer une figure de diffraction du champ optique et reconstruire images de haute qualité à partir de seulement 7% de mesures aléatoires. L'expérience d'acquisition compressée a été étendue avec succès à l'holographie compressée rapide à acquisition unique et dans des conditions d'éclairage faible.
194

Analyse et synthèse de champs sonores

Guillaume, Mathieu 11 1900 (has links) (PDF)
Cette thèse a pour objectif de reproduire au mieux un champ sonore enregistré par une antenne de microphones au moyen d'un réseau de sources secondaires. Pour y parvenir, nous avons dans un premier temps réalisé une étude approfondie des représentations harmoniques et intégrales des champs sonores. Dans un deuxième temps, nous avons mis au point des algorithmes qui utilisent la représentation du champ sonore en ondes planes pour effectuer l'analyse et la synthèse.L'algorithme d'analyse proposé est un algorithme de formation de voies donnant une solution analytique au problème de la minimisation du repliement. Le problème de l'optimisation de la géométrie de l'antenne est aussi abordé. L'algorithme utilisé pour la synthèse est un algorithme flexible pour l'égalisation dans un contexte multicanal, qui permet de réduire les artefacts des méthodes traditionnelles, tels que le pré-écho et le post-écho. Finalement, l'efficacité de ces algorithmes d'analyse et de synthèse est démontrée par des simulations et validée par des manipulations.
195

L'Imagerie Compressé Appliqué a la Microscopie Biologique

Marim, Marcio 08 April 2011 (has links) (PDF)
La technique d'acquisition compressée (compressed sensing, CS) est une nouvelle théorie pour l'échantillonnage qui fût introduite afin de permettre l'acquisition efficace de signaux compressibles. Dans cette thèse, nous avons étudié des applications pratiques de cette technique d'échantillonnage, où les acquisitions sont réalisées dans le domaine de Fourier, menant aux deux principales contributions suivantes : (i) Débruitage d'image : Les images microscopiques présentent souvent des dégradations dûs à des artefacts complexes, associés à du bruit ou encore des mauvaises conditions d'éclairage. En microscopie à fluorescence, le bruit et le photoblanchiment altèrent la qualité de l'image. Notre travail a consisté à exploiter la théorie d'acquisition compressée comme un outil de débruitage d'image. Nous avons utilisé plusieurs acquisitions aléatoires dans le domaine de Fourier, et la variation totale comme un a priori sur la parcimonie spatiale. La composition des différentes images de reconstruction correspondant aux différents ensembles de mesures aléatoires renforce la cohérence spatiale de composants du signal significatifs et per- met de décorréler les composants bruités. Nous avons étudié les relations entre la parcimonie d'un signal et les statistiques et la performance pour la réduction du bruit sous différentes conditions initiales de bruitage. Nous avons montré que la technique proposée, basée sur un a priori sur la parcimonie du signal et sur des échantillonnages aléatoires dans le domaine de Fourier, permet d'obtenir des im- ages avec un rapport signal/bruit (SNR) au pire égal à celui obtenu avec les méthodes de débruitage classiques, tout en utilisant un nombre limité d'échantillons. Sous réserve de pouvoir acquérir l'image dans le domaine de Fourier, le schéma de débruitage proposé fournirait une méthode d'acquisition rapide nécessitant un temps d'exposition moindre, réduisant les effets de photoblanchiment. (ii) Acquisition compressée en microscopie holographique : En microscopie, les données en sortie deviennent considérables, impliquant notamment l'utilisation de capteurs haute-définition (i.e. beaucoup d'échantillons par acquisition) et l'augmentation des temps d'acquisition. La théorie de l'acquisition compressée fournit des outils pour la reconstruction d'images, nécessitant moins d'échantillons que les approches classiques. Cependant, les quelques mesures nécessaires doivent être prises dans un domaine incohérent au domaine spatiale, ce qui est difficile à réaliser en microscopie conventionnelle. Nous avons tout d'abord proposé un schéma de calcul permettant l'acquisition de séquences temporelles de mesures d'amplitude dans le domaine de Fourier, et l'estimation de l'information manquante sur la phase par interpolation de spectre de quelques acquisitions complètes d'images. Cette approche a été mise en pratique dans le contexte de l'imagerie rapide, utilisée pour des cellules en mouvement. Dans un deuxième temps nous avons implanté un schéma d'acquisition compressée pratique, conçu pour l'holographie numérique. Ce schéma permet de mesurer une figure de diffraction du champ optique et reconstruire images de haute qualité à partir de seulement 7% de mesures aléatoires. L'expérience d'acquisition compressée a été étendue avec succès à l'holographie compressée rapide à acquisition unique et dans des conditions d'éclairage faible.
196

Algorithmes d'optimisation et d'analyse des problèmes multidimensionnels, non linéaires, en Biologie et Biophysique

Parent, Benjamin 29 October 2007 (has links) (PDF)
La complexité du vivant est omniprésente à toutes les échelles : des interactions entre molécules individuelles aux réseaux d'interactions permettant à la cellule d'assurer ses fonctions vitales et de répondre aux stimuli. Cette thèse se veut être une application des outils de l'Automatique et de l'Informatique à certaines questions de la Biologie et Biochimie.<br />Pour cela, nous avons abordé le problème via deux aspects : le premier concerne la modélisation des interactions moléculaires en vue de prédire les modes de fixation et les affinités entre molécules. Puisque ces estimations nécessitent de considérer la flexibilité des acteurs, nous avons abordé, en premier lieu, la prédiction des conformations moléculaires qui reste un challenge majeur, caractérisé par ses aspects multimodal et de grandes dimensions. Nous avons alors développé une suite d'heuristiques autour d'un algorithme génétique central. Les paramètres de contrôle et les stratégies d'hybridation sont pilotés par un méta-algorithme permettant d'optimiser la recherche. En outre, des stratégies innovantes de parallélisation sur grilles d'ordinateurs ont été validées afin de réduire les temps de calculs. Enfin, pour entreprendre l'étude des conformations de plusieurs molécules, nous avons développé des algorithmes de criblage rapides basés sur la comparaison d'indices topologiques.<br />Nous avons également étudié un autre aspect en modélisant formellement certains graphes d'interactions, ceci à une toute autre échelle : celle des concentrations des molécules. Nous avons alors mis en évidence l'impact des modes d'interactions moléculaires sur la dynamique globale.
197

Morphométrie de structures cellulaires biologiques partiellement observées pas imagerie 3D

Legland, David 16 December 2005 (has links) (PDF)
Ce travail présente des méthodes de caractérisation de la morphologie de structures cellulaire 3D partiellement observées par des images discrètes, ainsi que leur application à la description morphométrique du péricarpe de tomate.<br /><br />Une méthode d'estimation des propriétés géométriques d'un matériau a été développée, dans le cas particulier où la probabilité d'échantillonnage des pixels n'est pas uniforme à l'intérieur de l'image. Elle consiste à exprimer localement les paramètres morphométriques de la structure, et à pondérer chaque contribution par l'inverse de sa probabilité d'échantillonnage. <br /><br />Nous présentons aussi le calcul des probabilité d'échantillonnage dans le cas d'image 3D acquises perpendiculairement à une surface, en nous basant sur des hypothèses simples de régularité de la surface.<br /><br />En vue de comparer la qualité des informations obtenues à partir l'images 2D et 3D, l'estimation de la densité surfacique dans des coupes verticales a été appliquée à des images discrètes.<br /><br />Finalement, nous présentons une démarche complète de caractérisation d'un matériau cellulaire, le péricarpe de tomate. La démarche comprend l'acquisition des images par microscopie confocale, le traitement des images pour segmenter les cellules, et l'application des estimateurs que nous avons développé. Nous pouvons ainsi caractériser la morphologie des particules du péricarpe en fonction de la profondeur.
198

Mélanges bayésiens de modèles d'extrêmes multivariés, Application à la prédétermination régionale des crues avec données incomplètes.

Anne, Sabourin 24 September 2013 (has links) (PDF)
La théorie statistique univariée des valeurs extrêmes se généralise au cas multivarié mais l'absence d'un cadre paramétrique naturel complique l'inférence de la loi jointe des extrêmes. Les marges d'erreur associées aux estimateurs non paramétriques de la structure de dépendance sont difficilement accessibles à partir de la dimension trois. Cependant, quantifier l'incertitude est d'autant plus important pour les applications que le problème de la rareté des données extrêmes est récurrent, en particulier en hydrologie. L'objet de cette thèse est de développer des modèles de dépendance entre extrêmes, dans un cadre bayésien permettant de représenter l'incertitude. Après une introduction à la théorie des valeurs extrêmes et à l'inférence bayésienne (chapitre 1), le chapitre 2 explore les propriétés des modèles obtenus en combinant des modèles paramétriques existants, par mélange bayésien (Bayesian Model Averaging). Un modèle semi-paramétrique de mélange de Dirichlet est étudié au chapitre suivant : une nouvelle paramétrisation est introduite afin de s'affranchir d'une contrainte de moments caractéristique de la structure de dépendance et de faciliter l'échantillonnage de la loi a posteriori. Le chapitre~\ref{censorDiri} est motivé par une application hydrologique: il s'agit d'estimer la structure de dépendance spatiale des crues extrêmes dans la région cévenole des Gardons en utilisant des données historiques enregistrées en quatre points. Les données anciennes augmentent la taille de l'échantillon mais beaucoup de ces données sont censurées. Une méthode d'augmentation de données est introduite, dans le cadre du mélange de Dirichlet, palliant l'absence d'expression explicite de la vraisemblance censurée. Les perspectives sont discutées au chapitre 5.
199

Amélioration de l'exactitude de l'inférence phylogénomique

Roure, Béatrice 04 1900 (has links)
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif. / The explosion of sequence number allows for phylogenomics, the study of species relationships based on large multi-gene alignments, to flourish. Without any doubt, phylogenomics is essentially an efficient way to eliminate the problems of single gene phylogenies due to stochastic errors, but numerous problems remain despite obvious progress realized in modeling evolutionary process. In this PhD-thesis, we are trying to characterize some consequences of a poor model fit and to study their impact on the accuracy of the phylogenetic inference. In contrast to heterotachy, the variation in the amino acid substitution process over time did not attract so far a lot of attention. We demonstrate that this heterogeneity is frequently observed within animals, but also that its existence can interfere with the quality of phylogenomic inference. In absence of an adequate model, the elimination of heterogeneous columns, which are poorly handled by the model, can eliminate an artefactual reconstruction. In a phylogenomic framework, the sequencing strategies often result in a situation where some genes are absent for some species. The issue about the impact of the quantity of empty cells was recently relaunched, but the majority of studies on missing data is performed on small datasets of simulated sequences. Therefore, we were interested on measuring the impact in the case of a large alignment of real data. With a reasonable amount of missing data, it seems that the accuracy of the inference is influenced rather by the choice of the model than the incompleteness of the alignment. For example, the addition of an incomplete sequence that breaks a long branch can at least partially re-establish an artefactual phylogeny. Because, model violations are always representing the major limitation of the accuracy of the phylogenetic inference, the improvement of species and gene sampling remains a useful alternative in the absence of an adequate model. Therefore, we developed a sequence-selection software, which allows the reproducible construction of datasets, based on the quantity of data, their evolutionary speed and their compositional bias. During this study, we did realize that the human expertise still furnishes an indispensable knowledge. The various analyses performed in the course of this PhD thesis agree on the primordial importance of the model of sequence evolution.
200

Estimation simplifiée de la variance dans le cas de l’échantillonnage à deux phases

Béliveau, Audrey 08 1900 (has links)
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques. / In this thesis we study the problem of variance estimation for the double expansion estimator and the calibration estimators in the case of two-phase designs. We suggest to use a variance decomposition different from the one usually used in two-phase sampling, which leads to a simplified variance estimator. We look for the necessary conditions for the simplified variance estimators to be appropriate. In order to do so, we consider the following particular cases : (1) Poisson design at the second phase, (2) two-stage design, (3) simple random sampling at each phase, (4) simple random sampling at the second phase. We show that a crucial condition for the simplified variance estimator to be valid in cases (1) and (2) is that the first phase sampling fraction must be negligible (or small). We also show in cases (3) and (4) that the simplified variance estimator can be used with some calibration estimators when the first phase sampling fraction is negligible and the population size is large enough. Furthermore, we show that the simplified estimators can be obtained in an alternative way using the reversed approach (Fay, 1991 and Shao and Steel, 1999). Finally, we conduct some simulation studies in order to validate the theoretical results.

Page generated in 0.092 seconds