• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1536
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 144
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Contributions à la théorie des valeurs extrêmes et à la réduction de dimension pour la régression

Gardes, Laurent 17 November 2010 (has links) (PDF)
Ce mémoire résume mes travaux de recherche portant sur les trois thèmes suivants : inférence pour les lois à queue de type Weibull, estimation de quantiles extrêmes conditionnels et réduction de dimension pour la régression. Dans le cadre du premier thème, nous avons proposé de nombreux estimateurs du paramètre de forme et de quantiles extrêmes pour des lois à queue de type Weibull. Leurs propriétés théoriques ont aussi été étudiées. Les deuxième et troisième thèmatiques ont pour point de départ une application concrête respectivement l'estimation de niveaux de retour de pluies et l'étude d'images hyperspectrales Martienne. D'un point de vue théorique, nous avons proposé et étudié, dans le cadre du deuxième thème, des estimateurs de quantiles extrêmes conditionnels. Au sein du troisième thème, nous avons proposé une méthode de régularisation pour la régression inverse par tranches (SIR).
392

Contrainte des modèles génétiques de réservoirs par une approche de reconnaissance statistique de forme

Chugunova, Tatiana 07 April 2008 (has links) (PDF)
L'objet de cette thèse est la modélisation de l'hétérogénéité souterraine. Pour ce faire, nous avons adapté l'approche de simulation multipoints (MP) qui reproduit et conditionne des formes géométriques complexes fournies par des modèles génétiques non conditionnels. Initialement, l'approche MP n'était applicable que moyennant l'hypothèse d'une certaine stationnarité spatiale de l'hétérogénéité. Pour étendre l'approche MP au cas non stationnaire, deux algorithmes ont paru dans la littérature : le modèle Tau et l'algorithme de classement. Les deux révèlent des artefacts géométriques sans pour autant restituer les contraintes non stationnaires. Dans ce travail, nous avons proposé un nouvel algorithme de simulation MP non stationnaire. Il évite des inconvénients des algorithmes existants et intègre des contraintes spatiales continues. Les résultats expérimentaux montrent aussi que notre algorithme a un domaine d'applicabilité bien plus vaste que ceux existants.
393

Recalage non rigide en imagerie cérébrale : méthodes et validation

Hellier, Pierre 22 December 2000 (has links) (PDF)
Dans le contexte de la fusion de données en imagerie médicale, cette thèse s'intéresse aux problèmes de recalage non-rigide en imagerie cérébrale, monomodalité et multimodalité. Dans un premier temps, nous avons développé une approche originale pour estimer une transformation $3D$ dense entre deux volumes IRM de deux sujets différents. Cette méthode est basée sur une estimation du flot optique, exprimé dans un cadre statistique robuste. Nous avons également proposé un schéma de minimisation efficace, à la fois multirésolution et multigrille, s'appuyant sur des contraintes anatomiques. Nous avons validé cette méthode sur des données synthétiques, puis sur une base de donnée de 18 sujets. Dans un deuxième temps, nous nous sommes intéressés au problème du recalage non-rigide multimodalité. Les images fonctionnelles IRMf, en acquisition EPI, présentent des déformations géométriques qui gênent l'interprétation des données fonctionnelles. Nous avons proposé un algorithme de recalage non-rigide multimodalité à l'aide d'une mesure de similarité adaptée, dans un cadre de minimisation multigrille. Dans un troisième temps, nous avons proposé un cadre de validation de méthodes de recalage non-rigides. 5 méthodes différentes, parmi lesquelles des approches classiques et des approches plus récentes, ont été évaluées sur la base de critères globaux (volume moyen, corrélation des Lvv, recouvrement des tissus anatomiques) et de critères locaux (recalage des sillons corticaux). Enfin, nous avons étudié des approches coopératives utilisant les processus de segmentation et de recalage. Basée sur une méthode de type ``ensemble de niveaux'', la segmentation de structures anatomiques peut être guidée par un champ grossier de déformation. Le recalage permet d'initialiser correctement les modèles déformables, entraînant une segmentation automatique, plus robuste, plus précise et considérablement plus rapide. D'autre part, la segmentation de structures anatomiques d'intérêt comme les sillons corticaux permet de contraindre le processus de recalage présenté dans la première partie. En particulier, le cadre statistique permet d'intégrer cette contrainte locale et éparse de manière naturelle. Sur la base de 18 sujets, nous avons montré l'apport de cette contrainte anatomique.
394

Étiages et tarissements : vers quelles modélisations ? L'approche conceptuelle et l'analyse statistique en réponse à la diversité spatiale des écoulements en étiage des cours d'eau de l'Est français.

Lang, Claire 13 December 2007 (has links) (PDF)
Les sécheresses exceptionnelles observées ces dernières années, ont montré la vulnérabilité de certaines activités humaines face à une pénurie de la ressource en eau. Le retour d'expérience de la sécheresse de 2003 a montré que cette situation aurait pu être mieux anticipée, incitant les services qui ont à charge la gestion des cours d'eau à se doter d'outils de prévision des étiages. Cette recherche porte sur l'analyse des étiages des cours d'eau de l'est de la France situés dans les bassins du Rhin et de la Meuse. L'objectif est de proposer une modélisation conceptuelle applicable pour la prévision opérationnelle. Un des intérêts réside dans le choix d'un nombre élevé de bassins, situés dans un contexte climatique homogène, mais aux caractéristiques géologiques diversifiées. Cet échantillonnage permet d'aborder une étude comparée du comportement des bassins et d'en expliquer la variabilité spatiale des écoulements en étiage. Dans un souci de transposabilité nous avons cherché à orienter notre démarche vers des méthodes uniques, applicables et reproductibles pour l'ensemble des bassins. Au final, malgré la diversité des milieux géologiques des bassins étudiés, des modèles uniques, aux paramètres descripteurs d'une réalité de terrain sont adoptés. Enfin, les incertitudes liées à la démarche conceptuelle ont pu être réduites grâce à l'analyse statistique, en proposant un compromis entre les fondements conceptuels et les applications employant les approches probabilistes.
395

Forces et fluctuations en membranes planes, sphériques et tubulaires

Barbetta, Camilla 07 September 2010 (has links) (PDF)
Les membranes lipidiques constituent des matériaux très particuliers: d'une part, elles sont très peu résistantes aux étirements microscopiques; d'autre part elles sont extrêmement flexibles, présentant des déformations même à des petites échelles. En conséquence, une portion de membrane possède un excès d'aire relatif à l'aire optiquement visible, qu'on appelle l'aire projetée. D'un point de vue mécanique, on peut alors distinguer trois tensions associées aux membranes lipidiques: la tension mécanique effective $\tau$, associée à l'augmentation de l'aire projetée et au lissage des fluctuations; la tension $\sigma$, associée à l'aire microscopique de la membrane et donc non-mesurable, mais couramment utilisée dans les prédictions théoriques; et son équivalent macroscopique mesuré à travers du spectre des fluctuations, $r$. Jusqu'au moment, pour interpréter les données expérimentales, on suppose l'égalité entre ces quantités. Dans cette thèse, nous avons étudié, en utilisant le tenseur des contraintes projeté, si et sous quelles conditions il est justifié d'assumer $\tau = \sigma$. Nous avons étudié trois géométries (planaire, sphérique et cylindrique) et obtenu la relation $\tau \approx \sigma - \sigma_0$, où $\sigma_0$ est une constante qui dépend seulement du plus grand vecteur d'onde de la membrane et de la température. En conséquence, nous concluons que négliger la différence entre $\tau$ et $\sigma$ est justifiable seulement pour des membranes sous grande tension: pour des tensions faibles, il faut considérer des corrections. Nous avons étudié les implications de ce résultat à l'interprétation des expériences d'extraction de nanotubes de membrane. En ce que concerne $r$, nous questionnons une démonstration précédente de son égalité avec $\tau$. Finalement, la fluctuation des forces pour les membranes planes et pour des nanotubes de membranes a été quantifiée pour la première fois.
396

Techniques géostatistiques au service de l'aménagement de la pêcherie céphalopodière marocaine

Faraj, Abdelmalek 01 December 2009 (has links) (PDF)
L'aménagement de la pêcherie céphalopodière au Maroc est principalement axé sur la régulation des captures du poulpe (Octopus vulgaris), l'espèce prioritaire. Son potentiel exploitable est déterminé sur la base des évaluations directes à travers des campagnes de prospection scientifiques. Il s'agit de (i) fournir un estimateur de bonne qualité – sans biais et précis – de l'abondance globale, accompagné de sa variance d'estimation et des cartes de distribution du stock, (ii) suivre la dynamique spatio-temporelle du poulpe dont la connaissance est indispensable pour la gestion. Pour y parvenir : <br/>- Les propriétés spatiales de la densité du poulpe sont décrites et les conditions de stationnarité sont analysées sur une série de données historique. <br/>- Des méthodes d'estimation globale – transitives et intrinsèques – sont appliquées en tenant compte des conditions particulières des données, notamment la non-stationnarité concernant l'approche probabiliste intrinsèque et l'échantillonnage non contrôlé concernant l'approche déterministe transitive. <br/>- La stratégie d'occupation de l'espace par le poulpe est décrite à l'aide d'indicateurs géostatistiques. Elle se caractérise par un schéma de reproduction étendu sur le plateau continental et un succès du recrutement essentiellement côtier. D'importantes implications en matière de gestion sont discutées. <br/>Pour finir, ce travail est replacé dans son contexte plus global de l'aménagement de la pêcherie céphalopodière, et de la nouvelle stratégie de la pêche. De nouvelles perspectives pour l'application des techniques géostatistiques et des statistiques spatiales sont envisagées pour les évaluations de stocks, en particulier du poulpe.
397

Contribution à l'étude des M-estimateurs polynômes locaux

Sabbah, Camille 01 July 2010 (has links) (PDF)
L'objet de cette thèse est d'établir des résultats asymptotiques pour l'estimateur du quantile conditionnel par la méthode des polynômes locaux ainsi qu'à la généralisation de ces résultats pour les M-estimateurs. Nous étudions ces estimateurs et plus particulièrement leur représentation de Bahadur et leur biais. Nous donnons en outre un résultat sur les intervalles de confiance uniformes construits à partir de cette représentation pour le quantile conditionnel et ses dérivées.
398

Plusieurs approches en ondelettes pour la séparation et déconvolection de composantes. Application à des données astrophysiques.

Anthoine, Sandrine 05 August 2005 (has links) (PDF)
Cette thèse est consacree au problµeme de separation de composantes lorsque celles ci sont des images de structure differente et que l'on en observe un ou plusieurs melange(s) ou(s) et bruite(s). Les problµemes de deconvolution et de separation, traditionnellement etudies separement, sont ici traites simultanément. Une façon naturelle d'aborder le problµeme multicomposants/multiobservations est de generaliser les techniques de deconvolution d'une image unique. Le premier resultat presente est une etude mathematique d'un tel algorithme. Preuve est faite que celuici est convergent mais pas regularisant et une modification restaurant cette propriete est proposee. Le sujet principal est le developpement et la comparaison de deux methodes pour traiter la deconvolution et separation simultanees de composantes. La premiµere methode est basee sur les propriétes statistiques locales des composantes tandis que dans la seconde, ces signaux sont decrits par des espaces fonctionnels. Les deux methodes utilisent des transformees en ondelettes redondantes pour simplifier les donnees. Les performances des deux algorithmes sont evaluees et comparees dans le cadre d'un problµeme astrophysique : celui de l'extraction des amas de galaxies par l'effet Sunyaev-Zel'dovich dans les images multispectrales des anisotropies du fond cosmique. Des simulations realistes sont etudiees. On montre qu'µa haute resolution et niveau de bruit modere, les deux methodes permettent d'extraire des cartes d'amas de galaxies de qualite suffisante pour des etudes cosmologiques. Le niveau de bruit est un facteur limitant µa basse resolution et la methode statistique est robuste µa la presence de points sources.
399

Quelques applications des processus de diffusion: filtrage/statistique - contrôle - homogénéisation

Campillo, Fabien 13 December 2004 (has links) (PDF)
Ce document se décompose en trois axes: – Le premier s'attache à différents problèmes de filtrage et de statistique pour des processus de diffusion partiellement observés. – Le deuxième traite d'un problème de contrôle stochastique de type ergodique. il s'agit de calculer des lois de commande pour des amortisseurs semi–actifs (contrat avec Renault). – Le dernier traite de quelques problèmes d'homogénéisation pour des processus aléatoires en milieux hétérogène. Il s'agissait à l'origine d'un contrat avec l'IFP pour le développement de méthodes de Monte Carlo pour le calcul de coefficients effectifs.
400

Nouveaux Algorithmes pour l'Apprentissage de Machines à Vecteurs Supports sur de Grandes Masses de Données

Bordes, Antoine 09 February 2010 (has links) (PDF)
Internet ainsi que tous les moyens numériques modernes disponibles pour communiquer, s'informer ou se divertir génèrent des données en quantités de plus en plus importantes. Dans des domaines aussi variés que la recherche d'information, la bio-informatique, la linguistique computationnelle ou la sécurité numérique, des méthodes automatiques capables d'organiser, classifier, ou transformer des téraoctets de données apportent une aide précieuse. L'apprentissage artificiel traite de la conception d'algorithmes qui permettent d'entraîner de tels outils à l'aide d'exemples d'apprentissage. Utiliser certaines de ces méthodes pour automatiser le traitement de problèmes complexes, en particulier quand les quantités de données en jeu sont insurmontables pour des opérateurs humains, paraît inévitable. Malheureusement, la plupart des algorithmes d'apprentissage actuels, bien qu'efficaces sur de petites bases de données, présentent une complexité importante qui les rend inutilisables sur de trop grandes masses de données. Ainsi, il existe un besoin certain dans la communauté de l'apprentissage artificiel pour des méthodes capables d'être entraînées sur des ensembles d'apprentissage de grande échelle, et pouvant ainsi gérer les quantités colossales d'informations générées quotidiennement. Nous développons ces enjeux et défis dans le Chapitre 1. Dans ce manuscrit, nous proposons des solutions pour réduire le temps d'entraînement et les besoins en mémoire d'algorithmes d'apprentissage sans pour autant dégrader leur précision. Nous nous intéressons en particulier aux Machines à Vecteurs Supports (SVMs), des méthodes populaires utilisées en général pour des tâches de classification automatique mais qui peuvent être adaptées à d'autres applications. Nous décrivons les SVMs en détail dans le Chapitre 2. Ensuite, dans le Chapitre 3, nous étudions le processus d'apprentissage par descente de gradient stochastique pour les SVMs linéaires. Cela nous amène à définir et étudier le nouvel algorithme, SGD-QN. Après cela, nous introduisons une nouvelle procédure d'apprentissage : le principe du “Process/Reprocess”. Nous déclinons alors trois algorithmes qui l'utilisent. Le Huller et LaSVM sont présentés dans le Chapitre 4. Ils servent à apprendre des SVMs destinés à traiter des problèmes de classification binaire (décision entre deux classes). Pour la tˆache plus complexe de prédiction de sorties structurées, nous modifions par la suite en profondeur l'algorithme LaSVM, ce qui conduit à l'algorithme LaRank présenté dans le Chapitre 5. Notre dernière contribution concerne le problème récent de l'apprentissage avec une supervision ambigüe pour lequel nous proposons un nouveau cadre théorique (et un algorithme associé) dans le Chapitre 6. Nous l'appliquons alors au problème de l'étiquetage sémantique du langage naturel. Tous les algorithmes introduits dans cette thèse atteignent les performances de l'état-de-l'art, en particulier en ce qui concerne les vitesses d'entraînement. La plupart d'entre eux ont été publiés dans des journaux ou actes de conférences internationaux. Des implantations efficaces de chaque méthode ont également été rendues disponibles. Dans la mesure du possible, nous décrivons nos nouveaux algorithmes de la manière la plus générale possible afin de faciliter leur application à des tâches nouvelles. Nous esquissons certaines d'entre elles dans le Chapitre 7.

Page generated in 0.0287 seconds