• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 20
  • 2
  • Tagged with
  • 57
  • 24
  • 16
  • 15
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Statistiques multivariées pour l'analyse du risque alimentaire / Multivariate statistics for dietary risk analysis

Chautru, Emilie 06 September 2013 (has links)
Véritable carrefour de problématiques économiques, biologiques, sociologiques, culturelles et sanitaires, l’alimentation suscite de nombreuses polémiques. Dans un contexte où les échanges mondiaux facilitent le transport de denrées alimentaires produites dans des conditions environnementales diverses, où la consommation de masse encourage les stratégies visant à réduire les coûts et maximiser le volume de production (OGM, pesticides, etc.) il devient nécessaire de quantifier les risques sanitaires que de tels procédés engendrent. Notre intérêt se place ici sur l’étude de l’exposition chronique, de l’ordre de l’année, à un ensemble de contaminants dont la nocivité à long terme est d’ores et déjà établie. Les dangers et bénéfices de l’alimentation ne se restreignant pas à l’ingestion ou non de substances toxiques, nous ajoutons à nos objectifs l’étude de certains apports nutritionnels. Nos travaux se centrent ainsi autour de trois axes principaux. Dans un premier temps, nous nous intéressons à l'analyse statistique des très fortes expositions chroniques à une ou plusieurs substances chimiques, en nous basant principalement sur des résultats issus de la théorie des valeurs extrêmes. Nous adaptons ensuite des méthodes d'apprentissage statistique de type ensembles de volume minimum pour l'identification de paniers de consommation réalisant un compromis entre risque toxicologique et bénéfice nutritionnel. Enfin, nous étudions les propriétés asymptotiques d'un certain nombre d'estimateurs permettant d'évaluer les caractéristiques de l'exposition, qui prennent en compte le plan de sondage utilisé pour collecter les données. / At a crossroads of economical, sociological, cultural and sanitary issues, dietary analysis is of major importance for public health institutes. When international trade facilitates the transportation of foodstuffs produced in very different environmental conditions, when conspicuous consumption encourages profitable strategies (GMO, pesticides, etc.), it is necessary to quantify the sanitary risks engendered by such economic behaviors. We are interested in the evaluation of chronic types of exposure (at a yearly scale) to food contaminants, the long-term toxicity of which is already well documented. Because dietary risk and benefit is not limited to the abuse or the avoidance of toxic substances, nutritional intakes are also considered. Our work is thus organized along three main lines of research. We first consider the statistical analysis of very high long-term types of exposure to one or more chemical elements present in the food, adopting approaches in keeping with extreme value theory. Then, we adapt classical techniques borrowed from the statistical learning field concerning minimum volume set estimation in order to identify dietary habits that realize a compromise between toxicological risk and nutritional benefit. Finally, we study the asymptotic properties of a number of statistics that can assess the characteristics of the distribution of individual exposure, which take into account the possible survey scheme from which the data originate.
52

Bandes de confiance par vraisemblance empirique : δ-méthode fonctionnelle et applications aux processus des événements récurrents / Building confidence bands using empirical likelihood methods : functional delta-method and recurrent event processes

Flesch, Alexis 12 July 2012 (has links)
Disposant d’un jeu de données sur des infections nosocomiales, nous utilisons des techniques de vraisemblance empirique pour construire des bandes de confiance pour certaines quantité d’intérêt. Cette étude nous amène à renforcer les outils déjà existants afin qu’ils s’adaptent à notre cadre. Nous présentons dans une première partie les outils mathématiques issus de la littérature que nous utilisons dans ce travail de thèse. Nous les appliquons ensuite à diverses situations et donnons de nouvelles démonstrations lorsque cela est nécessaire. Nous conduisons aussi des simulations et obtenons des résultats concrets concernant notre jeu de données. Enfin, nous détaillons les algorithmes utilisés. / The starting point of this thesis is a data set of nosocomial infectionsin an intensive care unit of a French hostipal. We focused our attention onbuilding confidence bands for some parameters of interest using empiricallikelihood techniques. In order to do so, we had to adapt and develop somealready existing methods so that they fit our setup.We begin by giving a state of the art of the different theories we use.We then apply them to different setups and demonstrate new results whenneeded. Finally, we conduct simulations and describe our algorithms.
53

Méthodes et outils pour les problèmes faibles de traduction

Malik, Muhammad Ghulam Abbas 09 July 2010 (has links) (PDF)
Étant données une langue source L1 et une langue cible L2, un segment (phrase ou titre) S de n mots écrit en L1 peut avoir un nombre exponentiel N=O(kn) de traductions valides T1...TN. Nous nous intéressons au cas où N est très faible en raison de la proximité des formes écrites de L1 et L2. Notre domaine d'investigation est la classe des paires de combinaisons de langue et de système d'écriture (Li-Wi, Lj-Wj) telles qu'il peut y avoir une seule traduction valide, ou un très petit nombre de traductions valides, pour tout segment S de Li écrit en Wi. Le problème de la traduction d'une phrase hindi/ourdou écrite en ourdou vers une phrase équivalente en devanagari tombe dans cette classe. Nous appelons le problème de la traduction pour une telle paire un problème faible de traduction. Nous avons conçu et expérimenté des méthodes de complexité croissante pour résoudre des instances de ce problème, depuis la transduction à états finis simple jusqu'à à la transformation de graphes de chaînes d'arbres syntaxiques partiels, avec ou sans l'inclusion de méthodes empiriques (essentiellement probabilistes). Cela conduit à l'identification de la difficulté de traduction d'une paire (Li-Wi, Lj-Wj) comme le degré de complexité des méthodes de traduction atteignant un objectif souhaité (par exemple, moins de 15% de taux d'erreur). Considérant la translittération ou la transcription comme un cas spécial de traduction, nous avons développé une méthode basée sur la définition d'une transcription intermédiaire universelle (UIT) pour des groupes donnés de couples Li-Wi, et avons utilisé UIT comme un pivot phonético-graphémique. Pour traiter la traduction interdialectale dans des langues à morphologie flexionnelle riche, nous proposons de faire une analyse de surface sur demande et limitée, produisant des arbres syntaxiques partiels, et de l'employer pour mettre à jour et propager des traits tels que le genre et le nombre, et pour traiter les phénomènes aux limites des mots. A côté d'expériences à grande échelle, ce travail a conduit à la production de ressources linguistiques telles que des corpus parallèles et annotés, et à des systèmes opérationnels, tous disponibles gratuitement sur le Web. Ils comprennent des corpus monolingues, des lexiques, des analyseurs morphologiques avec un vocabulaire limité, des grammaires syntagmatiques du hindi, du punjabi et de l'ourdou, des services Web en ligne pour la translittération entre hindi et ourdou, punjabi (shahmukhi) et punjabi (gurmukhi), etc. Une perspective intéressante est d'appliquer nos techniques à des paires distantes LW, pour lesquelles elles pourraient produire efficacement des présentations d'apprentissage actif, sous la forme de sorties pidgin multiples.
54

Inférence Adaptative, Inductive et Transductive, pour l'Estimation de la Regression et de la Densité

Alquier, Pierre 08 December 2006 (has links) (PDF)
Cette thèse a pour objet l'étude des<br />propriétés statistiques d'algorithmes d'apprentissage dans le cas de<br />l'estimation de la régression et de la densité. Elle est divisée en<br />trois parties.<br /><br />La première partie consiste en une généralisation des théorèmes<br />PAC-Bayésiens, sur la classification, d'Olivier Catoni, au cas de la régression avec une fonction de perte<br />générale.<br /><br />Dans la seconde partie, on étudie plus particulièrement le cas de la<br />régression aux moindres carrés et on propose un nouvel algorithme de<br />sélection de variables. Cette méthode peut être appliquée notamment<br />au cas d'une base de fonctions orthonormales, et conduit alors à des<br />vitesses de convergence optimales, mais aussi au cas de fonctions de<br />type noyau, elle conduit alors à une variante des méthodes dites<br />"machines à vecteurs supports" (SVM).<br /><br />La troisième partie étend les résultats de la seconde au cas de<br />l'estimation de densité avec perte quadratique.
55

Génération d'accélérogrammes synthétiques large-bande. Contribution à l'estimation de l'aléa sismique par validation d'approches en aveugle.

Foundotos, Laetitia 10 July 2013 (has links) (PDF)
L'une des problématique scientifique majeure en sismologie est de pouvoir estimer les mouvements du sol attendus en un site pour un futur séisme. L'objectif de cette thèse est de tester et de valider deux méthodes de simulation des mouvements du sol basées sur l'approche des fonctions de Green empiriques (FGEs) et d'apporter des éléments pouvant aider au développement d'une méthodologie de simulation en aveugle. Dans une première partie, une méthode de simulation basée sur une approche stochastique en point-source est validée sur les données réelles de séismes récents bien instrumentés. Profitant de la disponibilité d'enregistrements de petits séismes de bonne qualité pouvant être utilisés comme FGEs, deux applications sont réalisées : une application au séisme des Saintes Mw = 6.4 et une application au séisme de L'Aquila Mw = 6.3. Nous avons développé une approche de simulation en aveugle en prenant en compte une incertitude sur le paramètre de rapport des chutes de contrainte C. Cette approche permet de générer un ensemble d'accélérogrammes synthétiques d'un séisme cible suffisamment variés pour être représentatifs d'un grand nombre de scénarios de sources possibles et prenant en compte dans un sens statistique de potentiels effets de directivité. De plus, la variabilité des mouvements du sol produite par notre approche de simulation en aveugle est cohérente avec la variabilité des prédictions des mouvements du sol purement empiriques. En se plaçant dans un vrai contexte de simulation en aveugle, cette approche a également été appliquée à la simulation d'un séisme historique pyrénéen Mw = 6.1. Dans une seconde partie, afin de se rapprocher des connaissances actuelles sur la complexité de la cinématique d'une source sismique, nous nous appuyons sur un modèle de source étendue plus complexe, combinant des modèles cinématiques de sources composites à distribution fractale avec l'approche des FGEs pour produire des accélérogrammes synthétiques large-bande. Le potentiel de la méthode est testé sur une application au séisme de L'Aquila en fixant les paramètres d'entrée donnant la meilleure opportunité de reproduire les enregistrements du séisme cible. Cela a permis de produire des résultats très satisfaisants sur l'ensemble des paramètres des mouvements du sol analysés. Cette méthode de simulation apparaît comme étant très prometteuse pour la mise en oeuvre d'une méthodologie de simulation en aveugle, même si la principale difficulté réside dans la nécessité de définir la variabilité de nombreux paramètres d'entrée mal connus dans le cadre de la simulation d'un futur séisme.
56

Essays in econometrics and energy markets

Benatia, David 05 1900 (has links)
No description available.
57

Etude du Transport dans les Transistors MOSFETs Contraints: Modélisation Multi-échelle

Feraille, Maxime 17 June 2009 (has links) (PDF)
La réduction des transistors MOSFETs, briques de base des circuits intégrés, ne permet plus d'améliorer efficacement leurs performances. Des leviers technologiques ont été mis en place dans les procédés de fabrication de ces transistors pour y remédier. L'introduction intentionnelle de contraintes constitue l'une de ces solutions. De fait, l'orientation des contraintes en fonction de la direction du canal influence fortement les propriétés de transport des transistors MOSFETs. Les méthodes de calculs de structures de bandes semi-empiriques EPM et */k.p/* dans l'approximation de la fonction enveloppe, ont été développées afin d'étudier les perturbations occasionnées sur la structure électronique des matériaux par l'action conjuguée des contraintes mécaniques et du confinement. L'influence de ces dernières perturbations sur les propriétés de transport a, par la suite, été analysée à l'aide de simulations avancées Monte Carlo "fullband" et Kubo-Greenwood. Les résultats théoriques obtenus ont été confrontés aux données expérimentales de flexion à quatre pointes (Wafer Bending), mesurées au cours de cette thèse. Il apparaît clairement que la prise en compte du couplage complexe des effets de confinement et de contrainte joue un rôle essentiel dans les propriétés de transport des dispositifs MOSFETs actuels. Enfin, chaque étape de modélisation a donné lieu à une discussion des domaines de validité des outils de simulation Dérive-Diffusion et Hydrodynamique, classiquement utilisés dans l'industrie pour la modélisation des dispositifs MOSFETs.

Page generated in 0.0525 seconds