• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 187
  • 105
  • 26
  • Tagged with
  • 319
  • 166
  • 80
  • 76
  • 74
  • 67
  • 62
  • 59
  • 52
  • 46
  • 45
  • 45
  • 43
  • 41
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Méthodes bayésiennes semi-paramétriques d'extraction et de sélection de variables dans le cadre de la dendroclimatologie

Guin, Ophélie 14 April 2011 (has links) (PDF)
Selon le Groupe Intergouvernemental d'experts sur l'Évolution du Climat (GIEC), il est important de connaitre le climat passé afin de replacer le changement climatique actuel dans son contexte. Ainsi, de nombreux chercheurs ont travaillé à l'établissement de procédures permettant de reconstituer les températures ou les précipitations passées à l'aide d'indicateurs climatiques indirects. Ces procédures sont généralement basées sur des méthodes statistiques mais l'estimation des incertitudes associées à ces reconstructions reste une difficulté majeure. L'objectif principal de cette thèse est donc de proposer de nouvelles méthodes statistiques permettant une estimation précise des erreurs commises, en particulier dans le cadre de reconstructions à partir de données sur les cernes d'arbres.De manière générale, les reconstructions climatiques à partir de mesures de cernes d'arbres se déroulent en deux étapes : l'estimation d'une variable cachée, commune à un ensemble de séries de mesures de cernes, et supposée climatique puis l'estimation de la relation existante entre cette variable cachée et certaines variables climatiques. Dans les deux cas, nous avons développé une nouvelle procédure basée sur des modèles bayésiens semi- paramétriques. Tout d'abord, concernant l'extraction du signal commun, nous proposons un modèle hiérarchique semi-paramétrique qui offre la possibilité de capturer les hautes et les basses fréquences contenues dans les cernes d'arbres, ce qui était difficile dans les études dendroclimatologiques passées. Ensuite, nous avons développé un modèle additif généralisé afin de modéliser le lien entre le signal extrait et certaines variables climatiques, permettant ainsi l'existence de relations non-linéaires contrairement aux méthodes classiques de la dendrochronologie. Ces nouvelles méthodes sont à chaque fois comparées aux méthodes utilisées traditionnellement par les dendrochronologues afin de comprendre ce qu'elles peuvent apporter à ces derniers.
32

GESTION PROACTIVE DU CHANGEMENT DANS LES PROJETS DE REINGENIERIE DES PROCESSUS METIERS

Camara, Mamadou Samba 10 November 2009 (has links) (PDF)
La problématique de cette étude est la gestion du changement dans les projets d'implémentation de progiciel. L'approche proposée est la gestion proactive du changement. Elle est basée sur des actions à priori pour réduire l'impact négatif du changement. Ces actions sont optimisées et ciblées sur certains processus de l'entreprise identifiés par prédiction. Notre objectif est de combiner la gestion quantitative et non-quantitative du changement dans les projets ERP afin de lever leurs limites. En effet, la littérature montre que les méthodes non-quantitatives proposent des actions de gestion du changement, sans pour autant accompagner ces actions d'une optimisation et d'un ciblage formalisé. Les techniques quantitatives, quant à elles, proposent des modèles mais ne définissent pas des actions claires. La démarche proposée repose sur l'application du processus de datamining. Nous nous sommes intéressés à trois concepts principaux qui sont l'ampleur, l'effort de gestion et l'impact du changement. L'idée est de tirer parti des informations collectées dans des projets d'implémentation de progiciel antérieurs, pour établir des relations quantitatives et objectives entre ces trois concepts. La première composante de l'application du datamining est l'utilisation d'un modèle pour faire des prédictions sur l'impact potentiel du changement. Cet impact est mesuré de manière prédictive par rapport à la variation des critères de performance du processus après sa restructuration et son implémentation dans le progiciel. L'unité d'analyse dans l'étude est le processus métier. La seconde composante de l'application du processus de datamining est la prise de décision basée sur les prédictions du modèle. L'ampleur et l'effort de gestion du changement sont considérés comme des explications pour l'impact du changement. Ils sont utilisés aussi comme levier dans les actions à définir pour la gestion de cet impact. Notre approche intervient principalement dans la phase " d'adéquation et de configuration " du projet ERP (Tomas, 2000) dans laquelle les processus sont restructurés. Elle vient compléter la simulation, le prototypage (qui inclut l'analyse des écarts) pour l'acceptation d'un processus " en-devenir ".
33

Rôle des relations perception-action dans la communication parlée et l'émergence des systèmes phonologiques : étude, modélisation computationnelle et simulations

Moulin-Frier, Clement 15 June 2011 (has links) (PDF)
Si la question de l'origine du langage reste d'un abord compliqué, celle de l'origine des formes du langage semble plus susceptible de se confronter à la démarche expérimentale. Malgré leur infinie variété, d'évidentes régularités y sont présentes~: les universaux du langage. Nous les étudions par des raisonnements plus généraux sur l'émergence du langage, notamment sur la recherche de précurseurs onto- et phylogénétiques. Nous abordons trois thèmes principaux~: la situation de communication parlée, les architectures cognitives des agents et l'émergence des universaux du langage dans des sociétés d'agents. Notre première contribution est un modèle conceptuel des agents communicants en interaction, issu de notre analyse bibliographique. Nous en proposons ensuite une formalisation mathématique Bayésienne~: le modèle d'un agent est une distribution de probabilités, et la production et la perception sont des inférences bayésiennes. Cela permet la comparaison formelle des différents courants théoriques en perception et en production de la parole. Enfin, nos simulations informatiques de société d'agents identifient les conditions qui favorisent l'apparition des universaux du langage.
34

Identification d'un modèle de comportement thermique de bâtiment à partir de sa courbe de charge

Zayane, Chadia 11 January 2011 (has links) (PDF)
Dans un contexte de préoccupation accrue d'économie d'énergie, l'intérêt que présente le développement de stratégies visant à minimiser la consommation d'un bâtiment n'est plus à démontrer. Que ces stratégies consistent à recommander l'isolation des parois, à améliorer la gestion du chauffage ou à préconiser certains comportements de l'usager, une démarche préalable d'identification du comportement thermique de bâtiment s'avère inévitable.<br/>Contrairement aux études existantes, la démarche menée ici ne nécessite pas d'instrumentation du bâtiment. De même, nous considérons des bâtiments en occupation normale, en présence de régulateur de chauffage : inconnue supplémentaire du problème. Ainsi, nous identifions un système global du bâtiment muni de son régulateur à partir de :<br/>données de la station Météo France la plus proche ; la température de consigne reconstruite par connaissance sectorielle ; la consommation de chauffage obtenue par système de Gestion Technique du Bâtiment ou par compteur intelligent ; autres apports calorifiques (éclairage, présence de personnes...) estimés par connaissance sectorielle et thermique. L'identification est d'abord faite par estimation des paramètres (7) définissant le modèle global, en minimisant l'erreur de prédiction à un pas. Ensuite nous avons adopté une démarche d'inversion bayésienne, dont le résultat est une simulation des distributions a posteriori des paramètres et de la température intérieure du bâtiment.<br/>L'analyse des simulations stochastiques obtenues vise à étudier l'apport de connaissances supplémentaires du problème (valeurs typiques des paramètres) et à démontrer les limites des hypothèses de modélisation dans certains cas.
35

Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés

Narasimha, Ramya 14 September 2010 (has links) (PDF)
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps.
36

Estimation et Classification des Signaux Altimétriques

Severini, Jerome, Mailhes, Corinne, Tourneret, Jean-Yves 07 October 2010 (has links) (PDF)
La mesure de la hauteur des océans, des vents de surface (fortement liés aux températures des océans), ou encore de la hauteur des vagues sont un ensemble de paramètres nécessaires à l'étude des océans mais aussi au suivi de leurs évolutions : l'altimétrie spatiale est l'une des disciplines le permettant. Une forme d'onde altimétrique est le résultat de l'émission d'une onde radar haute fréquence sur une surface donnée (classiquement océanique) et de la mesure de la réflexion de cette onde. Il existe actuellement une méthode d'estimation non optimale des formes d'onde altimétriques ainsi que des outils de classifications permettant d'identifier les différents types de surfaces observées. Nous proposons dans cette étude d'appliquer la méthode d'estimation bayésienne aux formes d'onde altimétriques ainsi que de nouvelles approches de classification. Nous proposons enfin la mise en place d'un algorithme spécifique permettant l'étude de la topographie en milieu côtier, étude qui est actuellement très peu développée dans le domaine de l'altimétrie.
37

Déconvolution impulsionnelle multi-source. Application aux signaux électro- myographiques

Di, G. 04 December 2009 (has links) (PDF)
Cette thèse s'inscrit dans le cadre d'une collaboration entre l'IRCCyN (UMR 6597) et le laboratoire SMI (Sensory-Motor Interaction, Université d'Aalborg, Dane- mark). L'objectif est de développer des méthodes de décomposition de signaux élec- tromyographiques (EMG). Les applications sont multiples, e.g., l'aide au diagnostic. De tels signaux peuvent être modélisés comme une somme bruitée de I composantes, chacune étant la réponse d'un système linéaire excité par un train d'impulsions. Les paramètres du modèle sont estimés par une technique bayésienne. Les lois a priori des paramètres continus sont choisies de sorte que les lois marginales a posteriori sont analytiques. Dans un premier temps est proposée une méthode déterministe par maxi- misation de la distribution a posteriori. La difficulté majeure consiste en l'estimation des trains d'impulsions. Ceux-ci (paramètres discrets) constituent un espace combinatoire ; la recherche du maximum est traitée par l'algorithme Tabou. Dans un deuxième temps, on souhaite éviter le réglage des paramètres associés à l'algorithme Tabou : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Un algorithme de Gibbs hybride est proposé, dans lequel une étape Metropolis-Hastings sur les trains d'impulsions permet d'éviter un calcul de complexité exponentielle, tout en garantissant l'irréductibilité de la chaîne de Markov. Les techniques issues de l'al- gorithme MCMC pour la déconvolution d'un processus Bernoulli-gaussien sont ap- pliquées. En particulier, le rééchantillonnage d'échelle et la marginalisation des ampli- tudes sont adaptés au modèle physique en tenant compte de la variabilité d'amplitudes des impulsions. Les algorithmes sont validés sur des signaux EMG simulés et expérimentaux.
38

Reconstruction de bâti en milieu urbain: une approche multi-vues.

Taillandier, Franck 12 October 2004 (has links) (PDF)
En dépit des progrès réalisés en vision par ordinateur et en photogrammétrie, la reconstruction tridimensionnelle de scènes à partir de photographies reste un problème extraordinairement complexe et loin d'être résolu. Dans cette thèse, nous nous intéressons au domaine plus restreint de la reconstruction automatique de bâtiments à partir d'images aériennes en multi-recouvrement. En décalage par rapport aux méthodes à base de modèles prédéfinis, notre approche utilise une modélisation très générique des bâtiments comme polyèdres sans surplomb. Pour pallier le manque de robustesse inhérent à la plupart des approches génériques, des contraintes a priori sont introduites dans la sélection de la meilleure représentation favorisant ainsi, sans les imposer, des choix correspondant à des situations récurrentes dans un environnement urbain: parallélisme, horizontalité, orthogonalité, symétrie verticale de certaines facettes. Par ce raisonnement, le système concilie à la fois les problématiques de généricité et de généralisation. La stratégie générale se compose de quatre étapes majeures. La première consiste à extraire des images trois types de primitives tridimensionnelles qui serviront à construire les modèles de bâtiments puis à sélectionner la meilleure représentation: segments 3D, facettes planes, discontinuités altimétriques. Dans un deuxième temps, l'algorithme extrait, à partir de l'arrangement de plans déduit des primitives planes, toutes les hypothèses de bâtiments modélisés comme surfaces polyédriques continues et sans surplomb. Il est prouvé, à cet effet, que cette procédure se ramène à la recherche exhaustive des cliques maximales d'un graphe adéquat. Dans l'ensemble de toutes ces hypothèses, la sélection du modèle final se fait, dans un troisième temps, par le biais d'une formulation bayésienne qui prend en compte différents types d'observation. La complexité du modèle de bâtiment et les contraintes a priori sur les primitives telles qu'orthogonalité, parallélisme, symétrie, horizontalité sont naturellement introduites dans cette formulation pour concilier adéquation aux données et simplicité de formes. Enfin, les contraintes détectées sur les primitives sont effectivement introduites dans la reconstruction. L'algorithme utilise alors une paramétrisation implicite du bâtiment qui assure l'application des contraintes sur le modèle final. La méthodologie de recherche de l'ensemble des formes admissibles par cliques maximales constitue, avec l'intégration de contraintes dans le processus de choix de la représentation et de recalage du modèle, les contributions majeures du système présenté. Des résultats et une évaluation sur images aériennes prouvent la validité de cette approche qui permet de traiter des bâtiments aux formes arbitrairement complexes et de pallier, le cas échéant, les défauts de focalisation. Malgré cette généricité, le système se révèle tolérant aux erreurs des détecteurs de primitives et présente des caractéristiques intéressantes pour la modélisation de scènes péri-urbaines.
39

Fiabilité des systèmes embarqués

Voiculescu, Sorin 03 July 2009 (has links) (PDF)
Les travaux présentés dans cette thèse abordent la problématique de l'estimation de la fiabilité des systèmes qui est devenue un enjeu majeur pour les entreprises et ce dès les premières phases de développement. En effet, plus tôt les caractéristiques d'un produit ou d'un système sont appréhendées dans son cycle de vie et moins les risques ( financiers ou liés à la sécurité des installations ), dus à la non réalisation des performances attendues sont élevés. Dans un contexte exigeant des systèmes de plus en plus fiables et sûrs, et de durées de garanties croissantes, il est impératif de vérifier le plus rapidement possible que les performances des systèmes soient conformes au cahier des charges. La démarche idéale pour identifier la fiabilité d'un produit ou d'un système avant sa fabrication en série, est de procéder à des séries d'essais sur des prototypes, quand ils existent. Cette démarche nécessite un investissement trop important en temps en nombre de prototypes, car ces derniers étant de plus en plus fiables, l'observation de défaillances est de moins en moins probable .
40

Apport de l'épidémiologie dans le choix des outils d'aide à la prise de décision sanitaire en santé animale. : Evaluation des tests de dépistage en santé animale

Praud, Anne 06 November 2012 (has links) (PDF)
L'étude et le choix des stratégies décisionnelles en santé animale nécessite de disposer d'informations sur l'efficacité des outils disponibles, qu'il s'agisse d'un test unique, d'une association de plusieurs tests ou d'un ensemble de critères cliniques et épidémiologiques. La validation des tests de dépistage ou de diagnostic constitue donc un prérequis à la conception de protocoles d'aide à la prise de décisions sanitaires. Lorsqu'il existe une référence fournissant une information sur le statut infectieux des individus étudiés, l'estimation des caractéristiques des tests peut être effectuée de manière directe. En santé animale, il est toutefois fréquent de ne pas disposer de cette information, lorsqu'aucun test ne référence n'est disponible ou lorsqu'il n'a pas pu être mis en œuvre, pour des raisons pratiques, économiques ou éthiques. Dans ce cas, l'étude des tests requiert l'utilisation de méthodes statistiques adaptées, telles l'utilisation de modèles à classe latente implémentés par une approche bayésienne. Nous avons choisi, au cours de nos travaux, de nous intéresser à l'estimation de la part d'incertitude liée à l'utilisation de tests en tant qu'outils d'aide à la prise de décision. Nous exposons dans un premier chapitre les enjeux et les modalités de la lutte contre les maladies animales, les outils épidémiologiques disponibles pour l'élaboration de stratégies décisionnelles et les méthodes permettant l'évaluation de ces outils et leur comparaison. Les trois chapitres suivants constituent une application de ces méthodes, dans des contextes différents correspondant à trois types de situations dans lesquelles il existe un besoin d'aide à la décision sanitaire en santé animale : le dépistage de la brucellose porcine chez les porcs reproducteurs, le dépistage de l'épididymite contagieuse du bélier chez les béliers destinés à l'export et le dépistage de la tuberculose bovine dans les départements de Côte d'Or et de Dordogne et dans la région camarguaise. Le dernier chapitre de ce manuscrit consiste en une discussion générale sur les modalités de choix d'un outil d'aide à la décision sanitaire.

Page generated in 0.0433 seconds