• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 227
  • 86
  • 18
  • 1
  • Tagged with
  • 324
  • 173
  • 60
  • 41
  • 26
  • 21
  • 20
  • 20
  • 20
  • 19
  • 19
  • 17
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Axiomatisation de procédures d'agrégation de préférences

Debord, Bernard 29 October 1987 (has links) (PDF)
Soient D (les données) et M (les modules) deux ensemble de relations binaires sur un ensemble fini d'objets X. le but de cette thèse est l'étude, d'un point de vue axiomatiques, des (D,M)-procédures (ou multiprocédures) c'est à dire des applications qui à tout sous-ensemble fini de D associent un (ou plusieurs) élément de M. La première partie contient la caractérisation axiomatique des procédures et multiprocédures qui ne dépendent que des matrices de préférences ainsi que la caractérisation de ces matrices pour différents ensemble de données. La seconde partie est une étude d'une classe de multiprocédures qui généralisent la notion de fonction de choix. Enfin, dans la troisème partie, sont développées les notions de procédures et de multiprocédures prudentes ainsi que les variantes séquentielles de la procédure de Borda.
62

Etude rhéophysique de systèmes émulsions inverses / argile organophile. Applications au boues de forage pétrolier

Ragouilliaux, Alexandre 17 September 2007 (has links) (PDF)
La formulation optimale des fluides thixotropes est essentielle dans de nombreux procédés, par exemple dans le domaine des forages pétroliers. Ceci passe par une compréhension fine des liens entre les évolutions de leur microstructure et leurs propriétés d'écoulement. Nous étudions ici les propriétés d'un système émulsion inverse comprenant des argiles organophiles utilisés comme fluide de forage. Nous travaillons sur le fluide réel et sur une émulsion modèle en régime solide, en régime liquide, et durant l'arrêt du matériau sous faibles sollicitations mécaniques. A l'aide d'expériences de rhéométrie conventionnelle et de vélocimétrie IRM, nous avons identifié les origines structurelles des principales propriétés rhéologiques en fonction des concentrations des constituants : le seuil de contrainte, le vieillissement au repos, la bifurcation de viscosité en régime liquide, le déplacement de l'interface solide-liquide au sein du fluide. En particulier nous montrons que l'arrêt progressif de l'écoulement sous une contrainte critique est induit par la croissance d'agrégats. L'homogénéité du matériau lors de nos expériences rhéologiques a été vérifiée par des mesures de concentrations locales par RMN. Ces résultats montrent l'importance des liens argileux pour les propriétés thixotropes de ces systèmes.
63

Variations sur l'effet Condorcet

Romero, David 28 June 1978 (has links) (PDF)
.
64

Modélisation et simulation de chaînes de valeurs en entreprise – Une approche dynamique des systèmes et aide à la décision : SimulValor

Elhamdi, Mourad 07 July 2005 (has links) (PDF)
Le décideur en entreprise, lors de la prise d'une décision, se trouve généralement en face de la situation suivante : il dispose d'un ensemble d'alternatives qui sont des combinaisons de variables d'action ; et il lui est demandé d'atteindre un certain nombre d'objectifs qui sont caractérisés par un nombre plus ou moins élevé d'indicateurs de performance. Ces objectifs couvrent l'ensemble des relations de l'entreprise avec les différentes parties bénéficiaires des résultats de ses activités et avec lesquelles elle interagit. L'objet des indicateurs de performance est de mesurer la réussite de l'entreprise à répondre aux attentes et besoins de ces parties : clients, actionnaires, personnel, collectivité... et à ses propres attentes. <br />Le décideur a besoin d'évaluer chacune des alternatives selon chacun des critères de choix retenus et qui représentent les objectifs à atteindre, et d'évaluer globalement chacune de ces alternatives selon l'ensemble des critères. <br />Ce travail se place dans le contexte d'aide à la décision managériale de haut niveau où les actions sont des projets potentiels de développement des activités de l'entreprise. L'approche proposée, désignée par SimulValor, utilise la dynamique des systèmes pour modéliser et simuler les alternatives d'action et en évaluer les performances ; et elle utilise la théorie de l'utilité pour l'agrégation de ces performances. <br />En résumé, l'approche SimulValor vise l'évaluation de différentes alternatives d'action concernant la configuration des activités de l'entreprise en simulant les flux de valeurs qui lient les actions aux performances et les performances aux valeurs générées aux parties bénéficiaires. La difficulté principale de la méthode est l'extraction, l'harmonisation et la quantification des données qualitatives qui caractérisent les liens d'influences (et surtout les fonctions d'utilité) existants entre les éléments modélisés.
65

Comparaison des impacts environnementaux des herbicides à large spectre et des herbicides sélectifs: Caractérisation de leur devenir dans le sol et modélisation.

Mamy, Laure 10 1900 (has links) (PDF)
L'objectif de ce travail est d'évaluer et de comparer le comportement environnemental du glyphosate, utilisé dans un contexte d'introduction de plantes génétiquement modifiées (GM), par rapport aux comportements d'autres herbicides classiquement utilisés pour le désherbage des mêmes cultures non résistantes au glyphosate: trifluraline et métazachlore pour le colza, métamitrone pour la betterave, sulcotrione pour le maïs. En effet, les conséquences sur l'environnement de ces modifications des pratiques de désherbage ont été jusqu'à présent peu étudiées. Trois sites représentatifs des principales situations où sont cultivées ces plantes, aux points de vue climatique et pédologique, ont été choisis pour cette étude (localisés près de Châlons-en-Champagne, Dijon et Toulouse). Dans la première partie de ce travail, les comportements des herbicides dans les trois sols ont été comparés au laboratoire dans les mêmes conditions (sol, température, humidité, dose). Leur rétention, dégradation dans les sols après application directe ou après absorption dans les tissus végétaux dans les cas particuliers du glyphosate et de la sulcotrione (herbicides foliaires) ont été déterminées. Dans la seconde partie, les résultats obtenus au laboratoire ont été utilisés pour estimer les impacts environnementaux des herbicides à partir de trois méthodes de précision croissante: indice de lixiviation GUS (risque de contamination des eaux souterraines), indicateur I-Phy (risque de contamination de l'air, de l'eau de surface et de l'eau souterraine), et modèle numérique de devenir des pesticides, PRZM. Les stocks et flux des herbicides et de leurs métabolites obtenus par modélisation ont ensuite été agrégés avec le modèle USES (analyse de cycle de vie et d'impacts) pour estimer les impacts finaux des différents systèmes de culture existants sur les trois sites (rotations avec colza et betterave GM ou non-GM, monoculture de maïs GM ou non-GM) sur plusieurs cibles de l'environnement (eau, sédiments, écosystèmes, population humaine). Le glyphosate est généralement l'herbicide pour lequel les risques de dispersion dans l'environnement sont les plus faibles (rétention élevée, dégradation rapide), mais ils dépendent cependant du type de sol. Les vitesses et taux de minéralisation des herbicides diminuent fortement avec la température, de même que la formation de résidus non extractibles, avec une préservation des molécules sous forme extractible donc potentiellement disponible. La formation d'un métabolite majeur plus persistant a été observée dans les cas du glyphosate (acide aminométhylphosphonique, AMPA), du métazachlore (non identifié) et de la sulcotrione (acide 2-chloro-4-méthylsulfonylbenzoïque, CMBA). En conséquence, ces métabolites présentent des risques pour l'environnement plus importants que les molécules herbicides. Enfin, l'absorption du glyphosate dans les tissus végétaux diminue sa dégradation. L'accumulation de glyphosate non dégradé dans les tissus végétaux pourrait augmenter les quantités de glyphosate dans le sol après restitution des résidus de récolte ou lors de la chute des feuilles traitées. Ce résultat a été pris en compte dans la modélisation. Le calcul de l'indice GUS a montré que les herbicides présentent peu de risque de contamination des eaux souterraines, le calcul de l'indicateur I-Phy a conduit à des résultats similaires pour les eaux souterraines, ainsi que pour les eaux de surface et l'air. Le modèle PRZM a été préalablement testé à partir d'une expérimentation en conditions de plein champ: il permet des simulations correctes du devenir des herbicides à partir des données obtenues au laboratoire, mais a néanmoins été calé dans les cas du glyphosate et de la trifluraline. Les résultats des simulations des différentes pratiques de désherbage ont montré que plus la fréquence de retour des cultures GM est élevée et plus l'impact sur l'environnement du glyphosate pourrait être important comparé aux herbicides sélectifs. En particulier, les stocks d'AMPA dans le sol après douze ans d'application annuelle de glyphosate dans une monoculture de maïs pourraient être particulièrement élevés. Du point de vue de la contamination de l'environnement par les herbicides, les bénéfices des cultures GM dépendent donc des types de sol, des cultures et des herbicides remplacés. La persistance de l'AMPA dans les sols soulève néanmoins un problème général de durabilité de cette innovation, et impose d'étudier plus en détail le comportement de cette molécule à long terme.
66

Qualité de Service dans l'Internet : Garantie de Débit TCP dans la Classe AF

Lochin, Emmanuel 10 December 2004 (has links) (PDF)
Les travaux présentés dans cette thèse concernent la qualité de service dans les réseaux à commutation de paquets de grande dimension et plus spécifiquement la garantie de débit pour les flots TCP. L'architecture à différenciation de services, définie par l'IETF, dite DiffServ s'articule autour de trois services : le service garanti, le service assuré et le service par défaut dit "au mieux". Le service assuré a été élaboré pour servir les flots à caractère élastique comme les flots TCP. Cependant, des problèmes subsistent en ce qui concerne cette garantie de débit pour ce type de flots dans ce service. Ces dernières années, un effort important a été fait pour améliorer les mécanismes d'ordonnancement, de classification et de rejet au sein des routeurs afin qu'ils répondent au mieux à la spécification du service assuré. Malheureusement, leurs choix de conception et la complexité de leur mise en oeuvre est très souvent un frein à leur déploiement dans un Internet réel. Dans cette thèse, nous proposons une solution originale de conditionnement des flots TCP permettant de garantir un débit à la fois pour des flots individuels et des groupes de flots. Cette solution fonctionne quelquesoit le facteur d'echelle.
67

Modélisation et étude des mécanismes moléculaires de la dégénérescence neurofibrillaire : vers la compréhension d'une mort neuronale liée à la dysfonction des protéines Tau

Bretteville, Alexis 29 October 2007 (has links) (PDF)
En 1907, Aloïs Alzheimer publiait, pour la première fois, la description des deux lésions histologiques caractéristiques observées dans le cerveau d'une patiente âgée de 56 ans et atteinte d'une démence présénile qui, par la suite, sera dénommée Maladie d'Alzheimer (MA). Ces deux lésions correspondant à l'accumulation de matériel protéique présentent des caractéristiques différentes de par leur contenu protéique et leur localisation. Ainsi, on distinguera, d'une part, les dépôts amyloïdes, caractérisés par l'accumulation, dans le milieu extracellulaire, d'un peptide appelé peptide amyloïde- . D'autre part, on observera une lésion intra-neuronale appelée dégénérescence neurofibrillaire (DNF) qui correspond à l'accumulation de protéines Tau qui sont retrouvées hyperphosphorylées, anormalement phosphorylées et agrégées sous la forme de structures fibrillaires hélicoïdales singulières appelées PHFs pour " Paired Helical Filaments ". Notre laboratoire s'intéresse tout particulièrement à cette lésion qui est au cœur du processus dégénératif de la MA et d'un ensemble de pathologies démentielles appelées " Tauopathies ". Cependant, si la dérégulation de phosphorylation de Tau semble être au cœur du processus dégénératif de ces pathologies, le rôle exact de celle-ci et les mécanismes mis en jeu restent encore mal connus. Ce travail, se place ainsi dans le cadre général de la recherche des mécanismes moléculaires impliqués dans la mort neuronale liée à Tau et de l'étude de la signification et du rôle de la dérégulation de la phosphorylation de Tau dans son agrégation et au cours de la mort neuronale. Afin de répondre à ces objectifs, nous avons entrepris l'étude de modèles permettant de moduler soit l'état de phosphorylation de Tau par le biais du complexe kinasique p25/Cdk5 soit de moduler le caractère agrégatif de Tau par l'utilisation de mutations pathologiques de Tau connues chez l'homme pour mener à son agrégation et à des syndrômes démentiels (Démences Fronto-Temporales avec syndrôme Parkinsonien liées au chromosome 17). De plus, notre travail a permis la caractérisation d'un modèle in vivo de DNF présentant l'ensemble des caractéristiques de la pathologie Tau observée au cours de la MA. Ce modèle, en raison de l'absence de troubles moteurs, a permis de réaliser des études comportementales, montrant l'existence de troubles de mémoire spatiale chez ces souris. En parallèle à ce modèle pertinent d'un point de vue physiopathologique, le développement et l'analyse d'un modèle cellulaire de type neuronal basé sur la surexpression de protéines Tau mutées ont permis de montrer l'existence de modifications conformationnelles des protéines Tau mutées qui sont associées à un état particulier de phosphorylation. Cependant, dans ce contexte, il apparaît que les mutations, à elles seules ne semblent pas suffisantes pour mener à l'agrégation des protéines Tau sous la forme de PHFs. De plus, l'analyse d'un modèle cellulaire de type neuronal présentant une phosphorylation anormale de Tau ne montre pas non plus l'existence de structures analogues aux PHFs. L'ensemble de ce travail suggère que la phosphorylation anormale ou les mutations de Tau ne sont pas suffisantes pour mener au phénotype pathologique caractéristique de la DNF qui semble nécessiter d'autres événements moléculaires. Nous émettons également l'hypothèse que des voies compensatoires impliquant des systèmes de déphosphorylation des protéines Tau et/ou des systèmes de dégradation protéique pourraient être mis en jeu dans nos modèles cellulaires et être ainsi responsables de l'absence de phénotype pathologique. La diminution d'activité de ces systèmes de compensation au cours du vieillissement chez l'homme et dans les modèles murins pourrait alors concourir à l'apparition de la DNF. Ainsi, l'étude de ces systèmes dans nos différents modèles constitue des perspectives prometteuses pour l'avancée dans la compréhension de l'étiopathologie de la MA et des Tauopathies.
68

Génération de phrases multilingues par apprentissage automatique de modèles de phrases

Charton, Eric 12 November 2010 (has links) (PDF)
La Génération Automatique de Texte (GAT) est le champ de recherche de la linguistique informatique qui étudie la possibilité d'attribuer à une machine la faculté de produire du texte intelligible. Dans ce mémoire, nous présentons une proposition de système de GAT reposant exclusivement sur des méthodes statistiques. Son originalité est d'exploiter un corpus en tant que ressource de formation de phrases. Cette méthode offre plusieurs avantages : elle simplifie l'implémentation d'un système de GAT en plusieurs langues et améliore les capacités d'adaptations d'un système de génération à un domaine sémantique particulier. La production, d'après un corpus d'apprentissage, des modèles de phrases finement étiquetées requises par notre générateur de texte nous a conduit à mener des recherches approfondies dans le domaine de l'extraction d'information et de la classification. Nous décrivons le système d'étiquetage et de classification de contenus encyclopédique mis au point à cette fin. Dans les étapes finales du processus de génération, les modèles de phrases sont exploités par un module de génération de texte multilingue. Ce module exploite des algorithmes de recherche d'information pour extraire du modèle une phrase pré-existante, utilisable en tant que support sémantique et syntaxique de l'intention à communiquer. Plusieurs méthodes sont proposées pour générer une phrase, choisies en fonction de la complexité du contenu sémantique à exprimer. Nous présentons notamment parmi ces méthodes une proposition originale de génération de phrases complexes par agrégation de proto-phrases de type Sujet, Verbe, Objet. Nous envisageons dans nos conclusions que cette méthode particulière de génération puisse ouvrir des voies d'investigations prometteuses sur la nature du processus de formation de phrases
69

Approches variationnelles et autres contributions en optimisation stochastique

Strugarek, Cyrille 15 May 2006 (has links) (PDF)
Cette thèse s'attache à l'étude des problèmes d'optimisation stochastique, en les abordant sous divers angles. Le premier chapitre donne un panorama des problèmes d'optimisation stochastique. Le deuxième chapitre montre qu'en dimension un, seuls les systèmes à espace d'état à dynamique et observation linéaire sont sans effet dual en boucle ouverte. Le troisième chapitre s'attache à montrer la nécessité de tenir compte de la structure d'information dans la discrétisation et les résultats de stabilité pour les problèmes à plusieurs pas de temps. Le quatrième chapitre propose une nouvelle famille d'algorithmes stochastiques permettant de rechercher les commandes optimales fonctionnellement sans aucune discrétisation préalable de l'aléa, et avec une garantie asymptotique d'optimalité. Le cinquième chapitre étudie les possibilités de décomposition et d'agrégation pour les problèmes stochastiques de grande taille.
70

Un processus de sélection de composants logiciels multi-niveaux

George, Bart 17 December 2007 (has links) (PDF)
Le paradigme composant propose de construire un système à partir d'éléments faiblement couplés et pour la plupart déjà existants. Le taux de réutilisation ainsi atteint entraîne une diminution des délais et des coûts de développement. Pour faire face à la complexité croissante des applications, les entreprises sont de plus en plus obligées d'avoir recours à des composants commerciaux "sur étagère", fournis par des tierces personnes, et dont la nature même impose de repenser profondément le cycle de développement d'un logiciel. Il n'est plus possible de spécifier un besoin ou une architecture sans se demander s'il existe sur le marché un composant capable de satisfaire le premier ou de s'intégrer dans la seconde. Dans ce contexte, une activité voit son importance renforcée : la sélection de composants. Cette activité est sensible : une mauvaise définition des besoins associée à une mauvaise sélection des composants peut conduire à des catastrophes financières, voire même humaines dans certains cas. Elle est de plus trés coûteuse car elle impose le parcours de marchés comportant des milliers de composants, décrits avec des formats potentiellement tres différents. La sélection devient au final trés consommatrice en temps, au point de menacer les gains que conférait à l'origine ce type d'approche. La seule solution pour espérer maintenir ces gains est de disposer d'un mécanisme de sélection qui soit autant que possible automatisé. Dans cette thèse je propose un mécanisme qui permet de sélectionner, parmi une vaste bibliothèque de composants, le candidat qui répond le mieux à un besoin spécifique, aussi bien sur le plan fonctionnel que non-fonctionnel. L'originalité de cette approche est de permettre une sélection itérative en s'appuyant sur des niveaux de description des besoins de plus en plus détaillés. À cette fin, ce mécanisme intègre des résultats de travaux provenant de domaines variés tels que la recherche de composants, le sous-typage et les métriques de qualité, au sein d'un unique concept : le composant recherché.

Page generated in 0.0792 seconds