• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 168
  • 30
  • 15
  • Tagged with
  • 209
  • 113
  • 75
  • 67
  • 65
  • 63
  • 52
  • 50
  • 41
  • 40
  • 39
  • 28
  • 28
  • 27
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Évaluation multicritère du bien-être animal : exemple des vaches laitières en ferme

Botreau, Raphaëlle 12 February 2008 (has links) (PDF)
Le respect du bien-être des animaux d'élevage fait l'objet d'attentes sociétales de plus en plus fortes. Dans ce contexte, le projet européen Welfare Quality® vise à construire un standard en matière d'évaluation et d'information sur le bien-être animal. Le bien-être est composé de plusieurs dimensions (santé, comportement, absence de stress...) et son évaluation doit donc reposer sur un ensemble de mesures complémentaires. L'objet de la thèse est d'élaborer un modèle d'évaluation globale du bien-être des vaches laitières reflétant l'aspect multidimensionnel du bien-être. Notre modèle suit une approche multicritère. Il repose sur une structure séquentielle dans laquelle plusieurs critères sont construits puis agrégés afin d'obtenir une évaluation globale. Une fois identifiés les problèmes liés à la construction d'un modèle d'évaluation globale du bien-être animal, nous définissons un ensemble de 4 critères (Alimentation adaptée, Logement correct, Bonne santé et Comportement approprié ) et 12 sous-critères. Pour construire les sous-critères à partir des 44 mesures effectuées en ferme, nous proposons de les évaluer sur la même échelle d'utilité [0,100]. Les données brutes sont alors agrégées en utilisant des méthodes adaptées au nombre de mesures, à leur nature et à leur importance relative (sommes pondérées associées à une fonction d'utilité, méthode lexicographique...). Les sous-critères composant un même critère sont ensuite agrégés en utilisant un méthode permettant de tenir compte du fait que certains sous-critères sont plus importants que d'autres, tout en limitant les compensations entre les sous-critères (intégrale de Choquet). Enfin, l'agrégation des critères pour former une évaluation globale utilise une méthode de comparaison à des profils prédéfinis délimitant quatre catégories de bien-être (correspondant à une problématique de tri ordonné). A chaque étape, le modèle d'évaluation est paramétré sur la base d'avis d'experts, ces experts étant des scientifiques ou des utilisateurs futurs du système d'évaluation. Le système d'évaluation du bien-être qui résultera du projet Welfare Quality® (en 2009) pourra être utilisé à plusieurs fins : étiquetage obligatoire européen, label bien-être , conseil aux éleveurs recherche (la capacité du modèle à pouvoir expliquer les résultats étant très utile dans ces deux derniers cas).
32

Axiomatisation de procédures d'agrégation de préférences

Debord, Bernard 29 October 1987 (has links) (PDF)
Soient D (les données) et M (les modules) deux ensemble de relations binaires sur un ensemble fini d'objets X. le but de cette thèse est l'étude, d'un point de vue axiomatiques, des (D,M)-procédures (ou multiprocédures) c'est à dire des applications qui à tout sous-ensemble fini de D associent un (ou plusieurs) élément de M. La première partie contient la caractérisation axiomatique des procédures et multiprocédures qui ne dépendent que des matrices de préférences ainsi que la caractérisation de ces matrices pour différents ensemble de données. La seconde partie est une étude d'une classe de multiprocédures qui généralisent la notion de fonction de choix. Enfin, dans la troisème partie, sont développées les notions de procédures et de multiprocédures prudentes ainsi que les variantes séquentielles de la procédure de Borda.
33

Nouvelles approches pour l'ordonnancement d'applications parallèles sous contraintes de déploiement d'environnements sur grappe.

MoulaÏ, Feryal-Kamila 13 December 2007 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des grappes dans le projet Grid'5000 (Projet Français pour les grilles). Grid'5000 est une plate-forme expérimentale qui offre la possibilité aux chercheurs de soumettre aux gestionnaires de ressource des programmes (travaux) et d'associer pour chaque requête un environnement. Une grappe est un ensemble de noeuds de calcul, connectés entre eux via un réseau dédié. Le processus de déploiement d'environnement sur les noeuds de calcul n'est pas sans conséquence. Un des problèmes que l'on rencontre est la défaillance des machines. Le démarrage excessif lors de de la phase déploiement peut causer un endomagement de celles-ci. Nous avons ainsi modélisé ce problème sous forme d'un problème d'ordonnancement bicritère. Le premier critère à minimiser comptabilise pour chaque machine (processeur) le nombre de déploiements effectués. Il permet ainsi permet de définir le nombre total de déploiements sur toutes les machines. Nous avons également considéré un second critère à minimiser, le makespan. Nous avons défini un algorithme Groups List Scheduling, basé sur une approche budget, avec un relâchement des contraintes d'optimalité. Cette approche nous a permis de définir une solution (alpha, beta)-budget-relaxée-approchée pour un problème d'optimisation bicritère. Dans le cadre du problème d'ordonnancement bicritère avec déploiement, l'algorithme GLS donne ainsi une solution (4,2)-budget-approchée-relaxée. Nous avons ensuite abordé ce problème d'ordonnancement bicritère avec déploiement en utilisant l'approche «courbe de Pareto». Nous avons défini un algorithme polynômial, qui permet de construire une courbe de Pareto (4+epsilon, 2)-approchée, à partir des solutions fournies par l'algorithme GLS. Une analyse expérimentale nous a permis d'évaluer les performances de l'algorithme GLS et de valider ainsi les rapports
34

Modélisation et simulation de chaînes de valeurs en entreprise – Une approche dynamique des systèmes et aide à la décision : SimulValor

Elhamdi, Mourad 07 July 2005 (has links) (PDF)
Le décideur en entreprise, lors de la prise d'une décision, se trouve généralement en face de la situation suivante : il dispose d'un ensemble d'alternatives qui sont des combinaisons de variables d'action ; et il lui est demandé d'atteindre un certain nombre d'objectifs qui sont caractérisés par un nombre plus ou moins élevé d'indicateurs de performance. Ces objectifs couvrent l'ensemble des relations de l'entreprise avec les différentes parties bénéficiaires des résultats de ses activités et avec lesquelles elle interagit. L'objet des indicateurs de performance est de mesurer la réussite de l'entreprise à répondre aux attentes et besoins de ces parties : clients, actionnaires, personnel, collectivité... et à ses propres attentes. <br />Le décideur a besoin d'évaluer chacune des alternatives selon chacun des critères de choix retenus et qui représentent les objectifs à atteindre, et d'évaluer globalement chacune de ces alternatives selon l'ensemble des critères. <br />Ce travail se place dans le contexte d'aide à la décision managériale de haut niveau où les actions sont des projets potentiels de développement des activités de l'entreprise. L'approche proposée, désignée par SimulValor, utilise la dynamique des systèmes pour modéliser et simuler les alternatives d'action et en évaluer les performances ; et elle utilise la théorie de l'utilité pour l'agrégation de ces performances. <br />En résumé, l'approche SimulValor vise l'évaluation de différentes alternatives d'action concernant la configuration des activités de l'entreprise en simulant les flux de valeurs qui lient les actions aux performances et les performances aux valeurs générées aux parties bénéficiaires. La difficulté principale de la méthode est l'extraction, l'harmonisation et la quantification des données qualitatives qui caractérisent les liens d'influences (et surtout les fonctions d'utilité) existants entre les éléments modélisés.
35

Le Routage à Qualité de Service dans les Réseaux Mobiles Ad Hoc

Sondi Obwang, Patrick 10 December 2010 (has links) (PDF)
Conçus à l'origine pour le trafic best-effort, les réseaux mobiles ad hoc (MANET) sont de plus en plus amenés à acheminer le trafic des applications imposant des contraintes de qualité de service (QoS). Les solutions pour le routage à QoS dans les MANET ont généralement été proposées comme des extensions optionnelles des protocoles best-effort. Par exemple, les liaisons y sont toujours considérées comme symétriques au sens de la connectivité, alors qu'elles ne le sont évidemment pas au sens de la QoS. De plus, dans les solutions proposées dans le cadre du protocole proactif Optimized Link State Routing (OLSR), l'effort algorithmique pour la QoS se fait souvent au détriment de l'optimisation de la diffusion qui est pourtant une des activités les plus consommatrices de ressources. L'approche proposée dans cette thèse consiste à intégrer les aspects liés à la QoS dans la représentation des MANET dès la conception du protocole de routage. Prenant pour cible le protocole OLSR, nous proposons une formulation du problème de la sélection des relais multipoints (MPR) sous forme de programme mathématique pour permettre à la fois l'optimisation de la diffusion et la prise en compte des paramètres de la qualité de service. Une heuristique proposée pour réaliser la sélection des MPR indépendamment du nombre et du type de métriques est également proposée. L'heuristique appliquée à quatre métriques ainsi que les autres mécanismes proposés sont ensuite intégrés dans OLSR. Les évaluations ciblant une application à fortes contraintes de qualité de service en établissent les performances aussi bien en environnement ouvert qu'en agglomération.
36

Optimisation heuristique pour la résolution du m-PDPTW statique et dynamique

Harbaoui Dridi, Imen 15 December 2010 (has links) (PDF)
De nos jours, le problème de transport de marchandise occupe une place importante dans la vie économique des sociétés modernes. Le problème de ramassage et de livraison (pick-up and delivery problem) est l'un des problèmes dont une grande partie des chercheurs s'y est intéressée.Il s'agit de déterminer un circuit de plusieurs véhicules, de façon à servir à coût minimal un ensemble de clients et de fournisseurs répartis dans un réseau, satisfaisant certaines contraintes relatives aux véhicules, à leurs capacités et à des précédences entre les nœuds. Les travaux de recherche développés dans cette thèse portent sur le PDPTW (Pickup and Delivery Problem with Time Windows) à plusieurs véhicules (m-PDPTW). Ce dernier a été traité dans les deux cas : statique et dynamique. Nous avons proposé plusieurs approches de résolution du m-PDPTW basées sur les algorithmes génétiques, l'optimisation multicritère et le calcul des bornes inférieures, et ceci pour minimiser un certain nombre de critères comme : le nombre de véhicules utilisés, la somme des retards ou le coût total de transport. Ces approches ont donné de bons résultats, principalement au niveau de la minimisation de la somme des retards où nous avons obtenu, dans plusieurs cas, un retard nul avec un coût de transport tolérable
37

Outils et algorithmes pour gérer l'incertitude lors de l'ordonnancement d'application sur plateformes distribuées

Canon, Louis-Claude 18 October 2010 (has links) (PDF)
Cette thèse traite de l'ordonnancement dans les systèmes distribués. L'objectif est d'étudier l'impact de l'incertitude sur les ordonnancements et de proposer des techniques pour en réduire les effets sur les critères à optimiser. Nous distinguons plusieurs aspects de l'incertitude en considérant celle liée aux limites des méthodes employées (e.g., modèle imparfait) et celle concernant la variabilité aléatoire qui est inhérente aux phénomènes physiques (e.g., panne matérielle). Nous considérons aussi les incertitudes qui se rapportent à l'ignorance portée sur les mécanismes en jeu dans un système donné (e.g., soumission de tâches en ligne dans une machine parallèle). En toute généralité, l'ordonnancement est l'étape qui réalise une association ordonnée entre des requêtes (dans notre cas, des tâches) et des ressources (dans notre cas, des processeurs). L'objectif est de réaliser cette association de manière à optimiser des critères d'efficacité (e.g., temps total consacré à l'exécution d'un application) tout en respectant les contraintes définies. Examiner l'effet de l'incertitude sur les ordonnancements nous amène à considérer les aspects probabilistes et multicritères qui sont traités dans la première partie. La seconde partie repose sur l'analyse de problèmes représentatifs de différentes modalités en terme d'ordonnancement et d'incertitude (comme l'étude de la robustesse ou de la fiabilité des ordonnancements).
38

Procedures d'agregation ordinale de preferences avec points de reference pour l'aide a la decision

Rolland, Antoine 25 September 2008 (has links) (PDF)
Cette thèse porte sur l'étude de modèles d'agrégations de préférences utilisant des points de références. En théorie de la décision, de nombreux travaux axiomatiques montrent les difficultés théoriques et pratiques que pose l'agrégation de relations de préférences partiellement conflictuelles. Les théorèmes d'impossibilité existants expliquent d'une part les difficultés rencontrées par les concepteurs de méthodes multicritères reposant sur une modélisation ordinale des préférences mais aussi la difficulté de concevoir des modèles purement qualitatifs pour la décision dans l'incertain. Nous proposons ici de comparer les solutions non plus de manière directe, mais de manière indirecte en examinant leurs mérites respectifs du point de vue de plusieurs points de références. Nous étudions le potentiel descriptif et prescriptif de ces modèles, les propriétés formelles des règles d'agrégation associées, et nous proposons des théorèmes de représentation caractérisant les préférences représentables par ces modèles dans les domaines de la décision multicritère et la décision dans l'incertain. Enfin, nous montrons leur apport potentiel en aide à la décision à travers des exemples d'application.
39

Systèmes d'évaluation et de classification multicritères pour l'aide à la décision : Construction de modèles et procédures d'affectation

Henriet, Laurent 25 January 2000 (has links) (PDF)
Cette thèse traite des problèmes et des méthodes de classification dans le cadre de l'aide multicritère à la décision. Un problème de classification consiste en l'affectation d'objets à des catégories prédéfinies (nous parlerons aussi de problème d'affectation). Par ailleurs, le cadre de l'aide à la décision dans lequel nous nous plaçons nous amène à tenir compte des préférences d'un décideur. L'approche que nous proposons se fonde sur l'utilisation d'une relation d'indifférence comme reflet des préférences du décideur. Le principe d'affectation consiste à évaluer l'appartenance d'un objet à une catégorie à partir de l'évaluation de l'indifférence entre l'objet à classer et des objets typiques de la catégorie (points de référence). Nous présentons tous d'abord une définition générale des méthodes de classification multicritère. Puis nous proposons deux méthodes d'affectation (PIP et k-PIP) qui vont principalement différer par la nature des points de référence à considérer (prototypes ou points exemples). Ces méthodes possèdent l'avantage de procurer au décideur, non seulement un résultat, mais aussi explication de celui-ci : c'est là un des aspects fondamentaux de l'aide à la décision. Nos méthodes considèrent des catégories décrites par des points de référence. Donner les points de référence de ces catégories n'est cependant pas toujours une tâche aisée pour un décideur. C'est pourquoi nous proposons deux procédures qui permettent de construire les prototypes des catégories à partir d'ensembles de points d'apprentissage. D'autre part, et de même que pour les points de référence, un décideur peut éprouver certaines diffcultés à fixer certains paramètres préférentiels (seuils, poids). Nous proposons à cet effet une procédure permettant de construire à partir de points exemples les coefficients d'importance relative des différents critères (poids) entrant en compte dans le processus d'aide à la décision relatif au problème de classification.
40

Modélisation et pilotage de la phase de délibération dans une décision collective : vers le management d'activités à risques

Imoussaten, Abdelhak 17 November 2011 (has links) (PDF)
Le management d'activités à risques implique de nombreuses décisions qui mettent en scène un collectif d'acteurs ayant chacun leur domaine d'expertise ou d'action pour concevoir ou exploiter un système complexe. D'abord, le rôle d'un système interactif d'aide à la décision de groupe (SIADG) dans le cadre du management d'activités à risques est analysé. Les fonctionnalités du système sont spécifiées de sorte à minimiser l'impact des erreurs humaines et organisationnelles qui peuvent affecter le processus de décision collectif. Le SIADG est vu comme le médiateur entre l'homme et le système qu'il cherche à maîtriser : il l'aide à percevoir une situation critique, la comprendre, l'interpréter et la diagnostiquer avant d'y remédier, mais il favorise également la résolution collective en constituant un support à la communication et à la coordination des intervenants. La décision est perçue comme un processus dynamique dont le temps de réponse dépend de l'efficacité avec laquelle est menée la phase de délibération. Plusieurs grandeurs et modèles pour contrôler la délibération sont proposés. Un premier type de situation décisionnelle met en scène un manager qui s'entoure d'experts pour prendre une décision sur la base d'un processus de fusion des avis exprimés. L'incertitude attachée à l'évaluation des alternatives est due d'une part, à l'imprécision des avis d'experts, d'autre part aux divergences d'opinions. Le contrôle de cette incertitude permet d'identifier les critères sur lesquels doit se focaliser le débat d'experts. Le concept d'influence dans un réseau social est alors introduit pour proposer deux modèles de pilotage de la phase de délibération d'une décision d'organisation, basé sur la délibération argumentée pour l'un, sur des simulations stochastiques pour l'autre, avec un formalisme d'équations d'état pour représenter l'évolution des convictions au fil du débat. Ensuite, les décisions qui concernent l'amélioration d'un système complexe, où se confrontent la vision stratégique des managers et la vision opérationnelle des exécutants sont abordées. Lorsque des objectifs atteignables ont été négociés, un modèle basé sur un problème de programmation par contraintes permet de calculer une mise en œuvre des actions pour les atteindre. Dans ce cas, soit le collectif est vu comme un ensemble d'agents collaboratifs et la délibération est pilotée par l'efficience de la décision ; soit comme un ensemble d'agents simplement coopératifs, dont nous modélisons la négociation où se mêlent objectifs collectifs et enjeux individuels, à l'aide de la théorie de l'argumentation. Ces modèles traitent tous du contrôle du processus cognitif que constitue la décision collective : l'automatisation cognitive vise ainsi à réduire les erreurs humaines et organisationnelles qui pourraient affecter la décision en particulier les erreurs d'évaluation et de coordination. Une conclusion et des perspectives achèvent ce manuscrit qui est illustré de plusieurs exemples relatifs au management d'activités à risques.

Page generated in 0.0468 seconds