• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 10
  • 2
  • Tagged with
  • 62
  • 62
  • 62
  • 19
  • 13
  • 12
  • 11
  • 11
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

L' approche multi-agents pour le pilotage des systèmes complexes appliquée aux systèmes du trafic urbain

Ali, Ahmad 07 July 2009 (has links) (PDF)
La conception, l'étude et la gestion des systèmes du trafic urbain (STU) sont difficiles et coûteuses et sont des tâches très complexes. Dans ces systèmes, l'objectif principal est d'améliorer la circulation et d'optimiser la fluidité grâce à des règles de fonctionnement et de pilotage (qui constituent le sous-système décisionnel). L'approche distribuée du pilotage peut contribuer à la mise en place d'organisations agiles, combinant des logiques de réseaux et de hiérarchie. Cependant, le pilotage non centralisé des STU s'appuie fondamentalement sur les interactions d'entités communicantes, autonomes et capables de prendre des décisions. Ce travail s'intègre dans le développement de la méthodologie de modélisation ASCImi-STU (analyse, spécification, conception, implantation -multiple, incrémentielle pour les STU) qui a pour objectif d'apporter une aide à la conception et à la gestion des STU. La problématique liéé à la conception du sous-système décisionnel des STU est la maîtrise de la cohérence spatiale et temporelle des décisions, compte tenu des caractéristiques des systèmés pilotés et de leur environnement. Nous proposons pour le sous-système décisionnel une approche multi-agents et un outil d'aide à la décision pour améliorer la qualité de service aux usagers et pour résoudre des problèmes de planification au niveau stratégique, tactique et opérationnel.
42

Analyse multidimensionnelle interactive de résultats de simulation : aide à la décision dans le domaine de l'agroécologie / Interactive multidimensional analysis of simulation results : decision support in the agroecology field

Bouadi, Tassadit 28 November 2013 (has links)
Dans cette thèse, nous nous sommes intéressés à l'analyse des données de simulation issues du modèle agro-hydrologique TNT. Les objectifs consistaient à élaborer des méthodes d'analyse des résultats de simulation qui replacent l'utilisateur au coeur du processus décisionnel, et qui permettent d'analyser et d'interpréter de gros volumes de données de manière efficace. La démarche développée consiste à utiliser des méthodes d'analyse multidimensionnelle interactive. Tout d'abord, nous avons proposé une méthode d'archivage des résultats de simulation dans une base de données décisionnelle (i.e. entrepôt de données), adaptée au caractère spatio-temporel des données de simulation produites. Ensuite, nous avons suggéré d'analyser ces données de simulations avec des méthodes d'analyse en ligne (OLAP) afin de fournir aux acteurs des informations stratégiques pour améliorer le processus d'aide à la prise de décision. Enfin, nous avons proposé deux méthodes d'extraction de skyline dans le contexte des entrepôts de données afin de permettre aux acteurs de formuler de nouvelles questions en combinant des critères environnementaux contradictoires, et de trouver les solutions compromis associées à leurs attentes, puis d'exploiter les préférences des acteurs pour détecter et faire ressortir les données susceptibles de les intéresser. La première méthode EC2Sky, permet un calcul incrémental et efficace des skyline en présence de préférences utilisateurs dynamiques, et ce malgré de gros volumes de données. La deuxième méthode HSky, étend la recherche des points skyline aux dimensions hiérarchiques. Elle permet aux utilisateurs de naviguer le long des axes des dimensions hiérarchiques (i.e. spécialisation / généralisation) tout en assurant un calcul en ligne des points skyline correspondants. Ces contributions ont été motivées et expérimentées par l'application de gestion des pratiques agricoles pour l'amélioration de la qualité des eaux des bassins versants agricoles, et nous avons proposé un couplage entre le modèle d'entrepôt de données agro-hydrologiques construit et les méthodes d'extraction de skyline proposées. / This thesis concerns the analysis of simulation data generated by the agrohydrological model TNT. Our objective is to develop analytical methods for massive simulation results. We want to place the user at the heart of the decision-making process, while letting him handle and analyze large amounts of data in a very efficient way. Our first contribution is an original approach N-Catch, relying on interactive multidimensional analysis methods for archiving simulation results in a decisional database (i.e. data warehouse) adapted to the spatio-temporal nature of the simulation data. In addition, we suggest to analyze the simulation data with online analytical methods (OLAP) to provide strategic information for stakeholders to improve the decision making process. Our second contribution concern two methods for computing skyline queries in the context of data warehouses. These methods enable stakeholders to formulate new questions by combining conflicting environmental criteria, to find compromise solutions associated with their expectations, and to exploit the stakeholder preferences to identify and highlight the data of potential interest. The first method EC2Sky, focuses on how to answer efficiently and progressively skyline queries in the presence of several dynamic user preferences despite of large volume of data. The second method HSky, extends the skyline computation to hierarchical dimensions. It allows the user to navigate along the dimensions hierarchies (i.e. specialize / generalize) while ensuring the online computation of associated skylines. Finally, we present the application of our proposals for managing agricultural practices to improve water quality in agricultural watersheds. We propose a coupling between the agro-hydrological data warehouse model N-Catch and the proposed skyline computation methods.
43

Data management in forecasting systems : optimization and maintenance / Gestion des données dans les systèmes prévisionnels : optimisation et maintenance

Feng, Haitang 17 October 2012 (has links)
Les systèmes prévisionnels reposent généralemnt sur des entrepôts de données pour le stockage et sur les outils OLAP pour la visualisation. Des données prédictives agrégées pourraient être modifiées. Par conséquent, la problématique derecherche peut être décrite comme la propagation d'une modification faite sur un agrégat à travers des hiérachies et des dimensions dans un environnement d'entrepôt de données. Il existe un grand nombre de travaux de recherche sur les problèmes de maintenance de vues. Cependant, à notre connaissance, l'impact de la mise à jour interactive d'un agrégat sur les données de base n'a pas été exploré. Cette thèse CIFRE est soutenue par l'ANRT et l'entreprise Anticipeo. L'application Anticipeo est un système prévisionnel de ventes, qui prédit des ventes. Elle était précise avec des résultats de la prédiction, mais le temps de réponse était un problème. Cette thèse comporte deux parties. La première partie est d'identifier la provenance de la latence. Nous avons proposé une méthodologie s'appuyant sur différentes approches et techniques pour améliorer les performances d'une application. Cependant, la propagation d'une modification effectuée sur une agrégat dans un entrpôt de données ne pouvait pas être résolue par ces biais techniques. La deuxième partie du travail consiste en la proposition d'un nouvel algorithme (PAM - Propagation de modification basée sur une agrégat) avec une version étendue (PAM II) pour cette situation. Les algorithmes identifient et mettent àjour les ensembles exactes de données sources et d'aurtes agrégats influencés par la modification d'agrégat. La version optimisées PAM II réalise une meilleure performance par rapport à PAM quand l'utilisation d'une sémantique supplémentaire (par exemple, les dépendances) est possible. Les expériences sur des données réelles d'Anticipeo ont montré que l'algorithme PAM et son extension apportent de meilleures performances dans la propagation des mises à jour. / Forecasting systems are usually based on data warehouses for data strorage, and OLAP tools for historical and predictive data visualization. Aggregated predictive data could be modified. Hence, the research issue can be described as the propagation of an aggregate-based modification in hirarchies and dimensions in a data warehouse enironment. Ther exists a great number of research works on related view maintenance problems. However, to our knowledge, the impact of interactive aggregate modifications on raw data was not investigated. This CIFRE thesis is supported by ANRT and the company Anticipeo. The application of Anticipeo is a sales forecasting system that predicts future sales in order to draw appropriate business strategy in advance. By the beginning of the thesis, the customers of Anticipeo were satisfied the precision of the prediction results, but not with the response time. The work of this thesis can be generalized into two parts. The first part consists in au audit on the existing application. We proposed a methodology relying on different technical solutions. It concerns the propagation of an aggregate-based modification in a data warehouse. the second part of our work consists in the proposition of a newx allgorithms (PAM - Propagation of Aggregated-baseed Modification) with an extended version (PAM II) to efficiently propagate in aggregate-based modification. The algorithms identify and update the exact sets of source data anf other aggregated impacted by the aggregated modification. The optimized PAM II version archieves better performance compared to PAM when the use of additional semantics (e.g. dependencies) is possible. The experiments on real data of Anticipeo proved that the PAM algorithm and its extension bring better perfiormance when a backward propagation.
44

Approche multi-agents d'un système d'aide à la décision en environnement dynamique et incertain. Application à l'entomologie médico-légale

Morvan, Gildas 25 November 2009 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur le thème de la modélisation et de l'aide à la décision dans le cadre des systèmes complexes. Plus précisément, nous nous intéressons au couplage de simulations orientées agent à une méthode de résolution de problèmes inverses. Une architecture générique de système d'aide à la décision est ainsi proposée. Ces travaux sont appliqués à la conception d'un système d'aide à la décision dédié à l'entomologie médico-légale. Cette discipline à mi-chemin entre la criminalistique et l'entomologie vise à concevoir des méthodes de datation de la mort basées sur des indices entomologiques, i.e., les insectes (principalement des diptères nécrophages) ou restes d'insectes retrouvés sur ou à proximité du corps. Ainsi, dans le cadre de ce travail réalisé en collaboration avec le laboratoire d'entomologie médico-légale de l'Institut de Médecine Légale de Lille, nous présentons : * un modèle à base d'agents permettant de simuler le développement des diptères nécrophages dans un environnement complexe (e.g., un corps situé dans un écosystème donné), en prenant en compte plus de paramètres que les méthodes classiques, * une implémentation de l'architecture de système d'aide à la décision évoquée plus haut, basée sur ce modèle.
45

Analyse multidimensionnelle interactive de résultats de simulation. Aide à la décision dans le domaine de l'agroécologie

Bouadi, Tassadit 28 November 2013 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à l'analyse des données de simulation issues du modèle agro-hydrologique TNT. Les objectifs consistaient à élaborer des méthodes d'analyse des résultats de simulation qui replacent l'utilisateur au coeur du processus décisionnel, et qui permettent d'analyser et d'interpréter de gros volumes de données de manière efficace. La démarche développée consiste à utiliser des méthodes d'analyse multidimensionnelle interactive. Tout d'abord, nous avons proposé une méthode d'archivage des résultats de simulation dans une base de données décisionnelle (i.e. entrepôt de données), adaptée au caractère spatio-temporel des données de simulation produites. Ensuite, nous avons suggéré d'analyser ces données de simulations avec des méthodes d'analyse en ligne (OLAP) afin de fournir aux acteurs des informations stratégiques pour améliorer le processus d'aide à la prise de décision. Enfin, nous avons proposé deux méthodes d'extraction de skyline dans le contexte des entrepôts de données afin de permettre aux acteurs de formuler de nouvelles questions en combinant des critères environnementaux contradictoires, et de trouver les solutions compromis associées à leurs attentes, puis d'exploiter les préférences des acteurs pour détecter et faire ressortir les données susceptibles de les intéresser. La première méthode EC2Sky, permet un calcul incrémental et efficace des skyline en présence de préférences utilisateurs dynamiques, et ce malgré de gros volumes de données. La deuxième méthode HSky, étend la recherche des points skyline aux dimensions hiérarchiques. Elle permet aux utilisateurs de naviguer le long des axes des dimensions hiérarchiques (i.e. spécialisation / généralisation) tout en assurant un calcul en ligne des points skyline correspondants. Ces contributions ont été motivées et expérimentées par l'application de gestion des pratiques agricoles pour l'amélioration de la qualité des eaux des bassins versants agricoles, et nous avons proposé un couplage entre le modèle d'entrepôt de données agro-hydrologiques construit et les méthodes d'extraction de skyline proposées.
46

Cloud services selection based on rough set theory / Sélectrion de service cloud en utilisant la théorie des ensembles approximatifs

Liu, Yongwen 17 June 2016 (has links)
Avec le développement du cloud computing, de nouveaux services voient le jour et il devient primordial que les utilisateurs aient les outils nécessaires pour choisir parmi ses services. La théorie des ensembles approximatifs représente un bon outil de traitement de données incertaines. Elle peut exploiter les connaissances cachées ou appliquer des règles sur des ensembles de données. Le but principal de cette thèse est d'utiliser la théorie des ensembles approximatifs pour aider les utilisateurs de cloud computing à prendre des décisions. Dans ce travail, nous avons, d'une part, proposé un cadre utilisant la théorie des ensembles approximatifs pour la sélection de services cloud et nous avons donné un exemple en utilisant les ensembles approximatifs dans la sélection de services cloud pour illustrer la pratique et analyser la faisabilité de cette approche. Deuxièmement, l'approche proposée de sélection des services cloud permet d’évaluer l’importance des paramètres en fonction des préférences de l'utilisateur à l'aide de la théorie des ensembles approximatifs. Enfin, nous avons effectué des validations par simulation de l’algorithme proposé sur des données à large échelle pour vérifier la faisabilité de notre approche en pratique. Les résultats de notre travail peuvent aider les utilisateurs de services cloud à prendre la bonne décision et aider également les fournisseurs de services cloud pour cibler les améliorations à apporter aux services qu’ils proposent dans le cadre du cloud computing / With the development of the cloud computing technique, users enjoy various benefits that high technology services bring. However, there are more and more cloud service programs emerging. So it is important for users to choose the right cloud service. For cloud service providers, it is also important to improve the cloud services they provide, in order to get more customers and expand the scale of their cloud services.Rough set theory is a good data processing tool to deal with uncertain information. It can mine the hidden knowledge or rules on data sets. The main purpose of this thesis is to apply rough set theory to help cloud users make decision about cloud services. In this work, firstly, a framework using the rough set theory in cloud service selection is proposed, and we give an example using rough set in cloud services selection to illustrate and analyze the feasibility of our approach. Secondly, the proposed cloud services selection approach has been used to evaluate parameters importance based on the users’ preferences. Finally, we perform experiments on large scale dataset to verity the feasibility of our proposal.The performance results can help cloud service users to make the right decision and help cloud service providers to target the improvement about their cloud services
47

Raisonnement automatique basé ontologies appliqué à la hiérarchisation des alertes en télécardiologie / Ontology based Automatic Reasoning applied to telecardiology alerts

Rosier, Arnaud 11 September 2015 (has links)
Introduction :La télésurveillance des stimulateurs cardiaques et défibrillateurs sera à terme le standard pour le suivi des patients implantés. Pourtant, des alertes très nombreuses sont générées par ces dispositifs, et constituent un fardeau pour la prise en charge médicale. De plus, les alertes générées le sont indépendamment du contexte médical individuel du patient, et elles pourraient donc être mieux caractérisées. Cette thèse propose un outil de traitement automatique des alertes générées par la survenue de fibrillation atriale, et basé sur une modélisation des connaissances médicales de type ontologie en OWL2. En particulier, le score de risque cardio-embolique CHA2DS2VASc a été évalué par le biais de l’ontologie, ainsi que le statut d’anticoagulation du patient. Matériel et Méthodes :Une ontologie d’application a été créée en OWL2, afin de représenter les concepts nécessaires au raisonnement sur les alertes. Cette ontologie a été utilisée pour raisonner sur 1783 alertes de FA détectées chez 60 porteurs de stimulateurs cardiaques. Les alertes ont été classées automatiquement selon leur importance d’après une échelle de gravité de 1 à 4. La classification automatique a été comparée à celle réalisée par 2 experts médicaux comme référence. Résultats : 1749 alertes sur 1783 (98%) ont été classées correctement. 58 des 60 patients avaient toutes leurs alertes classées à l’identique par le système testé et par les évaluateurs-médecins. Une approche basée ontologie est à même de permettre un raisonnement automatique sur des données issues de dispositifs médicaux connectés, en les contextualisant en fonction des données médicales individuelles du patient. / Introduction :Remote monitoring of cardiac implantable electronic devices (CIED) such as pacemakers and defibrillators is the new follow-up standard. However, the numerous alerts generated in remote monitoring causes a burden for physicians. Morever, many alerts are notified despite the knowledge of patient condition and could be refined. This work proposes an automatic tool for classifying atrial fibrillation alert, based on an ontological knowledge model in OWL2. In particular, CHA2DS2VASc thrombo-embolic risk score and patient anticogulation status are accounted in order to determine alert importance. Materials and methods :An application ontology was designed in OWL2, in order to represent the concepts needed for processing alerts. This ontology was used to infer the importance of 1783 AF alerts among 60 CIED recipients, using a 4-grade scale. Automatic classification was compared to that of 2 medical experts.Results :1749 of 1783 alerts (98%) were correctly classified. 58 of 60 patients had every alerts classified with the same importance by the prototype and the human experts. An ontology-driven automatic reasoning tool is able to classify remote monitoring alerts, by using individual medical context. This technology could be important for managing data generated by connected medical devices.
48

Evaluation et optimisation des performances de fonctions pour la surveillance de turboréacteurs / Evaluation and optimization of function performances for the monitoring of turbojet engines

Hmad, Ouadie 06 December 2013 (has links)
Cette thèse concerne les systèmes de surveillance des turboréacteurs. Le développement de tels systèmes nécessite une phase d’évaluation et d’optimisation des performances, préalablement à la mise en exploitation. Le travail a porté sur cette phase, et plus précisément sur les performances des fonctions de détection et de pronostic de deux systèmes. Des indicateurs de performances associés à chacune de ces fonctions ainsi que leur estimation ont été définis. Les systèmes surveillés sont d’une part la séquence de démarrage pour la fonction de détection et d’autre part la consommation d’huile pour la fonction de pronostic. Les données utilisées venant de vols en exploitation sans dégradations, des simulations ont été nécessaires pour l’évaluation des performances. L’optimisation des performances de détection a été obtenue par réglage du seuil sur la statistique de décision en tenant compte des exigences des compagnies aériennes exprimées en termes de taux de bonne détection et de taux d’alarme fausse. Deux approches ont été considérées et leurs performances ont été comparées pour leurs meilleures configurations. Les performances de pronostic de surconsommations d’huile, simulées à l’aide de processus Gamma, ont été évaluées en fonction de la pertinence de la décision de maintenance induite par le pronostic. Cette thèse a permis de quantifier et d’améliorer les performances des fonctions considérées pour répondre aux exigences. D’autres améliorations possibles sont proposées comme perspectives pour conclure ce mémoire / This thesis deals with monitoring systems of turbojet engines. The development of such systems requires a performance evaluation and optimization phase prior to their introduction in operation. The work has been focused on this phase, and more specifically on the performance of the detection and the prognostic functions of two systems. Performances metrics related to each of these functions as well as their estimate have been defined. The monitored systems are, on the one hand, the start sequence for the detection function and on the other hand, the oil consumption for the prognostic function. The used data come from flights in operation without degradation, simulations of degradation were necessary for the performance assessment. Optimization of detection performance was obtained by tuning a threshold on the decision statistics taking into account the airlines requirements in terms of good detection rate and false alarm rate. Two approaches have been considered and their performances have been compared for their best configurations. Prognostic performances of over oil consumption, simulated using Gamma processes, have been assessed on the basis of the relevance of maintenance decision induced by the prognostic. This thesis has allowed quantifying and improving the performance of the two considered functions to meet the airlines requirements. Other possible improvements are proposed as prospects to conclude this thesis
49

Conception et évaluation des méthodes et des systèmes d'aide a la décision pour une médecine personnalisée / Conception and evaluation of methods and decision support systems for personnalized medicine

Douali, Nassim 02 April 2015 (has links)
La sécurité est une première étape essentielle dans l'amélioration de la qualité des soins. Devant l’importance de ces erreurs qui menacent 12 millions de patients aux USA chaque année ; plusieurs travaux ont essayé de trouver des solutions pour réduire les erreurs médicales et les effets indésirables des médicaments : La médecine basée sur la preuve, la médecine personnalisée et les systèmes d’aide à la décision médicale. Les sociétés savantes élaborent de façon périodique des recommandations de bonnes pratiques pour aboutir à instaurer une médecine basée sur la preuve. Ces recommandations sont considérées comme des outils efficaces pour faire pont entre la pratique médicale des praticiens et les preuves scientifiques.La simple diffusion de GBPC n’a qu’un impact limité sur les pratiques cliniques.Plusieurs études ont montré que l’informatisation de ces guides en les intégrant dans le Workflow clinique permet d’améliorer l’adhérence des médecins à ces recommandations. Les guides de bonnes pratiques cliniques ne couvrent pas les caractéristiques individuelles des patients. Un des objectifs d’amélioration des soins et de la réduction des effets indésirables des patients est la personnalisation de la prise en charge. Cette personnalisation nécessite l’utilisation de toutes les informations (cliniques, biologiques, génétiques, radiologiques, sociales..) pour caractériser le profil du patient. Nous avons développé une méthode de raisonnement hybride, CBFCM, capable d’utiliser des connaissances et des données hétérogènes. L’implémentation de la méthode a été faite avec des outils du web sémantique. Nous avons développé un environnement Open Source pour la modélisation et la formalisation des connaissances médicales (recommandations..). Nous avons validé la méthode avec plusieurs études dans le domaine des infections urinaires mais aussi dans d’autres domaines (pneumologie, stéatose hépatique non alcoolique, diabète gestationnel..). L’intégration des données génétiques, cliniques et biologiques nous a permis d’améliorer la prédiction de certaines maladies (NASH). / Several studies have tried to find ways to reduce medical and adverse drug errors:The evidence-based medicine, personalized medicine and clinical decision support systems. Many recommandations are developped periodically to improve a best practices. These recommendations are considered effective tools to bridge between medical practitioners and practice of scientific evidence. The use of the Clinical Practice Guidelines has a limited impact on clinical practice. Several studies showed that the computerization of these guides by integrating them into the clinical workflow improves adherence of physicians to these recommendations.One of the aims of improving care and reducing adverse effects of patients is personalizing care. This customization requires the use of all the information (clinical, biological, genetic, radiological, social..) to characterize the profile of the patient.We have developed a method of hybrid reasoning "Case Based Fuzzy CognitiveMaps" able to use knowledge and heterogeneous data. The implementation of themethod was made with semantic web technologies. We have developed an open source environment for modeling and formalization of medical knowledge.We validated the method with several studies in the field of urinary tract infections,but also in other areas (respiratory, nonalcoholic fatty liver disease, gestational diabetes..). The integration of genetic, clinical and laboratory data have allowed us to improve the prediction of certain diseases (NASH).
50

Modélisation et résolution heuristique de l'allocation des ressources en gestion de projets

Gagnon, Michel, Gagnon, Michel 12 February 2024 (has links)
Cette recherche introduit un modèle de décision multiobjectif qui aide le gestionnaire de projets à allouer les ressources à son projet. Le modèle comporte trois axes de décision représentant les compromis à faire entre la durée du projet, le coût du projet et les quantités de ressources allouées. L'allocation des ressources est déterminée en considérant le coût de chaque ressource. Le modèle incorpore le processus d'assignation des ressources, une problématique typique de l'affectation des ressources en gestion projets, à celui de !'ordonnancement des activités. Pour le résoudre, il a fallu concevoir et expérimenter de nouveaux algorithmes. La recherche comporte trois volets où chacun des volets alimente le volet suivant. Le premier volet propose de nouvelles procédures pour minimiser la durée du projet sous contraintes de disponibilités variables de ressources, dans le cas de problèmes ayant des activités avec un seul mode de réalisation ou de problèmes ayant des activités avec plusieurs modes de réalisation. Ces procédures comprennent une nouvelle règle de priorité selon un schème que nous qualifions d'ensembliste et une adaptation de la méthode Tabou. Les résultats de l'expérimentation montrent l'efficacité de la nouvelle règle de priorité et de l'adaptation de la méthode Tabou. Le deuxième volet propose des procédures pour minimiser le coût de disponibilité et le coût d'assignation des ressources allouées sous contrainte d'une date d'échéance du projet. La procédure incorpore l'adaptation de la méthode Tabou élaborée au volet précédent. Les résultats de l'expérimentation montrent la bonne performance des procédures développées. Le troisième volet propose une approche interactive par laquelle le gestionnaire de projets évalue des choix d'allocation de ressources afin de parvenir à une solution de compromis entre les trois axes de décision. Pour y parvenir, on évalue des solutions dans une région délimitée par les buts du gestionnaire de projets au lieu d'effectuer une approximation de la frontière efficace. L'expérimentation montre la faisabilité de l'approche interactive ainsi que l'efficacité de l'adaptation proposée de la méthode Tabou. Ces trois volets permettent d'élaborer l'architecture d'un Système Interactif d'Aide à la Décision pour l'allocation multiobjective des ressources en gestion de projets.

Page generated in 0.248 seconds