• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 122
  • 45
  • 17
  • Tagged with
  • 181
  • 181
  • 78
  • 76
  • 48
  • 44
  • 44
  • 44
  • 38
  • 34
  • 33
  • 32
  • 31
  • 28
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Détermination et modélisation du couplage en champ proche magnétique entre systèmes complexes

Zangui, Sanaa 14 October 2011 (has links) (PDF)
Dans la conception d'un système en électronique de puissance par exemple dans le cas d'un convertisseur ou d'un filtre CEM, les problèmes de la compatibilité électromagnétique ne sont pris en compte que lors de la phase finale durant des tests de vérification et de certification du système. Ainsi un prototype non-conforme à ces tests va engendrer des surcoûts importants ou l'adoption de solutions de " secours " non nécessairement reproductibles et surtout non satisfaisantes car elles impliquent dans la majorité des cas l'ajout d'éléments initialement non prévus (filtres, blindages, '). Aussi, il s'avère important et utile d'étudier les problèmes de la CEM dès la phase de conception, c'est l'objectif principal de ce travail de recherche.L'objectif de ce travail est d'établir des modèles permettant de prédire le couplage en champ proche entre les systèmes ou les sous systèmes, comme par exemple entre les éléments constituant un convertisseur. Cette " brique élémentaire " de modélisation est un élément actuellement manquant pour contribuer à la modélisation globale des systèmes d'électronique de puissance d'un point de vue CEM. Pour ce faire, il suffit de recréer le champ électromagnétique rayonné par chacun des systèmes, qui sera représenté comme une source équivalente.Ces sources équivalentes seront utilisées pour calculer le couplage entre les différents éléments en fonction de la distance et de leur placement respectif. La détermination de ces différents couplages nous aidera à mieux optimiser la position des différents composants au sein de la structure pour minimiser les perturbations et augmenter son efficacité.Le modèle construit qui représente le rayonnement en champ proche des différents éléments nous permettra de fournir des bibliothèques qui seront intégrées par la suite dans un logiciel de type circuit, pour une modélisation " globale " du système.
72

Architecture multi-agents pour le pilotage automatique des voiliers de compétition et Extensions algébriques des réseaux de Petri

Guillou, Goulven 03 November 2010 (has links) (PDF)
Cette thèse s'attaque dans une première partie au problème du pilotage automatique des voiliers de compétition en s'appuyant sur la réalité virtuelle qui, via la simulation, permet de s'affranchir de tests en situation réelle généralement coûteux, contraignants et risqués. Une architecture multi-agents est proposée ainsi que sa modélisation en termes de réseaux de Petri. Une deuxième partie est consacrée à la présentation et à l'étude de plusieurs extensions algébriques de ces réseaux dans le but initial de prendre en charge certaines caractéristiques des systèmes à évènements discrets non couvertes par les réseaux places/transitions usuels. Un état de l'art présente différentes approches du problème du pilotage des voiliers et souligne son caractère complexe. Partant du constat que malgré tout, l'homme parvient généralement à faire face à la plupart des situations rencontrées en mer, nous proposons d'asseoir notre système sur une expertise très fine de la pratique du barreur de compétition. Cette dernière permet d'identifier et de caractériser les éléments importants liés à la technique de barre. Nous proposons ensuite une architecture multi-agents dont la partie commande est basée sur trois agents autonomes, asynchrones et concurrents ainsi que sa modélisation par réseaux de Petri synchronisés. Le système est implémenté sous ARéVi, moteur de simulation d'objets actifs et de rendu 3D développé au CERV. L'expérimentation montre que le barreur virtuel ainsi créé assure un niveau de sécurité intéressant pour un coureur au large en réagissant aux sollicitations de son voilier d'une manière proche de celle d'un homme. Le gain en performance semble plus limité du fait, en particulier, des faiblesses du modèle de bateau implémenté mais pourrait s'avérer intéressant sur un voilier réel. Dans la deuxième partie de cette thèse nous proposons différentes extensions algébriques des réseaux de Petri. Nous choisissons tout d'abord d'utiliser un groupe à la place de l'algèbre des places usuelle des réseaux de Petri et d'en priver l'accès à l'élément neutre pour interdire certaines transitions. Ces réseaux, appelés strict-group-nets, étendent en particulier les réseaux de Petri purs si on choisit pour groupe l'ensemble des entiers relatifs. L'adjonction d'arcs dits inconditionnels conduit aux group-nets et permet d'englober également les réseaux impurs. Nous montrons que les problèmes de savoir si les Z-nets et les strict-Z-nets sont bornés et si une place de ces réseaux est bornée sont décidables via la définition d'un arbre proche de celle d'un arbre de couverture. La notion de ressource disparaissant dans ces nouveaux réseaux, plutôt que de choisir une algèbre a priori nous cherchons à caractériser les algèbres permettant de singer le comportement des réseaux de Petri usuels. Cette démarche conduit aux réseaux lexicographiques pour lesquels la notion de ressource reste étrange car on peut consommer indéfiniment strictement. Nous montrons que les réseaux lexicographiques ont la puissance des machines de Turing et que les réseaux lexicographiques bornés sont les réseaux de Petri bornés. Nous démontrons enfin que le problème de la synthèse trouve une réponse polynomiale pour les Z/2Z-nets ainsi que pour les réseaux lexicographiques en termes de meilleure approximation d'un langage régulier donné.
73

Architecture Agent pour la modélisation et simulation de systèmes complexes multidynamiques : une approche multi-comportementale basée sur le pattern "Agent MVC"

Gangat, Yasine 27 August 2013 (has links) (PDF)
La co-construction et la réutilisation de modèles font l'objet de plusieurs travaux dans le domaine de la simulation. Cependant, dans le domaine plus spécifique de la Simulation Orientée Agent (SOA), nous pouvons constater un manque sur ces deux points malgré un besoin fort de la part des thématiciens. La co-construction est essentielle pour optimiser la mise en commun du savoir de différents experts, mais nous faisons souvent face à des divergences de points de vue. Les méthodologies existantes pour la co-construction en SOA ne permettent qu'un faible niveau de collaboration entre thématiciens durant la phase initiale de modélisation, ainsi qu'entre les des thématiciens avec les modélisateurs ou les modélisateurs-informaticiens... Pour faciliter cette co-construction, nous proposons de suivre une méthodologie de conception favorisant cette collaboration. La réutilisation de modèle octroie un gain de temps significatif, une amélioration du modèle et l'apport de nouvelle connaissance. Les méthodologies en SOA dans ce domaine existent. Cependant, dans le spectre de réutilisation, elles sont souvent limitées au niveau du modèle complet ou de l'agent avec l'impossibilité de "descendre" plus bas. L'expérience de EDMMAS, un cas concret d'un modèle issu de trois réutilisations successives, nous a permis de constater une nouvelle complexité qui découle de la démultiplication des comportements des agents et crée un décalage conséquent entre le modèle opérationnel et le modèle conceptuel. Notre objectif est de promouvoir la réutilisation aussi bien des modèles, que des agents et de leurs comportements.Pour répondre à ces questionnements, nous proposons dans ce manuscrit une manière de codifier et d'intégrer la connaissance provenant de disciplines différentes dans le modèle, tout en utilisant des modules "composables" qui facilitent la réutilisation. Nous proposons (i) une nouvelle architecture Agent (aMVC), appliquée dans un cadre multidynamique (DOM), avec l'appui (ii) d'une approche méthodologique (MMC) basée sur la décomposition et réutilisation des comportements. Cet ensemble de propositions, (i) et (ii), permet de conduire un projet pluridisciplinaire de SOA avec un grand nombre d'acteurs, facilitant la co-construction des modèles grâce à l'instauration de nouvelles synergies entre les différents acteurs participant à la modélisation. Les concepteurs pourront travailler de manière autonome sur leur dynamique et la plateforme fera l'intégration de ces dernières en assurant la cohésion et la robustesse du système. Nos contributions offrent la capacité de créer les briques élémentaires du système de manière indépendante, de les associer et de les combiner pour former des agents, selon des dynamiques conformément à l'approche DOM. Elles permettent ainsi de comparer la logique selon différentes possibilités pour une même dynamique et d'ouvrir la perspective d'étudier un grand nombre d'alternatives de modélisation d'un même système complexe, et de les analyser ensuite à une échelle très fine.
74

Novel approaches in NMR and biophysics for the study of complex systems : application to the N-terminal domain of the androgen receptor / Nouvelles approches en RMN et en biophysique pour l’étude de systèmes complexes : application au domaine N-terminal du récepteur aux androgènes

Asencio Hernandez, Julia 24 September 2015 (has links)
Cette thèse vise à réaliser une étude approfondie sur le développement de méthodologies pour l’analyse de systèmes complexes. Cela comprend l’étude des systèmes hors d’équilibre, des systèmes d’auto-assemblage, et les systèmes biologiques désordonnés. Les méthodes développées recouvrent principalement la RMN, tel que la mesure de diffusion (DOSY) mais également d’autres techniques telles que la spectrométrie de masse, le dichroïsme circulaire (CD), la microscopie électronique (EM) et diffusion des rayons X aux petits angles (SAXS). La partie N-terminale du récepteur des androgènes (AR) est utilisée comme un système complexe. D’après la littérature, il est connu que cette région joue un rôle important pour l’activité du récepteur, et elle est également décrite comme étant intrinsèquement désordonnée. Les résultats que j’ai acquis durant la thèse m’ont permis d’identifier une courte région de ce domaine, impliquée dans la formation réversible de fibres amyloïdes, par modulation des conditions d’oxydo-réduction du milieu. Les résultats révèlent un aspect inconnu du mécanisme de AR. / My PhD project was focused on the development of methods for the analysis of complex systems and their biophysical characterization. This includes the study of large chemical libraries, self assembly systems, protein-ligand interaction studies and disordered biological systems. A wide range of biophysical methods were used for this purpose. Specially, Nuclear Magnetic Resonance(NMR) but also other techniques such as mass spectrometry, circular dichroism (CD), electron microscopy (EM) and small angle X-ray scattering (SAXS). The N-terminal Domain of the Androgen Receptor is studied as an example of a complex system. This region plays an important role in receptor activity, and is also described as being intrinsically disordered. The results obtained during my thesis shown a short conserved region involved in the amyloid fibers formation under oxidative conditions. These results open new possibilities to understand the mechanism of the AR activity.
75

Outils d'aide à la décision pour la sélection des filières de valorisation des produits de la déconstruction des systèmes en fin de vie : application au domaine aéronautique / End-of-life option selction decision support tools

Godichaud, Matthieu 22 April 2009 (has links)
Dans un contexte de développement durable, les enjeux de la dernière phase du cycle de vie d'un système, la phase de retrait de service, se sont accrus ces dernières années. Les systèmes en fin de vie doivent être déconstruits afin d'être revalorisés pour répondre aux différentes exigences environnementales. Cette responsabilité incombe au concepteur qui doit définir le sous-système support de la phase de retrait de service : le système de déconstruction. Sa principale fonction est la réalisation de l'activité de déconstruction dans l'objectif de favoriser en aval le recyclage de la matière des constituants du système en fin de vie et/ou leur recyclage fonctionnel. Les stratégies de déconstruction doivent répondre à l'ensemble des problèmes de décision posés lors de la phase de retrait de service d'un système. Il s'agit notamment de sélectionner les constituants valorisables suivant des critères techniques, économiques et environnementaux puis de définir et optimiser le système de déconstruction permettant l'obtention de ces produits. La solution obtenue définie ce que nous avons appelé une trajectoire de déconstruction. Nos travaux portent sur la modélisation et l'optimisation de ces trajectoires. Nos développements s'articulent en quatre phases. Etat de l'art et démarche de définition d'une trajectoire. Dans cette phase, une structure de démarche de définition de trajectoires de déconstruction est proposée puis instrumentée. Les modèles généralement utilisés dans ce cadre sont de type déterministe et ne permettent pas de prendre en compte et de gérer les incertitudes inhérentes au processus de déconstruction (état dégradé du système en fin de vie et de ses constituants, demandes en produits issus de la déconstruction, dates de fin de vie des systèmes, …). Pour déterminer une solution robuste de déconstruction d'un système en fin de vie, l'aide à la décision proposée doit intégrer des incertitudes de nature diverse tout en facilitant leur gestion et leurs mises à jour. Incertitudes en déconstruction. Sur la base de ce constat, l'ensemble d'incertitudes couramment mises en jeu dans l'optimisation des trajectoires est identifié et caractérisé. Les méthodes probabilistes apparaissent comme des approches privilégiées pour intégrer ces incertitudes dans une démarche d'aide la décision. Les réseaux bayésiens et leur extension aux diagrammes d'influence sont proposés pour répondre à différents problèmes de décision posés lors de la définition d'une trajectoire de déconstruction. Ils servent de support au développement d'un outil d'aide à la décision. Modélisation de trajectoires de déconstruction : principes et approche statique d'optimisation. Après avoir présenté ses principes de modélisation, l'outil est développé dans une approche de détermination d'une trajectoire de déconstruction d'un système en fin de vie donné. La trajectoire obtenue fixe la profondeur de déconstruction, les options de revalorisation, les séquences et les modes de déconstruction suivant des critères économiques et environnementaux tout en permettant de gérer différents types d'incertitude. L'utilisation de critères économiques est ici privilégiée. Un exemple d'application sur un système aéronautique est développé pour illustrer les principes de modélisation. Approche dynamique pour l'optimisation d'une trajectoire de déconstruction. Le champ d'application de l'outil d'aide à la décision est étendu en intégrant une dimension temporelle à la modélisation du problème à l'aide des réseaux bayésiens dynamiques. Les trajectoires de déconstruction peuvent ainsi être établies sur des horizons couvrant les arrivées de plusieurs systèmes en fin de vie en présence d'incertitudes. Le modèle permet de déterminer des politiques de déconstruction pour chaque opération identifiée dans la trajectoire en fonction de différents paramètres liés à la gestion des demandes et des arrivées ou encore au processus d'obtention de ces produits. Le décideur peut ainsi adapter l'outil à différents contextes de détermination de trajectoire de déconstruction de systèmes en fin de vie. / In a sustainable development context, stakes of the last stage of system life cycle, the end-of-life stage, increase these last years. End-of-life systems have to be demanufactured in order to be valued and answer environmental requirements. The aim of disassembly strategies is to bring solutions to the whole decision problem put during the end-of-life stage of systems. In particular, decision maker have to select valuable products in function of technical, economical and environmental criteria and, then, design and optimise disassembly support system allowing generating these products. The solution determines what we call a disassembly trajectory and ours works deal with modelling and optimization of these trajectories. Definition steps of disassembly trajectories are proposed, structured and instrumented. Models that are generally used in this frame are determinist and do not allow taking into account and managing uncertainties that are inherent to disassembly process (degradation of products, demand for valuable product, systems end-of-life dates, ...). In order to determine a robust disassembly solution, decision aid has to integrate uncertainties from various origins while facilitating their management and their update. On the basis this observation, all the uncertainties involved in disassembly trajectory optimization are identified and characterized. Basing on Bayesian networks, the proposed tool is developed through a “static” approach of disassembly trajectory. Indeed, the obtained trajectory gives the disassembly level of the end-of-life system, recycling options, sequences and disassembly modes in function of economical criteria while allowing managing uncertainties. An application example on an aeronautical system is developed to illustrate the modelling method. The application field of the model is extended to take into account time dimension (dynamic approach) by using dynamic Bayesian networks. Trajectories can be defined on horizons that integrate several arrivals of end-of-life systems. Decision makers can so adapt the model to various contexts
76

Développement de concepts et outils d’aide à la décision pour l’optimisation via simulation : intégration des métaheuristiques au formalisme DEVS / Concept development and decision support tools for optimization via simulation : integration of metaheuristics to DEVS formalism

Poggi, Bastien 12 December 2014 (has links)
Nous vivons dans un monde où le besoin d’efficacité s’impose de plus en plus. Ce besoin s’exprime dans différents domaines, allant de l’industrie à la médecine en passant par la surveillance environnementale. Engendrées par cette demande, de nombreuses méthodes d’optimisation « modernes » également appelées « métaheuristiques » sont apparues ces quarante dernières années. Ces méthodes se basent sur des raisonnements probabilistes et aléatoires et permettent la résolution de problèmes pour lesquels les méthodes d’optimisation « classiques » également appelées « méthodes déterministes » ne permettent pas l’obtention de résultats dans des temps raisonnables. Victimes du succès de ces méthodes, leurs concepteurs doivent aujourd’hui plus que jamais répondre à de nombreuses problématiques qui restent en suspens : « Comment évaluer de manière fiable et rapide les solutions proposées ? », « Quelle(s) méthode(s) choisir pour le problème étudié ? », « Comment paramétrer la méthode utilisée ? », « Comment utiliser une même méthode sur différents problèmes sans avoir à la modifier ? ». Pour répondre à ces différentes questions, nous avons développé un ensemble de concepts et outils. Ceux-ci ont été réalisés dans le cadre de la modélisation et la simulation de systèmes à évènements discrets avec le formalisme DEVS. Ce choix a été motivé par deux objectifs : permettre l’optimisation temporelle et spatiale de modèles DEVS existants et améliorer les performances du processus d’optimisation (qualité des solutions proposées, temps de calcul). La modélisation et la simulation de l’optimisation permettent de générer directement des propositions de paramètres sur les entrées du modèle à optimiser. Ce modèle, quant à lui, génère des résultats utiles à la progression de l’optimisation. Pour réaliser ce couplage entre optimisation et simulation, nous proposons l’intégration des méthodes d’optimisation sous la forme de modèles simulables et facilement interconnectables. Notre intégration se concentre donc sur la cohérence des échanges entre les modèles dédiés à l’optimisation et les modèles dédiés à la représentation du problème. Elle permet également l’arrêt anticipé de certaines simulations inutiles afin de réduire au maximum la durée de l’optimisation. La représentation des méthodes d’optimisation sous formes de modèles simulables apporte également un élément de réponse dans le choix et le paramétrage des algorithmes. Grace à l’usage de la simulation, différents algorithmes et paramètres peuvent être utilisés pour un même processus d’optimisation. Ces changements sont également influencés par les résultats observés et permettent une adaptation automatique de l’optimisation aux spécificités connues et/ou cachées du problème étudié ainsi qu’à ses différentes étapes de résolution. L’architecture de modèle que nous proposons a été validée sur trois problèmes distincts : l’optimisation de paramètres pour des fonctions mathématiques, l’optimisation spatialisée d’un déploiement de réseau de capteurs sans fil, l’optimisation temporisée de traitements médicaux. La généricité de nos concepts et la modularité de nos modèles ont permis de mettre en avant la facilité d’utilisation de notre outil. Au niveau des performances, l’interruption de certaines simulations ainsi que le dynamisme de l’optimisation ont permis l’obtention de solutions de qualité supérieure dans des temps inférieurs. / In the world in witch we live the efficient needs are increasing in various fields like industry medecine and environnemtale monitoring. To meet this needs, many optimization methods nammed « metaheuristics » have been created over the last forty years. They are based on probabilistic and random reasoning and allow user to solve problems for witch conventional methods can not be used in acceptable computing times. Victim of their methods succes, the developers of the methods have to answer to several questions : « How can the fitness of solutions be assessed ? », « How to use the same method for several projects without change the code? », « What method will we choose for a specific problem ? », « How to parametrize algorithms ? ». To deal with this problem, we have developed a set of concepts and tools. They have been developed in the context of modeling and simulation of discrete event systems with DEVS formalism. The aims pursued are : allow temporized and spacialized optimization of existing DEVS models, improve the optimization process efficiency (quality of solutions, computing time). Modeling and simulation are used to propose parameters toward the input of problem to optimize. This one generate results used to improve the next proposed solutions. In order to combine optimization and simulation, we propose to represent the optimization method as models which can be easily interconnected and simulated. We focus on consistency of exchanges between optimization models and problem models. Our approach allows early stopping of useless simulations and reduce the computing time as a result. Modeling optimization methods in DEVS formalism also allows to autimatically choose the optimization algorithm and its parameters. Various algorithms and parameters can be used for the same problem during optimization process at different steps. This changes are influenced by collected results of problem simulation. They lead on a self adaptation to the visible or/and hidden features of the studied problem. Our models architecture has been tested on three different problems : parametric optimization of mathematical functions, spacialized optimization of a sensor network deployment, temporized optimization of a medical treatment. Genericity of our concepts and scalability of our models underline the usabily of proposed tool. Concerning performance, simulation breaks and dynamic optimization have obtained higher quality solutions in a short time.
77

Dynamics of long range interacting systems beyond the Vlasov limit / Dynamique des systèmes à longue portée au delà de la limite de Vlasov

Morand, Jules 02 December 2014 (has links)
Les interactions à longue portée concernent de nombreux systèmes naturels. Un exemple notable est celui de la gravitation newtonienne qui est pertinent dans le cas de l'étude de systèmes d'étoiles ou d'amas de galaxies. Ces systèmes ont notamment la particularité de ne pas respecter l'additivité des potentiels thermodynamiques et présentent une dynamique dominée par les effets collectifs. Une caractéristique remarquable est qu'après une évolution très rapide, ces systèmes restent piégés dans des états quasi-stationnaires pendant un temps qui peut être extrêmement grand (divergeant avec la taille du système). C'est seulement sur des échelles de temps plus longue que les simulation montre que ces systèmes relaxent à l’équilibre thermodynamique.Les états quasi-stationnaire sont interprétés théoriquement comme les solution stationnaires de l'équation de Vlasov. Cette équation de champs moyen représente un très bonne approximation de la dynamique macroscopique des systèmes en interaction à longue portée dans la limite ou le nombre de particule tend vers l'infini. Dans une premier temps, nous nous attacherons à comprendre, en fonction de la portée de la force de paire et de sa régularisation à court distance, quel est le champs de validité de cette équation, et en particulier, dans quelle cas le phénomène d'état quasi-stationnaire est attendu.Dans une seconde partie, combinant les approches théoriques et numériques, nous étudions la modification de la dynamique des systèmes à longue portée soumis à différentes sortes de perturbation non-Hamiltonienne. La robustesse des états quasi-stationnaires en présence des différentes perturbation est analysée en détails. / Long range interactions concern numerous natural systems. A notable example is the one of the gravitation which is relevant in the case of the study of a stars system or galaxy clusters. In particular, these systems does not respect the additivity of thermodynamical potential and present a dynamics dominated by collective effects. One of the most remarkable feature is that, after a very rapid evolution, these systems remains trapped into quasi-stationary states up to a very long time (diverging with the system size). It is only on longer time scales, that simulations have shown that the system relaxes to thermal equilibrium.Quasi-stationary states are theoretically interpreted as solutions of the Vlasov equation. This mean filed equation represents a very good approximation of the dynamics of long range systems in the limit of a large number of particles. Firstly we give a limit on the validity of the Vlasov equation depending of the range of the pair force and on its short scales regularisation. In a second part, using theoretical an numerical approach, we study the modification of the dynamics of long range systems when subjected to different kinds of non-Hamiltonian perturbations. In particular, the robustness of quasi-stationary states, in presence of this different perturbations is analysed in details.
78

Modélisation du système complexe de la publication scientifique / Modeling the complex system of scientific publication

Kovanis, Michail 02 October 2017 (has links)
Le système d’évaluation par les pairs est le gold standard de la publication scientifique. Ce système a deux objectifs: d’une part filtrer les articles scientifiques erronés ou non pertinents et d’autre part améliorer la qualité de ceux jugés dignes de publication. Le rôle des revues scientifiques et des rédacteurs en chef est de veiller à ce que des connaissances scientifiques valides soient diffusées auprès des scientifiques concernés et du public. Cependant, le système d’évaluation par les pairs a récemment été critiqué comme étant intenable sur le long terme, inefficace et cause de délais de publication des résultats scientifiques. Dans ce projet de doctorat, j’ai utilisé une modélisation par systèmes complexes pour étudier le comportement macroscopique des systèmes de publication et d’évaluation par les pairs. Dans un premier projet, j’ai modélisé des données empiriques provenant de diverses sources comme Pubmed et Publons pour évaluer la viabilité du système. Je montre que l’offre dépasse de 15% à 249% la demande d’évaluation par les pairs et, par conséquent, le système est durable en termes de volume. Cependant, 20% des chercheurs effectuent 69% à 94% des revues d’articles, ce qui souligne un déséquilibre significatif en termes d’efforts de la communauté scientifique. Les résultats ont permis de réfuter la croyance largement répandue selon laquelle la demande d’évaluation par les pairs dépasse largement l’offre mais ont montré que la majorité des chercheurs ne contribue pas réellement au processus. Dans mon deuxième projet, j’ai développé un modèle par agents à grande échelle qui imite le comportement du système classique d’évaluation par les pairs, et que j’ai calibré avec des données empiriques du domaine biomédical. En utilisant ce modèle comme base pour mon troisième projet, j’ai modélisé cinq systèmes alternatifs d’évaluation par les pairs et évalué leurs performances par rapport au système conventionnel en termes d’efficacité de la revue, de temps passé à évaluer des manuscrits et de diffusion de l’information scientifique. Dans mes simulations, les deux systèmes alternatifs dans lesquels les scientifiques partagent les commentaires sur leurs manuscrits rejetés avec les éditeurs du prochain journal auquel ils les soumettent ont des performances similaires au système classique en termes d’efficacité de la revue. Le temps total consacré par la communauté scientifique à l’évaluation des articles est cependant réduit d’environ 63%. En ce qui concerne la dissémination scientifique, le temps total de la première soumission jusqu’à la publication est diminué d’environ 47% et ces systèmes permettent de diffuser entre 10% et 36% plus d’informations scientifiques que le système conventionnel. Enfin, le modèle par agents développé peut être utilisé pour simuler d’autres systèmes d’évaluation par les pairs ou des interventions, pour ainsi déterminer les interventions ou modifications les plus prometteuses qui pourraient être ensuite testées par des études expérimentales en vie réelle. / The peer-review system is undoubtedly the gold standard of scientific publication. Peer review serves a two-fold purpose; to screen out of publication articles containing incorrect or irrelevant science and to improve the quality of the ones deemed suitable for publication. Moreover, the role of the scientific journals and editors is to ensure that valid scientific knowledge is disseminated to the appropriate target group of scientists and to the public. However, the peer review system has recently been criticized, in that it is unsustainable, inefficient and slows down publication. In this PhD thesis, I used complex-systems modeling to study the macroscopic behavior of the scientific publication and peer-review systems. In my first project, I modeled empirical data from various sources, such as Pubmed and Publons, to assess the sustainability of the system. I showed that the potential supply has been exceeding the demand for peer review by 15% to 249% and thus, the system is sustainable in terms of volume. However, 20% of researchers have been performing 69% to 94% of the annual reviews, which emphasizes a significant imbalance in terms of effort by the scientific community. The results provided evidence contrary to the widely-adopted, but untested belief, that the demand for peer review over-exceeds the supply, and they indicated that the majority of researchers do not contribute to the process. In my second project, I developed a large-scale agent-based model, which mimicked the behavior of the conventional peer-review system. This model was calibrated with empirical data from the biomedical domain. Using this model as a base for my third project, I developed and assessed the performance of five alternative peer-review systems by measuring peer-review efficiency, reviewer effort and scientific dissemination as compared to the conventional system. In my simulations, two alternative systems, in which scientists shared past reviews of their rejected manuscripts with the editors of the next journal to which they submitted, performed equally or sometimes better in terms of peer-review efficiency. They also each reduced the overall reviewer effort by ~63%. In terms of scientific dissemination, they decreased the median time from first submission until publication by ~47% and diffused on average 10% to 36% more scientific information (i.e., manuscript intrinsic quality x journal impact factor) than the conventional system. Finally, my agent-based model may be an approach to simulate alternative peer-review systems (or interventions), find those that are the most promising and aid decisions about which systems may be introduced into real-world trials.
79

Simulation multi-agent d'un système complexe : combiner des domaines d'expertise par une approche multi-niveau. Le cas de la consommation électrique résidentielle / Multi-agent simulation of a complex system : combining domains of expertise with a multi-level approach. The case of residential electrical consumption

Huraux, Thomas 02 October 2015 (has links)
Nous abordons dans cette thèse un problème important en simulation multi-agent pour l'étude des systèmes complexes: celui d'assembler de multiples expertises par une approche multi-niveau. Alors que les approches existantes considèrent habituellement la vue d'un seul expert principal sur le système, nous proposons d'utiliser une approche multi-niveau pour intégrer plusieurs expertises sous la forme d'agents de différents niveaux d'abstraction. Nous montrons qu'il est ainsi possible de rester proche des concepts manipulés par les différents experts (ce qui permet de faciliter le processus de validation dans leurs domaines respectifs) et de combiner les différents niveaux de ces concepts, de manière à ce que chaque expert puisse comprendre les dynamiques des éléments liés à son domaine. Nous proposons le méta-modèle SIMLAB basé sur une représentation unifiée des concepts par des agents pouvant s'influencer les uns les autres dans différents axes et différents niveaux. Ce travail est concrétisé dans le cadre de l'étude de l'activité humaine en relation avec la consommation électrique. Il s'agit là d'un exemple typique de système complexe nécessitant de multiples expertises issues de différents domaines tels que l'ergonomie, l'énergétique, la sociologie, la thermique, ... Dans ce contexte, nous présentons ensuite la mise en oeuvre de notre approche dans la plate-forme SMACH de simulation des comportements humains et nous décrivons un ensemble d'expérimentations illustrant les différentes caractéristiques de notre approche. Nous montrons enfin la capacité de SIMLAB à reproduire et à étendre en simulation une étude réalisée sur le terrain de gestion de la demande énergétique. / The purpose of this work is to tackle a key problem in the study of complex systems when using multi-agent simulation: how to assemble several domains of expertise with a multi-level approach. While existing approaches usually consider the viewpoint of a unique main expert, we propose to use a multi-level model to integrate the multiple domains of expertise embodied in agents located at different abstraction levels. In this work, we show that it is possible to both stay close to the concepts manipulated by the experts (for the sake of the validation process in the domain of each expert) and combine the levels of those concepts. That way, each expert can easily understand the dynamics of the components related to their domain.We present SIMLAB, our meta-model based on a unified representation of the concepts using agents. Each agent can influence the others on different axes and levels. This work is materialised in a study of human activity in relation to electrical consumption. It is a typical example of complex system which requires many domains of expertise such as psychology, energetics, sociology, heat science, … In this context, we present the implementation of our approach in SMACH, a simulation platform of human behaviours. We Then describe several experiments to illustrate the characteristics of our approach. Finally, we show how SIMLAB can reproduce and extend in silico a field study of energy demand management.
80

LA LGV PACA DANS L'EVOLUTION DU SYSTEME TERRITORIAL TRANSFRONTALIER FRANCO-ITALO-MONEGASQUE. MODELISATION GEOPROSPECTIVE

Basse, Reine Maria 14 December 2010 (has links) (PDF)
L'objet de cette recherche porte sur une ligne à grande vitesse appelée à desservir la Région Provence-Alpes-Côte d'Azur à l'horizon 2020. La LGV PACA est une infrastructure programmée mais qui n'en est qu'au stade de projet non encore réalisé, c'est pourquoi notre objectif est de proposer des scénarios visant à mesurer les incidences sur l'évolution du territoire transfrontalier franco-italo-monégasque, à partir de la démarche de géoprospective territoriale. Cette approche méthodologique repose ici sur une modélisation spatiale basée sur un modèle d'automate cellulaire contraint du nom de MOLAND. L'application de MOLAND a permis de procéder à une modélisation intégrant transport et usage des sols, ce qui a pour avantage de faciliter la compréhension de l'évolution actuelle et possible du comportement de l'occupation des sols au sein des espaces limitrophes de la frontière. Trois grandes parties sont proposées dans cette thèse. Il est suggéré dans la première partie un cadrage méthodologique portant sur l'interdépendance existante et pouvant exister entre le système territorial et le sous-système des transports. Dans la deuxième partie, nous abordons la problématique de la modélisation et de la simulation spatiale en insistant sur la difficulté du paramétrage des modèles dynamiques et spatialement explicites et notamment sur le paramétrage des modèles basés sur les automates cellulaires contraints. Dans la troisième et dernière partie de cette thèse, c'est la difficulté de l'exercice géoprospectif encore méconnu qui est mise en avant. À partir de différents scénarios géoprospectifs, cette thèse fournit des éléments de connaissance quant à l'avenir possible d'un espace transfrontalier qui s'apprête à accueillir la grande vitesse ferroviaire. Elle apporte des réponses concrètes aux questions liées à la croissance urbaine et à l'accessibilité des territoires jusque-là isolés des grands couloirs européens de communication. Les résultats de cette recherche sont plus que jamais d'actualité car, dans le cadre de l'aide à la connaissance du territoire et de l'aide à la décision, ils permettent de se pencher sur un volet ignoré jusqu'à présent par les études menées par le maître d'ouvrage RFF (Réseau Ferré de France) : la prise en compte simultanée de l'infrastructure de transport et de l'occupation des sols pour l'appréhension et la compréhension des dynamiques d'un territoire en devenir. La prise en compte de l'occupation des sols dans la modélisation géoprospective par automates cellulaires permet au géographe de poser les bonnes questions à partir d'une entrée territoriale. RFF a récemment lancé de nouvelles études sur l'opportunité qu'offre l'infrastructure grande vitesse ferroviaire pour améliorer la desserte de la Région PACA. En permettant de mesurer les impacts nationaux de cette infrastructure sur ce territoire transfrontalier, les simulations réalisées constituent une aide à la décision utile et indispensable.

Page generated in 0.0389 seconds