• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5991
  • 1673
  • 709
  • 10
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8326
  • 2691
  • 2690
  • 1642
  • 1359
  • 1223
  • 866
  • 846
  • 823
  • 646
  • 583
  • 527
  • 514
  • 498
  • 478
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Améliorer l'efficacité cognitive des diagrammes UML : Application de la Sémiologie Graphique / Enhancing the cognitive effectiveness of UML diagrams : Application of the Semiology of Graphics

El Ahmar, Yosser 06 December 2018 (has links)
Le standard UML est un langage visuel de modélisation pour spécifier, construire et documenter des systèmes logiciels. Une des faiblesses importantes d’UML identifiées par les études de la pratique réelle d’UML concerne la difficulté à spécifier le contexte pour un diagramme donnée ou à l’enrichir pour améliorer sa valeur communicationnelle. En effet, UML ne dispose pas de mécanismes efficaces pour exprimer ce genre de données (exp. les indicateurs de gestion de projets, les indicateurs de qualité). Pour les exprimer dans un langage visuel donné, le framework des dimensions cognitives propose d’utiliser sa notation secondaire : les variables visuelles que le langage n’emploie pas. Malheureusement pour UML, cette notation secondaire n’est pas régulée. La première contribution de la thèse a montré - à travers une étude empirique - que ceci résulte en une grande variété d’utilisation de ces variables et, dans de nombreux cas, de manière non efficace. Elle a aussi montré l’importance de la notation secondaire dans le quotidien des experts UML tout en confirmant leur manque de connaissance sur les bonnes pratiques associées. Dans cette thèse, nous nous basons sur la sémiologie graphique afin de viser une utilisation optimale de la notation secondaire d’UML. Le framework SoG-UML est le résultat de notre adaptation de la sémiologie à UML via 61 directives pour l’utilisation de variations visuelles dans ce langage. Nous avons réalisé une première expérimentation pour valider une partie de ces directives. Enfin, nous proposons Fliplayers et la légende interactive, deux plugins Papyrus proposant respectivement un mécanisme de calques et la construction de légendes "efficaces". / UML is a visual modeling language for specifying, constructing, and documenting software intensive systems. UML diagrams play a central role in the whole software engineering process, starting from early analysis, through implementation, to maintenance. One of the main weaknesses of UML, pointed out by surveys of UML use in industry, is the difficulty to express the context of a particular diagram or to enrich it to enhance its communication value. In fact, UML does not specify effective ways to express contextual information (e.g., project management indicators, quality indicators). To express this kind of information in a particular visual language, the Cognitive Dimensions framework proposes to use its secondary notation: the visual variables that are not used by the language. Unfortunately, in UML, this secondary notation is not controlled. The first contribution of this thesis showed - via an empirical study - that this results in a big variety of usages of these visual variables and mostly, in not effective ways. It also showed that UML practitioners acknowledge the importance of the secondary notation in their practice while confirming their lack of knowledge about the associated effective practices. In this thesis, we refer to the Semiology of Graphics (SoG) in order to target an optimal use of the UML secondary notation. The framework SoG-UML is the result of our adaptation of the SoG to UML via 61 guidelines about the use of the visual variables in this language. We have realized a first experiment to validate a part of these guidelines. Finally, we propose Fliplayers and an interactive keys, two Papyrus plug-ins that respectively implement the layers mechanism and the construction of "effective" keys.
272

Etude des effets sismo-induits et stabilité des pentes en zone urbanisée via modélisation numérique / Seismically induced effects and slope stability in urbanized zones by numerical modeling

Domej, Gisela 29 October 2018 (has links)
Les phénomènes d’instabilité générés par les séismes dans les pentes représentent un risque naturel majeur à l’échelle mondiale. Ce risque a, de plus, tendance à croître du fait d’une urbanisation croissante dans des zones à fort aléa, comme en témoignent de nombreux évènements catastrophique à travers le passé. Pour garantir la sécurité des personnes et des biens face à ce type d’aléa, il faut améliorer les prédictions des déplacements générés par les séismes dans les pentes.Les premiers travaux scientifiques visant à corréler les caractéristiques des instabilités dans les pentes aux paramètres sismiques sont de nature empirique et remontent aux années 1980. Ces méthodes ne permettent pas d’expliquer tous les mouvements de terrain observés à travers le monde, notamment lorsque les effets de site modifient sensiblement la distribution des mouvements dans les pentes et génèrent des déplacements plus grands ou plus petits que ceux prédits par les lois empiriques qui négligent les effets de site.La première partie de cette thèse présente une nouvelle base de données mondiale de 277 glissements de terrain d’origine sismique ou non. L’analyse statistique conduite sur les données de cette base a montré que la forme géométrique moyenne des glissements de terrain reste stable lorsque le volume des instabilités augmente.La deuxième partie de la thèse est dédiée à l’analyse de la stabilité du glissement de terrain de Diezma (Espagne) au moyen de trois méthodes : la Méthode de NEWMARK (1965) basée sur le principe de l’équilibre limite en 2D qui suppose des conditions elasto-parfaitement-plastiques ; l’analyse par différences finies dans le domaine temporel avec le code FLAC en 2D et en 3D qui suppose des conditions visco-elasto-parfaitement-plastiques ; et l’analyse par recombinaison modale dans le domaine fréquentiel avec le code CESAR-LCPC en 2D et en 3D qui suppose des conditions visco-élastiques.Situé dans une région sismiquement active, le glissement de terrain de Diezma est susceptible d’être affecté par des séismes. Une analyse des déplacements induits dans ce versant par onze signaux sismiques différents a été menée dans l’objectif d’établir des corrélations entre les paramètres macro-sismiques des scenarios sismiques appliqués et les déformations calculées par les trois méthodes.Les résultats montrent des différences marquées à la fois qualitatives et quantitatives. Les conclusions principales sont : (a) Les déplacements obtenus par les trois méthodes ont des ordres de grandeur différents et peuvent donc conduire à une surestimation ou à une sous-estimation des déplacements ; (b) Les deux méthodes numériques montrent que les déplacements sont fortement conditionnés par la géométrie des modèles ; seule la méthode par différences finies fait apparaître une réponse en termes de déplacements qui dépend du scénario sismique considéré; (c) Les résultats des simulations2D et 3D ne sont pas comparables ; des analyses complémentaires doivent encore être menées pour guider l’utilisateur dans le choix de la méthode la plus appropriée; (d) La Méthode de NEWMARK (1965), dont l’utilisation reste très répandue de nos jours, est tout à fait appropriée à l’étude de cas simples mais elle peut se révéler inexacte lorsque la structure géologique / topographique du versant conduit à un fort effet de site car ce dernier n’est pas pris en compte par cette méthode / Seismically induced slope deformation is a worldwide common phenomenon that poses an increasing and considerable threat to fast expanding urbanization, and a great number of catastrophic events throughout the past attest thereof. For this reason, displacement predictions allowing for proper slope surveillance became a major concern.Early attempts to relate slope failures to seismic parameters are of empirical nature and date back to the 1980s. Although having proven stable, these relations are frequently disturbed by site effects causing outliers in terms of smaller or greater displacements than expected.The first part of this thesis presents a newly build chronological database of 277 globally distributed seismically and non-seismically induced landslides. A comprehensive statistical analysis was conducted on the data of this database with the main result that – statistically seen – the average geometrical shapes of landslides differ only proportionally.The second part of the thesis is dedicated to a comparative slope stability analysis of the Diezma Landslide (Spain) by means of three methods: the limit-equilibrium based NEWMARK-Method (1965) in 2D under elasto-perfectly-plastic conditions; finite-difference analysis in the time domain with the code FLAC in 2D and 3D under visco-elasto-perfectly-plastic conditions; and modal recombination analysis in the frequency domain with the finite-element code CESAR-LCPC in 2D and 3D under visco-elastic conditions.Located in a seismically active region, the Diezma Landslide is likely to be affected by earthquakes and was therefore considered as a suitable model case. A broad analysis of expected displacements was conducted using eleven strong-motion seismic scenarios. Moreover, the thesis searches for potential relations between macro-seismic parameters of the applied earthquake scenarios and the predicted deformations obtained from the three methods.It appeared that – due to the functionality of the methods – results differ quantitatively as well as qualitatively, and so does their suitability. Major findings are: (a) Results from the three methods are of different orders of magnitude and, thus, can easily lead to over- or under-estimations of displacements; (b) Both numerical methods reveal a strong influence of the model-geometry on the predicted displacements, whereas a scenario-dependent slope behavior manifested itself only within the finite difference analysis; (c) The switch from 2D to 3D does not necessarily result in a similar performance in each dimension and results must be critically judged before further use; (d) The NEWMARK-Method (1965) has proven itself once more to be appropriate for first slope assessments but not for sophisticated evaluations of ground response to seismic shaking
273

Conception d'une architecture journalisée tolérante aux fautes pour un processeur à pile de données / Design of a fault-tolerant journalized architecture for a stack processor

Amin, Mohsin 09 June 2011 (has links)
Dans cette thèse, nous proposons une nouvelle approche pour la conception d'un processeur tolérant aux fautes. Celle-ci répond à plusieurs objectifs dont celui d'obtenir un niveau de protection élevé contre les erreurs transitoires et un compromis raisonnable entre performances temporelles et coût en surface. Le processeur résultant sera utilisé ultérieurement comme élément constitutif d'un système multiprocesseur sur puce (MPSoC) tolérant aux fautes. Les concepts mis en œuvre pour la tolérance aux fautes reposent sur l'emploi de techniques de détection concurrente d'erreurs et de recouvrement par réexécution. Les éléments centraux de la nouvelle architecture sont, un cœur de processeur à pile de données de type MISC (Minimal Instruction Set Computer) capable d'auto-détection d'erreurs, et un mécanisme matériel de journalisation chargé d'empêcher la propagation d'erreurs vers la mémoire centrale (supposée sûre) et de limiter l'impact du mécanisme de recouvrement sur les performances temporelles. L'approche méthodologique mise en œuvre repose sur la modélisation et la simulation selon différents modes et niveaux d'abstraction, le développement d'outils logiciels dédiées, et le prototypage sur des technologies FPGA. Les résultats, obtenus sans recherche d'optimisation poussée, montrent clairement la pertinence de l'approche proposée, en offrant un bon compromis entre protection et performances. En effet, comme le montrent les multiples campagnes d'injection d'erreurs, le niveau de tolérance au fautes est élevé avec 100% des erreurs simples détectées et recouvrées et environ 60% et 78% des erreurs doubles et triples. Le taux recouvrement reste raisonnable pour des erreurs à multiplicité plus élevée, étant encore de 36% pour des erreurs de multiplicité 8 / In this thesis, we propose a new approach to designing a fault tolerant processor. The methodology is addressing several goals including high level of protection against transient faults along with reasonable performance and area overhead trade-offs. The resulting fault-tolerant processor will be used as a building block in a fault tolerant MPSoC (Multi-Processor System-on-Chip) architecture. The concepts being used to achieve fault tolerance are based on concurrent detection and rollback error recovery techniques. The core elements in this architecture are a stack processor core from the MISC (Minimal Instruction Set Computer) class and a hardware journal in charge of preventing error propagation to the main memory (supposedly dependable) and limiting the impact of the rollback mechanism on time performance. The design methodology relies on modeling at different abstraction levels and simulating modes, developing dedicated software tools, and prototyping on FPGA technology. The results, obtained without seeking a thorough optimization, show clearly the relevance of the proposed approach, offering a good compromise in terms of protection and performance. Indeed, fault tolerance, as revealed by several error injection campaigns, prove to be high with 100% of errors being detected and recovered for single bit error patterns, and about 60% and 78% for double and triple bit error patterns, respectively. Furthermore, recovery rate is still acceptable for larger error patterns, with yet a recovery rate of 36%on 8 bit error patterns
274

Modélisation du système pilote-véhicule dans une tâche de contrôle manuel de fauteuil roulant électrique / Pilot-vehicle model for a manual control of an electrical wheelchair

Meliani, Sidi Mohamed 25 November 2009 (has links)
On se propose dans cette thèse de modéliser le système pilote-véhicule dans une tâche de conduite de fauteuils roulants électriques par des personnes handicapées ayant une déficience motrice sévère. L'objectif est double. Il est tout d'abord descriptif au sens où l'on va chercher à mieux comprendre les spécificités de la commande d'un fauteuil électrique par des personnes handicapés moteurs. Le second objectif est normatif : le modèle pilote-fauteuil doit permettre de définir le mode de comportement optimal de la personne dans une situation de conduite donnée. Ceci induit une méthode d'analyse objective du pilotage de fauteuil. Le premier chapitre, bibliographique, porte sur les modèles pilote-véhicule relatés dans la littérature. Le second chapitre décrit la conception et la validation de notre simulateur de conduite en fauteuil électrique. Le troisième et le quatrième portent sur l'application des modèles Crossover et OPCM. Les résultats obtenus montrent que ces deux modèles ont des domaines d'applicabilité complémentaires dans notre contexte d'étude / In this thesis we propose to model the pilot-vehicle system made up of a person with a severe motor disability and of an electric wheelchair. The first goal is descriptive: we try to better understand the specificities of the control of an electrical wheelchair. The second goal is normative: the pilot-wheelchair model should define the optimal control mode of the wheelchair in a given situation. This should induce an objective analysis method of the piloting of the wheelchair. The first chapter of the report is devoted to a bibliographical study related to the various pilot-vehicle models. The second chapter describes the design and the validation of our wheelchair driving simulator. The third and the fourth chapters relate to the application of the Crossover models and the OPCM model. The results obtained show that these two models have complementary fields of application in our context of study
275

Problèmes d'optimisation de formes par méthodes capacitaires / Shape optimization problems with capacitary measures

Lux-Grenard, Anne 21 October 2009 (has links)
On introduit une nouvelle modélisation du décollement de membrane soumise à une force croissante par rapport au temps, basée sur une évolution quasi-statique, s'appuyant sur la notion de mouvement général minimisant introduit par De Giorgi. Notre modèle utilise les quasi-ouverts et/ou les mesures capacitaires pour représenter l'état de la membrane à un instant t. Dans notre cas, l'évolution de la membrane est régie par un principe énergétique développé par Mielke, qui a été aussi utilisé dans la propagation des fissures introduite Francfort et Marigo. On obtient ainsi une évolution quasi-statique de la membrane représentée comme mesure capacitaire qui, sans être en contradiction avec le modèle mécanique de Andrews et Shillor, met en valeur les phénomènes de relaxation. On effectue ensuite des simulations numériques sur ce modèle, faites à la fois sur la représentation du décollement de membrane par des quasi-ouverts mais aussi par des mesures, et à chaque fois, un algorithme de descente local compatible avec le point de vue des mécaniciens, et un algorithme plus global à stratégie évolutionnaire sont implémentés. Ces simulations mettent en valeur les phénomènes de relaxation aperçus dans l'étude théorique. Enfin, la dernière partie s'intéresse aux résultats d'identification de multi-fissures de G. Alessandrini et A. Diaz Valenzuela et aux points conductifs introduits par Z. Belhachmi et D. Bucur. Le but est d'étendre et d'étudier ce concept sur un matériau non homogène, pour un défaut ayant un nombre infini de composantes connexes de diamètre minoré / This thesis introduces a new model for debonding membranes, subject to a debonding force depending on time. We deal with a quasi-static evolution in the framework of the minimizing movement theory introduced by De Giorgi. This new tool is based on the analysis of the evolution of capacitary measures and shapes. In our case, the evolution process is governed by an energy principle developped by Mielke also used in the crack propagation model of Francfort and Marigo. The membrane, represented by a capacitary measure, is subject to a natural relaxation phenomenon during the evolution, being in accordance with the mechanical model of Andrews and Shillor. The second chapter consists on the numerical analysis of this model, from two points of view : representation of the debonding membranes by quasi-open sets and by capacitary measures, respectively. In each case, local algorithms in agreement with mechanical point of view and evolutionary strategy algorithms which allow to escape from local minimizers are implemented. These computations emphasize the relaxation phenomenon in agreement with the theory. The last part deals with the identification of multi-cracks by electrostatic boundary measurements. We extend uniqueness results of G. Alessandrini and A. Diaz Valenzuela relying on the analysis of the conductive points introduced by Z. Belhachmi and D. Bucur. The goal is to deal with a non homogeneous material and to prove uniqueness (for two boundary measurement of defects detection having an infinite number of connected components of minorated diameter
276

Analyse transverse de risques en radiothérapie : modélisation et évaluation des barrières et des facteurs techniques, humains et organisationnels à l’aide de Réseaux bayésiens / Transversal Risk Analysis in Radiotherapy

Reitz, Alexandre 28 November 2014 (has links)
La radiothérapie est une ressource incontestée dans l'arsenal de traitement du cancer. De par sa spécificité, elle induit des risques pour les patients et pour les professionnels de santé qui imposent qu'elle soit opérée dans un environnement et un cadre maîtrisé et contrôlé. Cependant, de par la multiplicité des intervenants et la complexité de l'organisation médicale mise en place autour du patient, il s'est produit ces dernières années des incidents et des accidents dans le processus de traitement dont les conséquences sont parfois dramatiques. Pour limiter voire supprimer ces évènements, il est indispensable d'aborder la problématique du traitement par radiothérapie sous l'angle de l'analyse des risques de systèmes sociotechniques en intégrant la complexité technique/humain/organisationnelle du processus dans une vue "transverse". La contribution apportée par ce travail se présente sous la forme d’une démarche basée sur des modèles qui permettent d’évaluer, à priori et pour un établissement donné, un indicateur de la sécurité offerte aux patients lors de leur traitement par radiothérapie / Radiotherapy is an uncontested resource in the arsenal of cancer treatment. This technique implies risks for both patients and radiotherapy professionals, which requires it to be carried out in a controlled and monitored environment. However, because of the multiplicity of actors, the complexity of the healthcare organization set up around the patient and the complexity of medical devices, in recent years some incidents and accidents in treatment process appeared, with sometimes tragic consequences. To reduce or eliminate these events, it is essential to address the problem of radiation therapy in terms of risk analysis of socio-technical systems, by including technical / human / organizational complexity in a "transverse" view. The main contribution of this work consists in an approach based on models that assess a priori, for a given radiotherapy process, an indicator of the security provided to patients during their radiotherapy treatment
277

A hybrid power estimation technique to improve high-level power models / Technique hybride d'estimation de puissance pour l’amélioration des modèles de puissance haut-niveau

Nocua Cifuentes, Jorge Alejandro 02 November 2016 (has links)
Une forte consommation d'énergie est un facteur clé impactant les performances des systèmes sur puce (SoC). Des modèles de puissance précis et efficaces doivent être introduits le plus tôt possible dans le flot de conception lorsque la majeure partie du potentiel d'optimisation est possible. Cependant, l'obtention d’une estimation précise ne peut être assurée en raison du manque de connaissance détaillées de la structure du circuit final. La conception actuelle de SoC repose sur la réutilisation de cœur IP (Intelectual Property) car des informations de bas niveau sur les composants du circuit ainsi que la structure sont disponibles. Ainsi, la précision de l'estimation au niveau du système peut être amélioré en utilisant ces informations et en élaborant une méthode d'estimation qui correspond aux besoins de modélisation de puissance des cœurs IP.La principale contribution de cette thèse est le développement d’une technique d'estimation hybride (HPET), dans laquelle les informations provenant de différents niveaux d'abstraction sont utilisées pour évaluer la consommation d'énergie de manière rapide et précise. HPET est basé sur une méthodologie efficace de caractérisation de la bibliothèque technologique et une approche hybride de modélisation de puissance. Les résultats des simulations obtenues avec HPET ont été validés sur différents circuits de référence synthétisés en utilisant la technologie 28nm "Fully Depleted Silicon On Insulator" (FDSOI). Les résultats expérimentaux montrent que nous pouvons atteindre en moyenne jusqu'à 70X d'amélioration en vitesse de calcul tout en ayant une précision au niveau transistor. Pour les deux types puissance analysés (instantanée et moyenne), les résultats de HPET sont bien corrélés par rapport à ceux calculés avec SPECTRE et Primetime-PX. Cela démontre que HPET est une technique efficace pour améliorer la création de macro-modèles de puissance à haut niveau d'abstraction. / High power consumption is a key factor hindering System-on-Chip (SoC) performance. Accurate and efficient power models have to be introduced early in the design flow when most of the optimization potential is possible. However, early accuracy cannot be ensured because of the lack of precise knowledge of the final circuit structure. Current SoC design paradigm relies on IP (Intellectual Property) core reuse since low-level information about circuit components and structure is available. Thus, power estimation accuracy at the system level can be improved by using this information and developing an estimation methodology that fits IP cores power modeling needs.The main contribution of this thesis is the development of a Hybrid Power Estimation Technique (HPET), in which, information coming from different abstraction levels is used to assess the power consumption in a fast and accurate manner. HPET is based on an effective characterization methodology of the technology library and an efficient hybrid power modeling approach. Experimental results, derived using HPET, have been validated on different benchmark circuits synthesized using the 28nm “Fully Depleted Silicon On Insulator” (FDSOI) technology. Experimental results show that in average we can achieve up to 70X speedup while having transistor-level accuracy. For both analyzed power types (instantaneous and average), HPET results are well correlated with respect to the ones computed in SPECTRE and Primetime-PX. This demonstrates that HPET is an effective technique to enhance power macro-modeling creation at high abstraction levels.
278

Electromagnetic scattering problem with higher order impedance boundary conditions and integral methods / Problème de diffusion électromagnétique avec les conditions sur la bord d'impédance ordre élevée et méthodes intégrales

Aubakirov, Abil 09 January 2014 (has links)
L'objectif de cette thèse est de proposer une nouvelle formulation variationnelle du problème de diffusion électromagnétique avec des conditions au bord 'impédance approximatives. On étudie un conducteur parfait recouvert d'une couche mince diélectrique. L'operator d'impedance est approximé par un rapport de polynômes d'opérateurs différentiels, de sorte que les conditions sur la bord sont présentées comme une équation des polynômes. Nous appelons cette condition d'ordre supérieur IBC (HOIBC). Nous proposons la formulation de ce problème, la discrétisation et les résultats numériques dans le cas bidimensionnel. Aussi, nous élaborons la formulation et différentes méthodes de discrétisation pour le cas tridimensionnel. / The main subject of this thesis is to propose a new variational formulation of electromagnetic scattering problem with approximate impedance boundary conditions. We consider a perfect conductor coated with a thin dielectric layer. The impedance operator is approximated as a ratio of polynomials of differential operators, so that the boundary conditions are presented as an equation of these polynomials. We call this condition as higher order IBC (HOIBC). We propose the formulation of the problem, the discretization and the numerical results in two dimensional case. Also we elaborate the formulation and some different methods of discretization for three dimensional case.
279

Approche de méta-modélisation et transformations de modèles dans le contexte de la modélisation et simulation à évènements discrets : application au formalisme DEVS / Meta-modeling approach and model transformations in the context of modeling and discrete event simulation : application DEVS formalism

Garredu, Stéphane 16 July 2013 (has links)
Cette thèse s’inscrit au carrefour du monde de la modélisation et simulation de systèmes d’une part et du monde de l’ingénierie logicielle d’autre part. Elle vise à faire bénéficier un formalisme de spécification de systèmes à évènements discrets (DEVS) des apports de l’ingénierie dirigée par les modèles (IDM) avec l’une de ses incarnations les plus populaires : MDA (Model Driven Architecture). Le formalisme DEVS de par son adaptabilité et son extensibilité permet l’expression et la simulation de modèles dans des domaines très variés, mais l’existence de plusieurs plateformes dédiées à ce langage nuit fortement à l’interopérabilité de ces modèles. Ces difficultés, si elles ne sont pas nouvelles, représentent cependant un défi d’autant plus important que les modèles considérés sont complexes (i.e composés en général de nombreux sous modèles et interagissant fortement entre eux). L’objectif de la thèse est de proposer une réponse à la problématique de l’interopérabilité des modèles DEVS, vis-À-Vis d’autres formalismes voisins de DEVS et également vis-À-Vis des différents simulateurs existants. Le cœur de notre travail est constitué par MetaDEVS, méta-Modèle offrant une représentation des modèles DEVS indépendante des plateformes. MetaDEVS est également le nom donné à l’approche globale qui vise à fournir des passerelles génériques entre différents formalismes et DEVS («Model-To-Model»). Cette approche montre également comment, à partir de modèles DEVS spécifiés selon MetaDEVS, du code orienté-Objet, simulable, peut être automatiquement généré («Model-To-Text»).Les formalismes choisis pour faire l’objet d’une transformation vers DEVS sont BasicDEVS, un petit formalisme pédagogique créé pour l’occasion, ainsi que les automates à états finis (FSM). La plateforme de destination choisie pour la génération de code est la plateforme éducative PyDEVS, compatible avec la plateforme DEVSimPy, utilisée par les chercheurs du projet TIC de l’Università di Corsica. / This thesis takes place at the intersection between the world of modeling and simulation, and the world of software engineering. Its provides a contribution to a discrete-Event specification formalism (DEVS) using techniques of Model-Driven Engineering, with one of its most popular incarnations : MDA (Model Driven Architecture). The DEVS formalism, thanks to its adaptability and its extensibility, is able to express and simulate models in various domains. However, the existence of many dedicated platforms damages the interoperability of those models. Those difficulties, even if they are not new, are a challenge which is all the greater as the studied models are complex (i.e. usually composed of several submodels with a strong interaction).The main purpose of this thesis is to tackle the problem of the DEVS models interoperability, with respect to other formalisms close to DEVS, and also with respect to the different existing simulators. The core of our work is constituted by MetaDEVS, a metamodel that offers a platform-Independent representation of DEVS models. MetaDEVS is also the name given to the global approach which aims to provide generic bridges between different formalisms and DEVS (“Model-To-Model”). This approach also shows how, starting from DEVS models specified with MetaDEVS, object-Oriented code can be automatically generated (“Model-To-Text”).The formalisms chosen to be transformed into DEVS are BasicDEVS, a small pedagogical formalism create for our needs, and the finite state machines (FSM). The chosen target platform for the code generation is the educative framework PyDEVS, compliant with the DEVSimPy framework used by the researchers of the TIC project of the University of Corsica.
280

Analyse et modélisation de l'impact de la météorologie sur le trafic routier / Analysis and modeling of the weather impact on traffic

Billot, Romain 08 December 2010 (has links)
Si la pertinence de la prise en compte de la météorologie dans la gestion du trafic est bien admise, son intégration dans les outils d'aide à la décision et les stratégies de contrôle représente encore un enjeu réel pour les gestionnaires d'infrastructures. En effet, cette avancée semble légitimée par les effets significatifs d'une météorologie dégradée sur la sécurité des usagers et le comportement des conducteurs. Ainsi, au niveau de la sécurité, un sur-risque d'accident a été mis en évidence par de nombreux travaux. Or, l'étiologie de ce risque augmenté ne permet pas seulement de démontrer l'impact d'évènements météorologiques extrêmes et ponctuels (ex : tempêtes de neige), mais égalementcelui de phénomènes récurrents (ex : la pluie). La baisse de la sécurité des conducteurs se traduit concrètement par un changement de comportements des usagers (vitesses, temps inter-véhiculaires) mais aussi du flot de véhicules en général (vitesse, débit, concentration), ceci influant de manière conséquente sur la mobilité. De fait, la pluie représente ainsi la seconde cause de congestion ponctuelle.Pourtant, malgré ces enjeux indéniables, les effets de la météorologie sur le trafic demeurent mal quantifiés et ne sont guère intégrés à la modélisation ou l'estimation du trafic. Ce travail de thèse se propose ainsi de contribuer à une meilleure compréhension des effets météorologiques sur le trafic, en se focalisant sur des phénomènes de précipitations en milieu interurbain. Partant d'un état de l'art de l'impact météorologique sur le trafic, il nous est apparu que les études existantes, par leurs carences, soulèvent le besoin de fonder une méthodologie d'analyse plus rigoureuse. Cette méthodologie, une fois clairement définie, a ensuite été appliquée à des données opérationnelles. Elle nous a permis de quantifier les effets de la pluie à plusieurs niveaux selon l'échelle de représentation abordée : au niveau microscopique, considérant le comportement individuel des conducteurs, les analyses statistiques mettent en lumière des effets sur les vitesses, les temps et les distances inter-véhiculaires. Ces effets se reflètent au niveau macroscopique (celui du flot de véhicules) avec des variations de débits, de vitesses du flot et, de façon générale, de l'ensemble des paramètres formant le diagramme fondamental du trafic. Les résultats empiriques nous semblent ainsi ouvrir la voie à l'intégration du phénomène météorologique à la modélisation du trafic.Partant, nous avons développé, à ce stade de notre travail, une contribution théorique à la modélisation du trafic se fondant sur une formulation Vlasov qui permet de dériver un modèle macroscopique à deux équations à partir d'une formulation cinétique. Le modèle ainsi proposé offre un cadre propice à l'intégration d'un paramètre météorologique. La discrétisation numérique du modèle s'effectue à l'aide d'une méthode à pas fractionnaire qui permet de traiter successivement le terme source et la partie homogène du système. Pour la partie homogène du système, nous avons fait l'usage d'un schéma de type Lagrange+remap. Le comportement du modèle, couplé à une équation de transport sur les temps inter-véhiculaires, a ensuite été illustré à travers une série d'expérimentations numériques qui ont mis en évidence ses aptitudes face à des conditions météorologiques changeantes.Dans un ultime volet, notre travail s'est orienté vers de futures applications en temps réel qui se placeraient dans un cadre bayesien d'assimilation de données. Le défi à relever est celui de l'estimation en ligne du vecteur d'état du trafic au fur et à mesure de l'arrivée de nouvelles observations. Une méthode de filtrage particulaire (Monte Carlo séquentielle) nous a paru judicieuse à mobiliser, car elle s'adapte bien à la problématique du trafic routier. Plusieurs scénarios fondés sur des données opérationnelles permettent ensuite de montrer les bénéfices de l'intégration du phénomène météorologique à de telles approches. Une meilleure connaissance du phénomène météorologique doit ainsi mener à son insertion dans les modèles de trafic qui forment le substrat des outils d'aide à la décision destinés aux gestionnaires.Le travail proposé ouvre donc des perspectives pour le développement de stratégies de gestion de trafic météo-sensibles. / The integration of the weather effects into decision support tools and real time traffic management strategies represents a critical need for all road operators. The motivations are clear because of the significant effects of adverse weather on road safety and drivers' behaviors. At a safety level, the increase of the crash frequency and severity has been highlighted by several studies. This increase of the crash risk does not concern only extreme weather events, such as winter storms, but also recurring events like rain. The changes in drivers' behaviors (decrease of speeds, headways) andtraffic flow dynamics (speed, flow, density) lead to significant consequences from a mobility point of view : thus, rain represents the second largest cause of non recurring congestion (15 \%) after incidents.In spite of this context, the effects of adverse weather on traffic are not well quantified and, above all, not integrated into traffic modelling and estimation. The presented thesis research aims at contributing to a better understanding of the meteorological effects on traffic by focusing on precipitation events at interurban sections. From a literature review of the meteorological impact on traffic, we have underlined a need of a standardized methodology. Such a standardized methodology for the rain impact quantification is proposed and applied to real data. It enables aquantification of the rain effects at different levels, according to the scale of representation : at a microscopic level, the statistical analyses highlight changes in drivers speeds, time headways. Those effects reflect on the macroscopic level of traffic flow with changes in speed, flows, and, in a general way, in all the parameters composing the fundamental diagram of traffic. Hence, the empirical results pave the way for integrating the meteorological phenomenon into traffic modelling.Next, we propose a theoretical contribution to traffic modelling, based on a Vlasov formulation, which enables the derivation of a two equations macroscopic model. The proposed model offers a relevant framework for the integration of a meteorological parameter. Regarding the numerical discretization, we propose a fractionnal step method allowing to deal successively with the source terme and the homogeneous part of the system. We develop a Lagrange+remap scheme for the homogeneous part of the system. The model behaviour is illustrated through several numerical experiments which highlight the model features faced with changing meteorological conditions.In the last chapter, an effort towards future online applications is put forward. Within a Bayesian framework for data assimilation, the goal resides in the online estimation of the traffic state vector given current measurements. Based on real world data, some scenarios show the benefits of the integration of the meteorology into such approaches. Thus, a better knowledge of the weather impact on traffic leads to its integration into traffic models and will enable the improvement of decision support tools for road operators. The proposed work opens perspectives for the development ofweather-responsive traffic management strategies.

Page generated in 0.0841 seconds