• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 124
  • 52
  • 46
  • Tagged with
  • 224
  • 224
  • 197
  • 177
  • 177
  • 175
  • 173
  • 72
  • 59
  • 41
  • 40
  • 40
  • 33
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Simulation Physique Interactive pour la Synthèse d'Images

Faure, François 25 November 2008 (has links) (PDF)
Nous nous intéressons aux simulations mécaniques pour des applications de synthèse d'images, particulièrement en temps réel, comme les jeux vidéos ou les simulateurs d'apprentissage de gestes techniques. La simulation physique interactive a fait des progrès remarquables ces dernières années, mais n'a pas encore atteint un niveau de maturité suffisant pour être applicable par des non-spécialistes à une grande variété de modèles. Nous présentons ici des contributions permettant de lever un certain nombre de verrous technologiques. La modélisation d'objets souples repose généralement sur une décomposition en cellules déformables. Nous avons proposé des éléments finis tétraédriques rapides et robustes, et généralisé à des grilles hexaédriques simplifiant grandement les problèmes de maillage et de contrôle de la résolution. La détection et la réponse aux collisions posent des problèmes géométriquement complexes et mécaniquement discontinus, qui causent bien souvent les principaux goulots d'étranglement des simulations. Nous avons proposé des solutions au problème du contrôle du temps de calcul, de la diversité des modèles géométriques des surfaces de contact, ainsi que de la robustesse des réponses et de leur calcul accéléré sur GPU. Une grande attention a été portée aux architectures logicielles permettant d'accroître la modularité et les performances des simulateurs. Nous avons proposé un graphe de scène mécanique permettant de hiérarchiser les modèles et décomposer les algorithmes en modules indépendants. Noua avons également exploré la distribution des simulations sur architectures parallèles, rendue nécessaire par l'évolution des matériels.
22

Modélisation statistique et probabiliste du TEMPS INTER-VEHICULAIRE aux différents niveaux de trafic

Ha, Duy-H 01 May 2011 (has links) (PDF)
Le Temps Inter-véhiculaire (TIV) est une variable microscopique fondamentale dans la théorie du trafic, et a été étudié depuis le début du développement de cette théorie, vers 1930. La distribution de probabilité du TIV décrit la répartition des arrivées des véhicules en un point donné et reflète dans une certaine mesure le comportement de conduite. Beaucoup d'applications en ingénierie du trafic viennent de la connaissance fine de cette variable. La thèse a pour but d'approfondir cette connaissance en modélisant la distribution du TIV dans différents contextes selon différents points de vue. Tout d'abord, deux méthodes d'échantillonnage, la méthode de groupement et la méthode de raffinement sont considérées. L'application numérique concerne deux bases de données, celle de la route nationale RN118 et celle de l'autoroute A6. Ensuite, trois types de modèles probabilistes sont analysés et classifiés. Une comparaison exhaustive des modèles et des méthodes d'estimation est réalisée ce qui conduit à considérer que le modèle gamma-GQM est supérieur aux autres modèles en matière de performance statistique et en efficacité de calcul. Une procédure d'estimation est proposée qui favorise la stabilité des paramètres estimés. Six nouveaux modèles de TIV sont proposés, calibrés, analysés. Mis à part deux modèles de performance inférieure aux autres et au modèle gamma-GQM, quatre modèles sont équivalents voire meilleurs que le modèle gamma-GQM. Pour une raison pratique, le modèle Double Gamma est choisi à côté du modèle gamma-GQM, comme modèle de comparaison, dans toute la modélisation des TIV. Le calibrage des modèles et l'analyse des paramètres des modèles sont menés, à partir des données réelles, en considérant trois dimensions d'étude du trafic : les échelles macroscopique, mésoscopique et microscopique. Une quatrième dimension d'étude des TIV est constituée des facteurs exogènes au trafic. La prise en compte de ces facteurs exogènes, à chaque échelle macroscopique entraîne la distinction de deux types de facteur exogène : 'empêchant' et 'impulsif'. Finalement, différentes approches de validation sont testées. L'approche proposée par 'enveloppe des distributions' semble prometteuse pour le futur.
23

Modélisation de la fiabilité et de la maintenance par modèles graphiques probabilistes : application à la prévention des ruptures de rail

Donat, Roland 30 November 2009 (has links) (PDF)
Les réseaux ferroviaires sont sujets à des dégradations de leur voie qui impactent directement le service offert aux voyageurs. Des politiques de maintenance sont donc déployées pour en limiter les effets sur la qualité et la disponibilité du réseau. Ce mémoire propose une modélisation générique de ces politiques reposant sur la fiabilité, et ce à partir du seul formalisme des réseaux bayésiens (RB). La fiabilité du système est caractérisée par un RB dynamique particulier tenant compte des temps de séjour dans chacun de ses états (hypothèse semi-markovienne). Les outils de diagnostics et les actions et les actions de maintenance sont également modélisés, autorisant la description fine de stratégies complexes. La prise en compte de l'utilité de chaque attribut du modèle (disponibilité/sécurité/coût) permet l'évaluation des politiques de maintenance innovantes en particulier prévisionnelles. La méthodologie est appliquée au cas précis du réseau RER de la RATP relativement au problème du rail cassé.
24

Analyse et adaptation de maillage pour des schémas non-oscillatoires d'ordre élevé

Carabias, Alexandre 12 December 2013 (has links) (PDF)
Cette thèse contribue à un ensemble de travaux consacrés à l'étude d'un schéma ENO centré-sommet (CENO) d'ordre élevé ainsi qu'à l'adaptation de maillage anisotrope pour des calculs de Mécaniques des Fluides précis à l'ordre 3. La première partie des travaux de cette thèse est consacré à une analyse approfondie de la précision du schéma CENO et à la création de termes correcteurs pour améliorer ses propriétés dispersives et dissipatives en une et deux dimensions. On propose un schéma CENO quadratique précis à l'ordre 3, puis cubique précis à l'ordre 4, pour les équations d'Euler des gaz compressibles, ainsi qu' une première version du schéma avec capture de choc monotone. La deuxième partie des travaux est consacrée à la mise au point d'une plateforme numérique d'adaptation de maillage anisotrope multi-échelle et basée fonctionnelle intégrant le schéma CENO. Nous proposons un nouvel estimateur d'ordre 3 du schéma quadratique basé sur une reconstruction de hessien équivalent et son application à des simulations d'acoustiques instationnaire et de Scramjet stationnaire utilisant nos limiteurs.
25

Modélisation et simulation de l’interdépendance entre l’objet, l’observateur et le modèle de l’objet dans la Triade de Minsky. Application à la surveillance épidémiologique en santé animale. / Modelling and simulation of interdependence between the object, the observer and the model of the object in the triad of Minsky. Application to animal health surveillance.

Bonte, Bruno 16 December 2011 (has links)
On ne peut pas reproduire l'expérience d'une épidémie à l'échelle d'un pays ou d'une région. Or, en l'absence d'expérience reproductible, la notion usuelle de « validation » de modèle qui consiste à tester si le modèle A* d'un système A permet de reproduire le comportement de A, n'a aucun sens statistique.Marvin Minsky donne la définition suivante de ce qu'est un modèle: Pour un observateur B, un objet A* est un modèle d'un objet A s'il permet à B de répondre à une question qu'il se pose sur A. Nous appelons triade de Minsky, l'ensemble des trois objets A, B et A*. Nous proposons d'utiliser la Théorie de la Modélisation et de la Simulation (TMS) pour modéliser et simuler la triade de Minsky. Cela nous permet de modéliser la triade vue comme un système dynamique composée des objets A, B et A*. Nous pouvons ainsi nous interroger sur l'utilisation d'un modèle A* par un utilisateur B et sur l'impact que cette utilisation a sur la trajectoire du système A.Nous appliquons ce cadre à une triade de Minsky empruntée à notre contexte d'étude. Il s'agit d'un cas d'école où une épidémie (l'objet A) est observée et contrôlée par un système de surveillance et de contrôle (l'observateur B) et où un modèle épidémiologique (A*) est utilisé pour évaluer les mesures de contrôle. / The spread of a disease at national or international scale isn't a reproducible experiment. If experiment is not reproducible, the usual concept of model validation has no statistical meaning because it would involve the comparison between model behaviour and system behaviour.We use Marvin Minsky's definition of model: « to an observer B, an object A* is a model of an object A to the extent that B can use A* to answer questions that interest him about A ». The tree objects A, B and A* are the triad of Minsky. We propose to use the Theory of Modelling and Simulation (TMS) to model and simulate the triad seen as a dynamic system composed of the objects A, B and A*. We hence can answer questions about the use of A* and the impact it has on A.We apply this framework to a triad of Minsky in epidemiological surveillance in animal health. An epidemics (object A) is observed and controlled by a surveillance system and a control system (observer B) and an epidemiological model (model A*) is used to evaluate the control measures.
26

Modélisation et simulation des systèmes de production de services : application à un système de sante / Modeling and simulation of systems of services production : application on a healthcare system

Sbayou, Mariem 18 December 2018 (has links)
La croissance rapide du secteur des services est une tendance remarquable dans le monde entier. La complexité de conceptualisation des services est souvent liée à leur modélisation, leur conception, et la gestion des interactions possibles entre le client et le fournisseur. Parmi ces services, les services de santé constituent un des services publics fondamentaux de la société et de l'économie moderne. Les grands défis que doit relever ce secteur concernent sa gouvernance, la coordination et l’accessibilité aux soins. Cette dernière peut être liée à une répartition géographique déséquilibrée des médecins et des temps d’attente souvent élevés. Dans ce contexte, une approche basée sur la Modélisation et la Simulation, en tenant en compte de l’hétérogénéité possible des environnements, est proposée pour analyser les problèmes de gestion d’un territoire de service. Cette approche permet une vision globale du fonctionnement du système de service étudié, en tenant compte des facteurs impactant à la fois le choix des usagers des services et le processus de production du service. / The rapid growth of the services sector, especially modern services, is a remarkable trend around the world. The complexity of conceptualizing services is often related to their modeling, their design, and the management of possible interactions between the customer and the provider. One of the fundamental public services is health services, the major challenges faced by health services are: governance, coordination and accessibility to care. The accessibility of care is usually linked to an unbalanced geographic distribution of doctors and a high waiting time. In this context, an approach based on Modeling and Simulation taking into account the possible heterogeneity of modeling environments is proposed in order to analyze the problems related to the management of a service territory. This approach aims to give a global vision of the functioning of the service system studied, by taking into account the related factors impacting both the choice of service users and the process of service production.
27

Architectures collaboratives pour l'aide à la décision dans les entreprises en réseau

Ouzrout, Yacine 21 March 2012 (has links) (PDF)
Les travaux de recherche présentés dans mon mémoire d'HDR s'articulent autour de la problématique de la collaboration et de la prise de décision dans les entreprises en réseau, dans des contextes de chaînes logistiques et d'analyse du cycle de vie des produits. Ces travaux ont débuté sur la thématique des modèles informatiques pour la prise de décision dans les systèmes de production. Après avoir étudié les différentes méthodes de modélisation d'entreprise ainsi que les approches liées au pilotage dans les entreprises industrielles, nous avons proposé un modèle de simulation des processus industriels permettant de coupler un simulateur a événement discret, dédié à l'analyse des flux physiques, à un modèle de simulation décisionnel et organisationnel à base d'Agents cognitifs. Nous avons par la suite abordé la problématique de la prise de décision et montré que l'efficacité de la décision dépend de sa capacité à exploiter des mécanismes d'apprentissage comparables à ceux utilisés par l'homme ; pour cela nous avons proposé une évolution du modèle de simulation en intégrant dans les agents logiciels des mécanismes de raisonnement et d'apprentissage (raisonnement à base de cas). Après cette phase d'étude des organisations et des processus intra-entreprise, ces architectures ont ensuite été enrichies de manière à intégrer des problématiques liées à la dimension collaborative dans le cadre des entreprises en réseau et des chaînes logistiques. Pour cela, nous avons proposé des modèles de simulation multi-agents afin de modéliser et de simuler les comportements des acteurs décisionnels dans le cadre des processus collaboratifs, et en particulier, le lien entre collaboration et partage d'information et l'amélioration des performances locale (à chaque entreprise) et globale (à l'ensemble de la chaîne logistique). En parallèle des travaux menés sur la modélisation et la simulation des processus décisionnels dans les entreprises en réseau, il est vite apparu la nécessité d'approfondir les problématiques liées aux systèmes d'information et à la gestion des connaissances. En effet, les processus décisionnels dans des contextes collaboratifs nécessitent un alignement des systèmes d'information aux différents processus organisationnels. Les principaux systèmes d'information existants, par exemple les ERP, ou les systèmes PLM pour la gestion du cycle de vie des produits, ont pour objectif principal d'organiser, de stocker, et de restituer les informations liées aux processus et aux produits dans les différentes phases de leurs cycles de vie (de la conception au recyclage, en passant par les phases de fabrication, de stockage, de maintenance, de distribution,...). Nous avons donc traité de certaines problématiques posées par cet alignement, et en particulier l'intégration des systèmes d'information, l'interopérabilité des systèmes, et la gestion des connaissances. L'évolution de mes préoccupations peut ainsi s'analyser selon quatre phases successives, qui correspondent à un élargissement progressif des problématiques traitées : de la modélisation et la prise de décision dans les systèmes de production, vers la modélisation et la simulation des processus collaboratifs dans les chaînes logistiques et les entreprises en réseau, puis l'intégration par les systèmes d'informations des processus PLM et Supply Chain, et enfin le développement d'architectures et de solutions distribuées pour le partage et l'échange d'information et de connaissances tout au long du cycle de vie des produits. Ces travaux de recherches se sont développés selon trois principaux axes scientifiques : a. Conception de modèles de simulation et d'aide à la décision pour l'étude de la dynamique des systèmes complexes et l'évaluation des performances : modèles formels de décision multicritères, décision collective et distribuée,... b. Intégration des systèmes d'information et mise en place d'architectures et de référentiels techniques pour la gestion et le suivi des données : approches par les modèles, MDA, interopérabilité... c. Développement de systèmes de gestion des connaissances (méthodes hybrides d'ingénierie des connaissances, modèles pour la capitalisation et la réutilisation des connaissances, formalisme de modélisation de la coopération/négociation entre acteurs dans les systèmes distribués... Ces trois dimensions convergent en fait vers un paradigme plus large pour l'aide à la décision dans le cadre des entreprises en réseau : le paradigme de l'entreprise cognitive et collaborative. Ce paradigme place au cœur de la performance des entreprises la nécessité de mettre en œuvre des modes d'organisation réactifs et des modes de collaboration et de synchronisation des systèmes d'information leur permettant de s'intégrer à des chaînes logistiques en fonction des besoins, ou de participer à des projets de développement de produit, et de mettre en place des partenariats et des échanges de manière efficace et facilement reconfigurable. Ceci rejoint les préoccupations actuelles sur les principes d'agilité des entreprises, d'urbanisation des systèmes d'information, et de cloud computing par exemple. Dans ce contexte, et en synthèse de ce mémoire, nous proposerons des pistes de réflexion et des perspectives de recherche issues de ces axes scientifiques, dont les orientations principales sont : vers la définition de modèles cognitifs d'aide à la décision pour les entreprises en réseau, basés sur la simulation et l'optimisation, et intégrant des notions de durabilité des systèmes et des produits et de capitalisation des connaissances à long terme.
28

Prédiction de performances d'applications de calcul haute performance sur réseau Infiniband

Vienne, Jérôme 01 July 2010 (has links) (PDF)
Afin de pouvoir répondre au mieux aux différents appels d'offres, les constructeurs de grappe de calcul ont besoin d'outils et de méthodes permettant d'aider au mieux la prise de décisions en terme de design architectural. Nos travaux se sont donc intéressés à l'estimation des temps de calcul et à l'étude de la congestion sur le réseau InfiniBand. Ces deux problèmes sont souvent abordés de manière globale. Néanmoins, une approche globale ne permet pas de comprendre les raisons des pertes de performance liées aux choix architecturaux. Notre approche s'est donc orientée vers une étude plus fine. Pour évaluer les temps de calcul, la démarche proposée s'appuie sur une analyse statique ou semistatique du code source afin de le découper en blocs, avant d'effectuer un micro-benchmarking de ces blocs sur l'architecture cible. Pour l'estimation des temps de communication, un modèle de répartition de bande passante pour le réseau InfiniBand a été développé, permettant ainsi de prédire l'impact lié aux communications concurrentes. Ce modèle a ensuite été intégré dans un simulateur pour être validé sur un ensemble de graphes de communication synthétiques et sur l'application Socorro.
29

Le développement de LiDAR satellitaire multifonctions. Analyse exploratoire du potentiel de capteurs LiDAR pour le suivi altimétrique et bathymétrique des surfaces en eau continentales et côtières

Abdallah, H. 14 September 2012 (has links) (PDF)
Disposer de données précises, spatialisées et actualisées sur les niveaux et les profondeurs des eaux côtières ou continentales est nécessaire pour assurer et anticiper une meilleure gestion des eaux littorales et continentales. Parmi les techniques de télédétection de suivi de la bathymétrie et d'altimétrie des eaux, le LIDAR apparaît, de par son potentiel de précision, de résolution et de répétitivité spatiale des mesures, comme une technique adaptée et prometteuse, déjà éprouvée sur des plateformes aéroportées. L'objectif de cette thèse est d'évaluer le potentiel du transfert de la technologie LiDAR sur satellite pour estimer l'altimétrie et la bathymétrie des eaux de surfaces continentales et côtières. Une approche expérimentale basée sur des données LiDAR réelles, puis une approche théorique basée sur des formes d'onde LiDAR simulées ont été utilisées pour explorer les performances de capteurs LiDAR satellitaires. Dans une première partie, la qualité des données altimétriques du capteur LiDAR satellitaire GLAS/ICESat fut évaluée pour le suivi de l'altimétrie de plans d'eau. La méthode d'évaluation développée repose sur la prise en compte des phénomènes d'autocorrélation des mesures successives lors des comparaisons de l'élévation GLAS/ICESat avec les niveaux d'eau mesurés aux stations hydrométriques. Les précisions estimées sont de l'ordre de 12 cm. Dans une seconde partie, un modèle de simulation des trains d'ondes LiDAR a été développé. La confrontation des simulations issues du modèle par comparaison à des trains d'ondes observés par des capteurs satellitaires et aéroportés a été effectuée. Dans une dernière partie, les performances de deux configurations de potentiels capteurs LiDAR spatiaux émettant dans l'UV (355 nm) ou dans le vert (532 nm) ont été évaluées à partir des formes d'ondes simulées suivant des distributions globales des différents paramètres de l'eau assumées comme représentatives à l'échelle mondiale et pour quatre types d'eaux différents. Une analyse de sensibilité a été effectuée pour identifier et ordonner les paramètres environnementaux qui influent le plus sur l'écho LiDAR du fond de l'eau, signal déterminant dans la faisabilité de la mesure bathymétrique. Ensuite, les probabilités de mesure de la bathymétrie ainsi la précision sur l'estimation de la bathymétrie ont été calculées suivant un plan d'expérience qui respecte les distributions globales des paramètres d'eau. Cette thèse propose une méthodologie globale, point de départ pour explorer les performances globales et les facteurs limitant de futurs capteurs LiDAR satellitaires dédiés totalement ou partiellement à l'altimétrie et la bathymétrie des eaux côtières et continentales.
30

Dispersion atmosphérique et modélisation inverse pour la reconstruction de sources accidentelles de polluants

Winiarek, Victor 04 March 2014 (has links) (PDF)
Les circonstances pouvant conduire à un rejet incontrôlé de polluants dans l'atmosphère sont variées : il peut s'agir de situations accidentelles, par exemples des fuites ou explosions sur un site industriel, ou encore de menaces terroristes : bombe sale, bombe biologique, notamment en milieu urbain. Face à de telles situations, les objectifs des autorités sont multiples : prévoir les zones impactées à court terme, notamment pour évacuer les populations concernées ; localiser la source pour pouvoir intervenir directement sur celle-ci ; enfin déterminer les zones polluées à plus long terme, par exemple par le dépôt de polluants persistants, et soumises à restriction de résidence ou d'utilisation agricole. Pour atteindre ces objectifs, des modèles numériques peuvent être utilisés pour modéliser la dispersion atmosphérique des polluants. Après avoir rappelé les processus physiques qui régissent le transport de polluants dans l'atmosphère, nous présenterons les différents modèles à disposition. Le choix de l'un ou l'autre de ces modèles dépend de l'échelle d'étude et du niveau de détails (topographiques notamment) désiré. Différentes méthodes de modélisation inverse pour reconstruire des sources accidentelles sont ensuite présentées, de même que des méthodes d'estimations des erreurs a priori, auxquelles les résultats de l'inversion sont particulièrement sensibles. Plusieurs cas d'application, en utilisant des données synthétiques et des données réelles, sont proposés, notamment l'estimation de termes sources consécutifs à l'accident de Fukushima en mars 2011. Par nos méthodes, nous avons estimé que les rejets de césium-137 se situent en 12 et 19 PBq, avec une incertitude comprise en 15 et 65%, et que les rejets d'iode-131 se situent entre 190 et 380 PBq avec une incertitude comprise entre 5 et 10%. En ce qui concerne la localisation d'une source inconnue, deux stratégies sont envisageables : les méthodes dites paramétriques et les méthodes non-paramétriques. Les méthodes paramétriques s'appuient sur le caractère particulier des situations accidentelles dans lesquelles les émissions de polluants sont généralement d'étendue limitée. La source à reconstruire est alors paramétrisée et le problème inverse consiste à estimer ces paramètres, en nombre réduit. Dans les méthodes non-paramétriques, aucune hypothèse sur la nature de la source (ponctuelle, localisée, ...) n'est réalisée et le système cherche à reconstruire un champs d'émission complet (en 4 dimensions). Plusieurs méthodes sont proposées et testées sur des situations réelles à l'échelle urbaine avec prise en compte des bâtiments, pour lesquelles les méthodes que nous proposons parviennent à localiser la source avec une erreur moyenne de 20m (soit 10% de la taille du domaine d'étude), suivant les situations modélisées et les méthodes inverses utilisées.

Page generated in 0.1704 seconds