• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 9
  • Tagged with
  • 27
  • 27
  • 17
  • 10
  • 6
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et optimisation d'un centre d'appels téléphoniques : étude du processus d'arrivée

Channouf, Nabil January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
2

Approche pseudo-génétique pour la simulation stochastique de la géométrie 3D de réseaux fracturés et karstiques / Genetic-like approach for 3D stochastic modeling of fractrue and karst networks

Henrion, Vincent 11 July 2011 (has links)
Les réseaux de fractures et les karsts constituent des discontinuités au sein de la roche qui affectent considérablement les écoulements de fluides, ce qui engendre des problèmes spécifiques dans divers domaines des géosciences. La problématique générale consiste à déterminer les caractéristiques géométriques et hydrauliques des réseaux de fractures ou de karsts. La caractérisation et la modélisation de ces structures se heurtent cependant à leur complexité géométrique et à leur distribution spatiale hétérogène. De plus, les observations et données directes concernant aussi bien les fractures et karsts que leur encaissant rocheux restent largement insuffisantes pour décrire avec certitudes leurs caractéristiques. Pour ces raisons, la modélisation de réseaux de fractures ou de karsts est le plus souvent réalisée dans un cadre probabiliste. Des simulations stochastiques de type objet ou pixel sont généralement mise en œuvre pour générer des modèles 3D de fractures ou karsts. Cependant les mécanismes sur lesquels repose ce type d'approche ne permet pas de reproduire toutes la complexité de ces objets naturels et fournit des modèles manquant de réalisme géologique.Dans ces travaux de thèse, nous proposons d'aborder la problématique de la modélisation des fractures et des karsts suivant une approche pseudo-génétique. Il s'agit de contraindre le processus de simulation stochastique de fractures et karsts par des règles géométriques et heuristiques qui imitent les processus physiques gouvernant leur formation. Deux méthodes poursuivant cet objectif ont été développées, l'une adressant la simulation des fractures et la seconde celle des karsts. Les modèles ainsi générés exposent des caractéristiques similaires à celles des réseaux de fractures et karsts naturels. / Fractures and karstic networks are known to significantly affect flow paths and therefore raise specific issues in a wide variety of geoscience fields. The common question beyond these problems isto determine whether there is a network of fractures and/or karstic conduits and if yes what are itsgeometrical and hydraulic characteristics. Characterization and modeling of these features is a challenge for it usually displays complex geometries and heterogeneous spatial distribution. Moreover, in most cases, neither fracture and karst nor their host environment can be observed or described with certainty at all scales and location of relevance. For these reasons, fractures and karstic networks are usually integrated into 3D geological model through a probabilistic framework. Stochastic object- or pixel-based simulations are commonly performed to generate 3D models of fractures and karst but failed to reproduce the whole complexity of these natural objects and 3D models often lack geological realism.To address the issues related to fracture and karst modeling, we present two genetic-like approaches. The motivation of this work is to constrain the stochastic simulation of fractures and karsts by geometrical and heuristic rules which mimic the physical processes governing their formation. The resulting fracture and karst models display similar characteristics as those of natural pattern.
3

Identification d'un modèle de comportement thermique de bâtiment à partir de sa courbe de charge

Zayane, Chadia 11 January 2011 (has links) (PDF)
Dans un contexte de préoccupation accrue d'économie d'énergie, l'intérêt que présente le développement de stratégies visant à minimiser la consommation d'un bâtiment n'est plus à démontrer. Que ces stratégies consistent à recommander l'isolation des parois, à améliorer la gestion du chauffage ou à préconiser certains comportements de l'usager, une démarche préalable d'identification du comportement thermique de bâtiment s'avère inévitable.<br/>Contrairement aux études existantes, la démarche menée ici ne nécessite pas d'instrumentation du bâtiment. De même, nous considérons des bâtiments en occupation normale, en présence de régulateur de chauffage : inconnue supplémentaire du problème. Ainsi, nous identifions un système global du bâtiment muni de son régulateur à partir de :<br/>données de la station Météo France la plus proche ; la température de consigne reconstruite par connaissance sectorielle ; la consommation de chauffage obtenue par système de Gestion Technique du Bâtiment ou par compteur intelligent ; autres apports calorifiques (éclairage, présence de personnes...) estimés par connaissance sectorielle et thermique. L'identification est d'abord faite par estimation des paramètres (7) définissant le modèle global, en minimisant l'erreur de prédiction à un pas. Ensuite nous avons adopté une démarche d'inversion bayésienne, dont le résultat est une simulation des distributions a posteriori des paramètres et de la température intérieure du bâtiment.<br/>L'analyse des simulations stochastiques obtenues vise à étudier l'apport de connaissances supplémentaires du problème (valeurs typiques des paramètres) et à démontrer les limites des hypothèses de modélisation dans certains cas.
4

Contrainte des modèles génétiques de réservoirs par une approche de reconnaissance statistique de forme

Chugunova, Tatiana 07 April 2008 (has links) (PDF)
L'objet de cette thèse est la modélisation de l'hétérogénéité souterraine. Pour ce faire, nous avons adapté l'approche de simulation multipoints (MP) qui reproduit et conditionne des formes géométriques complexes fournies par des modèles génétiques non conditionnels. Initialement, l'approche MP n'était applicable que moyennant l'hypothèse d'une certaine stationnarité spatiale de l'hétérogénéité. Pour étendre l'approche MP au cas non stationnaire, deux algorithmes ont paru dans la littérature : le modèle Tau et l'algorithme de classement. Les deux révèlent des artefacts géométriques sans pour autant restituer les contraintes non stationnaires. Dans ce travail, nous avons proposé un nouvel algorithme de simulation MP non stationnaire. Il évite des inconvénients des algorithmes existants et intègre des contraintes spatiales continues. Les résultats expérimentaux montrent aussi que notre algorithme a un domaine d'applicabilité bien plus vaste que ceux existants.
5

Modélisation et optimisation d'un centre d'appels téléphoniques : étude du processus d'arrivée

Channouf, Nabil January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
6

Stochastic simulation of near-surface atmospheric forcings for distributed hydrology / Simulation stochastique des forçages atmosphériques utiles aux modèles hydrologiques spatialisés

Chen, Sheng 01 February 2018 (has links)
Ce travail de thèse propose de nouveaux concepts et outils pour des activités de simulation stochastique du temps ciblant les besoins spécifiques de l'hydrologie. Nous avons utilisé une zone climatique contrastée dans le sud-est de la France, les Cévennes-Vivarais, qui est très attractive pour les aléas hydrologiques et les changements climatiques.Notre point de vue est que les caractéristiques physiques (humidité du sol, débit) liées aux préoccupations quotidiennes sont directement liées à la variabilité atmosphérique à l'échelle des bassins. Pour la modélisation de multi-variable, la covariabilité avec les précipitations est d'abord considérée.La première étape du thèse est dédiée à la prise en compte de l'hétérogénéité de la précipitation au sein du simulateur de pluie SAMPO [Leblois et Creutin, 2013]. Nous regroupons les pas de temps dans les types de pluie qui sont organisés dans le temps. Deux approches sont testées pour la simulation: un modèle semi-markovienne et un modèle de ré-échantillonnage pour la séquence des types de pluie historiques. Grâce au regroupement, toutes sortes de précipitations sont desservies par un type de pluie spécifique. Dans une zone plus vaste, où l'hypothèse d'homogénéité climatique n'est plus valide, une coordination doit être introduite entre les séquences de types de pluie sur les sous-zones délimitées, en formant à plus grande échelle.Nous avons d'abord étudié une coordination de modèle de Markov, en appliquant des durées de séjour observées par un algorithme glouton. Cet approche respecte les accumulations de longue durée et la variabilité interannuelle, mais les valeurs extrêmes de précipitation sont trop faibles. En revanche, le ré-échantillonnage est plus facile à mettre en œuvre et donne un comportement satisfaisant pour la variabilité à court terme. Cependant, il manque une variabilité inter-annuelle. Les deux accès souffrent de la délimitation stricte des zones homogènes et des types de précipitations homogènes.Pour ces raisons, une approche complètement différente est également envisagée, où les pluies totales sont modélisées conjointement en utilisant la copule, puis désagrégés sur la petite échelle en utilisant une simulation conditionnelle géostatistique.Enfin, la technique de la copule est utilisée pour relier les autres variables météorologiques (température, rayonnement solaire, humidité, vitesse du vent) aux précipitations. Puisque la modélisation multivariée vise à être pilotée par la simulation des précipitations, la copule doit être exécutée en mode conditionnel. La boîte à outils réalisée a déjà été utilisée dans des explorations scientifiques, elle est maintenant disponible pour tester aux applications réelles. En tant qu'approche pilotée par les données, elle est également adaptable à d'autres conditions climatiques. / This PhD work proposes new concepts and tools for stochastic weather simulation activities targeting the specific needs of hydrology. We used, as a demonstration, a climatically contrasted area in the South-East of France, Cévennes-Vivarais, which is highly attractive to hydrological hazards and climate change.Our perspective is that physical features (soil moisture, discharge) relevant to everyday concerns (water resources assessment and/or hydrological hazard) are directly linked to the atmospheric variability at the basins scale, meaning firstly that relevant time and space scales ranges must be respected in the rainfall simulation technique. Since hydrological purposes are the target, other near-surface variates must be also considered. They may exhibit a less striking variability, but it does exist. To build the multi-variable modeling, co-variability with rainfall is first considered.The first step of the PhD work is dedicated to take into account the heterogeneity of the precipitation within the rainfall simulator SAMPO [Leblois and Creutin, 2013]. We cluster time steps into rainfall types organized in time. Two approaches are tested for simulation: a semi-Markov simulation and a resampling of the historical rainfall types sequence. Thanks to clustering, all kind of rainfall is served by some specific rainfall type. In a larger area, where the assumption of climatic homogeneity is not considered valid, a coordination must be introduced between the rainfall type sequences over delineated sub-areas, forming rainy patterns at the larger scale.We first investigated a coordination of Markov models, enforcing observed lengths-of-stay by a greedy algorithm. This approach respects long duration aggregates and inter-annual variability, but the high values of rainfall are too low. As contrast, the joint resampling of historically observed sequences is easier to implement and gives a satisfactory behavior for short term variability. However it lacks inter-annual variability.Both approaches suffer from the strict delineation of homogeneous zones and homogeneous rainfall types.For these reasons, a completely different approach is also considered, where the areal rainfall totals are jointly modeled using a spatio-temporal copula approach, then disaggregated to the user grid using a non-deterministic, geostatistically-based conditional simulation technique. In the copula approach, the well-known problem of rainfall having atom at zero is handled in replacing historical rainfall by an appropriated atmospheric based rainfall index having a continuous distribution. Simulated values of this index can be turned to rainfall by quantile-quantile mapping.Finally, the copula technique is used to link other meteorological variables (i.e. temperature, solar radiation, humidity, wind speed) to rainfall. Since the multivariate simulation aims to be driven by the rainfall simulation, the copula needs to be run in conditional mode. The achieved toolbox has already been used in scientific explorations, it is now available for testing in real-size application. As a data-driven approach, it is also adaptable to other climatic conditions. The presence of atmospheric precursors a large scale values in some key steps may enable the simulation tools to be converted into a climate simulation disaggregation.
7

Contribution à la quantification des programmes de maintenance complexes

Ruin, Thomas 09 December 2013 (has links) (PDF)
Face aux nouveaux cadres législatifs ou environnementaux dans lesquels ils doivent évoluer, les systèmes industriels actuels sont, en plus d'être contraints par des exigences classiques de productivité et de cout, sujets au respect de nouvelles exigences relatives à la sûreté, la sécurité ou au développement durable notamment. Pour répondre à ces exigences et améliorer la maitrise des performances de ses systèmes, EDF souhaite faire évoluer sa démarche d'Optimisation de la Maintenance Basée sur la Fiabilité vers une nouvelle méthode. Cette méthode nécessite en autre la proposition d'une approche outillée permettant de quantifier a priori les programmes de maintenance (CMPQ) sur ses systèmes par rapport aux indicateurs de performance attendus (KPIs). Cet outillage fait l'objet de cette thèse financée dans le cadre du GIS 3SGS - projet DEPRADEM 2. Après avoir généralisé les besoins d'EDF en regard de la CMPQ, nous proposons une identification de la connaissance générique nécessaire pour évaluer les KPI. Afin d'aboutir à un outil permettant l'automatisation de ces études de CMPQ, cette connaissance générique est ensuite modélisée sur la base de deux langages : le langage semi-formel SysML capitalisant, par l'intermédiaire de différents diagrammes, la connaissance statique, interactionnelle et comportementale ; et le langage AltaRicaDF, supportant un modèle dynamique permettant d'évaluer les KPIs par simulation stochastique. La création de ce modèle dynamique à partir des différents diagrammes est basée sur un mapping entre les concepts d'intérêt des deux langages. La démarche dans sa globalité est validée à la CMPQ d'un cas d'étude fourni par EDF : le système ARE.
8

On computer-aided design-space exploration for multi-cores / Exploration de l'espace de design assistée par ordinateur pour les systèmes multi-coeurs

Kempf, Jean-Francois 29 October 2012 (has links)
La complexité croissante des systèmes embarqués nécessite des formalismes de modélisation qui peuvent être simulés et analysés pour explorer l'espace des alternatives de conception. Cette thèse décrit le développement d'un formalisme de modélisation et des outils pour l'exploration de l'espace de design au plus tôt dans le flot de conception. Nous étendons le model-checking classique au pire cas pour les automates temporisés à l'analyse stochastique basée sur un raffinement des intervalles d'incertitude temporelle par des distributions sur les délais. D'une part, nous introduisons le formalisme des Duration Probabilistic Automata (DPA) à partir duquel nous pouvons réaliser de l'analyse ainsi que de l'optimisation. D'autre part nous présentons DESPEX (Design Space Explorer), un outil d'évaluation de performance de modèles de haut niveau des applications qui s'exécutent sur les plates-formes multi-coeurs. Nous montrons également son utilisation sur plusieurs cas d'étude. / The growing complexity of embedded systems calls for modeling formalisms that can be simulated and analyzed to explore the space of design alternatives. This thesis describes the development of a modeling formalism and tools for design space exploration at early design stage.We extend the classical worst-case model checking for timed automata to stochastic analysis based on a refinement of temporal uncertainty intervals into delay distribution. On one hand we introduce the formalism of Duration Probabilistic Automata (DPA) supporting analysis as well as optimization. On the other hand we provide DESPEX (DEsign SPace EXplorer), a tool for performance evaluation of high-level models of applications running on multi-core platforms. We also show its usage on several case studies.
9

Introduction de pièces déformables dans l’analyse de tolérances géométriques de mécanismes hyperstatiques / Introduction of flexible parts in tolerance analysis of over-constrained mechanisms

Gouyou, Doriane 04 December 2018 (has links)
Les mécanismes hyperstatiques sont souvent utilisés dans l’industrie pour garantir une bonne tenue mécanique du système et une bonne robustesse aux écarts de fabrication des surfaces. Même si ces assemblages sont très courants, les méthodologies d’analyse de tolérances de ces mécanismes sont difficiles à mettre en oeuvre.En fonction de ses écarts de fabrication, un assemblage hyperstatique peut soit présenter des interférences de montage, soit être assemblé avec jeu. Dans ces travaux de thèse, nous avons appliqué la méthode des polytopes afin de détecter les interférences de montage. Pour un assemblage donné, le polytope résultant du mécanisme est calculé. Si ce polytope est non vide, l’assemblage ne présente pas d’interférence. Si ce polytope est vide, l’assemblage présente des interférences de montage. En fonction du résultat obtenu, deux méthodes d’analyse distinctes sont proposées.Si l’assemblage est réalisable sans interférence le polytope résultant du mécanisme permet de conclure sur sa conformité au regard de l’exigence fonctionnelle. Si l’assemblage présente des interférences de montage, une analyse prenant en compte la raideur des pièces est réalisée. Cette approche est basée sur une réduction de modèle avec des super-éléments. Elle permet de déterminer rapidement l’état d’équilibre du système après assemblage. Un effort de montage est ensuite estimé à partir de ces résultats pour conclure sur la faisabilité de l’assemblage. Si l’assemblage est déclaré réalisable, la propagation des déformations dans les pièces est caractérisée pour vérifier la conformité du système au regard de l’exigence fonctionnelle.La rapidité de mise en oeuvre de ces calculs nous permet de réaliser des analyses de tolérances statistiques par tirage de Monte Carlo pour estimer les probabilités de montage et de respect d’une Condition Fonctionnelle. / Over-constrained mechanisms are often used in industries to ensure a good mechanical strength and a good robustness to manufacturing deviations of parts. The tolerance analysis of such assemblies is difficult to implement.Indeed, depending on the geometrical deviations of parts, over-constrained mechanisms can have assembly interferences. In this work, we used the polytope method to check whether the assembly has interferences or not. For each assembly, the resulting polytope of the mechanism is computed. If it is non empty, the assembly can be performed without interference. If not, there is interferences in the assembly. According to the result, two different methods can be implemented.For an assembly without interference, the resulting polytope enables to check directly its compliance. For an assembly with interferences, a study taking into account the stiffness of the parts is undertaken. This approach uses a model reduction with super elements. It enables to compute quickly the assembly with deformation. Then, an assembly load is computed to conclude on its feasibility. Finally, the spreading of deformation through the parts is calculated to check the compliance of the mechanism.The short computational time enables to perform stochastic tolerance analyses in order to provide the rates of compliant assemblies.
10

Compositional and kinetic modeling of bio-oil from fast pyrolysis from lignocellulosic biomass / Modélisation compositionnelle et cinétique des bio-huiles de pyrolyse rapide issues de la biomasse lignocellulosique

Costa da Cruz, Ana Rita 25 January 2019 (has links)
La pyrolyse rapide est une des voies de conversion thermochimique qui permet la transformation de biomasse lignocellulosique en bio-huiles. Ces bio-huiles, différentes des coupes lourdes du pétrole ne peuvent pas être directement mélangés dans les procédés de valorisation. En effet, en raison de leur forte teneur en oxygène, les bio-huiles nécessitent une étape de pré-raffinage, telle que l’hydrotraitement, pour éliminer ces composants.L’objectif de ce travail est de comprendre la structure, la composition et la réactivité de la bio-huile grâce à la modélisation de données expérimentales. Pour comprendre leur structure et leur composition, des techniques de reconstruction moléculaire basées sur des données analytiques, ont été appliquées, générant un mélange synthétique, dont les propriétés correspondent à celles du mélange. Pour comprendre leur réactivité, l'hydrotraitement de molécules modèles a été étudié: gaïacol et furfural. Pour cela, un modèle déterministe et stochastique a été créé pour chacun d’eux. L’approche déterministe visait à récupérer une gamme de paramètres cinétiques, qui ont ensuite été affinés par l’approche stochastique créant un nouveau modèle. Cette approche a permis de générer un réseau de réactions en définissant et en utilisant un nombre limité de familles et règles des réactions. Finalement, le mélange synthétique a été utilisé dans la simulation stochastique de l’hydrotraitement de la bio-huile, étayée par la cinétique des molécules modèles.En conclusion, ce travail a permis de recréer la fraction légère de la bio-huile et de simuler leur l'hydrotraitement, via les paramètres cinétiques des composés modèles, qui prédisent de manière raisonnable les effluents de l'hydrotraitement de celles-ci, mais sont inadéquat pour le bio-huile / Fast pyrolysis is one of the thermochemical conversion routes that enable the transformation of solid lignocellulosic biomass into liquid bio-oils. These complex mixtures are different from oil fractions and cannot be directly integrated into existing petroleum upgrading facilities. Indeed, because of their high levels of oxygen compounds, bio-oils require a dedicated pre-refining step, such as hydrotreating, to remove these components.The aim of the present work is to understand the structure, composition and reactivity of bio-oil compounds through modeling of experimental data. To understand the structure and composition, molecular reconstruction techniques, based on analytical data, were applied generating a synthetic mixture, whose properties are consistent with the mixture properties. To understand the reactivity, the hydrotreating of two model molecules was studied: Guaiacol and Furfural. A deterministic and stochastic model were created for each compounds. The deterministic approach intended to retrieve a range of kinetic parameters, later on refined by the stochastic simulation approach into a new model. This approach generates an reaction network by defining and using a limited number of reaction classes and reaction rules. To consolidate the work, the synthetic mixture was used in the stochastic simulation of the hydrotreating of bio-oils, supported by the kinetics of the model compounds.In sum, the present work was able to recreate the light fraction of bio-oil and simulate the hydrotreating of bio-oils, via the kinetic parameters of model compounds, which can reasonably predict the effluents of the hydrotreating of these, but are unsuitable for bio-oil.Fast pyrolysis is one of the thermochemical conversion routes that enable the transformation of solid lignocellulosic biomass into liquid bio-oils. These complex mixtures are different from oil fractions and cannot be directly integrated into existing petroleum upgrading facilities. Indeed, because of their high levels of oxygen compounds, bio-oils require a dedicated pre-refining step, such as hydrotreating, to remove these components.The aim of the present work is to understand the structure, composition and reactivity of bio-oil compounds through modeling of experimental data. To understand the structure and composition, molecular reconstruction techniques, based on analytical data, were applied generating a synthetic mixture, whose properties are consistent with the mixture properties. To understand the reactivity, the hydrotreating of two model molecules was studied: Guaiacol and Furfural. A deterministic and stochastic model were created for each compounds. The deterministic approach intended to retrieve a range of kinetic parameters, later on refined by the stochastic simulation approach into a new model. This approach generates an reaction network by defining and using a limited number of reaction classes and reaction rules. To consolidate the work, the synthetic mixture was used in the stochastic simulation of the hydrotreating of bio-oils, supported by the kinetics of the model compounds.In sum, the present work was able to recreate the light fraction of bio-oil and simulate the hydrotreating of bio-oils, via the kinetic parameters of model compounds, which can reasonably predict the effluents of the hydrotreating of these, but are unsuitable for bio-oil

Page generated in 0.4874 seconds