Spelling suggestions: "subject:"modèle"" "subject:"modèle.a""
71 |
Modèle d'excellence de l'organisation virtuelle / Virtual Organizations Excellence ModelMazandarani, Bahareh 15 May 2015 (has links)
Une organisation virtuelle (Virtual Organization, VO) est une organisation avec des éléments et des ressources organisationnelle non co-localisés et qui utilise l’espace virtuel pour les interactions entre ses personnels afin d’atteindre les objectifs organisationnels. L’objectif de cette étude est de développer un modèle d’excellence pour les organisations ainsi définies. A cette fin nous avons choisi comme point de départ le modèle de la «fondation européenne pour la gestion de la qualité » (European Foundation for Quality Management, EFQM) qui peut être considéré comme la plus récente expression du TQM, approche dominante de l’excellence. Pour créer un modèle complet, nous avons conçu tout d’abord un modèle conceptuel basé sur le même état d’esprit que l'EFQM. En seconde étape nous déterminons les facteurs, leurs poids et sous-critères. Nous avons développé le modèle d’Excellence pour l’Organisation Virtuelle en tant que feuille de route des VO pour l’excellence et en même temps pour être une aide aux entrepreneurs en vue de mesurer et améliorer la performance de leur entreprise. Ce modèle pourrait également être un outil pour les experts et analystes de cette nouvelle génération d'organisations. La dernière étape détermine les valeurs fondamentales et le cadre de mesure RADAR. / Purpose – Virtual Organization would be any organization with non-co-located organizational entities and resources, using virtual space for interactions between staff to achieve organizational objectives. The purpose of this thesis is to develop an Excellence model for Virtual Organizations. We chose “European foundation for productivity management model (EFQM)” as the latest expression of TQM which is the dominant approach of Excellence. To create a complete model we first designed a conceptual model in the same culture of EFQM. In the second step we determined factors, their weights and sub-criteria. We developed the Virtual Organization Excellence model as a roadmap for Virtual Organizations to move toward excellence and also being an aid for contractors in measuring and improving their business performance. This model also could be a tool for assessor to analyze this new generation of organizations. Last step was determining the fundamental values and RADAR measuring framework. Design/methodology – This study adopted a pluralist approach including, Extensive literature review, Field experiment, in depth interviews and Survey questionnaire to develop the Virtual Organization excellence model. Findings – The criteria and sub-criteria of the Virtual Organization excellence model were confirmed using empirical data, and the fundamental values and criterion weights were suggested. Value of study – As VOs are the future of firms, main benefit of the Virtual Organization excellence model (VOEM) is that it provides a productivity roadmap for a Virtual firms that developed and evaluated by Virtual Organization experts.
|
72 |
Propriétés physico-chimiques, optiques et identification des sources des aérosols en Afrique de l’Ouest / Physico-chemical, optical properties and source apportionment of aerosols in West AfricaRivellini, Laura-Hélèna 12 December 2017 (has links)
Ce travail de thèse a consisté à étudier la nature chimique, les origines, ainsi que les propriétés des aérosols en Afrique de l’Ouest. Nous avons en particulier recherché les liens entre la composition chimique des particules fines en surface et les propriétés optiques des aérosols. Notre étude s’est appuyée sur les mesures effectuées au cours de la campagne de terrain SHADOW sur le site de M’Bour (Sénégal) durant deux périodes d’observations intensives : mars à juin 2015 (POI-1) et novembre 2015 à janvier 2016 (POI-2). Un dispositif instrumental permettant une caractérisation chimique en ligne et à haute résolution temporelle des aérosols submicroniques (TEOM-FDMS, ACSM, aéthalomètre) a été mis en place, en parallèle d’instruments de mesure des propriétés optiques des aérosols en surface (aéthalomètre, néphélomètre) et sur la colonne atmosphérique par télédétection (photomètre, Lidar). Les données météorologiques couplées à différents outils statistiques ont permis de classer les espèces ayant une contribution locale et/ou régionale, et d’identifier les zones sources à l’origine des fortes concentrations. La modélisation sources-récepteur (PMF) a permis une analyse approfondie de la fraction organique des PM1, mettant en évidence une photochimie très active et l’influence d’activités anthropiques spécifiques (incinération de déchets, fumage de poisson). Nous avons pu caractériser, selon la saison, les types d’aérosols contribuant majoritairement à l’extinction des particules fines mesurée en surface à M’Bour, ainsi que mettre en évidence les liens/différences entre mesures de télédétection et propriétés chimiques/optiques des particules fines au cours des deux POI. / The aim of this thesis consists in studying the chemical nature, the origins as well as the optical properties of aerosols in West Africa. We focused on establishing the links between the chemical composition of fine particles at surface and aerosols optical properties. Our study is based on measurements acquired during the SHADOW field campaign, implemented on the M’Bour (Senegal) site during two intensive observation periods: March to June 2015 (IOP-1) and November 2015 to January 2016 (IOP-2). For this purpose, an instrumentation allowing online chemical characterization of surface PM1 (ACSM, TEOM-FDMS, aethalometer), at high time resolution, was implemented in parallel with instruments measuring aerosols optical properties at surface (aethalometer, nephelometer) and along the atmospheric column by remote sensing (Lidar, photometer). The coupling of meteorological data with statistical tools allowed determining the local and/or regional contribution of the different species, and identifying the source areas responsible for the high concentrations observed on site. The source receptor model (PM) allowed to further investigate the submicronic organic fraction, highlighting a fast photochemistry and the influence of specific anthropogenic activities (waste burning, fish smoking). We were also able to characterize, per season, the type of aerosols contributing to the fine particle extinction measured at surface, as well as to show links/differences between remote sensing and surface chemical/optical properties of fines particles during the two IOP.
|
73 |
Paramétrisation de la couche limite atmosphérique convective et représentation du cycle diurne des nuages dans un modèle de climat.Rio, Catherine 21 December 2007 (has links) (PDF)
L'objectif principal de cette thèse est d'améliorer la représentation du cycle diurne des nuages convec- tifs dans les modèles de circulation générale atmosphérique grande-échelle. La sous-estimation des nuages bas, le déclenchement prématuré des précipitations convectives ainsi que leur arrêt prématuré en fin de journée sont des biais communs à la plupart des modèles de climat. L'amélioration de ces dif- férents aspects passe notamment par une représentation plus réaliste des mouvements convectifs de la couche limite atmosphérique. Pour cela, les processus en jeu dans la turbulence de couche limite, la convection sèche et nuageuse, peu profonde et profonde, sont d'abord étudiés à l'aide d'observations et de simulations haute résolution. Cela permet d'établir les hypothèses à la base de la paramétrisation que l'on souhaite développer. Pour essayer de prendre en compte toutes les échelles de turbulence observées dans la couche limite convec- tive, on combine à un schéma diffusif classique une paramétrisation en flux de masse représentant les structures cohérentes de la couche limite : le modèle du thermique nuageux. Le schéma est principale- ment testé dans une version unicolonne du modèle LMDZ, développé au Laboratoire de Météorologie Dynamique, sur des cas particuliers de convection continentale, sèche et nuageuse, peu profonde et pro- fonde, et évalué à partir d'observations et de simulations haute résolution. La représentation explicite d'un panache ascendant entraînant et détraînant, ainsi que d'une subsidence compensatoire dans l'en- vironnement, permet d'améliorer le cycle diurne de la couche limite et des cumulus qui se forment par beau temps. Cette meilleure représentation des nuages de couche limite a par ailleurs des répercussions sur le cycle diurne de la convection plus profonde associée aux orages et prise en compte par une para- métrisation indépendante. Le contrôle du déclenchement et de l'intensité de la convection profonde par les processus dits sous-jacents, de couche limite d'une part et liés à la formation de poches froides sous le système convectif précipitant d'autre part, permet de retarder le déclenchement des précipitations de plusieurs heures et de les maintenir plus tard dans la soirée. Enfin, les développements effectués sont adaptés à la représentation de la convection induite par les feux de biomasse dans les Tropiques. Initialisé par les caractéristiques des feux dans ces régions, le modèle du thermique nuageux devient celui du pyro-thermique nuageux, avec des panaches qui restent confinés dans la couche limite mais peuvent aussi percer jusqu'à la moyenne troposphère. Les différentes paramétrisations évoquées sont destinées à faire partie de la nouvelle version 3D de LMDZ, en vue des simulations climatiques à effectuer dans le cadre du prochain rapport du Groupe d'experts Intergouvernemental sur l'Evolution du Climat (GIEC).
|
74 |
Prévision de série issue de l'agrégation contemporaine : comparaison entre l'approche agrégée et désagrégéeMarcil, Philippe January 2007 (has links) (PDF)
Nous étudions la différence des erreurs de prévisions entre une représentation agrégée et
désagrégée lorsque l'on s'intéresse à la prévision de la série agrégée. Pour ce faire, nous développons un modèle théorique qui étudie les erreurs de prévisions d'une représentation agrégée et désagrégée en unissant les théories de différents auteurs dans un même cadre analytique. Le modèle que nous avons développé démontre que la présence de racine commune est essentielle, mais est une condition non suffisante pour que le modèle agrégé ait une erreur de prévision plus faible que le modèle désagrégé. De plus, les simulations démontrent que la présence de racines communes aide à faire diminuer l'écart des erreurs de prévisions entre une représentation agrégée et désagrégée.
|
75 |
Évaluation de l'impact de la méthode d'assimilation utilisée sur la phase de démarrage d'un modèle atmosphériqueChikhar, Kamel 12 1900 (has links) (PDF)
Des lacunes dans la représentation des processus physiques par un modèle atmosphérique peuvent avoir un impact sur le réalisme du climat simulé ainsi que sur sa variabilité. Il a été observé assez souvent que les climats simulés par les modèles diffèrent largement de celui réellement observé dû à la présence de biais. La qualité de la représentation des processus physiques peut être évaluée par l'équilibre entre ces processus dans les premiers instants d'une intégration utilisant comme conditions initiales une analyse. Cette dernière est réputée bien équilibrée car représentant l'état réel de l'atmosphère. Des déséquilibres entre ces processus sont un signe de défaillances du modèle quant à leur représentation. Des diagnostics sont donc nécessaires pour vérifier si les ajustements dans les paramétrisations des différents processus physiques et dynamiques tendent vers un état de l'atmosphère proche des observations. Les diagnostics utilisés sont ceux proposés par Rodwell et Palmer (2007). Ils sont basés sur les tendances systématiques initiales d'un modèle lorsque des analyses sont utilisées comme conditions initiales. Ces tendances déterminées pour les premiers instants de l'intégration sont équivalentes à l'incrément d'analyse moyen obtenu par un ensemble de cycles d'assimilation. Ce dernier, moyenné temporellement devrait être nul. Par conséquent, ces diagnostics peuvent apporter des informations très utiles sur la cohérence des processus physiques pendant que le modèle tend à retourner vers sa propre climatologie lors des premiers instants de l'intégration. D'autre part, il est bien connu que les analyses, elles-mêmes, engendrent des problèmes de spin-up et requièrent entre autres l'utilisation d'une initialisation aux modes normaux ou l'application d'un filtre digital pour supprimer les ondes de gravité artificielles. Dans leur étude, Gauthier et Thépaut (2001) ont montré que les analyses 4D-Var produisent des conditions initiales mieux équilibrées et ne nécessitent pas l'application de contraintes pour maintenir cet équilibre. Dans cette étude, en utilisant un modèle global très similaire à celui utilisé pour produire les analyses, il a été montré que la différence de l'impact sur les diagnostics des tendances initiales était significative dans les tropiques selon qu'on utilise des analyses 3D-Var ou 4D-Var. Cet impact est surtout observé dans l'activité convective de la zone de convergence inter-tropicale (ZCIT). On notera qu'une analyse vise à se rapprocher des observations sous la contrainte de demeurer près d'une ébauche obtenue d'une prévision à courte échéance produite par un modèle de prévision numérique. Ce dernier constitue une composante primordiale dans le système d'assimilation. D'autres expériences utilisant des systèmes d'assimilation différents ont montré, à travers ces diagnostics, que le modèle était très sensible aux conditions initiales utilisées. Finalement, ces diagnostics ont été évalués pour le modèle régional canadien du climat (MRCC) intégré sur la région de l'Amérique du nord avec les mêmes paramétrages que ceux utilisés dans le modèle global. Ces intégrations sont effectuées en utilisant des conditions initiales et aux bords provenant de deux systèmes d'assimilation différents. Les résultats ont montré de nettes différences indiquant que le modèle est mieux équilibré lorsque l'analyse et les conditions aux bords proviennent du système d'assimilation dans lequel le modèle utilisé est similaire à celui employé dans l'intégration.
______________________________________________________________________________
|
76 |
Le choix d'un système de régulation dans les services publics : le cas de l'eau au Liban / Water public utility dynamics of regulation : water case study in LebanonHamamy, Ghalia 07 April 2010 (has links)
Les pays réforment leurs services publics de l’eau en introduisant un nouveau système de régulation, soit la gestion intégrée des ressources en eau gire par le haut (centralisation) ou par le bas (décentralisation) ou intermédiaire. Quelle est la dynamique derrière ce choix ?On étudiera les apports de la religion, du droit, de l’économie, de la science politique et de la gestion à la régulation qu’elle combine avec les apports des théories du courant néo-institutionnel et de la bureaucratie pour créer ses outils comme la yardstick competition, la ring fencing competition et la price-cap regulation.Seront ensuite étudiés le service public, la public utility et le service universel et les spécificités de l’eau, du gaz, de l’électricité et des télécommunications pour mettre en relief les caractéristiques du service de l’eau.Pour déceler la politique du choix d’un système de régulation dans le service public de l’eau, on adoptera une étude quantitative basée sur les grounded theories et sur la narration analytique. Appliquée à l’étude de cas approfondie du service public de l’eau dans deux pays à modèles de référence, dans six pays à modèles hybrides et à deux modèles hybrides de référence, on aura un modèle qualitatif avec des core et des ancillary dynamics. Les techniques quantitatives confirmeront/infirmeront cette dynamique. Un questionnaire sera testé sur une banque de données sur le service public de l’eau dans 106 pays et un modèle quantitatif en ressort.Enfin, la comparaison des deux modèles qualitatif et quantitatif produira le modèle final de la dynamique du choix d’un système de régulation dans le service public de l’eau qui sera argumenté théoriquement. / Countries are reforming their water public utilities in order to introduce a new regulatory system called Integrated Water Resources Management (IWRM). IWRM may be centralized, decentralized or in-between. What is the dynamic behind this rationale?We will examine the contributions of religion, law, economics, political science and management to regulation. These contributions shall be combined with those of neo-institutional and bureaucracy theories in order to create some regulatory tools such as yardstick competition, ring fencing competition and price-cap regulation.We will also study public service, public utility and universal service. We will also examine water, gas, electricity and telecommunications characteristics in order to highlight the water utility specificities.We will use grounded theories and analytic narrative elements in studying in-depth the water public utility regulation in two countries with reference models, in six countries with hybrid models and two international reference hybrid models. A qualitative model with core and ancillary dynamics will be sketched.Quantitative techniques will confirm/infirm this dynamic through a questionnaire that will be tested on a database consisting of 106 countries in order to produce a quantitative model of this dynamic.Finally, the qualitative and quantitative models will be compared in order to produce a final model of water public utility dynamics of regulation which will be theoretically discussed.
|
77 |
Optimisation combinatoire pour la sélection de variables en régression en grande dimension : application en génétique animale / Combinatorial optimization for variable selection in high dimensional regression : application in animal geneticHamon, Julie 26 November 2013 (has links)
Le développement des technologies de séquençage et de génotypage haut-débit permet de mesurer, pour un individu, une grande quantité d’information génomique.L’objectif de ce travail est, dans le cadre de la sélection génomique animale,de sélectionner un sous-ensemble de marqueurs génétiques pertinents permettant de prédire un caractère quantitatif, dans un contexte où le nombre d’animaux génotypés est largement inférieur au nombre de marqueurs étudiées.Ce manuscrit présente un état de l’art des méthodes actuelles permettant de répondre à la problématique. Nous proposons ensuite de répondre à notre problématique de sélection de variables en régression en grande dimension en combinant approches d’optimisation combinatoire et modèles statistiques. Nous commençons par paramétrer expérimentalement deux méthodes d’optimisation combinatoire, la recherche locale itérée et l’algorithme génétique, combinées avec une régression linéaire multiple et nous évaluons leur pertinence. Dans le contexte de la génomique animale les relations familiales entre animaux sont connues et peuvent constituer une information importante. Notre approche étant flexible, nous proposons une adaptation permettant de prendre en considération ces relations familiales via l’utilisation d’un modèle mixte. Le problème du sur-apprentissage étant particulièrement présent sur nos données dû au déséquilibre important entre le nombre de variables étudiées et le nombre d’animaux disponibles, nous proposons également une amélioration de notre approche permettant de diminuer ce sur-apprentissage.Les différentes approches proposées sont validées sur des données de la littérature ainsi que sur des données réelles de Gènes Diffusion. / Advances in high-throughput sequencing and genotyping technologies allow tomeasure large amounts of genomic information.The aim of this work is dedicated to the animal genomic selection is to select asubset of relevant genetic markers to predict a quantitative trait, in a context wherethe number of genotyped animals is widely lower than the number of markersstudied. This thesis introduces a state-of-the-art of existing methods to address the problem.We then suggest to deal with the variable selection in high dimensional regressionproblem combining combinatorial optimization methods and statistical models.We start by experimentally set two combinatorial optimization methods, theiterated local search and the genetic algorithm, combined with a linear multipleregression and we evaluate their relevance. In the context of animal genomic, familyrelationships between animals are known and can be an important information.As our approach is flexible we suggest an adaptation to consider these familialrelationships through the use of a mixed model. Moreover, the problem of overfittingis particularly present in such data due to the large imbalance between thenumber of variables studied and the number of animals available, so we suggest animprovement of our approach in order to reduce this over-fitting.The different suggested approaches are validated on data from the literature as wellas on real data of Gènes Diffusion.
|
78 |
Transistor bipolaire à double hétérojonction submicronique InP/InGaAs pour circuits numériques ou mixtes ultra-rapides / InP/InGaAs double heterojunction bipolar transistor for high-speed digital and mixed-signal circuitsNodjiadjim, Virginie 08 April 2009 (has links)
Cette thèse présente l'optimisation des performances du transistor bipolaire à double hétérojonction (TBDH) InP/InGaAs aux dimensions submicroniques. Tout d'abord nous présenterons le développement d'un modèle analytique tenant compte des spécificités du dessin et de la technologie de ce composant. Ce modèle, qui sera confronté aux résultats de mesures de paramètre S, servira à déterminer les dimensions optimales permettant d'atteindre des fréquences de coupure élevées et de mettre en évidence les principaux axes d'optimisation des performances. Puis nous étudierons plusieurs structures de couche pour la transition base collecteur visant à améliorer les propriétés de transport du TBH et repousser la densité de courant au seuil d'effet Kirk en vue d'augmenter les performances fréquentielles maximales du composant. Enfin, étant donné que les TBH fonctionnent à des densités de courant pouvant dépasser 800 kA/cm², ceux-ci sont sujets à un auto-échauffement qui contribue à la dégradation de leurs performances fréquentielles et à un vieillissement prématuré. Nous nous intéresserons donc à l'influence de la température sur les performances et présenterons les solutions apportées pour réduire l'auto-échauffement et améliorer la fiabilité des TBH. Ce travail a permis de valider une filière de TBH possédant des fréquences de coupure fT et fmax comprises dans la gamme 250-300 GHz ainsi qu'une tension de claquage de l'ordre de 5 V. Ainsi, ces composants ont pu être utilisés pour la réalisation de circuits destinés aux transmissions à 100 Gbit/s. / This thesis is about the performance optimization of InP/InGaAs Double Heterojunction Bipolar Transistors (DHBT) with sub-micrometer dimensions. The development of an analytical model taking into account the specific features of the device in terms of geometry and process is first reported. This model, backed by results from S parameters measurements, is used to define a device geometry leading to high cut-off frequencies; it also helps identifying the main directions for further performance improvement. Several epi-layer structures for the base-collector junction are then investigated, aiming at improving the HBT transport properties and at pushing toward higher current densities the onset of Kirk effect. Since HBTs are operating at current densities as high as 800 kA/cm2 and beyond, they are sensitive to self-heating; this feature results in reduced frequency performance and faster characteristics degradation. This is why the impact of temperature on transistor performance is analyzed and ways to limit HBTs self-heating phenomena and to improve their reliability are indicated. This work allowed the validation of an HBT process characterized by cut-off frequencies in the 250-300 GHz range for both fT and fmax, together with a breakdown voltage of about 5 V. Such HBTs have been used in the fabrication of ICs for 100 Gbit/s transmission applications.
|
79 |
Advanced constitutive relations for modeling thermo-viscoplastic behaviour of metallic alloys subjected to impact loading / Comportement thermo-viscoplastique des alliages métalliques chargés sous impactRodriguez Martinez, José Antonio 19 February 2010 (has links)
Dans cette thèse certains problèmes liés au comportement thermo-viscoplastiques des alliages métalliques sont analysés. Ainsi, la réponse des métaux pour un large spectre de vitesses de déformation et en températures a été étudiée. Ceci est d'un intérêt majeur dans de nombreuses applications industrielles. L'optimisation des matériaux dans le but de supporter de plus en plus de sollicitations extrêmes est un problème très actuel. Au niveau modélisation la validation du modèle Rusineck-Klepaczko (RK) a été étendu à différents alliages sans dépendance avec la déformation plastique dans la définition du volume thermiquement activé. De plus, une extension du modèle MRK a été faite dans le but de décrire le comportement des matériaux présentant une dépendance en déformation dans la description de la sensibilité à la vitesse de déformation. Ce modèle a été utilisé pour décrire les matériaux avec une sensibilité négative à la vitesse de déformation et présentant un fort effet du drainage visqueux. En complément une loi de comportement a été développée pour décrire le comportement des matériaux avec une transformation de phase de type martensitique. Ces lois de comportement ont été implémentées dans un code éléments finis. Grâce à ces outils des études précises et fines ont été menées au niveau des instabilités thermo-viscoplastiques notamment sous chargement dynamique. Deux études particulières ont été faites, l'une sur le processus d'expansion des anneaux et une seconde sur la traction dynamique. Une étude complète a été menée sur le couplage entre la plasticité locale et le phénomène lié à la propagation des ondes élastiques générées par l'impact du chargement. En complément des essais 3D de type perforation ont été réalisés dans le but de valider les approches analytiques. Divers matériaux ont été utilisés comme : l'acier ES, un alliage d'aluminium 2024-T3, un acier AISI304 et un acier de type TRIP 1000. L'ensemble des matériaux ayant été caractérisé au préalable via des essais simples. Le but de ces études de perforation étant d'étudier leur réponse sous impact dynamique et de valider les outils analytiques et numériques / In this doctoral Thesis the thermo-viscoplastic behaviour of metallic alloys used for structural protection purposes has been analyzed. The study includes the proposition of advanced constitutive relations and their integration into numerical models. These numerical models are validated for impact problems within the low-intermediate range of impact velocities (until 85 m/s). The advanced constitutive relations derived are based on the Rusinek-Klepaczko model whose validity is extended to metallic alloys showing dependence on plastic strain on the volume thermally activated. In addition the constitutive relations developped allow describing macroscopically viscous drag effects at high strain rates, negative strain rate sensitivity and martensitic transformation phenomena. Implementation of previous constitutive relations has been conducted into the FE code ABAQUS/Explicit. Thus, development of numerical models for the simulation of ring expansion test and conventional dynamic tension test has allowed analyzing the formation of plastic instabilities. In this analysis the effects of strain rate sensitivity, strain hardening and plastic wave propagation have been considered. Finally, it has been examined the impact behaviour of metallic alloys widely used for structural protection purposes: the mild steel ES, the aluminium alloy 2024-T3, the steel AISI 304 and the steel TRIP 1000. For that goal conventional characterization tests as well as impact tests have been conducted. Numerical models based on the constitutive relations derived have been developped in order to simulate the impact tests. These numerical models offered a suitable description of the perforation process in terms of ballistic limit and the associated failure mode of the target
|
80 |
Analyse du discours narratif chez les personnes âgées normalesDuong, Anh January 1999 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
Page generated in 0.1579 seconds