• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 6
  • 4
  • 1
  • Tagged with
  • 36
  • 19
  • 11
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Militaires canadiens de retour de mission : une analyse qualitative secondaire de l'adaptation au stress opérationnel

Martineau, Yves January 2016 (has links)
Une analyse secondaire de données qualitatives collectées en 2010-11 provenant de témoignages de militaires canadiens en postdéploiement de mission en Afghanistan (opération Athéna) a été réalisée afin d’explorer comment ceux-ci s’adaptent au stress opérationnel. Le cadre conceptuel est fondé sur le modèle transactionnel du stress et de l’adaptation de Lazarus et Folkman (1984). L’étude tient donc compte des valeurs, objectifs et engagements de vie, incluant ceux de la mission opérationnelle, des composantes peu étudiées du sens global. L’étude porte sur le stress opérationnel caractérisant les combats de faible intensité qui demeure potentiellement dangereux et assez typique des missions contemporaines. Les données ont été examinées selon la méthode d’analyse qualitative de Miles et Huberman (2003) afin de dégager les stratégies utilisées par les militaires pour s’adapter à des situations opérationnelles stressantes spécifiques. Les participants sont des militaires canadiens francophones qui reviennent de mission en Afghanistan et dont près des trois-quarts ont participé à plusieurs missions. Les résultats montrent qu’ils sont motivés et fiers de leurs compétences professionnelles. La participation à une mission représente pour eux l’aboutissement de leur entrainement et elle légitimise leur carrière ainsi qu’une opportunité d’influer activement sur le cours des événements. Ils utilisent principalement des stratégies de résolution de problèmes variées comme planifier, agir sur le problème, référer à des procédures et à l’entrainement reçu, ainsi que s’adapter sur le plan interculturel. Cette dernière stratégie peut aussi être considérée comme une stratégie de soutien social instrumental améliorant l’appréciation tactique des situations sur le terrain par le développement d’un réseau social secondaire auprès de la population-hôte. Le détachement est aussi une stratégie importante facilitant la centration sur la tâche, en particulier dans des tâches risquées comme le déminage. Le contrôle de soi, notamment sur le plan cognitif, est aussi utilisé, mais se présente comme une stratégie plus coûteuse en énergie sur le plan attentionnel. Les participants utilisent la réévaluation positive et le détachement pour gérer les pertes et les préoccupations ainsi que le soutien social et l’assistance au coping (donner du soutien social) entre eux et à leurs proches autant sur le plan instrumental qu’émotionnel. Ils utilisent peu la confrontation et la fuite-évitement. Dans l’ensemble, les stratégies centrées sur l’émotion sont utilisées au service de la tâche. Les résultats sont discutés en mettant en perspective la résilience dans le contexte de performance caractérisant les fonctions militaires opérationnelles et l’apport des études portant sur le stress dans les sports de haut niveau. Cette analyse montre que la dichotomie entre les stratégies centrées sur le problème et celles centrées sur l’émotion ne rend pas adéquatement compte de la nature du processus d’adaptation et qu’il faut étudier les stratégies dans le contexte d’événements spécifiques et du sens qu’ils prennent pour l’individu. Cette étude montre aussi que l’analyse qualitative secondaire peut maximiser et étendre les résultats des recherches qualitatives primaires.
2

La mobilité d'achat des particuliers : analyse systémique et éléments de modélisation désagrégée : application à la région Ile-de-France / Shopping mobility : systemic analysis and disaggregate modelling

Garcia Castello, Felipe José 08 June 2010 (has links)
Cette thèse a proposé quelques développements pour améliorer la modélisation appliquée de la mobilité liée à l'activité d'achat de la population d'une agglomération. Pour ce faire, nous nous sommes appuyés sur un schéma de principe du processus de caractérisation de cette mobilité. Dans ce schéma nous avons considéré que cette mobilité est définie au sein d'un ménage en répondant à quatre questions posées simultanément (qui ?, où ?, comment ? et quoi ?). La première partie de cette thèse porte sur les aspects tant qualitatifs que quantitatifs qui doivent apparaître dans le schéma ; la deuxième, sur les outils de modélisation théorique et opérationnelle ; la troisième, sur la construction du schéma proprement dit ; et la quatrième, sur l'utilisation appliquée d'un outil déjà existant. Les contributions principales de notre thèse consistent en l'utilisation d'une approche systémique pour décrire cette mobilité et l'utilisation de techniques peu utilisées actuellement en France / This thesis has aimed to enhance some aspects of the modelling of shopping trips in an urban area. We have used a block diagram to represent the mechanisms used to define this mobility and we have focused on some sides of this problem in a disaggregated approach. In our diagram we have supposed that shopping trips are defined in a household by answering four simultaneous questions (who?, where?, how? and what?). We have started by studying the qualitative and quantitative elements which must appear in our block diagram and we have continued by the study of the existing theoretical and applied modelling tools. We could then build our block diagram, and we have finished by using an existing modelling tool. The main contributions of our work are the use of a systemic approach for the description of this mobility and the use of techniques not common in France
3

Management du cycle de vie du client: proposition d'un modèle conceptuel d'évaluation de l'utilisation des logiciels CRM

Coovi, Byblice 01 December 2010 (has links) (PDF)
La gestion de la relation client a représenté la préoccupation majeure des entreprises et des chercheurs ces dernières années. Selon les auteurs marketing, la notion de CRM (customer relationship management) se retrouve être la solution efficace pour la gestion de la relation client. Néanmoins, plusieurs publications et études relatives à la performance de ces logiciels ont donné des résultats contradictoires. C'est dans ce contexte de résultats paradoxaux que nous avons entrepris cette recherche afin d'évaluer l'impact de l'utilisation de ces logiciels sur l'entreprise. En essayant de dépasser certaines lacunes et manquement constatés dans la littérature aussi bien académique que managériale, un modèle conceptuel de type causal a été élaboré. Ce modèle est basé sur différentes théories relatives d'une part, à l'utilisation des capacités des logiciels CRM et d'autre part, à l'approche marketing du CRM. Après avoir contrôlé les effets du secteur d'activité, de la taille et de l'expérience des entreprises en matière d'utilisation des logiciels CRM, nous avons testé ce modèle sur un échantillon 82 entreprises ayant développés toutes les fonctionnalités des logiciels CRM. Les résultats ont montré la pertinence du modèle proposé avec 74 % de la variance totale de la performance du cycle de vie du client. La recherche a montré que l'utilisation des logiciels CRM sur cette population d'entreprises est centrée d'une part sur la valorisation des données analytiques et d'autre part sur la collaboration entre services de l'entreprise dans l'utilisation de ces données. La prise en compte de la notion du cycle de vie du client peut constituer une limite pour cette recherche mais elle montre la voie pour de futures recherches.
4

An innovative operational management method for process excellence in global operations and in the production of composite materials throughout the aeronautics supply chain / Une méthode opérationnelle et innovante vers l'excellence des procédés pour la production de matériaux composites utilisés dans l'aéronautique

Alhas, Haydar Ali 16 May 2014 (has links)
Dans le cadre de cette thèse, nous rechercherons comment éliminer les opérations de non-valeur-ajoutée dans la fabrication des pièces en matériaux composites incluant la fixation des puces RFID directement dans les pièces en matériaux composites utilisées dans les industries aéronautiques et spatiales. Nous proposerons une nouvelle méthode innovante. Cette méthode industrielle utilise la technologie RFID pour aider éliminer les étapes de non-valeur-ajoutée qui empêchent des améliorations opérationnelles. En plus d’aider à éliminer des opérations de non-valeur-ajoutée, cette technologie peut permettre d’augmenter la communication transverse entre des processus opérationnels. L'utilisation appropriée de technologie RFID peut aussi aider à augmenter la visibilité des produits, des données et des outils dans la fabrication. Les étapes de contrôle inutiles qui induisent des délais de processus plus importants et des coûts additionnels plus élevés peuvent automatiquement être éliminées. De plus, cette méthode permet d’assurer une macro et micro traçabilité. La technologie RFID marche très bien tant avec la fibre de verre qu'avec les composés de fibre de carbone industriels. L’intégration de ces aides technologiques dans les pièces composites permet de créer des matériaux "intelligents" et de communiquer avec d'autres systèmes industriels qui sont voisins, ou dans un autre pays via le logiciel. Et cette capacité peut aider à réduire la documentation et améliorer la traçabilité pendant les phases industrielles transverses de l'entreprise. Les Informations peuvent être stockées sur la puce à l’avance ou bien après chaque processus. Ceci permet aussi d’élaborer de nouveaux processus et des occasions de traitement de la part de la société pour les parties qui sont en service. De cette façon, la puce peut permettre une communication entre le fabricant et le client. Les informations sur l'Étiquette RFID permettent aux pièces d'être gérées plus rapidement et à distance pendant tout le cycle de vie de la pièce. Les informations enregistrées sur la puce pendant la fabrication de la pièce composite peuvent même être lues, avec un ajout d’information, pendant que la pièce est en service. La méthode que nous proposons est la fixation la puce RFID dans les pièces en matériaux composites. Le dépistage et le contrôle automatiques de ces parties permettra à nos processus industriels d'être plus efficaces et visibles pendant la fabrication, aussi bien que le support après la livraison du produit. Dans un proche avenir, des entreprises nationales et internationales transformeront leur ingénierie et procédés de fabrication en appliquant cette méthode novatrice qui accélère les cycles de vie, maximise l'efficacité et élimine des étapes inutiles dans le processus. En conséquence, ces entreprises seront dans une bien meilleure position pour maximiser leur productivité et des nouvelles occasions de produit/marché aussi bien que la documentation de produit efficace et les processus de production aideront des entreprise ou les clients à abaisser leurs coûts d'exploitation, à augmenter la productivité des salariés, à améliorer la conformité, le délai de diminution et à faire des progrès plus rapides dans le domaine de la durabilité. En résumé, le fait de diminuer le délai de livraison à chaque étape dans le processus "On-Target" soutiendra) grandement la performance de " On-Cost" et " On-Quality". En utilisant cette méthode, les fabricants deviendront capables de diminuer considérablement leurs coûts, d’améliorer de façon significative les améliorations de processus, d’augmenter l’innovation à chaque étape du processus et de lancer dans l’entreprise des actions qui lui conféreront une vaste excellence opérationnelle. / The main objective of this thesis is to improve the traditional manufacturing processes in the company and to replace the traditional manufacturing methodology by new method in order to improve the manufacturing efficiency (time, cost, quality, safety of the products etc.). In the frame of this thesis, we will focus on how to eliminate the non-value added operations in the manufacturing by the embedding RFID tags directly in the composite parts used in aerospace companies. We will propose a new innovative state of the art composite manufacturing method that uses RFID technology to help eliminate non-value added manual steps that impede operational improvements. This technology can help to eliminate non-value added operations and increase the communication across operational processes. The appropriate use of RFID technology can also help increase the visibility of the products, data, and tools in manufacturing. The unnecessary control steps which induce higher process lead-times and higher additional costs can automatically be eliminated. The macro and micro traceability of processes and products (such as the part information, lifecycle, movement history and location) can all be automated and digitized with less manual intervention and less paper documentation. Carefully using this technology across our production processes, we can rapidly transform operational processes and improve their accuracy, control and efficiency. This is a lean, innovative and value adding innovative approach that significantly increases the visibility and monitoring of processes. RFID technology works very well with both glass and carbon fibre composites’ manufacturing. This technology helps makes the composite parts “smart” and communicate with other manufacturing systems that are nearby or in another country via software. And this capability can help reduce documentation and improve traceability during the manufacturing phases and across the company. Information can be stored on the tag before and/or after each process. This also enables new process and company service opportunities for parts that are in-service. In this way, the tag can enable a communication between the manufacturer and customer. The information on the RFID Tag enables the parts to be managed faster and remotely across the full lifecycle of the part. The information recorded on the RFID Tag during the manufacturing of the composite parts can even be read and more information can be read during in-service. This information can create an advantage for any modification of the parts, repair, and maintenance in the future. In this way, RFID based processes can reduce unnecessary steps across the whole supply chain and reduce the high workload of manual processes and documentation. Furthermore, costs can be minimized due to increased visibility and elimination of unnecessary steps across processes. Using RFID technology by direct embedding of the RFID Tag in the composite parts intends to measure and reduce “Process Variation”. The idea here is not to move the tasks, but to optimize and eliminating the non-value added tasks by using RFID based production method “embedding of RFID Tag in Composite parts”. The method that we propose is embedding the RFID tag in the composite parts. Automatically tracking and monitoring these parts will enable our industrial processes to be more efficient and visible during manufacturing as well as in service-processes that occur after delivery of the product. As mentioned previously, the intention here to enable our composite parts to be “smart” so they can be communicated to automatically across their lifecycle. This will help create an industrial "Internet of Things”. [...]
5

Analyse et conception de techniques opérationnelles de stéganographie

Bodin, Nicolas 28 August 2013 (has links) (PDF)
La stéganographie est la science de l'écriture cachée. Dans ce contexte, un individu tente de communiquer avec une entité sans éveiller les soupçons sur le fondement même de la communication. Cette science vient en complément de la cryptographie (sécurisation de la communication -- COMSEC) lorsqu'un besoin d'invisibilité de la communication se fait sentir. Cette thèse, réalisée sous la tutelle et au profit de l'État Major des Armées, traite donc des différentes techniques permettant l'élaboration d'un schéma de stéganographie (sécurisation de la transmission -- TRANSEC), techniquement opérationnel et assez solide, visant à insérer un message d'une dizaine de kilo-octets dans une image JPEG de dimensions raisonnables, et capable de résister aux différentes attaques données par l'état de l'art. Afin de rendre ce schéma le plus sûr possible, les formats de données les plus courants sont étudiés (JPEG, BMP, MP3), avant de définir un premier algorithme d'insertion. Ce dernier, fondé sur les travaux de Hopper, reste conceptuel mais permet de définir les fondements de notre algorithme (nommé IMEI). Ce dernier maximise l'efficacité d'insertion, et donc minimise le nombre de modifications apportées au cover-médium. Une analyse de l'algorithme HUGO présenté dans le contexte du challenge BOSS va nous permettre de définir un protocole de stéganalyse, ainsi qu'une deuxième brique importante pour l'IMEI. La dernière partie de ce manuscrit regroupe la partie stéganalyse, avec l'évaluation de l'IMEI et une stéganalyse réellement opérationnelle dans laquelle nous pouvons retrouver une étude de l'utilisation concrète de la stéganographie et de son évaluation.
6

Identification du risque opérationnel et apprentissage organisationnel : étude d'un établissement de crédit, le groupe Société Générale / Operational risk and organizational learning in financial sector : A banking case study

Bon-Michel, Béatrice 09 November 2010 (has links)
Dans le cadre des évolutions liées à Bale II, le régulateur a rendu obligatoire la gestion du risque opérationnel en demandant aux établissements financiers d’affecter un montant en fonds propres face à ce risque.Si ce risque était géré implicitement par les banques, la nécessaire visibilité de cette gestion imposée par le régulateur va fortement influencer la gestion des risques de la banque,l’orientant dans un premier temps vers une vision quantitative et statique de cette gestion.De nombreuses recherches se sont intéressées dans un premier temps à l’aspect quantitatif du risque dans une démarche positive, à la recherche du modèle et des données pertinentes afin d’avoir l’estimation la plus vraisemblable du risque opérationnel.Or le risque opérationnel est par nature difficilement quantifiable; il est diffus, multiforme et ne repose sur aucun encours connu. De plus il est fortement influencé par la composante humaine, que le risque soit intentionnel ou non. L’individu est à la fois source du risque et acteur essentiel du processus d’identification.Il nous a semblé alors intéressant d’adopter une vision interprétative du risque, c’est-à-dire de nous intéresser non pas au résultat de l’identification, dans l’objectif de se rapprocher le plus de la réalité mais en essayant de comprendre et d’expliquer les processus à l’oeuvre lors de l’identification et plus précisément les processus d’apprentissage.Nous cherchons alors à répondre à la problématique suivante : quels peuvent être les impacts de l’identification du risque opérationnel sur le processus d’apprentissage organisationnel ?La précision du concept d’identification du risque nous amènera à comprendre les deux composantes de ce dispositif, l’une relative aux informations transmises et l’autre sur les connaissances tacites nécessaires à l’identification. C’est dans ce contexte que nous préciserons l’apport des théories relatives à l’apprentissage organisationnel dans une approche intégrative des dimensions cognitives et comportementales. Notre méthodologie repose sur une étude menée au sein d’un établissement de crédit français qui a adopté une méthode avancée en matière de gestion du risque opérationnel, méthode la plus aboutie en termes de gestion du risque opérationnel. Au sein de cet établissement, nous avons sélectionné deux métiers du fait de leur représentativité, la banque de détail et la banque d’investissement et de financement. A partir d’une grille d’analyse des entretiens qui s’appuie sur les composantes du dispositif règlementaire d’identification du risque opérationnel, nous présentons dans la deuxième partie6nos résultats. Ces résultats sont analysés au sein de chaque métier puis dans une vision inter cas afin de faciliter une comparaison entre les cas et faire émerger des invariants dans les processus d’apprentissage identifiés.Les résultats de notre recherche mettent en avant l’intérêt du dispositif d’identification du risque sur l’apprentissage comportemental dans un processus stimulus-réponse. Cependant ils en montrent également les limites dans un environnement en constante mutation où la standardisation des processus freine l’utilisation pertinente des compétences spécifiques. En revanche, les apprentissages de type cognitif qui se dessinent génèrent de nouveaux modes de raisonnements au niveau individuel, structurés par le dispositif et développés dans le cadre d’interactions. / Our research has the ambition to study the impact of identifying operational risk within the framework of the evolution of the Basel II regulations.The absence of a theoretical reference relative to the object of our research, the identification of operational risk, the context of strong asymmetry which characterizes the banking organisation, brings us to use two theoretical routes: the contractual theory and more specifically the theory of the agency which better lets us understand the stakes in the implementation of identification. We will also base ourselves on the relative theories of organisational training in an integrative approach of cognitive and behavioural dimensions. Our methodology is based on a case study within a French finance company that has adopted the AMA approach, the approach that is the most developed in terms of operational risk management. Within this establishment, due to their representativeness, we have selected two professions, the “banquede detail” (retail bank) and investment bank. According to an analytical grid of interviews that are based on the components of the regulatory system of identifying operational risk, we present in the second part our results.These results have been analysed first for each profession and then with a vision of case comparison in order to permit a comparison between the cases and to allow the emergence of the invariables in the process of the training identified. The results of our research highlight the interest of the system of risk identification on the compartmental training in the process of response stimulus. However, it also shows the limits within an environment of constant change where the standardisation of processes stops the pertinent utilisation of specific competencies. On the other hand, the type of cognitive training that generates new methods of reasoning at an individual level, structured by the system and developed within the social interaction framework. The exchanges have come from the necessity to identify the risk and to formalize it, oblige the individual to justify him or herself and favorise the confrontation of points of view. These interactions could lead to developing new thinking tied to the needs of the need for argument and the socialisation of the individual thinking that tends to objectivise itself.
7

Apport d'une résolution verticale plus fine dans le calcul des tendances physiques pour la modélisation du brouillard dans le modèle AROME / The impact of vertical resolution on fog forecasting in the kilometric-scale model AROME

Philip, Alexandre 17 October 2016 (has links)
Le brouillard est un phénomène météorologique dangereux car les fines gouttelettes d'eau en suspension dans l'atmosphère réduisent considérablement la visibilité. Bien que les avancées scientifiques et informatiques permettent d'utiliser des modèles de prévision numérique du temps de plus en plus détaillés, la prévision du brouillard reste encore un challenge dû à la multitude et la complexité des processus mis en jeu lors du cycle de vie du brouillard (dynamique, microphysique, turbulent et radiatif). Dans cette thèse, des simulations sont réalisées sur l'aéroport Paris Charles-de-Gaulle avec le modèle à échelle kilométrique AROME afin d'étudier l'impact de la résolution verticale sur la prévision du brouillard. L'étude détaillée d'un cas de brouillard a permis de mettre en évidence le fort impact de la résolution verticale sur la formation du brouillard. La résolution verticale a un impact sur l'heure de formation, le développement spatial et même sur les processus physiques liés à l'apparition du brouillard. L'impact de la résolution verticale a été évalué statistiquement sur l'hiver 2011-2012 et a permis de confirmer les résultats obtenus lors de l'étude de cas. Il a été mis en évidence qu'une résolution verticale fine permet de simuler davantage de brouillards locaux qu'une résolution verticale lâche. De plus, ces simulations ont souligné que le modèle surestime la hauteur de la base du nuage quelle que soit la résolution verticale. Bien que le nombre de bonnes détections augmente avec une résolution verticale fine, la qualité de la prévision reste inchangée à cause d'un nombre de fausses alarmes plus important ce qui peut être expliqué par l'hétérogénéité spatiale des brouillards simulés. Utiliser une résolution fine sur un grand domaine entraîne un surcoût numérique qui n'est pas envisageable en opérationnel. Dans cette thèse, deux méthodes numériques de représentation de la couche limite de surface permettant d'associer une résolution fine près du sol et un temps de calcul modeste ont été évaluées pour une étude de cas et durant une saison hivernale. La meilleure des méthodes basée sur le schéma Canopy permet de bien représenter le comportement physique du modèle à résolution verticale fine lors de l'apparition de brouillards purement radiatifs. Cependant, la méthode atteint ses limites lorsque l'apparition du brouillard est impactée par des circulations locales car l'advection n'est pas prise en compte par cette méthode. Le diagnostique de brouillard par Canopy permet de corriger le biais sur la fréquence d'occurrence de brouillard mais n'améliore pas significativement la qualité de la prévision. / The fog is a hazardous meteorological phenomenon because of the visibility decrease due to water droplets present in the atmosphere. Despite scientific and numerical improvements allowing the use of very detailed numerical weather prediction models, fog forecasting is still a challenge to address. Indeed, several complex processes are involved during the fog life cycle (dynamic, micro-physic, turbulence and radiation). In this thesis, simulations are performed at the Paris Charles-de-Gaulle airport with the kilo-metric scale model AROME in order to study the impact of the vertical resolution on the fog forecasting. A detailed study case highlights the strong impact of vertical resolution on the fog formation. Vertical resolution impacts both the onset time, the spatial development and also the physical processes involved at the fog onset. The impact of vertical resolution has been evaluated statistically over the winter season 2011-2012 and has confirmed the results obtained with the study case. It has been shown that a finer vertical resolution leads to the simulation of more local fog events than a coarser vertical resolution. Furthermore, these simulations emphasize that the model overestimates the cloud base height whatever the vertical resolution. In spite of the increase of good detections with a finer vertical resolution, the overall forecast quality does not change because of more frequent false alarms. These false alarms can be explained by enhanced spatial heterogeneities of simulated fogs at finer vertical resolution. Using a finer vertical resolution on a large domain increase the numerical cost, which is not affordable for operational forecasting. In this thesis, two numerical methods representing the surface boundary layer and allowing a finer vertical resolution at a low computational cost have been tested for the case study and during the winter season. The best method is based on the surface boundary layer scheme Canopy, which improves the physical behavior of the model during the onset of radiation fogs. However, the limits of the method are reached when the onset is impacted by local circulations, which they are not taken into account with this method. The fog diagnostic by Canopy reduces the frequency bias fog forecast but it does not significantly improve the overall forecast quality because of more frequent false alarms.
8

Contribution à l'analyse de la prise en compte du climat urbain dans les différents moyens d'intervention sur la ville

Colombert, Morgane 08 December 2008 (has links) (PDF)
Le milieu urbain est à l'origine de processus radiatifs, thermiques, dynamiques et hydriques qui modifient le climat de la ville. La couche superficielle du sol, avec la présence plus ou moins importante de surfaces végétales ou d'eau, les activités humaines qui induisent des rejets de chaleur et de polluants, et la structure urbaine, avec des matériaux de construction et une certaine morphologie du cadre bâti, sont les principaux facteurs de cette modification. Le bilan d'énergie thermique permet d'appréhender la majorité des perturbations générées par la ville. A l'aide du schéma Town Energy Balance, développé par Météo-France pour paramétrer les échanges en énergie et en eau entre les surfaces bâties et l'atmosphère, nous avons effectué des tests de sensibilité du bilan d'énergie à différents facteurs. Ces facteurs appartiennent à cinq domaines d'actions : le bâtiment, l'espace public, l'organisation urbaine, les activités industrielles et les transports. Nos différentes simulations ont permis de confirmer le rôle prédominant des paramètres radiatifs dans le bilan d'énergie de la ville en été. Durant l'hiver, ce sont d'autres paramètres thermiques (isolation) qui ont la plus grande influence. Les collectivités territoriales françaises ont à leur disposition plusieurs outils et moyens pour agir en faveur de leur environnement climatique et intégrer des facteurs influant sur le climat urbain : leurs domaines de compétence directe (voirie, bâtiments communaux, espaces verts, etc.), les documents stratégiques d'orientation (SCOT et PLU), les procédures d'aménagement (ZAC et lotissement), l'incitation et l'information de leurs citoyens et de leurs services (Agenda 21 local, Plan Climat Territorial, Approche Environnementale de l'Urbanisme). Elles ne peuvent cependant pas agir avec une liberté suffisante, compte tenu des limites contraignantes entre droit de l'urbanisme et droit de la construction et de l'habitat
9

Durcissement par conception d'ASIC analogiques / Radiation hardened design techniques for analog ASICs

Piccin, Yohan 27 June 2014 (has links)
Les travaux de cette thèse sont axés sur le durcissement à la dose cumulée des circuits analogiques associés aux systèmes électroniques embarqués sur des véhicules spatiaux, satellites ou sondes. Ces types de circuits sont réputés pour être relativement sensibles à la dose cumulée, parfois dès quelques krad, souvent en raison de l’intégration d’éléments bipolaires. Les nouvelles technologies CMOS montrent par leur intégration de plus en plus poussée, un durcissement naturel à cette dose. L’approche de durcissement proposée ici, repose sur un durcissement par la conception d’une technologie commerciale « full CMOS » du fondeur ST Microelectronics, appelée HCMOS9A. Cette approche permet d’assurer la portabilité des méthodes de durcissement proposées d’une technologie à une autre et de rendre ainsi accessible les nouvelles technologies aux systèmes spatiaux. De plus, cette approche de durcissement permet de faire face aux coûts croissants de développement et d’accès aux technologies durcies. Une première technique de durcissement à la dose cumulée est appliquée à une tension de référence « full CMOS ». Elle ne fait intervenir ni jonction p-n parasites ni précautions delay out particulières mais la soustraction de deux tensions de seuil qui annulent leurs effets à la dose cumulée entre elles. Si les technologies commerciales avancées sont de plus en plus utilisées pour des applications spécialement durcies, ces dernières exhibent en contrepartie de plus grands offsets que les technologies bipolaires. Cela peut affecter les performances des systèmes. La seconde technique étudiée : l’auto zéro, est une solution efficace pour réduire les dérives complexes dues entre autres à la température, de l’offset d’entrée des amplificateurs opérationnels. Le but ici est de prouver que cette technique peut tout aussi bien contrebalancer les dérives de l’offset dues à la dose cumulée. / The purpose of this thesis work is to investigate circuit design techniques to improve the robustness to Total Ionizing Dose (TID) of analog circuits within electronic systems embedded in space probes, satellites and vehicles. Such circuits often contain bipolartransistor components which are quite sensitive to cumulated radiation dose. However highly integrated CMOS technology has been shown to exhibit better natural TDI hardening.The approach proposed here is a hardening by design using a full CMOS semiconductor technology commercially available from ST Microelectronics calledHCMOS9A. The proposed generic hardening design methods will be seen to be compatibleand applicable to other existing or future process technologies. Furthermore this approach addresses the issue of ever-increasing development cost and access to hardened technologies.The first TID hardening technique proposed is applied to a full-CMOS voltage reference. This technique does not involve p-n junctions nor any particular layout precaution but instead is based on the subtraction of two different threshold voltages which allows the cancellation of TDI effects. While the use of advanced commercial CMOS technologies for specific radiation hardened applications is becoming more common, these technologies suffer from larger inputoffs et voltage drift than their bipolar transistor counterparts, which can impact system performance. The second technique studied is that of auto-zeroing, which is an efficient method to reduce the complex offset voltage drift mechanisms of operational amplifiers due to temperature. The purpose here is to prove that this technique can also cancel input offset voltage drift due to TID.Index term : hardening, cumulated dose, CMOS technology, voltage reference,operational amplifier.
10

Modélisation distribuée des flux d'azote sur des petits bassins versants méditerranéens

PAYRAUDEAU, sylvain 01 May 2002 (has links) (PDF)
Un modèle d'exportation d'azote a été développé pour fournir un outil opérationnel d'estimation des masses produite en contexte méditerranéen. Le modèle, dénommé POL, est de type conceptuel distribué. Il repose sur un découpage du bassin en unités de production (les sous-bassins versants) dont le flux est contrôlé par un paramètre F et en unités de transport (les biefs de rivières) qui véhiculent les flux produits sur les sous-bassins. La dynamique des flux d'azote dans les biefs est contrôlée par un paramètre T. Les 2 paramètres F et T du modèle POL sont définis globalement sur le bassin. Les flux générés sur les sous-bassins versants dépendent également du stock d'azote potentiellement mobilisable lors d'un épisode de pluie. On suppose que cette grandeur conceptuelle est liée à l'occupation du sol et aux pratiques culturales. Le modèle peut être utilisé en mode événementiel ou en mode continu. <br />La sensibilité des réponses du modèle événementiel aux valeurs des paramètres est tout d'abord analysée sur un bassin élémentaire. Le modèle POL est ensuite appliqué sur 4 bassins versants d'une cinquantaine de km² situés dans l'Hérault (France). <br />Les résultats obtenus après la phase de calage et de vérification montrent la capacité du modèle événementiel à reproduire les flux d'azote générés lors des épisodes de crue. Le modèle utilisé en continu fournit une estimation des exportations d'azote avec un degré d'incertitude acceptable pour un premier diagnostic des apports annuels des bassins.

Page generated in 0.4959 seconds