161 |
Optimisation du contrôle commande d'un système hydraulique réversible à vitesse variableBelhadji, Lakhdar 08 July 2013 (has links) (PDF)
Le but de cette thèse est l'optimisation du contrôle commande d'un système hydraulique réversible à vitesse variable. L'approche est d'abord traitée par simulation dynamique pour finir ensuite par validation expérimentale sur maquette physique temps réel hybride basée sur l'émulation (PHIL). La partie simulation concerne la modélisation des différents éléments de la microcentrale hydraulique tel que la turbine, la génératrice et l'interface d'électronique de puissance ainsi que le développement des lois de commande et la synthèse des différents régulateurs. Deux stratégie de contrôle ont été étudié, la première dite commande en vitesse associé à un algorithme MPPT adaptatif développé au cours de la thèse et la deuxième dite en puissance. Le management des contrôles commandes pour assurer la fonction de secours (backup) de la microcentrale hydraulique a été simulé et validé expérimentalement. Et enfin la transition rapide entre les deux modes de fonctionnement d'une petite station de transfert d'énergie par pompage a été proposé et validé par émulation sur la maquette physique.
|
162 |
Testabilité des services WebRabhi, Issam 09 January 2012 (has links) (PDF)
Cette thèse s'est attaquée sous diverses formes au test automatique des services Web : une première partie est consacrée au test fonctionnel à travers le test de robustesse. La seconde partie étend les travaux précédents pour le test de propriétés non fonctionnelles, telles que les propriétés de testabilité et de sécurité. Nous avons abordé ces problématiques à la fois d'un point de vue théorique et pratique. Nous avons pour cela proposé une nouvelle méthode de test automatique de robustesse des services Web non composés, à savoir les services Web persistants (stateful) et ceux non persistants. Cette méthode consiste à évaluer la robustesse d'un service Web par rapport aux opérations déclarées dans sa description WSDL, en examinant les réponses reçues lorsque ces opérations sont invoquées avec des aléas et en prenant en compte l'environnement SOAP. Les services Web persistants sont modélisés grâce aux systèmes symboliques. Notre méthode de test de robustesse dédiée aux services Web persistants consiste à compléter la spécification du service Web afin de décrire l'ensemble des comportements corrects et incorrects. Puis, en utilisant cette spécification complétée, les services Web sont testés en y intégrant des aléas. Un verdict est ensuite rendu. Nous avons aussi réalisé une étude sur la testabilité des services Web composés avec le langage BPEL. Nous avons décrit précisément les problèmes liés à l'observabilité qui réduisent la faisabilité du test de services Web. Par conséquent, nous avons évalué des facteurs de la testabilité et proposé des solutions afin d'améliorer cette dernière. Pour cela, nous avons proposé une approche permettant, en premier lieu, de transformer la spécification ABPEL en STS. Cette transformation consiste à convertir successivement et de façon récursive chaque activité structurée en un graphe de sous-activités. Ensuite, nous avons proposé des algorithmes d'améliorations permettant de réduire ces problèmes de testabilité. Finalement, nous avons présenté une méthode de test de sécurité des services Web persistants. Cette dernière consiste à évaluer quelques propriétés de sécurité, tel que l'authentification, l'autorisation et la disponibilité, grâce à un ensemble de règles. Ces règles ont été crée, avec le langage formel Nomad. Cette méthodologie de test consiste d'abord à transformer ces règles en objectifs de test en se basant sur la description WSDL, ensuite à compléter, en parallèle, la spécification du service Web persistant et enfin à effectuer le produit synchronisé afin de générer les cas de test.
|
163 |
Towards silicon quantum dot solar cells : comparing morphological properties and conduction phenomena in Si quantum dot single layers and multilayersSurana, Kavita 21 September 2011 (has links) (PDF)
Le confinement quantique dans le silicium, sous forme de boîtes quantiques de silicium de diamètre 5 nm, permet de contrôler le bandgap et donc l'émission de lumière. Cette ingénierie du bandgap des nanocristaux de silicium est utile pour les applications photovoltaïques avancées et présente l'avantage de conserver la compatibilité avec les technologies silicium existantes. Ces boîtes quantiques peuvent aider à réduire les pertes par thermalisation dans une cellule solaire homo-jonction. Ce travail se concentre sur la fabrication à grande échelle des nanocristaux de silicium dans SiO2 en utilisant le Dépôt Chimique en Phase Vapeur assisté par Plasma (PECVD), suivi d'un recuit à haute température. Des monocouches sont comparées avec des multicouches pour les propriétés morphologiques, électriques et optiques et des dispositifs avec ces différents couches sont comparés. Dans le cas d'une structure monocouche, l'épaisseur de la couche contrôle l'organisation des nanocristaux et permet de mettre en évidence l'amélioration de la conductivité électrique, avec cependant une réponse optique faible. Les multicouches montrent un bandgap du Si augmentée et controlee, avec une meilleure absorption dans la gamme bleu-vert visible, accompagnée d'une conductivité électrique faible. L'amélioration de ces propriétés optiques est un signe prometteur pour une potentielle intégration photovoltaïque.
|
164 |
Développement d'applications logicielles sûres de fonctionnement: une approche dirigee par la conceptionEnard, Quentin 06 May 2013 (has links) (PDF)
Dans de nombreux domaines tels que l'avionique, la médecine ou la domotique, les applications logicielles jouent un rôle de plus en plus important, allant jusqu'à être critique pour leur environnement. Afin de pouvoir faire confiance à ces applications, leur développement est contraint par des exigences de sûreté de fonctionnement. En effet il est nécessaire de démontrer que ces exigences de haut-niveau sont prises en compte tout au long du cycle de développement et que des solutions concrètes sont mises en oeuvre pour parvenir à les respecter. De telles contraintes rendent le développement d'applications sûres de fonctionnement particulièrement complexe et difficile. Faciliter ce processus appelle à la recherche de nouvelles approches de développement qui intègrent des concepts de sûreté de fonctionnement et guident les développeurs lors de chacune des étapes nécessaires à la production d'une nouvelle application digne de confiance. Cette thèse propose ainsi de s'appuyer sur une approche dirigée par la conception pour guider le développement des applications sûres de fonctionnement. Cette approche est concrétisée à travers une suite d'outils nommée DiaSuite et offre du support dédié à chaque étape du développement. En particulier, un langage de conception permet de décrire à la fois les aspects fonctionnels et non-fonctionnels des applications en se basant sur un paradigme dédié et en intégrant des concepts de sûreté de fonctionnement tels que le traitement des erreurs. A partir de la description d'une application, du support est généré pour guider les phases d'implémentation et de vérification. En effet, la génération d'un framework de programmation dédié permet de guider l'implémentation tandis que la génération d'un modèle formel permet de guider la vérification statique de l'application et qu'un support de simulation permet de faciliter les tests. Cette approche est évaluée grâce à des cas d'études réalisés dans les domaines de l'avionique et de l'informatique ubiquitaire.
|
165 |
Deuxième génération d'harmoniques dans la céramique de verre Germanotellurite dopés avec l'oxyde d'argent / Second harmonic generation in germanotellurite glass ceramics doped with silver oxideLo, Nhat truong 28 October 2015 (has links)
L'importance du traitement du signal et la transmission favorise de nouvelles applications pour les matériaux optiques non linéaires, tels que des convertisseurs de fréquence. Les cristaux sont des matériaux pour ces applications bien connues en raison de leur comportement non linéaire optique forte. Cependant, ils sont coûteux à fabriquer et dépendent fortement de l'orientation cristalline. Les verres sont des candidats possibles à cause de leurs propriétés optiques et la facilité de fabrication, mais ils ne possèdent pas de second ordre non-linéarité en raison de leur structure centrosymétrique. Cependant, un matériau composite vitrocéramique avec des cristaux ferro-électriques noyées dans une matrice de verre peut combiner les propriétés de cristaux non linéaires avec la facilité de fabrication de lunettes.Germanotellurite verre et la céramique, verre dopés avec différentes quantités d'oxyde d'argent, dans la (100-x) (70TeO2 - 10GeO2 - 10Nb2O5 - 10 - K2O) xAg2O système (x = 0 à 6% en mole), a été étudiée. L'étude se compose de l'élaboration et la caractérisation d'une céramique de verre qui peuvent répondre aux exigences de matériaux optiques non linéaires, avec une grande transparence et une activité non linéaire intense. Les caractéristiques des verres et de la céramique de verre ont été déterminées par analyse thermique, diffraction des rayons X, la microscopie électronique, UV-Vis et spectroscopie Raman. Cristallisation en vrac a été observé pour les verres d'argent dopé avec une phase cristalline unique (Ag, K) [Nb1 / 3Te2 / 3] 2O4.8, qui présente une activité seconde génération harmonique (SHG). Un seul traitement thermique a abouti transparence supérieure à un traitement thermique en 2 étapes avec un premier chauffage à la température de nucléation et un second traitement pour la croissance cristalline. Pour les modes de transmission et XRD UV-Vis similaires, les échantillons de chaleur 1-étape traités ont montré une réponse SHG deux ordres supérieur à la 2-étape.Cette différence d'intensité provient de la taille des domaines à l'intérieur des deux céramiques de verre. Le traitement thermique une étape a été trouvé, de promouvoir micron de taille domaines cristallisés, alors que le traitement thermique en deux étapes a abouti à des tailles de sous-domaine de longueurs d'onde. La réponse macroscopique SHG global a été trouvé pour présenter le comportement dipolaire typique. Ce dipôle nature vient de chaque domaine agissant comme SHG émetteur. Une caractérisation basée sur une technique de micro-Raman / micro-SHG corrélative, qui peut fournir à la fois des informations structurelles et les réponses de SHG locales dans les mêmes régions sub-micron, a été réalisée, ce qui indique que l'organisation de cristallites dans les domaines rend leur réponse SHG indépendante de polarisation de la lumière. Un modèle structural a été proposé pour expliquer la propriété dipolaire général et l'indépendance de la polarisation de la lumière. / The importance of signal processing and transmission promotes new applications for nonlinear optical materials, such as frequency converters. Crystals are well known materials for these applications because of their strong optical nonlinear behaviour. However, they are costly to manufacture and are strongly dependant on crystal orientation. Glasses are possible candidates because of their optical properties and ease of fabrication but they possess no second-order nonlinearity due to their centrosymmetric structure. However, a glass-ceramic composite with ferroelectric crystals embedded in a glass matrix can combine the nonlinear properties of crystals with the easiness of fabrication of glasses.Germanotellurite glass and glass ceramics, doped with different amounts of silver oxide, in the (100-x)(70TeO2 – 10GeO2 – 10Nb2O5 – 10 K2O) – xAg2O (x=0-6 mol%) system, has been studied. The study consists of elaboration and characterization of a glass ceramic that can fulfil the requirements of nonlinear optical materials, with high transparency and intense nonlinear activity. The characteristics of the glasses and glass ceramics were determined by thermal analysis, X-ray diffraction, electron microscopy, UV-Vis and Raman spectroscopies. Bulk crystallization has been observed for the silver-doped glasses with a unique crystal phase, (Ag,K)[Nb1/3Te2/3]2O4.8, which presents second harmonic generation (SHG) activity. A single heat treatment yielded higher transparency than a 2-step heat treatment with a first heating at the nucleation temperature and a second treatment for crystal growth. For similar UV-Vis transmission and XRD patterns, the 1-step heat treated samples showed a two order higher SHG response than the 2-step one.This intensity difference comes from the size of domains within the two glass ceramics. The 1-step heat treatment was found to promote micron sized crystallized domains, while the two step heat treatment yielded sub-wavelength domain sizes. The global SHG macroscopic response was found to present typical dipolar behaviour. This dipole nature comes from each domain acting as SHG emitter. A characterization based on a correlative micro-Raman/micro-SHG technique, which can provide both structural information and local SHG responses within the same sub-micron areas, was performed, indicating that the organization of crystallites inside the domains makes their SHG response independent of light polarization. A structural model has been proposed to explain the general dipolar property and the light polarization independence.
|
166 |
Consanguinitas : sang et identité à Rome (IIème siècle avant J.-C. - IIème siècle après J.-C.) / Consanguinitas : Blood and identity at Roma (200 B.C. - 200 A.D.)Greggi-Badel, Candice 15 June 2017 (has links)
Qu'est-ce qu'une communauté de sang à Rome ? Pour le comprendre, cette thèse analyse le rôle de la consanguinité dans les représentations romaines à la fin de la République et au début de l'Empire (200 av. J-C-200 apr. J-C.). L'historiographie actuelle est divisée entre les juristes, qui insistent sur l'indifférence des Romains envers la « fatalité » biologique, et les anthropologues, qui mettent en valeur l'importance du sang dans la symbolique de la parenté et de l'ethnicité. Cette thèse aborde d'abord la consanguinité comme un réseau dont elle restitue le fonctionnement cognatique et ouvert, permettant le mélange des sangs par le mariage. Elle s'interroge ensuite sur les enjeux de la transmission s'intéressant plus particulièrement à la place du sang dans le discours médical sur la génération, au débat sur la transmission des vertus familiales par ce fluide et au problème de sa souillure et de sa pureté. Enfin, elle analyse les stratégies du sang dans le domaine familial comme dans le domaine diplomatique, terminant par l'utilisation de la consanguinité comme instrument de légitimation impériale. Au carrefour de l'histoire de la famille, de l'aristocratie, du corps et des mentalités, ce travail désire apporter un nouvel éclairage sur les valeurs de la culture romane. / What is a community of blood in Rome? To understand what lies behind this question, this thesis analyzes the role of consanguinity in the Roman representations at the end of the Republic and the beginning of the Empire (200 B.C. J-C-200 A.D. J-C.). Current historiography is divided between legal experts, who insist on the indifference of the Romans towards biological "fate", and anthropologists, who emphasize the importance of blood in the symbolic system of the relationship and the ethnicity. This thesis initially approaches consanguinity as a network which restores cognatic and transparent operation, allowing the mixture of bloods through marriage. It then focuses on the challenges of blood transmission and more specifically on the medical approach on generations, with the debate on the transmission of the family virtues through this fluid and the issue of its filthiness an purity. Lastly, it analyzes the strategies of blood in the family field as in the diplomatic field, ending with the use of consanguinity as an instrument of imperial legitimacy. At the crossroads of the family, aristocracy, body, and mentality, this essay aims to shed a new light on the values of the Roman Culture.
|
167 |
L'alimentation au fil des générations : l'analyse de parcours de vie alimentaire, en France, au travers des procès de transmissions, innovations et intégration des pratiques, comportements et savoir-faire de mangeurs dans des espaces en mutation / The food in the course of the generations : the analysis of course of food life, in France, through the trials of transmissions, innovations and integrations, practices, behavior and eaters' know-how in spaces in transferMontagne, Karen 16 June 2016 (has links)
Cette étude propose d'analyser les modes d'alimentation passés et actuels d'un groupe de parenté composé de quatre générations. Il s'agira à partir du recueil de parcours de vie et d'observations directes dans une situation d'interaction prolongée (dix années), de montrer les facteurs et mécanismes socio-culturels qui modifient les pratiques d'approvisionnement, les savoir-faire culinaires, les comportements et représentations alimentaires aux différents âges de la vie. On examinera au sein d'un groupe de personnes issues de fratries, un ensemble de facteurs culturels, sociaux, économiques et historiques qui impactent durant les socialisations primaires et secondaires les constructions et évolutions des répertoires alimentaires individuels et familiaux. Cette monographie d'une famille de classe moyenne, donne accès aux évolutions des rapports au culinaire et au nourrir du point de vue de femmes / This study offers an analysis of past and present food modes among a kinship group comprising four generations. Through first hand recording of life trajectories and direct observations collected in immersion over an extended period of time (ten years), this work is an attempt to highlight the sociocultural factors and mechanisms that affect food procurements practices, culinary skills, food representations and behaviors at different stage of life. This in-depth observation of a group of relatives serves the examination of cultural, social, economic and historical factors that are at play during the primary and secondary socialisation phases and impact the construction and evolution of individual as well as family food repertories. This is amonography about a French middle class extented family which provides access to the evolutions of relations to cooking and feeding from women's point a view
|
168 |
Génération aléatoire d'automates et analyse d'algorithmes de minimisation / Random generation of automata and analysis of their state minimization algorithmsDavid, Julien 28 September 2010 (has links)
Cette thèse porte sur la génération aléatoire uniforme des automates finis et l'analyse des algorithmes de minimisation qui s'y appliquent. La génération aléatoire permet de conduire une étude expérimentale sur les propriétésde l'objet engendré et sur les méthodes algorithmiques qui s'y appliquent. Il s'agit également d'un outil de recherche, qui permet de faciliter l'étude théorique du comportement moyen des algorithmes. L'analyse en moyenne des algorithmes s'inscrit dans la suite des travaux précurseurs de Donald Knuth. Le schéma classique en analyse d'algorithmes consiste à étudier le pire des cas, qui n'est souvent pas représentatif du comportement de l'algorithme en pratique. D'un point de vue théorique, on définit ce qui se produit "souvent'' en fixant une loi de probabilitésur les entrées de l'algorithme. L'analyse en moyenne consiste alors à estimer des ressources utiliséespour cette distribution de probabilité. Dans ce cadre, j'ai travaillé sur des algorithmes de génération aléatoire d'automatesdéterministes accessibles (complets ou non). Ces algorithmes sont basés sur de la combinatoirebijective, qui permet d'utiliser un procédé générique : les générateurs de Boltzmann. J'ai ensuite implanté ces méthodes dans deux logiciels : REGAL et PREGA. Je me suis intéressé à l'analyse en moyenne des algorithmes de minimisation d'automateset j'ai obtenu des résultats qui montrent le cas moyen des algorithmes de Moore et Hopcroft est bien meilleur que le pire des cas / This thesis is about the uniform random generation of finite automata and the analysisof their state minimization algorithms. Random generators allow to conduct an experimental study on the properties of the generated objectand on the algorithms that apply to this object. It is also a useful tool for research that facilitates the theoretical study of the average behavior of algorithms. Usually, the analysis of an algorithm focuses on the worst case scenario, which is often not representative of thepractical behavior of the algorithm. From a theoretical point of view, one can define what happens "often" by fixing a probability law on the algorithm's inputs. The average analysis consists in the estimation ofthe requested resources, according to this probability distribution.In this context, I worked on several algorithms for the random generation of deterministic accessibleautomata (complete or not).Those algorithms are based on bijective combinatorics, that allows to use generic tools called the Boltzmann generators. I implemented those methods in two softwares : REGAL and PREGA. I studied the average complexity of state minimization algorithms and obtained results showing that theaverage case of the two algorithms due to Moore and Hopcroft is way better than the worst case
|
169 |
Générateur de code multi-temps et optimisation de code multi-objectifs / Multi-time code generation and multi-objective code optimisationLomüller, Victor 12 November 2014 (has links)
La compilation est une étape indispensable dans la création d'applications performantes.Cette étape autorise l'utilisation de langages de haut niveau et indépendants de la cible tout en permettant d'obtenir de bonnes performances.Cependant, de nombreux freins empêchent les compilateurs d'optimiser au mieux les applications.Pour les compilateurs statiques, le frein majeur est la faible connaissance du contexte d'exécution, notamment sur l'architecture et les données utilisées.Cette connaissance du contexte se fait progressivement pendant le cycle de vie de l'application.Pour tenter d'utiliser au mieux les connaissances du contexte d'exécution, les compilateurs ont progressivement intégré des techniques de génération de code dynamique.Cependant ces techniques ne se focalisent que sur l'utilisation optimale du matériel et n'utilisent que très peu les données.Dans cette thèse, nous nous intéressons à l'utilisation des données dans le processus d'optimisation d'applications pour GPU Nvidia.Nous proposons une méthode utilisant différents moments pour créer des bibliothèques adaptatives capables de prendre en compte la taille des données.Ces bibliothèques peuvent alors fournir les noyaux de calcul les plus adapté au contexte.Sur l'algorithme de la GEMM, la méthode permet d'obtenir des gains pouvant atteindre 100~\% tout en évitant une explosion de la taille du code.La thèse s'intéresse également aux gains et coûts de la génération de code lors de l'exécution, et ce du point de vue de la vitesse d'exécution, de l'empreinte mémoire et de la consommation énergétique.Nous proposons et étudions 2 approches de génération de code à l'exécution permettant la spécialisation de code avec un faible surcoût.Nous montrons que ces 2 approches permettent d'obtenir des gains en vitesse et en consommation comparables, voire supérieurs, à LLVM mais avec un coût moindre. / Compilation is an essential step to create efficient applications.This step allows the use of high-level and target independent languages while maintaining good performances.However, many obstacle prevent compilers to fully optimize applications.For static compilers, the major obstacle is the poor knowledge of the execution context, particularly knowledge on the architecture and data.This knowledge is progressively known during the application life cycle.Compilers progressively integrated dynamic code generation techniques to be able to use this knowledge.However, those techniques usually focuses on improvement of hardware capabilities usage but don't take data into account.In this thesis, we investigate data usage in applications optimization process on Nvidia GPU.We present a method that uses different moments in the application life cycle to create adaptive libraries able to take into account data size.Those libraries can therefore provide more adapted kernels.With the GEMM algorithm, the method is able to provide gains up to 100~\% while avoiding code size explosion.The thesis also investigate runtime code generation gains and costs from the execution speed, memory footprint and energy consumption point of view.We present and study 2 light-weight runtime code generation approaches that can specialize code.We show that those 2 approaches can obtain comparable, and even superior, gains compared to LLVM but at a lower cost.
|
170 |
L'apprentissage intergénérationnel dans la dynamique sratégique de l'entreprise : comparaison France-Japon / Intergenerational learning in the firm's strategic dynamic : a comparison between France and JapanShimada, Sakura 09 December 2014 (has links)
Notre thèse s’intéresse au rapport entre l’apprentissage intergénérationnel et la dynamique stratégique de l’entreprise, dans une démarche comparative franco-japonaise. La littérature sur les générations, sur l’apprentissage et les capacités dynamiques constitue notre cadre théorique. Dans une étude qualitative multi-cas réalisée en France et au Japon, quatorze cas d’apprentissage intergénérationnel sont analysés. Nos résultats indiquent que le rapport entre l’apprentissage intergénérationnel et la dynamique stratégique de l’entreprise varient entre les cas de continuité et les cas de changement, tandis que le contexte culturel influence la formation des générations et les pratiques d’apprentissage intergénérationnel. Nous montrons ainsi le rôle de l’organisation dans la formation des générations, les enjeux stratégiques de l’apprentissage intergénérationnel et l’encastrement culturel des pratiques managériales. / This thesis is a comparative study of the relationships between intergenerational learning and the firm’s strategic dynamic, lead in France and Japan. The conceptual framework builds on the literature regarding generation, learning and dynamic capabilities. A qualitative multi-case study was conducted in France and Japan and fourteen cases of intergenerational learning were analyzed. The empirical results show that the relationships between intergenerational learning and the dynamic of the firm’s strategy vary between the state of stability and change. The cultural contexts influence the creation of the generations and intergenerational learning practices. These results highlight the role of organizations in the creation of generations, the strategic issue of intergenerational learning and give insights about the cultural embeddedness of managerial practices.
|
Page generated in 0.0881 seconds