351 |
Etude de la typologie sexuée des sports en Iran : évaluation et effet sur les spécificités attendues d'un coach idéal par les athlètes de haut niveau / Studying sexual typology of sports in Iran : evaluation and impact on the expected characteristics of an ideal coach by high performance athletesTahami, Gelareh 01 June 2016 (has links)
Ce travail doctoral s'intéresse d'une part, à la typologie sexuée des sports dans le contexte iranien. Puis, dans le cadre de la théorie de l'identité sociale et de la théorie de l'auto catégorisation, il s'intéresse aux effets identitaires qui apparaissent dans et face à cet étiquetage sexué. Pour cela, trois études ont été menées en Iran. La première étude (n=810), s'articulant autour des éléments contextuels, détermine la typologie sexuée de plusieurs activités sportives. Cette étude fait ressortir le fait que l'étiquetage sexué des sports est un reflet du contexte sociétal, notamment de la pratique sportive des femmes. La deuxième étude (n=522) porte sur le lien entre la pratique effectuée et la typologie sexuée des sports. Cette étude met en évidence le fait que, dans une scène sociale à l'avantage des hommes, l'appropriation sexuée des sports devient un moyen pour les sportives d'améliorer leur statut par rapport aux sportifs. En effet, à la recherche d'une identité sociale favorable, elles utilisent la compétition sociale en jouant sur la typologie sexuée des sports masculins. Ce mécanisme existe également entre elles selon la typologie sexuée du sport qu'elles pratiquent. La troisième étude (n=80) s'intéresse aux spécificités attendues d'un coach idéal par les athlètes de haut niveau dans les sports d'opposition. Elle inclut des approches qualitatives et quantitatives. Les spécificités identifiées par l'approche qualitative, ont été mise en parallèle avec les dimensions de plusieurs théories centrées sur le coach/coaching, ainsi qu'avec un exemple vécu dans le monde des sports d'opposition. L’approfondissement quantitatif de ces spécificités témoigne du fait que la typologie sexuée du sport et le sexe de l'athlète, jouent un rôle sur la préférence des spécificités souhaitées pour un coach idéal. En effet, les sportives utilisent la créativité sociale en s'appuyant sur l'image idéale de leur coach pour maintenir une image positive d'elles-mêmes. En conclusion, ce travail montre que les sportives iraniennes se servent de deux stratégies de gestion identitaire de type collectif pour faire face à leur identité sociale menacée. Elles utilisent généralement la compétition sociale et la créativité sociale dans le cas de sport de haut niveau amateur. / This doctoral research focuses on the sexual typology of sports in the Iranian context. Then, according to social identity theory and self-categorization theory framework, it is interested in identity effects that appear in and face to this sexual labelling. For this, three studies were carried out in Iran. The first study (n = 810), linked to Iranian context, determines the gender typology of several sports. This study highlights the fact that sexual labelling of sports is a reflection of the societal context, including sport practicing for women. The second study (n = 522) examines the link between practice and sexual typology of sports. This study points out the fact that, in a social scene that advantages men, sexual appropriation of sports becomes a way for sportive women to improve their status in relation to sportive men. Indeed, in search of a favourable social identity, they use social competition by changing the gender typology of masculine sports. This mechanism also exists between women according to the sexual type of sport they practice. The third study (n = 80), including qualitative and quantitative approaches, focuses on the expected characteristics of an ideal coach for high performance athletes in opposition sports. The specificities, identified through qualitative approach, were put in parallel with the dimensions of several theories focus on the coach/the coaching, as well as with an example in the world of opposition sports. The deeper quantitative reflection of these characteristics reveals the fact that sexual type of sport as well as sex of the athlete play a role on the preference of the desired characteristics for an ideal coach. Indeed, sportive women use social creativity based on the ideal image of their coach in order to maintain a positive image of themselves. In conclusion, this work shows that Iranian sportswomen use two collective strategies of identity management to deal with their threatened social identity. They generally use social competition and social creativity in the case of high-level amateur sport.
|
352 |
Généralisation de représentations intermédiaires dans une carte topographique multi-échelle pour faciliter la navigation de l'utilisateur / Generalization of intermediate representations in a topographic multi-scale map to ease the user navigationDumont, Marion 18 June 2018 (has links)
Une carte multi-échelle est un ensemble de cartes à différentes échelles, dans lequel l’utilisateur peut naviguer via un géoportail. Chacune de ces cartes est préalablement construite par généralisation cartographique, processus qui adapte la représentation cartographique à une échelle donnée. Les changements de représentations qu’implique la généralisation entre deux cartes à différentes échelles sont susceptibles de perturber l’utilisateur, rendant sa navigation plus difficile. Nous proposons dans cette thèse d’ajouter des représentations intermédiaires dans une carte multi-échelle existante, pour créer une évolution plus fluide du contenu cartographique au fil des échelles. Alors que de solides connaissances théoriques existent pour la conception cartographique traditionnelle, on ne sait pas encore comment concevoir une carte multi-échelle efficace. Pour formaliser des connaissances à ce sujet, nous avons étudié un panel de seize cartes multi-échelles existantes. Nous avons analysé les systèmes de zoom utilisés ainsi que l’évolution des représentations cartographiques au fil des échelles, en particulier les changements de niveaux d’abstraction pour les objets bâtis et routiers. Nous avons aussi évalué la variation de complexité visuelle du contenu cartographique au fil des échelles, en utilisant des mesures de clutter visuel. Nous avons ainsi identifié les tendances générales en termes de représentations multi-échelles (comme l’application du standard WMTS), certains facteurs que nous considérons comme ayant une influence négative sur la navigation de l’utilisateur (comme l’utilisation d’une même carte à différentes échelles), ainsi que des pratiques intéressantes visant à la faciliter (comme les représentations mixtes). A partir de ces constats, nous avons formulé des hypothèses sur l’influence des variables de construction des représentations intermédiaires sur la fluidité de navigation. Nous avons construit un matériel de test à partir d’un extrait de la carte multi-échelle Scan Express de l’IGN, entre les cartes existant au 1 : 25k et au 1 : 100k. Nous avons ainsi produit quatre versions différentes de représentations intermédiaires entre ces deux cartes, implémentant nos différentes hypothèses. Cet exercice nous a permis de mieux cerner les verrous techniques que soulève la production de représentations intermédiaires. Nous avons enfin conduit un test utilisateurs contrôlé, en demandant à 15 participants de réaliser une tâche cartographique sur ces différentes cartes multi-échelles, pour évaluer la pertinence de nos hypothèses / A multi-scale map is a set of maps at different scales, displayed on mapping applications, in which users may navigate by zooming in or out. Each of these maps is produced beforehand by cartographic generalization, which aims to adapt the cartographic representation for a target scale. Due to generalization, the representation changes between maps at different scales may disturb the user during its navigation. We assume that adding intermediate representations in an existing multi-scale map may enable a smooth evolution of cartographic content across scales. While theoretical knowledge exists for traditional cartography, we still do not know how to design efficient multi-scale maps. To formalize knowledge on that subject, we studied sixteen existing multi-scale maps. We focused on the used zooming system (zoom levels and display scales) and on the evolution of cartographic representations across scales, in particular for building and road entities. We also analyzed the variation of visual complexity of the map content across scales, using visual clutter measures. We thus identified general trends in terms of multi-scale representation (i.e. use of WMTS standard), some potential disturbing factors (i.e. use of a same map at different scales), but also good practices which may ease the user navigation (i.e. mixed representations). Based on these findings, we made assumptions on the influence of intermediate representations design on user navigation. We built test material from an extract of the Scan Express multi-scale map of the French IGN, between the existing maps at 1:25k and 1:100k scales. We thus produced four different versions of intermediate representations between these two maps, implementing our different hypotheses. This way, we highlighted the technical issues that we faced when producing intermediate representations. Finally, we conducted a controlled user study, asking 15 participants to perform a cartographic task on these different multi-scale maps, to evaluate our hypotheses
|
353 |
Évolution morphologique actuelle d'une flèche littorale holocène : le Cap Ferret, à l'embouchure du Bassin d'Arcachon / Ongoing morphological evolution of a Holocene coastal barrier spit : the Cap Ferret, at the entrance of the Bay of ArcachonNahon, Alphonse 05 October 2018 (has links)
La flèche littorale du Cap Ferret s'est édifiée au cours des derniers 3 000 ans, à la faveur du ralentissement de l'élévation du niveau global des océans. Depuis 250 ans, les cartes marines révèlent une importante instabilité de l'extrémité libre de la flèche, à laquelle les travaux présentés dans ce mémoire tentent d'apporter une explication physique. Dans un premier temps le croisement des données cartographiques avec des données environnementales révèle la synchronisation des déplacements de la flèche avec d'une part l'Oscillation Nord Atlantique (NAO), et, d'autre part, les structuations décennales à multidécennales de la vitesse de l'élévation du niveau de l'Atlantique Nord-est. Les processus sous-jacents à cette synchronisation sont alors détaillés avec un modèle numérique de transport sédimentaire. Puis, l'érosion chronique de la flèche entre 1986 et 2016, ainsi que les mécanismes d'évolution de la plage océanique de la Pointe du Cap Ferret sont décrits et quantifiés à l'aide de données topographiques. A l'échelle locale, ces résultats apportent des preuves tangibles du rôle du climat dans l'érosion actuelle de la Pointe du Cap Ferret. D'un point de vue plus général, ces travaux contribuent à la meilleure description des processus contrôlant l'évolution des systèmes de barrières holocènes, dans le contexte actuel d'accélération de l'élévation du niveau de la mer. / Low rates of global sea level rise have allowed the Cap Ferret coastal barrier-spit to develop since about 3 000 years ago. Over the last 250 years, navigation charts attest of a significant instability of the distal end of the spit, to which the present study aims to provide a physical explanation. First, the crossing of cartographic data with meteoceanic data reveals a strong relationship of the spit-end behaviour with, on the one hand, the North Atlantic Oscillation (NAO), and, on the other hand, decadal to multidecadal variations in the rate of sea level rise in the Northeast Atlantic. Underlying processes were then investigated using a numerical model for sediment transport. Finally, the chronic erosion of the spit between 1986 and 2016, as well as the evolution mechanisms of the oceanic beach of the spit-end are described and quantified by means of topographic data. Locally, these results support the role of climate in the ongoing erosion of the spit-end. From a wider perspective, this study brings new insigths on the processes controling the evolution of Holocene barrier systems, in the present context of an accelerating sea level rise.
|
354 |
Approche probabiliste pour l'estimation dynamique de la confiance accordée à un équipement de production : vers une contribution au diagnostic de services des SED / A probabilistic approach to dynamically estimate the confidence for production equipments : Contribution to the diagnosis of discrete event systems services.Duong, Quoc Bao 19 December 2012 (has links)
Le travail que nous présentons dans ce mémoire apporte sa contribution au domaine dela surveillance et de la supervision en ligne des systèmes à événements discrets complexes.Il se place dans un contexte perturbé par l’occurrence d’aléas de fonctionnement d’une partieopérative au sein duquel nous visons à mettre à disposition des équipes de maintenance desoutils pour les aider à localiser rapidement les équipements à l’origine probable de défautsproduits : localiser mieux pour maintenir mieux et donc minimiser encore davantage les tempsde dérives équipements. Si les équipements de production étaient en mesure de détecterde telles dérives, le problème pourrait être considéré comme simple, cependant, la présenced’équipements de métrologie montre le contraire. Aussi, partant du constat que les équipementsde production ne peuvent être dotés d’un système de captage couvrant de manière exhaustivel’ensemble des paramètres à observer, que la fiabilité des capteurs est variable dans le temps,que les contextes de production sont particulièrement stressants, nous avons proposé ici dedévelopper une approche probabiliste basée sur un raisonnement Bayésien permettant d’estimeren temps réel la confiance qui peut être accordée aux opérations réalisées par les équipementsde production. / The work that we present in this paper contributes to the field of supervision, monitoringand control of complex discrete event systems services. It is placed in the context of randomfailure occurrence of operative parts where we focus on providing tools to maintenance teamsby locating the possible origin of potential defect products: better locate to better maintain, soeffectively to minimize more equipment’s time drift. If the production equipment were able todetect such drifts, the problem could be considered simple; however, metrology equipment addsto the complexity. In addition, because of an impossibility to equip the production equipment witha sensor system which comprehensively covers all parameters to be observed, a variable sensorreliability in time and a stressed production environments, we propose a probabilistic approachbased on Bayesian network to estimate real time confidence, which can be used for productionequipment?s operation.
|
355 |
Combinaison de la microscopie de fluorescence X et de l'imagerie X par contraste de phase pour l'imagerie clinique sub-cellulaire / combined phase and X-Ray fluorescence imaging at the sub-cellular levelKosior, Ewelina 19 February 2013 (has links)
Ce travail de thèse présente une combinaison unique d'imagerie X par contraste de phase avec la fluorescence X pour des échantillons biologiques étudiés par nanosonde par fluorescence X excitée par le rayonnement synchrotron. Les récents développements dans ce domaine ouvrent la possibilité d'une imagerie chimique quantitative à l'échelle sub-cellulaire. Ceci a été rendu possible par l'utilisation d'un outil unique qui est la station de nanoimagerie X ID22NI de l'ESRF qui permet de délivrer un faisceau sub-100 nm avec un très haut flux à haute énergie entrainant une sensibilité très haute, de l'ordre de quelques centaines d'atomes pour différents éléments (Fe, Cu, Zn…). Le couplage des informations issues de l'imagerie X par contraste de phase (masse surfacique de la cellule) et de la fluorescence X (masse surfacique des éléments chimiques) a pu être obtenu pour la première fois donnant accès à une cartographie des éléments chimiques constituant les cellules et de leurs fractions massiques absolues associées. Dans l'immédiat, il n'a été possible d'étudier des cellules qui ont été congelées rapidement puis lyophilisées, cependant, une nouvelle ligne de nanoimagerie, NINA, en construction à l'ESRF, fonctionnera comme un cryomicroscope et permettra l'analyse 2D/3D d'échantillons biologiques ou non congelés hydratés. L'extension de l'imagerie chimique 2D présentée dans ce travail à une imagerie 3D représente une importante avancée pour bon nombre de problématiques scientifiques en biologie. Une des limitations de ce type d'analyse est celle des dommages radio-induits à la suite de l'irradiation de l'échantillon par un haut flux de particules ionisantes. Il existe que peu ou pas d'étude sur les effets de la nanoanalyse par fluorescence X sur les cellules lyophilisées. Nous avons combiné l'imagerie de phase à l'imagerie par fluorescence X ce qui nous permis de conclure à une rétractation des structures cellulaires accompagnée d'une volatilisation des éléments du fait de l'irradiation lors de l'analyse par fluorescence X. Ces aspects ont été confortés par des analyses utilisant une technique complémentaire non-synchrotron de microscopie ionique en transmission et à balayage (STIM). Plus important encore, nous apportons ainsi un outil rapide et non-destructif pour la cellule (imagerie X de phase) qui permet de corriger la perte de masse due à la volatilisation d'éléments légers (C, H, O, N) de la matrice cellulaire. Cette démarche permet de fiabiliser l'analyse quantitative de la composition chimique cellulaire. Cette approche sera précieuse pour corriger ces effets de perte de masse lors de futures analyses tomographiques de cellules entières congelées hydratées. Nous avons également contribué à l'étude de distribution intracellulaire de nouvelles nanoparticules d'or ou de platine fonctionnalisées. Nous avons pu exploiter les données issues de la fluorescence X pour estimer le nombre de nanoparticules et la taille des clusters internalisés au sein des cellules. Toutefois, des expériences dédiées pour des analyses sur un plus grand nombre de cellules auxquelles l'imagerie X par contraste de phase serait menée en parallèle permettraient surement de préciser plus finement ces aspects quantitatifs sur le nombre de nanoparticules intracellulaires. Dans l'ensemble ce travail ouvre la possibilité d'une imagerie chimique quantitative absolue sub-cellulaire en 2D ou 3D avec la perspective d'imagerie corrélative avec de nombreuses techniques complémentaires notamment la microscopie électronique à transmission pour l'ultrastructure, la microscopie de fluorescence pour la localisation de proteines d'intérêts et d'autres techniques d'analyses chimiques telles le NanoSIMS ou le nano-PIXE. / This work presents some recent developments in the field of hard X-ray imaging appliedto biomedical research. As the discipline is evolving quickly, new questions appear andthe list of needs becomes bigger. Some of them are dealt with in this manuscript.It has been shown that the ID22NI beamline of the ESRF can serve as a proper experimentalsetup to investigate diverse aspects of cellular research. Together with its highspatial resolution, high flux and high energy range the experimental setup providesbigger field of view, is less sensitive to radiation damages (while taking phase contrastimages) and suits well chemical analysis with emphasis on endegeneous metals (Zn, Fe,Mn) but also with a possibility for for exogoneous one’s like these found in nanoparticles(Au, Pt, Ag) study.Two synchrotron-based imaging techniques, fluorescence and phase contrast imagingwere used in this research project. They were correlated with each other on a numberof biological cases, from bacteria E.coli to various cells (HEK 293, PC12, MRC5VA,red blood cells).The explorations made in the chapter 5 allowed preparation of more establishedand detailed analysis, described in the next chapter where both techniques, X-ray fluorescenceand phase contrast imaging, were exploited in order to access absolute metalprojected mass fraction in a whole cell. The final image presents for the first timetrue quantitative information at the sub-cellular level, not biased by the cell thickness.Thus for the first time a fluorescence map serves as a complete quantitative image of acell without any risk of misinterpretation. Once both maps are divided by each otherpixel by pixel (fluorescence map divided by the phase map) they present a completeand final result of the metal (Zn in this work) projected mass fraction in ppm of dryweight. For the purpose of this calculation the analysis was extended to calibration(non-biological) samples. Polystyrene spheres of a known diameter and known densityworked very well here and allowed validation of the presented method. Different images(phase map, AFM, STIM) and profiles were compared and statement on the high accuracyof phase contrast imaging for the thickness/structures determination was made.The result on true metal projected mass fraction represents a first step to an absolutesub-cellular analysis and certainly can be improved to even closer reflect on reality.All the measurements were taken on freeze-dried cells. Thus the result is in ppm ofdry weight. In fact the measurement would have even deeper meaning if it was madeon hydrated cells. For the moment this is not possible with the existing setup of theID22NI beamline but will be possible in the future with a new beamline devoted tonano science - NINA (Nano-Imaging and Nano-Analysis). The new beamline will befurnished with a cryostage and X-ray imaging will be made on frozen-hydrated samples.Nevertheless the analysis presented in this manuscript is of undeniable importance toboth the biomedical community and to the ESRF team engaged in the NINA development.To answer the problems of cell irradiation both imaging techniques were exploitedagain. Repeating the phase contrast imaging after the fluorescence scanning allowedto show the changes induced by radiation damage during X-ray fluorescence scan. Thechanges were not only clearly visible but could be as well quantified. Together with thenumerical evaluation of damages, the dose delivered to a cell during the experiment was calculated as well. To complete the picture, a different non synchrotron-basedimaging technique, STIM, was used and compared. It is the first time that phase contrastimaging is used to monitor radiation damage effects during X-ray fluorescencemicroscopy experiments.
|
356 |
Towards dependability and performance benchmarking for cloud computing services / Vers la fiabilité et la performance des services de Cloud ComputingSangroya, Amit 24 April 2014 (has links)
Le Cloud Computing est en plein essor, grace a ses divers avantages, telsl'elasticite, le cout, ou encore son importante exibilite dans le developpementd'applications. Il demeure cependant des problemes en suspens, lies auxperformances, a la disponibilite, la fiabilite, ou encore la securite. De nombreusesetudes se focalisent sur la fiabilite et les performance dans les servicesdu Cloud, qui sont les points critiques pour le client. On retrouve parmicelles-ci plusieurs themes emergents, allant de l'ordonnancement de tachesau placement de donnees et leur replication, en passant par la tolerance auxfautes adaptative ou a la demande, et l'elaboration de nouveaux modeles defautes.Les outils actuels evaluant la fiabilite des services du Cloud se basent surdes parametres simplifies. Ils ne permettent pas d'analyser les performancesou de comparer l'efficacite des solutions proposees. Cette these aborde precisement ce probleme en proposant un modele d'environnement complet detest destine a evaluer la fiabilite et les performances des services de CloudComputing. La creation d'outils de tests destines a l'evaluation de la fiabiliteet des performances des services du Cloud pose de nombreux defis, en raisonde la grande quantite et de la complexite des donnees traitees par ce genrede services. Les trois principaux modeles de Cloud Computing sont respectivement:Infrastructure en tant que Service (IaaS), Plate-forme en tant queService (PaaS) et Logiciel en tant que Service (SaaS).Dans le cadre de cettethese, nous nous concentrons sur le modele PaaS. Il permet aux systemesd'exploitation ou aux intergiciels d'etre accessibles via une connexion internet.Nous introduisons une architecture de test generique, qui sera utiliseepar la suite lors de la creation d'outils de tests, destines a l'evaluation de lafiabilite et de la performance. / Cloud computing models are attractive because of various benefits such asscalability, cost and exibility to develop new software applications. However,availability, reliability, performance and security challenges are still not fullyaddressed. Dependability is an important issue for the customers of cloudcomputing who want to have guarantees in terms of reliability and availability.Many studies investigated the dependability and performance of cloud services,ranging from job scheduling to data placement and replication, adaptiveand on-demand fault-tolerance to new fault-tolerance models. However, thead-hoc and overly simplified settings used to evaluate most cloud service fault toleranceand performance improvement solutions pose significant challengesto the analysis and comparison of the effectiveness of these solutions.This thesis precisely addresses this problem and presents a benchmarkingapproach for evaluating the dependability and performance of cloud services.Designing of dependability and performance benchmarks for a cloud serviceis a particular challenge because of high complexity and the large amount ofdata processed by such service. Infrastructure as a Service (IaaS), Platform asa Service (PaaS) and Software as a Service (SaaS) are the three well definedmodels of cloud computing. In this thesis, we will focus on the PaaS modelof cloud computing. PaaS model enables operating systems and middlewareservices to be delivered from a managed source over a network. We introduce ageneric benchmarking architecture which is further used to build dependabilityand performance benchmarks for PaaS model of cloud services.
|
357 |
Trade liberalization, competition and market structure : theory and empirical evidence / Libéralisation du commerce, concurrence et structure du marché : théorie et preuve empiriqueElewa, Aya 06 July 2017 (has links)
Étant donné les caractéristiques du nouveau système du commerce international, il est important de revoir la théorie du commerce international dans un cadre d’économie industrielle (IO) qui capture la nature internationale de cartels, l’existence des firmes multiproduits, les interactions stratégiques entre les firmes (structure du marché oligopolistique) et l’hétérogénéité entre les firmes en matière de leur taille (grande vs. petites) afin de tirer des conclusions sur le fait que si la libéralisation du commerce sera suffisante pour encourager la concurrence ou plutôt une politique de concurrence rigoureuse devrait être appliquée en même temps afin de garantir un environnement concurrentiel et donc améliorer le bien-être. Plus précisément, les interactions stratégiques entre les entreprises jouent un rôle important dans l’évaluation de l’effet concurrentiel de la libéralisation du commerce. Cette étude vise à analyser, tout d’abord, comment l’ouverture commerciale et, par conséquent, la baisse des tarifs affectent le niveau de concurrence, la structure du marché, la formation des cartels et, par conséquent le niveau des prix. Deuxièmement, d’étudier comment le commerce affecte le comportement des firmes. L’utilisation des modèles théoriques et des données sur les firmes égyptiennes pour analyser ces questions me permettent de tirer des conclusions sur la substituabilité entre la politique de libéralisation du commerce et la politique de concurrence. Les résultats montrent que, dans un contexte de collusion entre les firmes, l’ouverture au commerce peut induire une augmentation du niveau des prix. De plus, les résultats montrent que les firmes multiproduits ajustent leur portefeuille de produit selon les caractéristiques des destinations. Enfin, proposant une structure de marché mixte quand on analyse le comportement des firmes multiproduits, montre que la mondialisation affecte la structure du marché par le biais de la sortie des petites firmes. Les effets pro-concurrentiels d’ouverture commerciale ne sont pas si évidents. Une politique de concurrence rigoureuse est indispensable afin de dissuader les comportements anticoncurrentiels. / Given the features of the new trade system, it is important to reconsider international trade theory in an Industrial Organization (IO) framework that captures the international nature of cartels, the existence of multi-product firms, strategic interactions between firms (oligopolistic market structure) and the heterogeneity between firms in terms of size (large vs. small firms) to draw conclusions on whether trade liberalization will be sufficient to enhance competition or should a rigorous competition policy be applied at the same time to ensure competition and hence welfare promotion. More precisely, strategic interactions between firms play an important role in assessing the competitive effect of trade liberalization.This study aims to analyze, first, how trade liberalization and, hence, a decline in trade costs affect the level of competition, market structure and cartel formation in the market and, hence the price level. Second, how trade openness affects firms’ behavior. Building theoretical model and using firm-level data from Egypt to analyze these questions allow me to draw conclusions on the substitutability between trade liberalization and competition policy. Findings show that trade openness, in a context of collusion between firms, may induce an increase in the level of price when there are sufficiently large firms in the market. Overall, evidence on a change in multi-product firms’ choice of product mix with tougher competition and larger market size in the destination is revealed. Finally, using a mixed market structure when analyzing multi-product firms’ behavior, shows that globalization affects the market structure through inducing the exit of small firms. Pro-competitive effects of trade openness were not so clear, a rigorous competition policy is crucial to deter anti-competitive behaviors with increasing trade liberalization.
|
358 |
Implémentation sur SoC des réseaux Bayésiens pour l'état de santé et la décision dans le cadre de missions de véhicules autonomes / SoC implementation of Bayesian networks for health management and decision making for autonomous vehicles missionsZermani, Sara 21 November 2017 (has links)
Les véhicules autonomes, tels que les drones, sont utilisés dans différents domaines d'application pour exécuter des missions simples ou complexes. D’un côté, ils opèrent généralement dans des conditions environnementales incertaines, pouvant conduire à des conséquences désastreuses pour l'humain et l'environnement. Il est donc nécessaire de surveiller continuellement l’état de santé du système afin de pouvoir détecter et localiser les défaillances, et prendre la décision en temps réel. Cette décision doit maximiser les capacités à répondre aux objectifs de la mission, tout en maintenant les exigences de sécurité. D’un autre côté, ils sont amenés à exécuter des tâches avec des demandes de calcul important sous contraintes de performance. Il est donc nécessaire de penser aux accélérateurs matériels dédiés pour décharger le processeur et répondre aux exigences de la rapidité de calcul.C’est ce que nous cherchons à démontrer dans cette thèse à double objectif. Le premier objectif consiste à définir un modèle pour l’état de santé et la décision. Pour cela, nous utilisons les réseaux Bayésiens, qui sont des modèles graphiques probabilistes efficaces pour le diagnostic et la décision sous incertitude. Nous avons proposé un modèle générique en nous basant sur une analyse de défaillance de type FMEA (Analyse des Modes de Défaillance et de leurs Effets). Cette analyse prend en compte les différentes observations sur les capteurs moniteurs et contextes d’apparition des erreurs. Le deuxième objectif était la conception et la réalisation d’accélérateurs matériels des réseaux Bayésiens d’une manière générale et plus particulièrement de nos modèles d’état de santé et de décision. N’ayant pas d’outil pour l’implémentation embarqué du calcul par réseaux Bayésiens, nous proposons tout un atelier logiciel, allant d’un réseau Bayésien graphique ou textuel jusqu’à la génération du bitstream prêt pour l’implémentation logicielle ou matérielle sur FPGA. Finalement, nous testons et validons nos implémentations sur la ZedBoard de Xilinx, incorporant un processeur ARM Cortex-A9 et un FPGA. / Autonomous vehicles, such as drones, are used in different application areas to perform simple or complex missions. On one hand, they generally operate in uncertain environmental conditions, which can lead to disastrous consequences for humans and the environment. Therefore, it is necessary to continuously monitor the health of the system in order to detect and locate failures and to be able to make the decision in real time. This decision must maximize the ability to meet the mission objectives while maintaining the security requirements. On the other hand, they are required to perform tasks with large computation demands and performance requirements. Therefore, it is necessary to think of dedicated hardware accelerators to unload the processor and to meet the requirements of a computational speed-up.This is what we tried to demonstrate in this dual objective thesis. The first objective is to define a model for the health management and decision making. To this end, we used Bayesian networks, which are efficient probabilistic graphical models for diagnosis and decision-making under uncertainty. We propose a generic model based on an FMEA (Failure Modes and Effects Analysis). This analysis takes into account the different observations on the monitors and the appearance contexts. The second objective is the design and realization of hardware accelerators for Bayesian networks in general and more particularly for our models of health management and decision-making. Having no tool for the embedded implementation of computation by Bayesian networks, we propose a software workbench covering graphical or textual Bayesian networks up to the generation of the bitstream ready for the software or hardware implementation on FPGA. Finally, we test and validate our implementations on the Xilinx ZedBoard, incorporating an ARM Cortex-A9 processor and an FPGA.
|
359 |
A theory of objects and visibility. A link between relative analysis and alternative set theory / Une théorie des objets et de leur visibilité. Un lien entre l'analyse relative et la théorie alternative des ensemblesO'Donovan, Richard 07 July 2011 (has links)
La théorie présentée ici est issue d'années d'enseignement de l'analyse au niveau pré-universitaire en utilisant d'abord le concept d'infiniment petit, tel que défini dans l'analyse nonstandard de Robinson, puis ensuite d'ultrapetit, tel que défini dans notre travail en collaboration avec Hrbacek et Lessmann et présenté en annexe. A la suite de ces recherches, s'est posée la question : Si l'on a à disposition des quantités finies mais ultragrandes, est-il possible de se passer de quantités dites infinies ? La théorie alternative des ensembles de Vopěnka est une théorie avec des ensembles finis et des classes qui, elles, peuvent être infinies. La théorie des objets est le résultat d'un mélange de certains axiomes de Vopěnka avec des axiomes déterminant des niveaux de visibilité tels que dans l'analyse relative. On s'est donné comme premier principe : $x\subseteq y\Rightarrow x\sqsubseteq y$ qui spécifie que si l'objet $x$ est inclus dans l'objet $y$, alors $x$ "paraît" au niveau de $y$. Cette affirmation serait fausse avec des quantités infinies ; elle est néanmoins une caractérisation des ensembles finis : cela est bien connu en analyse nonstandard. L'introduction de ce principe comme point de départ est donc une affirmation forte que les objets devront être finis au sens habituel de ce terme. L'autre axiome fondateur ici est le schéma d'axiomes d'induction de Gordon et Andreev : Si $\Phi$ est une formule, et si $\Phi(\emptyset)$ est vrai et que $\Phi(x)$ et $\Phi(y)$ impliquent $\Phi(x\cup\{y\})$, alors $\Phi(x)$ est vrai pour tout $x$. Un accent particulier est mis sur le concept de formules dites contextuelles. Ce concept est une de nos contributions à l'analyse relative de Hrbacek et détermine les formules bien formées. On montre que le système qui en résulte est relativement cohérent avec la théorie FRIST de Hrbacek et la théorie RIST de Péraire qui sont elles-mêmes des extensions conservatives de ZFC. La théorie des objets est une extension de la théorie des ensembles de Zermelo et Fraenkel sans axiome du choix et négation de l'axiome de l'infini. Les nombres entiers et rationnels sont définis et ces derniers sont munis de relations d'ultraproximité. Une ébauche d'une construction de "grains numériques" est présentée : ces nombres pourraient avoir des propriétés suffisamment semblables aux nombres réels pour permettre de faire de l'analyse. / The theory presented here stemmed from years of teaching analysis at pre-university level first using the concept of infinitesimal as defined in nonstandard analysis by Robinson, then the concept of ultrasmall as defined in our joint work with Hrbacek and Lessmann presented in the appendix. This research led to the question : If one has finite yet ultralarge quantities, is it possible to avoid infinite quantities ? The alternative set theory of Vopěnka is a theory of finite sets including classes that can be infinite. The theory of objects is a merger of certain axioms of Vopěnka with axioms that determine levels of visibility as in relative analysis. We took as first principle : $x\subseteq y\Rightarrow x\sqsubseteq y$, which specifies that if object $x$ is included in object $y$, then $x$ "appears" at the level of $y$. This statement would be false with infinite quantities and is in fact a characterisation of finite sets : this is a well-known theorem of nonstandard analysis. The introduction of this principle as starting point is making a strong point that all objects will be finite - in the usual sense of the word. The other founding axiom is Gordon and Andreev's axiom schema : If $\Phi$ is a formula, and if $\Phi(\emptyset)$ is true and that $\Phi(x)$ and $\Phi(y)$ imply $\Phi(x\cup\{y\})$, then $\Phi(x)$ is true for all $x$. An emphasis is made on the concept of contextual formulae. This concept is one of our contributions to relative analysis of Hrbacek and determines an equivalence to well-formed formulae. We show that the resulting system is relatively consistent with Hrbacek's FRIST and Péraire's RIST which are conservative extensions of ZFC. The theory of objects extends set theory of Zermelo and Fraenkel without choice and with negation of the infinity axiom. Integers and rationals are defined and endowed with an ultraproximity relation. A draft of a construction of "numeric grains" is presented : these numbers could prove to have properties sufficiently similar to real numbers to allow to perform analysis.
|
360 |
Caractérisation de détecteurs à plaques résistives de verres de basse résistivité en vue de la mise à niveau de CMS / Characterisation of low resistivity glass resistive plate chambers for the CMS upgradeLagarde, François 20 October 2017 (has links)
La mise à niveau du détecteur CMS (Upgrade Phase-2) en 2024 prévoit l'installation de nouveaux détecteurs à plaques résistives (RPC) dans les 2 secteurs les plus externes et les plus vers l’avant (RE3/1 et RE4/1) des bouchons. Des RPC en verre de basse résistivité (GRPC) ont été proposées afin d'instrumenter ces secteurs où le flux de particules sera de l’ordre du kHz/cm², valeurs pour lesquelles les RPC actuelles de CMS ne sont pas efficaces. Cette thèse porte sur l'étude et la caractérisation de ces GRPC, de leur électronique de lecture associée et de leur résistance aux irradiations. Deux méthodes de production de chambres de taille moitié des chambres finales à partir de pavages de verres de taille maximale 32*30cm² ont été élaborées et testées. Un nouveau circuit électronique (PCB) à bandes de détection non segmentées en êta et lues par des puces dédiées (PETIROC2A) est également présenté. Il permet grâce à des chronomètres numériques (TDC) de 25 picosecondes de résolution, une précision de l'ordre du centimètre sur la mesure de la position du passage des particules le long des bandes. Cette thèse décrit ces nouveaux dispositifs et présente les résultats obtenus avec ceux-ci lors de tests en faisceaux auprès des accélérateurs PS et SPS du CERN ainsi qu'au Gamma Irradiation Facility (GIF++). Cette étude montre que le verre de basse résistivité, bien que supportant les flux de particules, n'est pas la meilleure solution pour l'environnement de CMS car il nécessite un mélange gazeux différent pour fonctionner. Cependant, la nouvelle électronique a prouvé son adéquation à cet environnement et est maintenant considérée comme l'option privilégiée pour la mise à niveau de CMS / The installation of new resistive plate chamber detectors (RPCs) in the 2 most remote sectors (RE3 / 1 and RE4 / 1) of the CMS End-Caps is planned during the Phase-2 CMS upgrade in 2024. Glass Resistive Plate Chambers (GRPC) with low resistivity glass as electrodes have been proposed to equip these sectors. These detectors should sustain these zones' particle rate. The aim of this Thesis is to study and characterise these detectors, their associated readout electronics and their behaviour under radiations.Two ways of building half size chambers by tesselation of glass plates with maximal size 32*30cm² have been developped. A new PCB with strips readout read by dedicated ASICs (PETIROC2A) without eta segmentation is also described. It allows, thanks to a 25 ns time-resolution TDC to estimate the particle crossing position on the strip with a resolution of the order of cm. This manuscript describes all these devices and discusses the devices' performance measured in beam tests done at the CERN PS and SPS accelerator and at the Gamma Irradiation Facility (GIF++). This study shows that the low resistivity glass, though able to sustain the particule rate, is not the best option for the CMS upgrade. On the contrary, the tested electronic has been proven to fit the CMS upgrade requirements and is now considered as the baseline of the CMS End-Caps RPC upgrade project
|
Page generated in 0.0491 seconds