• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 51
  • 13
  • Tagged with
  • 124
  • 96
  • 67
  • 26
  • 23
  • 23
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • 17
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

On the stock market dependence with China characteristic information : empirical study and data analytics / L’étude de la relation entre l’information caractéristique de de la Chine et le marché boursier : étude empirique et analyse de données

He, Feng 14 September 2015 (has links)
Ce document met l'accent sur la caractéristique des informations de la Chine dans l'environnement complexe de l'information, à la recherche empirique sur la relation entre l'information caractéristique de la Chine avec le marché boursier, outre d'étudier le modèle de diffusion de l'information concernant les différentes caractéristiques de la Chine sur le marché boursier. Les deux données transversales et série temporelles sont appliquées en mesurant la dépendance à partir du micro-indicateur, et en outre au niveau macro d'étudier la dépendance liée au phénomène unique de la Chine . Dans l'étude du niveau micro, nous choisissons le lien politique comme le mode variable de l'information de la Chine. Nous avons découvert que différents liens politiques ont donné lieu à différentes performances de l'entreprise, ce qui affecte plus le rendement des actions à la fois sur le temps et l'échelle du rendement anormal. Dans les tests de la dépendance au niveau macro, nous introduisons l'approche copula empirique dans l'immobilier, le marché de l'or et des actions. Notre résultat a détecté la dépendance univariée parmi les trois marchés bien qu'ils soient deux à deux indépendants. Enfin, nous avions établi un marché immobilier et boursier artificiel pour analyser la réaction du marché boursier avec la politique de l'immobilier basé sur les caractéristiques de la Chine. Basé sur la recherche ci-dessus, nous concluons que la caractéristique des informations de la Chine a un effet sur le marché financier tant au niveau micro et macro, et canalisés entre eux. Ainsi, nous devons tenir en compte ces caractéristiques dans l'étude de l'analyse du marché financier de la Chine. / After recent financial crisis, financial asset clustered and fell together, although there was not significant dependent relationship detected in academic research. lt is an indisputable fact that the correlation and dependence between financial asset and market is far more beyond our current knowledge. On stock market studies, in the current "Big data" world, the complexity and wide variety information calls for research on the particular kind of information and its effect on the stock market. Thus, we could further study the relationship and dependence among financial asset to detect the information diffusion pattern in financial market. To achieve this objective, exiting data sources and analytics required to be improved. This paper focuses on the China characteristic information in the complex information environment, to empirically research on the relationship of China characteristic information with stock market, and further study information diffusion pattern regarding to different China characteristics in stock market. Both cross-seclional and time series data are applied with measuring dependence from micro indicators, and further studied the on the macro level dependence related to China unique phenomenon. ln micro level study, we choose political connection as information which is particular China pattern. By non-parametric analysis, we conclude different political connections resulted in different stock performance. Then we considered stock analyst recommendations as aggregated information proxy, applying event study to test the stock reaction to information controlling for political connection and ratings. We discovered that different political connection affect stock retum both on the lime and scale of abnormal return. ln testing for macro level dependence, we introduce empirical copula approach with stock, real estate and gold market. Our result detected univariate dependence among the three market although they are pairwise independent. Finally, we constructed an agent-based artificial stock and housing market to test the stock market reaction with housing market policy based on China characteristics. Based on the above research, we conclude that China characteristic information do have effect on the financial market from both micro and macro level, and channeled between them. Thus, we need to consider these characteristic in studying China financial market issue.
82

Conception et validation de plateformes de communication autour du corps humain, à l'échelle de l'individu et du groupe / Design and validation of wireless body area communication platforms, for individual and group monitoring

Lauzier, Matthieu 03 April 2015 (has links)
Depuis plusieurs années, bénéficiant de nombreuses évolutions technologiques, le domaine de l'instrumentation sans fil a conquis de nouveaux champs d'application, comme le suivi de paramètres physiologiques des personnes, par le développement des réseaux de capteurs sans fil autour du corps humain (BAN, pour Body Area Networks). Majoritairement orienté vers le domaine médical et l'amélioration des conditions de vie des patients, ce type de plate-forme s'est plus récemment étendu à d'autres activités, notamment aux loisirs et au sport. Selon le contexte applicatif, les hypothèses et les contraintes liées à ces réseaux peuvent être très variées, c'est pourquoi le développement de mécanismes de communication adaptés est nécessaire. Au cours de mes travaux de thèse, je me suis intéressé à la réalisation de plate-formes de collecte de données pour des applications sportives en situation de mobilité. Dans une première partie est abordée la collecte d'informations individuelles, pour laquelle nous présentons une preuve de concept en contexte sportif, avant d'apporter des éléments complémentaires à la modélisation des canaux des BAN et aux stratégies de communication pour la collecte individuelle. Ensuite, nous abordons la réflexion sur la collecte d'informations dans les réseaux denses et mobiles, en proposant des algorithmes distribués basés sur le consensus permettant d'identifier des groupes de façon dynamique, à petite et large échelle. Des réalisations pratiques à chaque étape de mes travaux de thèse permettent la validation des plate-formes développées, grâce à un ensemble conséquent de données collectées sur le terrain. L'analyse des données fournit également des éléments pour mieux caractériser les communications, notamment à large échelle, ce qui ouvre de nombreuses pistes quant à de futurs travaux. De plus, si un fort contexte applicatif est présent dans ces travaux, les méthodes d'analyse et les algorithmes développés sont valorisables et extensibles à d'autres domaines. / The technological evolutions which have taken place for the last decades allowed the emergence of new application fields, such as the wireless monitoring of physiological parameters collected on the human body, with the development of Wireless Body Area Networks (WBANs, or BANs). Mostly dedicated to the medical domain and the improvement of the patients' comfort and safety, this kind of platforms more recently extended to other kinds of activities, such as sports and leisures. According to the applicative context, the hypotheses and constraints associated to these networks can vary drastically, yielding the necessity of developing adapted communication mechanisms. The works presented in this thesis have focused on the realization of data collection platforms for mobile sports applications. In a first part, we concentrate on the individual data collection, for which we give a proof of concept in the context of a Marathon race, before aiming at a better understanding of individual channel models and cooperative mechanisms for on-body data centralization. In a second part, we are interested in dense and mobile networks consisting in an important number of coexisting BANs. Our aim is to propose distributed algorithms based on consensus to allow dynamic group detection, with a variable scale. The validation of the approaches developed in this document is performed by practical implementations and experiments at each step of this work, thanks to an important amount of real world collected data. Through extended analyzes, we provide elements allowing to characterize the communication within mobile BANs, and particularly large scale networks. Although guided by the strong applicative context of live TV broadcast, these works and analysis methods don't lose in generality, and this challenging and original context opens a lot of perspectives.
83

Towards a performance based design of shear walls based on damage criteria = Vers un dimensionnement performanciel des murs de refend basé sur des critères d'endommagement

Cardona Jaramillo, Luis Ignacio January 2016 (has links)
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe. / Abstract : Performance Based Design (PBD) methodology, in a deterministic approach, characterizes the performance objectives in relation to the desired performance levels. Performance objectives are associated with the stated damage condition and the seismic hazard level. Despite this rational approach, its application is still difficult and reliable tools for capturing the evolution, distribution and measuring the damage are indeed required. All phenomena related to nonlinearities (materials and deformations) must also be considered. This research shows how the Damage mechanic could contribute to solving this problematic jointly with an adaptation of the MCFT (Modified Compression Field Theory) formulation and other complementary theories. The proposed formulation, adapted for monotonic, pushover and cyclic loads, allows considering the nonlinear shear-related effects coupled with axial and flexural mechanisms. This formulation is specially addressed to nonlinear analysis of concrete structural elements subjected to non-negligible shear effects. This new approach implemented in EfiCoS (a layered damage mechanic based finite element program), including modeling criteria, is also presented here. Calibrations of this new approach comparing the predictions with experimental data were carried out for concrete shear walls as well as for concrete beams and bridge columns where shear effects have to be considered. This new improved version of software EFiCoS demonstrated to be capable of evaluating accurately the parameters associated with the overall performance, such as displacements, the system strength, the effects related to the cyclic response and the magnitude, evolution and distribution of the damage. Remarkable results were also obtained in reference to the appropriate detection of engineering limit states such as cracking, strains, spalling in cover, crushing, local yielding in bars and system strength degradation, among others. As a very useful application tool for PBD, relationships between the predicted damage indices and the performance levels were obtained and expressed as charts and tables. These charts were derived in terms of the drift and the displacement ductility. A particular table was developed to relate the engineering limit states, the damage, the drift and the traditional performance levels. Results have shown a very good agreement with the experimental data, making the proposed formulation and the new version of EfiCoS a powerful tool for the application of the PBD methodology, in a deterministic approach.
84

Localisation d'objets 3D industriels à l'aide d'un algorithme de SLAM contraint au modèle / Localization of industtrial 3D objects using model-constrained SLAM

Loesch, Angélique 01 December 2017 (has links)
Un besoin applicatif existe en terme de localisation 3D d’objets par vision. Cette technologie devient en effet de plus en plus populaire dans le milieu industriel où elle peut être utile lors de contrôle qualité, de robotisation de tâches ou encore d’aide à la maintenance par Réalité Augmentée. Néanmoins, le déploiement de telles applications est actuellement limité en raison de la difficulté à allier qualité de localisation, facilité de mise en oeuvre et généricité de la solution. En effet, la majorité des solutions implique : soit des étapes de mise en oeuvre complexes comme avec l’installation de capteurs de mouvement ou une préparation supervisée du modèle CAO; soit un manque de précision de la localisation dans le cadre de certaines applications nécessitant de prendre en compte des mouvements de fortes amplitudes de la caméra (provoquant du flou de bouger et des tremblements dans le flux vidéo) ainsi que des occultations partielles ou totales de l’objet ; soit enfin une restriction sur la nature de l’objet, celui-ci devant être texturé, de petite taille ou encore polyédrique pour avoir une bonne localisation. La plupart des solutions de localisation existantes correspondent à des approches de suivi basé modèle. Cette méthode consiste à estimer la pose relative entre la caméra et l’objet d’intérêt par mises en correspondance de primitives 3D extraites du modèle avec des primitives 2D extraites d’images d’un flux vidéo. Pour autant, cette approche atteint ses limites lorsque l’objet est difficilement observable dans l’image.Afin d’améliorer la localisation lorsque l’application concerne un objet fixe, de récentes solutions se sont appuyées en complément des primitives du modèle, sur des primitives de l’environnement reconstruites au cours du processus de localisation. Ces approches combinent algorithmes de SLAM (Simultaneous Localization And Mapping) et de suivi d’objet basé contours en utilisant les informations du modèle comme contrainte dans le processus d’optimisation du SLAM. Pour cela, un terme d’erreur est ajouté à la fonction de coût classique.Celui-ci mesure l’erreur de re-projection entre des primitives 3D issues des arêtes franches du modèle et les points de contour 2D dans l’image qui leur sont associés. L’ajout de cette contrainte permet d’exprimer la localisation du SLAM dans le repère de l’objet d’intérêt tout en réduisant sa dérive. Les solutions de SLAM contraint au modèle n’exploitant cependant que les contours francs du modèle, ne sont pas génériques et ne permettent de localiser que des objets polyédriques. De plus, l’ajout de cette contrainte entraîne une forte augmentation de la consommation mémoire, les images de contours nécessaires à l’étape de mise en correspondance devant être conservées.Les travaux présentés dans ce mémoire de thèse visent à fournir une solution répondant simultanément à l’ensemble des besoins concernant la facilité de déploiement, la qualité de localisation et la généricité sur la nature des objets suivis. Aussi, notre solution basée sur un algorithme de SLAM visuel contraint basé images clés, se restreint-elle au seul usage d’une caméra couleur, les caméras RGBD impliquant généralement une limite sur le volume, la nature réflective ou absorbante de l’objet, et sur la luminosité de son environnement. Cette étude est en outre restreinte à la seule exploitation de modèles 3D géométrique non texturés, les textures pouvant difficilement être considérées comme stables dans le temps (usure, taches...) et pouvant varier pour un même objet manufacturé. De plus, les modèles à base de nuages de descripteurs locaux ou les modèles surfaciques texturés sont actuellement des données peu disponibles dans l’industrie. Enfin, nous faisons le choix d’estimer la pose de la caméra de manière géométrique et non par apprentissage. Le suivi d’objets à l’aide d’apprentissage automatique est en effet encore difficilement exploitable en milieu industriel. (...) / In the industry domain, applications such as quality control, automation of complex tasks or maintenance support with Augmented Reality (AR) could greatly benefit from visual tracking of 3D objects. However, this technology is under-exploited due to the difficulty of providing deployment easiness, localization quality and genericity simultaneously. Most existing solutions indeed involve a complex or an expensive deployment of motion capture sensors, or require human supervision to simplify the 3D model. And finally, most tracking solutions are restricted to textured or polyhedral objects to achieved an accurate camera pose estimation.Tracking any object is a challenging task due to the large variety of object forms and appearances. Industrial objects may indeed have sharp edges, or occluding contours that correspond to non-static and view-point dependent edges. They may also be textured or textureless. Moreover, some applications require to take large amplitude motions as well as object occlusions into account, tasks that are not always dealt with common model-based tracking methods. These approaches indeed exploit 3D features extracted from a model, that are matched with 2D features in the image of a video-stream. However the accuracy and robustness of the camera localization depend on the visibility of the object as well as on the motion of the camera. To better constrain the localization when the object is static, recent solutions rely on environment features that are reconstructed online, in addition to the model ones. These approaches combine SLAM (Simultaneous Localization And Mapping) and model-based tracking solutions by using constraints from the 3D model of the object of interest. Constraining SLAM algorithms with a 3D model results in a drift free localization. However, such approaches are not generic since they are only adapted for textured or polyhedral objects. Furthermore, using the 3D model to constrain the optimization process may generate high memory consumption,and limit the optimization to a temporal window of few cameras. In this thesis, we propose a solution that fulfills the requirements concerning deployment easiness, localization quality and genericity. This solution, based on a visual key-frame-based constrained SLAM, only exploits an RGB camera and a geometric CAD model of the static object of interest. An RGB camera is indeed preferred over an RGBD sensor, since the latter imposes limits on the volume, the reflectiveness or the absorptiveness of the object, and the lighting conditions. A geometric CAD model is also preferred over a textured model since textures may hardly be considered as stable in time (deterioration, marks,...) and may vary for one manufactured object. Furthermore, textured CAD models are currently not widely spread. Contrarily to previous methods, the presented approach deals with polyhedral and curved objects by extracting dynamically 3D contour points from a model rendered on GPU. This extraction is integrated as a structure constraint into the constrained bundle adjustment of a SLAM algorithm. Moreover we propose different formalisms of this constraint to reduce the memory consumption of the optimization process. These formalisms correspond to hybrid structure/trajectory constraints, that uses output camera poses of a model-based tracker. These formalisms take into account the structure information given by the 3D model while relying on the formalism of trajectory constraints. The proposed solution is real-time, accurate and robust to occlusion or sudden motion. It has been evaluated on synthetic and real sequences of different kind of objects. The results show that the accuracy achieved on the camera trajectory is sufficient to ensure a solution perfectly adapted for high-quality Augmented Reality experiences for the industry.
85

Adaptation of SysML Blocks and Verification of Temporal Properties / Adptation des Blocs sysML et verification des propriétés temporelles

Bouaziz, Hamida 03 November 2016 (has links)
Le travail présenté dans cette thèse a lieu dans le domaine de développement basé sur les composants, il est une contribution à laspécification, l'adaptation et la vérification des systèmes à base de composants. Le but principal de cette thèse est la proposition d'uneapproche formelle pour construire progressivement des systèmes complexes en assemblant et en adaptant un ensemble de composants,où leur structure et leur comportement sont modélisés à l'aide de diagrammes SysML. Dans la première étape, nous avons défini uneapproche basée sur la méta-modélisation et la transformation des modèles pour vérifier la compatibilité des blocs ayant leurs protocolesd'interaction modélisés à l'aide de diagrammes de séquence SysML. Pour vérifier leur compatibilité, nous effectuons une transformationen automates d'interface (IAs), et nous utilisons l'approche optimiste définie sur les IA. Cette approche considère que deux composantssont compatibles s'il existe un environnement approprié avec lequel ils peuvent interagir correctement. Après cela, nous avons proposéde bénéficier de la hiérarchie, qui peut être présente dans les modèles de protocole d'interaction des blocs, pour alléger la vérification dela compatibilité des blocs. Dans l'étape suivante, nous avons pris en considération le problème des incohérences de noms de type one2oneentre les services des blocs. A ce stade, un adaptateur est généré pour un ensemble de blocs réutilisés qui ont leurs protocoles d'interactionmodélisés formellement par des automates d'interface. La génération de l'adaptateur est guidée par la spécification du bloc parent qui estfaite initialement par le concepteur. Notre approche est complétée par une phase de vérification qui nous permet de vérifier les exigencesSysML, exprimées formellement par les propriétés temporelles, sur les blocs SySML. Dans cette phase, nous avons exploité uniquementles adaptateurs générés pour vérifier la préservation des exigences initialement satisfaites par les blocs réutilisés. Ainsi, notre approchea l'intention de donner plus de chance d'éviter le problème de l'explosion de l'espace d'état au moment de la vérification. Dans le mêmecontexte, où nous avons un ensemble de blocs réutilisés et la spécification de leurs blocs parents, nous avons proposé d'utiliser des réseauxde Petri colorés (CPN) pour modéliser les interactions des blocs et générer des adaptateurs qui résolvent plus de types de problèmes. Dansce cas, l'adaptateur peut résoudre le problème de blocage en permettant le ré-ordonnancement des appels de services. / The work presented in this thesis takes place in the component-based development domain, it is a contribution to the specification,adaptation and verification of component-based systems. The main purpose of this thesis is the proposition of a formal approach tobuild incrementally complex systems by assembling and adapting a set of components, where their structure and behaviour are modelledusing SysML diagrams. In the first stage, we have defined a meta-model driven approach which is based on meta-modelling and modelstransformation, to verify the compatibility of blocks having their interaction protocols modelled using SysML sequence diagrams. To verifytheir compatibility, we perform a transformation into interface automata (IAs), and we base on the optimistic approach defined on IAs. Thisapproach consider that two components are compatible if there is a suitable environment with which they can interact correctly. Afterthat, we have proposed to benefit from the hierarchy, that may be present in the interaction protocol models of the blocks, to alleviate theverification of blocks compatibility. In the next stage, we have taken into consideration the problem of names mismatches of type one2onebetween services of blocks. At this stage, an adapter is generated for a set of reused blocks which have their interaction protocols modelledformally by interface automata. The generation of the adapter is guided by the specification of the parent block which is made initiallyby the designer. Our approach is completed by a verification phase which allows us to verify SysML requirements, expressed formallyby temporal properties, on SySML blocks. In this phase, we have exploited only the generated adapters to verify the preservation of therequirements initially satisfied by the reused blocks. Thus, our approach intends to give more chance to avoid the state space explosionproblem during the verification. In the same context, where we have a set of reused blocks and the specification of their parent blocks, wehave proposed to use coloured Petri nets (CPNs) to model the blocks interactions and to generate adapters that solve more type of problems.In this case the adapter can solve the problem of livelock by enabling the reordering of services calls.
86

Emulation platform synthesis and NoC evaluation for embedded systems : towards next generation networks / Synthèse de plateformes d’émulation et évaluation de NoCs pour les systèmes embarqués : vers les réseaux du futur

Alcantara de Lima, Otavio Junior 09 September 2015 (has links)
La complexité croissante des systèmes embarqués multi-coeur exige des structures de communication flexibles et capables de supporter de nombreuses requêtes de trafics au moment de l’exécution. Les Réseaux sur Puce (NoC) émergent comme la technologie de communication la plus prometteuse pour les SoCs (Systèmes sur Puce), du fait de leur plus grande flexibilité par rapport aux autres solutions comme les bus et les connexions points à points. Les NoCs sont devenus le standard comme support de communication pour les SoC, mais les outils d’évaluation de performances deviennent critiques pour ces systèmes. Les outils d’émulation sur FPGA accélèrent l’analyse comparative de NoC ainsi que l’exploration de l’espace de conception. Ces outils ont une grande précision et un faible temps d’exécution par rapport aux simulateurs de NoC. Un outil d’émulation basé sur FPGA est composé de dizaines ou de centaines de composants distribués. Ces composants doivent être correctement gérés afin d’exécuter différents scénarii d’évaluation de trafic. Pour cela, il faut être à même de re-programmer les composants, en utilisant un protocole standard qui permet alors de piloter l’émulateur de NoC sur FPGA. Ces protocoles facilitent l’intégration des composants d’émulation développés par différents concepteurs et simplifient la configuration des noeuds d’émulation sans resynthèse ainsi que l’extraction des résultats d’émulation. Bien que l’émulation matérielle de NoC soit assez difficile, il est important de valider de nouvelles architectures de NoC avec des trafics basés sur les applications réelles pour permettre d’obtenir des résultats plus précis. La génération de modèles de trafic basés sur des applications est une préoccupation majeure pour l’émulation de NoC. Les traces intégrant des informations de dépendances sont plus précises que les traces ordinaires, ceci pour un large éventail d’architectures de NoC. Cependant, elles ont tendance à être plus grosses que les traces originales et exigent plus de ressources FPGA. L’objectif de cette thèse est la synthèse de plateformes d’émulation de NoC sur FPGA pour les futurs systèmes embarqués multi-noeuds. Une recherche approfondie s’est portée sur les stratégies éventuelles pour la génération des modèles réalistes de trafic pour le NoC émulé sur FPGA, et pour la gestion des plateformes d’émulation en utilisant des protocoles standard inspirés des protocoles de réseaux informatiques. Une première contribution de cette thèse est une structure (« framework ») d’analyse de traces capable d’extraire les dépendances de paquets. La plateforme proposée analyse un ensemble de traces extraites d’une application embarquée basée sur l’échange de messages afin de construire un modèle de calcul (MoC). Un générateur de trafic (TG) intégrant cette dépendance est créé à partir du MoC proposé. Ce TG reproduit le motif de trafic d’une application pour une plateforme d’émulation sur FPGA. Une seconde contribution est une version allégée du protocole SNMP (Simple Network Management Protocol) pour la gestion d’une plateforme d’émulation de NoC sur FPGA. L’architecture de la plateforme d’émulation proposée est basée sur les concepts du protocole SNMP. Elle offre une interface standard de haut niveau pour les composants d’émulation fournis par le protocole SNMP. Ce protocole facilite également l’intégration de composants d’émulation créés par différents concepteurs. Une analyse prospective des futures architectures de NoC constitue également une contribution dans cette thèse. Dans cette analyse, une architecture conceptuelle d’un système embarqué multi-noeuds du futur constitue un modèle pour extraire les contraintes de ces réseaux. Un autre mécanisme présenté est un NoC tolérant aux pannes, basé sur l’utilisation de liens de contournement. Enfin, la dernière contribution repose sur une analyse de base des besoins des futurs NoC pour les outils d’émulation sur FPGA / The ever-increasing complexity of many-core embedded system applications demands a flexible communication structure capable of supporting different traffics requirements at run-time. The Networks-on-Chip (NoCs) emerge as the most promising communication technology for the modern many-cores SoC (System-on-Chip), whereby they have greater scalability than other solutions such as buses and point to point connections. As NoCs become de facto standard for on chip systems, NoC performance evaluation tools become critical for SoCs design. The FPGA based emulation platforms accelerate NoC benchmarking as well as design space exploration. Those platforms have high accuracy and low execution time in relation to NoC simulators. An FPGA-based emulation platform is composed by tens or hundreds of distributed components. These components should be timely managed in order to execute an evaluation scenario. There is a lack of standard protocols to drive FPGA-based NoC emulators. Such protocols could ease the integration of emulation components developed by different designers, as well as they could enable the configuration of the emulation nodes without FPGA re-synthesis and the extraction of emulation results. The NoC hardware emulation is quite challenging. It is important to validate new NoC architectures with realistic workloads, because they provide much more accurate results. The generation of applications traffic patterns is a key concern for NoC emulation. The dependency aware traces are an appealing solution for the generation of realistic traffic workloads. They are more accurate than ordinary traces for a broad range of NoC architectures because they contain packets dependencies information. However, they tend to be bigger than the original ones what demands more FPGA resources. This thesis aims the synthesis of FPGA-based NoC emulation platforms for the future multi-core embedded systems. We are interested in investigating strategies to generate realistic traffic patterns for NoCs emulated on FPGAs, as well as the management of the emulation platform using standard protocols inspired by the computer networks protocols. One contribution of this thesis is a trace analysis framework which addresses the packets dependencies extraction problem. The proposed framework analyzes traces from a message passing application in order to build a Model of Computation (MoC). This MoC reproduces the communicative behavior of an application node. A dependency-aware Traffic Generator (TG) is created from the proposed MoC. This TG generates the application traffic pattern during an FPGA-based NoC emulation. Another contribution is a light version of SNMP (Simple Network Management Protocol) to manage an FPGA-based NoC emulation platform. An FPGA-based emulation platform architecture is proposed based on the principles of SNMP protocol. This platform has a high-level interface to the emulation components provided by that protocol, which also eases the integration of emulation components created by different designers. The emulation platform and the protocol capacities are evaluated during a task mapping and mesh topology design space exploration. A prospective analysis of future NoCs architectures is also a contribution of this thesis. In this analysis, a conceptual architecture of a future multi-core embedded system is used as model to extract these networks requirements. From this analysis, it is proposed some networking mechanisms. The first mechanism is a congestion-aware routing algorithm, which is an adaptive routing algorithm that selects the output path for a given packet based on a simple prioritized scheme of sets of rules. It is also proposed a congestion-control mechanisms for the vertical links interconnecting the layers of a 3D NoC. This mechanism is based upon the diffusion of congestion information by a piggyback protocol
87

From ideas to policymaking : the political economy of the diffusion of performance-based financing at the global, continental, and national levels

Gautier, Lara 04 1900 (has links)
Thèse de doctorat de l’Université de Montréal en cotutelle avec l’Université Paris-Diderot. Présentée et soutenue publiquement à Paris le 3 juillet 2019. / Problématique : Le caractère polycentrique de la gouvernance de santé mondiale fait émerger depuis une vingtaine d’années des pôles d’influence politique de différents niveaux. Depuis la fin des années 2000, des acteurs influents appuient la mise en œuvre d’une réforme de financement de la santé : le financement basé sur la performance (FBP). Le FBP repose sur le transfert de ressources financières conditionnelles à la performance des prestataires de santé. En dépit d’une absence d’unanimité sur les preuves scientifiques de son efficacité, la politique a été expérimentée dans plus de 70% des 46 pays d’Afrique subsaharienne. Les projets de FBP sont promus par des réseaux d’experts transnationaux (nouveaux acteurs de la gouvernance polycentrique), financés par des bailleurs de fonds, et appuyés par des assistants techniques provenant le plus souvent d’Europe et d’Amérique du Nord. Au-delà du pouvoir financier, ces acteurs exercent d’autres formes de pouvoir moins visibles pour stimuler la diffusion de cette politique. Introduisant le concept d’“entrepreneurs de la diffusion”, nous utilisons une approche d’économie politique pour comprendre les interactions sociales en jeu dans le processus de diffusion entre les acteurs agissant aux niveaux global, continental et national, ainsi que les relations de pouvoir asymétriques inhérentes à ces interactions. Pour cela, nous réalisons une étude interprétative à niveaux d’analyse imbriqués (global, continental, national). Cadre conceptuel : Nous utilisons un cadre conceptuel interdisciplinaire empruntant aux champs des politiques publiques, des relations internationales, et de la santé mondiale. Nous analysons les caractéristiques des entrepreneurs de la diffusion – leurs systèmes de représentation (leur perception du monde et présupposés sous-jacents), ressources, types d’autorité, et motivations – et les stratégies qu’ils utilisent pour favoriser la diffusion du FBP. Ces stratégies incluent : l’ancrage idéationnel de la politique (policy framing), la stimulation de l’émulation par la constitution de réseaux (policy emulation), la conduite de l’agenda d’apprentissage sur le FBP (policy learning), et la fixation de standards et cadres de collaboration pour assurer une expérimentation réussie du FBP (policy experimentation). Méthodologie : L’objet principal de la thèse est la diffusion du FBP en Afrique subsaharienne, qui s’articule autour d’influents « entrepreneurs de la diffusion » (cinq organisations, trois réseaux transnationaux, et plus d’une vingtaine d’individus). Trois études ont été réalisées à trois niveaux différents : niveau global (arènes politiques de santé mondiale et instituts de recherche européens), niveau continental (Afrique subsaharienne), et niveau national (cas du Mali). L’approche d’analyse est principalement qualitative : nous avons collecté des données d’entretiens approfondis (N=57), d’observations participantes (N=13) et de documents (N=41). Dans l’étude à échelle continentale, ces données qualitatives sont complétées par des analyses de réseaux sociaux et des analyses sémantiques à partir de 1 346 messages de forum. Ces données quantitatives complètent la caractérisation de l’un des réseaux transnationaux et son influence sur la diffusion du FBP. Valeur de la recherche : Cette recherche constitue la première analyse d’économie politique détaillant des processus multiniveaux et protéiformes (discours, constitution en réseaux, et production et dissémination de multiples formes de savoirs) conduits par des acteurs influents – les entrepreneurs de la diffusion – afin de faciliter la diffusion d’une innovation politique (le FBP) dans le contexte particulier de la gouvernance polycentrique. Cette étude apporte d’importantes contributions théoriques et empiriques à la littérature. Premièrement, elle offre un cadre conceptuel novateur adapté au contexte de la santé mondiale et de la gouvernance polycentrique, qui peut être appliqué à divers types de recherche. Deuxièmement, elle fournit des analyses empiriques utiles sur les processus de gouvernance polycentrique, qui ont été jusqu’ici peu étudiés. Mettant en lumière l’exercice du pouvoir d’acteurs européens et nord-américains dans leur interaction avec des consultants et décideurs africains, cette étude ouvre également la voie à d’autres recherches, notamment sur le phénomène de fabrique d’une expertise africaine. / Background: Over the past 20 years, the polycentric nature of global health governance has shaped the emergence of autonomous actors with political influence at different levels. Since the late 2000s, influential policy actors have been supporting the implementation of a health financing reform: Performance-based financing (PBF). PBF relies on the transfer of financial resources conditional on the performance of health providers. In contrast to input financing systems, this mechanism focuses on achieving results based on performance targets. Despite a lack of consensus on the scientific evidence of its effectiveness, the policy has been tested in more than 70% of 46 sub-Saharan African countries. PBF projects are promoted by transnational expert networks (i.e., autonomous actors of polycentric governance), funded by donors, and supported by technical assistants, mostly coming from Europe and North America. Beyond their financial power, these actors exert other less visible forms of power to stimulate the diffusion of PBF. Introducing the concept of diffusion entrepreneurs, we use a political economy approach to explore the social interactions at play in the diffusion process between actors across global/continental/national levels, and the asymmetrical power relations embedded within those interactions. To do so, we carry out an interpretative study with nested analysis levels (global, continental, national). Conceptual Framework: We use an interdisciplinary conceptual framework borrowing from the fields of public policy, international relations, and global health. We analyse the characteristics of diffusion entrepreneurs — their representation systems (their underlying assumptions about the world), resources, types of authority, and motivations — and the strategies they use to promote the diffusion of PBF. These strategies include: policy framing, stimulating emulation through policy emulation, driving the learning agenda on policy learning (FBP), and the setting of standards and frameworks of collaboration to ensure a successful experimentation of the FBP (policy experimentation). Methods: The thesis research object is the diffusion of PBF in sub-Saharan Africa, which involves influential diffusion entrepreneurs (five organisations, three transnational networks, and about two dozen individuals). Three studies were conducted at three different levels: global level (global health policy arenas and European research institutes), continental level (sub-Saharan Africa), and national level (Mali case). The analysis approach is mainly qualitative: we collected data from in-depth interviews (N = 57), participant observations (N = 13) and documents (N = 41). In the study on continental-level diffusion, qualitative data are supplemented by social network analyses and semantic discourse analyses based on 1,346 forum posts. These quantitative data complement the characterisation of a transnational network’s structure and how it influences policy diffusion. Research value: This research is the first political economy analysis detailing multilevel and multifaceted processes (discourse, networks, and production and dissemination of multiple forms of knowledge) led by influential policy actors — diffusion entrepreneurs — to foster the expansion of a policy innovation (PBF) in the specific context of polycentric governance. This study makes important theoretical and empirical contributions to the literature. First, it offers an innovative conceptual framework adapted to the contexts of global health and polycentric governance. The framework can be applied to a variety of research designs. Second, it provides useful insights on the processes of policy diffusion in polycentric governance, thereby filling a research gap on the phenomenon of polycentrism. By highlighting European and North American actors’ exercise of power in their interaction with African consultants and policymakers, this study also paves the way for future research — particularly on the phenomenon of the making of an African expertise.
88

Gaussian sampling in lattice-based cryptography / Le Gaussian sampling dans la cryptographie sur les réseaux euclidiens

Prest, Thomas 08 December 2015 (has links)
Bien que relativement récente, la cryptographie à base de réseaux euclidiens s’est distinguée sur de nombreux points, que ce soit par la richesse des constructions qu’elle permet, par sa résistance supposée à l’avènement des ordinateursquantiques ou par la rapidité dont elle fait preuve lorsqu’instanciée sur certaines classes de réseaux. Un des outils les plus puissants de la cryptographie sur les réseaux est le Gaussian sampling. À très haut niveau, il permet de prouver qu’on connaît une base particulière d’un réseau, et ce sans dévoiler la moindre information sur cette base. Il permet de réaliser une grande variété de cryptosystèmes. De manière quelque peu surprenante, on dispose de peu d’instanciations pratiques de ces schémas cryptographiques, et les algorithmes permettant d’effectuer du Gaussian sampling sont peu étudiés. Le but de cette thèse est de combler le fossé qui existe entre la théorie et la pratique du Gaussian sampling. Dans un premier temps, nous étudions et améliorons les algorithmes existants, à la fois par une analyse statistique et une approche géométrique. Puis nous exploitons les structures sous-tendant de nombreuses classes de réseaux, ce qui nous permet d’appliquer à un algorithme de Gaussian sampling les idées de la transformée de Fourier rapide, passant ainsi d’une complexité quadratique à quasilinéaire. Enfin, nous utilisons le Gaussian sampling en pratique et instancions un schéma de signature et un schéma de chiffrement basé sur l’identité. Le premierfournit des signatures qui sont les plus compactes obtenues avec les réseaux à l’heure actuelle, et le deuxième permet de chiffrer et de déchiffrer à une vitesse près de mille fois supérieure à celle obtenue en utilisant un schéma à base de couplages sur les courbes elliptiques. / Although rather recent, lattice-based cryptography has stood out on numerous points, be it by the variety of constructions that it allows, by its expected resistance to quantum computers, of by its efficiency when instantiated on some classes of lattices. One of the most powerful tools of lattice-based cryptography is Gaussian sampling. At a high level, it allows to prove the knowledge of a particular lattice basis without disclosing any information about this basis. It allows to realize a wide array of cryptosystems. Somewhat surprisingly, few practical instantiations of such schemes are realized, and the algorithms which perform Gaussian sampling are seldom studied. The goal of this thesis is to fill the gap between the theory and practice of Gaussian sampling. First, we study and improve the existing algorithms, byboth a statistical analysis and a geometrical approach. We then exploit the structures underlying many classes of lattices and apply the ideas of the fast Fourier transform to a Gaussian sampler, allowing us to reach a quasilinearcomplexity instead of quadratic. Finally, we use Gaussian sampling in practice to instantiate a signature scheme and an identity-based encryption scheme. The first one yields signatures that are the most compact currently obtained in lattice-based cryptography, and the second one allows encryption and decryption that are about one thousand times faster than those obtained with a pairing-based counterpart on elliptic curves.
89

Modélisation complexe des interactions entre la végétation et le déplacement des sédiments

Gauvin-Bourdon, Phillipe 05 1900 (has links)
Les environnements arides végétalisés seront parmi les environnements les plus impactés par la désertification dans le cadre du changement climatique. Ces environnements légèrement végétalisés sont caractérisés par une balance précaire entre un état de résilience et de vulnérabilité qui est intrinsèquement menacé par la désertification pouvant potentiellement mener à une augmentation du transport des sédiments éolien et une dégradation des environnements. Le nombre d’interactions présentes entre la végétation, la pluie, le transport des sédiments et la présence d’herbivore en milieu aride, ainsi que leur nature non-linéaire rend difficile de représenter ces interactions à l’aide de modèle physique et mathématique. La modélisation complexe est mieux adaptée à la représentation des interactions complexes entre la végétation, la pluie, le transport des sédiments et la présence d’herbivores dans les systèmes arides. Un nombre considérable d’études ont utilisées les modèles complexes pour étudier l’effet de la végétation sur le transport des sédiments ou l’effet de la présence d’herbivore sur la végétation, mais peu d’études ont utilisées une approche intégrant ces trois composantes en un même modèle. Un nouveau modèle d’herbivorie basé sur l’agent (GrAM) est présenté sous forme d’extension du modèle ViSTA_M17 et permet une meilleure représentation de l’impact des régimes de pâturage en environnement aride végétalisé. Cet ajout ayant un modèle complexe de transport des sédiments et de végétation déjà établit vise présenter un modèle hybride pouvant représenter l’impact de l’herbivorie sur la composition végétale et le transport des sédiments en environnement aride à l’échelle du paysage. Le développement du nouveau module à l’intérieur de la structure du modèle ViSTA original a souligné certaines limites de ce dernier, notamment une sensitivité importante de la végétation et de la force de cisaillement du vent. Le modèle ViSTA_GrAM répond à certaines limites du modèle original par l’intégration d’un nouveau module d’herbivorie et présente une avancée vers une modélisation environnementale englobante permettant une meilleure compréhension des dynamiques spatiales et temporelles des environnements arides. L’approche englobante utilisée par le modèle ViSTA_GrAM est bénéfique à la prise de décision, puisqu’elle offre un outil permettant d’explorer les réponses des environnements arides à un changement de leur végétation, leur régime de pluie, leur régime de transport des sédiments ou leur régime d’herbivorie. Les modèles complexes et l’exploration de scénarios futurs des environnements arides peuvent permettre d’améliorer la gestion de ces mêmes environnements. / Vegetated arid environments will be among one of the most affected by desertification as a result of climate change. These sparsely vegetated regions exhibit a delicate balance of resilience and vulnerability that are profoundly challenged by desertification, potentially producing an important positive feedback leading to increased aeolian activity and therefore land degradation. The high level of interaction between rainfall, vegetation, sediment transport and grazing in these arid environments and the non-linear nature of these interactions make them difficult to predict by traditional mathematical modeling mean. Complex modeling, on the other hand, offer better representation of the intricate relation between vegetation, rainfall, sediment transport and grazing in an arid environment system. A sizable amount of studies has been conducted with complex models to explore the effect of vegetation on sediment transport or grazing effect on vegetation, but few have used a truly integrative approach where all tree components were represented in a complex model. This research present a novel agent-based model (GrAM) integrated as an extension to already complete sediment transport-vegetation complex model (ViSTA) allowing a more refined representation of grazer’s impact in vegetated arid environments. This addition to the ViSTA model is aimed to combine a land management and systematic approach in a coupled model, to represent, at a landscape level, the impact of grazing on the composition of vegetation and sediment movement in arid environments. The development of this new module within the original ViSTA model, has highlighted some limitations of this model, most notably concerning its sensitivity to vegetation and wind shear. The ViSTA_GrAM model addresses these limitations through integrating a new module of grazing as the next step toward an integrated modelling effort that permits models to effectively increase our spatial and temporal understanding of arid environments vegetation, sediment transport and grazing dynamics. Integrative approach, like the one provided by the ViSTA_GrAM model, is beneficial to decision making by providing tools to investigate the response of an arid environment to different state of their vegetation, rainfall regime, wind stress and grazing regime. By developing complex modeling in arid environment and exploring various future scenarios for arid environment, we hope to lead to better management plan of those same environment.
90

Estimation d'une matrice d'échelle. / Scale matrix estimation

Haddouche, Mohamed Anis 31 October 2019 (has links)
Beaucoup de résultats sur l’estimation d’une matrice d’échelle en analyse multidimensionnelle sont obtenus sous l’hypothèse de normalité (condition sous laquelle il s’agit de la matrice de covariance). Or il s’avère que, dans des domaines tels que la gestion de portefeuille en finance, cette hypothèse n’est pas très appropriée. Dans ce cas, la famille des distributions à symétrie elliptique, qui contient la distribution gaussienne, est une alternative intéressante. Nous considérons dans cette thèse le problème d’estimation de la matrice d’échelle Σ du modèle additif Yp_m = M + E, d’un point de vue de la théorie de la décision. Ici, p représente le nombre de variables, m le nombre d’observations, M une matrice de paramètres inconnus de rang q < p et E un bruit aléatoire de distribution à symétrie elliptique, avec une matrice de covariance proportionnelle à Im x Σ. Ce problème d’estimation est abordé sous la représentation canonique de ce modèle où la matrice d’observation Y est décomposée en deux matrices, à savoir, Zq x p qui résume l’information contenue dans M et une matrice Un x p, où n = m - q, qui résume l’information suffisante pour l’estimation de Σ. Comme les estimateurs naturels de la forme Σa = a S (où S = UT U et a est une constante positive) ne sont pas de bons estimateurs lorsque le nombre de variables p et le rapport p=n sont grands, nous proposons des estimateurs alternatifs de la forme ^Σa;G = a(S + S S+G(Z; S)) où S+ est l’inverse de Moore-Penrose de S (qui coïncide avec l’inverse S-1 lorsque S est inversible). Nous fournissons des conditions sur la matrice de correction SS+G(Z; S) telles que ^Σa;G améliore^Σa sous le coût quadratique L(Σ; ^Σ) = tr(^ΣΣ‾1 - Ip)² et sous une modification de ce dernier, à savoir le coût basé sur les données LS (Σ; ^Σ) = tr(S+Σ(^ΣΣ‾1 - Ip)²). Nous adoptons une approche unifiée des deux cas où S est inversible et S est non inversible. À cette fin, une nouvelle identité de type Stein-Haff et un nouveau calcul sur la décomposition en valeurs propres de S sont développés. Notre théorie est illustrée par une grande classe d’estimateurs orthogonalement invariants et par un ensemble de simulations. / Numerous results on the estimation of a scale matrix in multivariate analysis are obtained under Gaussian assumption (condition under which it is the covariance matrix). However in such areas as Portfolio management in finance, this assumption is not well adapted. Thus, the family of elliptical symmetric distribution, which contains the Gaussian distribution, is an interesting alternative. In this thesis, we consider the problem of estimating the scale matrix _ of the additif model Yp_m = M + E, under theoretical decision point of view. Here, p is the number of variables, m is the number of observations, M is a matrix of unknown parameters with rank q < p and E is a random noise, whose distribution is elliptically symmetric with covariance matrix proportional to Im x Σ. It is more convenient to deal with the canonical forme of this model where Y is decomposed in two matrices, namely, Zq_p which summarizes the information contained in M, and Un_p, where n = m - q which summarizes the information sufficient to estimate Σ. As the natural estimators of the form ^Σ a = a S (where S = UT U and a is a positive constant) perform poorly when the dimension of variables p and the ratio p=n are large, we propose estimators of the form ^Σa;G = a(S + S S+G(Z; S)) where S+ is the Moore-Penrose inverse of S (which coincides with S-1 when S is invertible). We provide conditions on the correction matrix SS+G(Z; S) such that ^Σa;G improves over ^Σa under the quadratic loss L(Σ; ^Σ) = tr(^ΣΣ‾1 - Ip)² and under the data based loss LS (Σ; ^Σ) = tr(S+Σ(^ΣΣ‾1 - Ip)²).. We adopt a unified approach of the two cases where S is invertible and S is non-invertible. To this end, a new Stein-Haff type identity and calculus on eigenstructure for S are developed. Our theory is illustrated with the large class of orthogonally invariant estimators and with simulations.

Page generated in 0.1084 seconds