• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 21
  • 8
  • 1
  • Tagged with
  • 77
  • 28
  • 13
  • 13
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Inférence de réseaux pour modèles inflatés en zéro / Network inference for zero-inflated models

Karmann, Clémence 25 November 2019 (has links)
L'inférence de réseaux ou inférence de graphes a de plus en plus d'applications notamment en santé humaine et en environnement pour l'étude de données micro-biologiques et génomiques. Les réseaux constituent en effet un outil approprié pour représenter, voire étudier des relations entre des entités. De nombreuses techniques mathématiques d'estimation ont été développées notamment dans le cadre des modèles graphiques gaussiens mais aussi dans le cas de données binaires ou mixtes. Le traitement des données d'abondance (de micro-organismes comme les bactéries par exemple) est particulier pour deux raisons : d'une part elles ne reflètent pas directement la réalité car un processus de séquençage a lieu pour dupliquer les espèces et ce processus apporte de la variabilité, d'autre part une espèce peut être absente dans certains échantillons. On est alors dans le cadre de données inflatées en zéro. Beaucoup de méthodes d'inférence de réseaux existent pour les données gaussiennes, les données binaires et les données mixtes mais les modèles inflatés en zéro sont très peu étudiés alors qu'ils reflètent la structure de nombreux jeux de données de façon pertinente. L'objectif de cette thèse concerne l'inférence de réseaux pour les modèles inflatés en zéro. Dans cette thèse, on se limitera à des réseaux de dépendances conditionnelles. Le travail présenté dans cette thèse se décompose principalement en deux parties. La première concerne des méthodes d'inférence de réseaux basées sur l'estimation de voisinages par une procédure couplant des méthodes de régressions ordinales et de sélection de variables. La seconde se focalise sur l'inférence de réseaux dans un modèle où les variables sont des gaussiennes inflatées en zéro par double troncature (à droite et à gauche). / Network inference has more and more applications, particularly in human health and environment, for the study of micro-biological and genomic data. Networks are indeed an appropriate tool to represent, or even study, relationships between entities. Many mathematical estimation techniques have been developed, particularly in the context of Gaussian graphical models, but also in the case of binary or mixed data. The processing of abundance data (of microorganisms such as bacteria for example) is particular for two reasons: on the one hand they do not directly reflect reality because a sequencing process takes place to duplicate species and this process brings variability, on the other hand a species may be absent in some samples. We are then in the context of zero-inflated data. Many graph inference methods exist for Gaussian, binary and mixed data, but zero-inflated models are rarely studied, although they reflect the structure of many data sets in a relevant way. The objective of this thesis is to infer networks for zero-inflated models. In this thesis, we will restrict to conditional dependency graphs. The work presented in this thesis is divided into two main parts. The first one concerns graph inference methods based on the estimation of neighbourhoods by a procedure combining ordinal regression models and variable selection methods. The second one focuses on graph inference in a model where the variables are Gaussian zero-inflated by double truncation (right and left).
62

Nonlinear and Hybrid Feedbacks with Continuous-Time Linear Systems / Rétroactions non linéaires et hybrides avec systèmes linéaires à temps continu

Cocetti, Matteo 21 May 2019 (has links)
Dans cette thèse, nous étudions la rétroaction de systèmes linéaires invariants dans le temps reliés entre eux par trois blocs non linéaires spécifiques : un opérateur de lecture/arrêt, un mécanisme de réinitialisation de commutation et une zone morte adaptative. Cette configuration ressemble au problème de Lure étudié dans le cadre de stabilité absolue, mais les types de non-linéarités considérés ici ne satisfont pas (en général) une condition sectorielle. Ces blocs non linéaires donnent lieu à toute une série de phénomènes intéressants, tels que des ensembles compacts d’équilibres, des ensembles hybrides oméga-limites et des contraintes d’état. Tout au long de la thèse, nous utilisons le formalisme des systèmes hybrides pour décrire ces phénomènes et analyser ces boucles. Nous obtenons des conditions de stabilité très précises qui peuvent être formulées sous forme d’inégalités matricielles linéaires, donc vérifiables avec des solveurs numériques efficaces. Enfin, nous appliquons les résultats théoriques à deux applications automobiles. / In this thesis we study linear time-invariant systems feedback interconnected with three specific nonlinear blocks; a play/stop operator, a switching-reset mechanism, and an adaptive dead-zone. This setup resembles the Lure problem studied in the absolute stability framework, but the types of nonlinearities considered here do not satisfy (in general) a sector condition. These nonlinear blocks give rise to a whole range of interesting phenomena, such as compact sets of equilibria, hybrid omega-limit sets, and state constraints. Throughout the thesis, we use the hybrid systems formalism to describe these phenomena and to analyze these loops. We obtain sharp stability conditions that can be formulated as linear matrix inequalities, thus verifiable with numerically efficient solvers. Finally, we apply the theoretical findings to two automotive applications.
63

Locality and compositionality in representation learning for complex visual tasks

Sylvain, Tristan 03 1900 (has links)
L'utilisation d'architectures neuronales profondes associée à des innovations spécifiques telles que les méthodes adversarielles, l’entraînement préalable sur de grands ensembles de données et l'estimation de l'information mutuelle a permis, ces dernières années, de progresser rapidement dans de nombreuses tâches de vision par ordinateur complexes telles que la classification d'images de catégories préalablement inconnues (apprentissage zéro-coups), la génération de scènes ou la classification multimodale. Malgré ces progrès, il n’est pas certain que les méthodes actuelles d’apprentissage de représentations suffiront à atteindre une performance équivalente au niveau humain sur des tâches visuelles arbitraires et, de fait, cela pose des questions quant à la direction de la recherche future. Dans cette thèse, nous nous concentrerons sur deux aspects des représentations qui semblent nécessaires pour atteindre de bonnes performances en aval pour l'apprentissage des représentations : la localité et la compositionalité. La localité peut être comprise comme la capacité d'une représentation à retenir des informations locales. Ceci sera pertinent dans de nombreux cas, et bénéficiera particulièrement à la vision informatique, domaine dans lequel les images naturelles comportent intrinsèquement des informations locales, par exemple des parties pertinentes d’une image, des objets multiples présents dans une scène... D'autre part, une représentation compositionnelle peut être comprise comme une représentation qui résulte d'une combinaison de parties plus simples. Les réseaux neuronaux convolutionnels sont intrinsèquement compositionnels, et de nombreuses images complexes peuvent être considérées comme la composition de sous-composantes pertinentes : les objets et attributs individuels dans une scène, les attributs sémantiques dans l'apprentissage zéro-coups en sont deux exemples. Nous pensons que ces deux propriétés détiennent la clé pour concevoir de meilleures méthodes d'apprentissage de représentations. Dans cette thèse, nous présentons trois articles traitant de la localité et/ou de la compositionnalité, et de leur application à l'apprentissage de représentations pour des tâches visuelles complexes. Dans le premier article, nous introduisons des méthodes de mesure de la localité et de la compositionnalité pour les représentations d'images, et nous démontrons que les représentations locales et compositionnelles sont plus performantes dans l'apprentissage zéro-coups. Nous utilisons également ces deux notions comme base pour concevoir un nouvel algorithme d'apprentissage des représentations qui atteint des performances de pointe dans notre cadre expérimental, une variante de l'apprentissage "zéro-coups" plus difficile où les informations externes, par exemple un pré-entraînement sur d'autres ensembles de données d'images, ne sont pas autorisées. Dans le deuxième article, nous montrons qu'en encourageant un générateur à conserver des informations locales au niveau de l'objet, à l'aide d'un module dit de similarité de graphes de scène, nous pouvons améliorer les performances de génération de scènes. Ce modèle met également en évidence l'importance de la composition, car de nombreux composants fonctionnent individuellement sur chaque objet présent. Pour démontrer pleinement la portée de notre approche, nous effectuons une analyse détaillée et proposons un nouveau cadre pour évaluer les modèles de génération de scènes. Enfin, dans le troisième article, nous montrons qu'en encourageant une forte information mutuelle entre les représentations multimodales locales et globales des images médicales en 2D et 3D, nous pouvons améliorer la classification et la segmentation des images. Ce cadre général peut être appliqué à une grande variété de contextes et démontre les avantages non seulement de la localité, mais aussi de la compositionnalité, car les représentations multimodales sont combinées pour obtenir une représentation plus générale. / The use of deep neural architectures coupled with specific innovations such as adversarial methods, pre-training on large datasets and mutual information estimation has in recent years allowed rapid progress in many complex vision tasks such as zero-shot learning, scene generation, or multi-modal classification. Despite such progress, it is still not clear if current representation learning methods will be enough to attain human-level performance on arbitrary visual tasks, and if not, what direction should future research take. In this thesis, we will focus on two aspects of representations that seem necessary to achieve good downstream performance for representation learning: locality and compositionality. Locality can be understood as a representation's ability to retain local information. This will be relevant in many cases, and will specifically benefit computer vision where natural images inherently feature local information, i.e. relevant patches of an image, multiple objects present in a scene... On the other hand, a compositional representation can be understood as one that arises from a combination of simpler parts. Convolutional neural networks are inherently compositional, and many complex images can be seen as composition of relevant sub-components: individual objects and attributes in a scene, semantic attributes in zero-shot learning are two examples. We believe both properties hold the key to designing better representation learning methods. In this thesis, we present 3 articles dealing with locality and/or compositionality, and their application to representation learning for complex visual tasks. In the first article, we introduce ways of measuring locality and compositionality for image representations, and demonstrate that local and compositional representations perform better at zero-shot learning. We also use these two notions as the basis for designing class-matching deep info-max, a novel representation learning algorithm that achieves state-of-the-art performance on our proposed "Zero-shot from scratch" setting, a harder zero-shot setting where external information, e.g. pre-training on other image datasets is not allowed. In the second article, we show that by encouraging a generator to retain local object-level information, using a scene-graph similarity module, we can improve scene generation performance. This model also showcases the importance of compositionality as many components operate individually on each object present. To fully demonstrate the reach of our approach, we perform detailed analysis, and propose a new framework to evaluate scene generation models. Finally, in the third article, we show that encouraging high mutual information between local and global multi-modal representations of 2D and 3D medical images can lead to improvements in image classification and segmentation. This general framework can be applied to a wide variety of settings, and demonstrates the benefits of not only locality, but also of compositionality as multi-modal representations are combined to obtain a more general one.
64

Calculs ab initio de structures électroniques et de leur dépendance en température avec la méthode GW

Antonius, Gabriel 12 1900 (has links)
Cette thèse porte sur le calcul de structures électroniques dans les solides. À l'aide de la théorie de la fonctionnelle de densité, puis de la théorie des perturbations à N-corps, on cherche à calculer la structure de bandes des matériaux de façon aussi précise et efficace que possible. Dans un premier temps, les développements théoriques ayant mené à la théorie de la fonctionnelle de densité (DFT), puis aux équations de Hedin sont présentés. On montre que l'approximation GW constitue une méthode pratique pour calculer la self-énergie, dont les résultats améliorent l'accord de la structure de bandes avec l'expérience par rapport aux calculs DFT. On analyse ensuite la performance des calculs GW dans différents oxydes transparents, soit le ZnO, le SnO2 et le SiO2. Une attention particulière est portée aux modèles de pôle de plasmon, qui permettent d'accélérer grandement les calculs GW en modélisant la matrice diélectrique inverse. Parmi les différents modèles de pôle de plasmon existants, celui de Godby et Needs s'avère être celui qui reproduit le plus fidèlement le calcul complet de la matrice diélectrique inverse dans les matériaux étudiés. La seconde partie de la thèse se concentre sur l'interaction entre les vibrations des atomes du réseau cristallin et les états électroniques. Il est d'abord montré comment le couplage électron-phonon affecte la structure de bandes à température finie et à température nulle, ce qu'on nomme la renormalisation du point zéro (ZPR). On applique ensuite la méthode GW au calcul du couplage électron-phonon dans le diamant. Le ZPR s'avère être fortement amplifié par rapport aux calculs DFT lorsque les corrections GW sont appliquées, améliorant l'accord avec les observations expérimentales. / This thesis deals with electronic structure calculations in solids. Using density functional theory and many-body perturbation theory, we seek to compute the band structure of materials in the most precise and efficient way. First, the theoretical developments leading to density functional theory (DFT) and to Hedin's equations are presented. It is shown how the GW approximation allows for a practical scheme to compute the self-energy, whose results enhance the agreement of the band structure with experiments, compared to DFT. We then analyse the performance of GW calculations in various transparent oxides, namely ZnO, SnO2 and SiO2. A special attention is devoted to the plasmon-pole model, which allows to accelerate significantly the calculations by modelling the inverse dielectric matrix. Among the different plasmon-pole models, the one of Godby and Needs turns out to be the most accurate in the studied materials. The second part of the thesis concentrates on the interaction between vibrations of the crystal lattice with electronic states. It is first shown how the electron-phonon coupling affects the band structure at finite temperature and at zero temperature, which is called the zero-point renormalization (ZPR). Then, we use the GW method to compute the electron-phonon coupling in diamond. The ZPR turns out to be strongly amplified with respect to DFT upon the application of GW corrections, enhancing the agreement with experimental observations.
65

The impact of early intra-articular corticosteroid injections on the outcome of oligoarticular juvenile idiopathic arthritis

Barsalou, Julie 08 1900 (has links)
Contexte Un objectif important de la prise en charge de l'arthrite juvénile oligoarticulaire serait d'altérer le cours de la maladie à l'aide d'une thérapie hâtive. Nous avons étudié l'effet des injections intra-articulaires de corticostéroïdes hâtives sur les chances d'atteindre un décompte d'articulation active de zéro et une maladie inactive. Méthode Les données démographiques, cliniques et thérapeutiques des patients avec oligoarthrite juvénile enrôlés dans une étude prospective longitudinale pancanadienne ont été collectées pendant 2 ans. Une injection hâtive était définie comme étant reçue dans les 3 premiers mois suivant le diagnostic. Les équations d'estimation généralisées ont été utilisées pour l'analyse statistique. Résultats Trois cent dix patients ont été inclus. Cent onze (35.8%) ont reçu une injection hâtive. Ces derniers avaient une maladie plus active lors de l'entrée dans l'étude. Les patients exposés à une injection hâtive avaient une chance similaire d'obtenir un décompte d'articulation active de zéro, OR 1.52 (IC95% 0.68-3.37), p=0.306 mais étaient significativement moins à risque d'avoir une maladie inactive, OR 0.35 (IC95% 0.14-0.88), p=0.026. Interprétation Dans cette cohorte de 310 patients avec oligoarthrite juvénile, les injections hâtives de corticostéroïdes n'ont pas mené à une probabilité plus élevée d'atteindre un décompte d'articulation active de zéro ou une maladie inactive. Des problématiques méthodologiques intrinsèques à l'utilisation de données observationnelles pour fins d'estimation d'effets thérapeutiques auraient pu biaiser les résultats. Nous ne pouvons affirmer avec certitude que les injections hâtives n'améliorent pas le décours de la maladie. Des études prospectives adressant les limitations soulevées seront requises pour clarifier la question. / Background One of the goals in oligoarticular juvenile idiopathic arthritis would be to alter the disease course with early therapy. We examined the association between early intra-articular corticosteroid injections and the achievement of an active joint count of zero and inactive disease during the first two years after study enrollment. Methods We included oligoarticular juvenile idiopathic arthritis patients enrolled into a prospective longitudinal cohort across Canada. Demographic, clinical and treatment-related information were collected. Early intra-articular corticosteroid injections was defined as having received the first injection within 3 months of diagnosis. Generalized estimating equations were used for data analysis. Results A total of 310 patients were included, of whom 111 (35.8%) received an early injection. Participants who received an early injection had more severe disease at baseline. Patients exposed to early injections had a similar chance to achieve an active joint count of zero, OR 1.52 (95%CI 0.68-3.37), p=0.306 but were significantly less likely to achieve inactive disease, OR 0.35 (95%CI 0.14-0.88), p=0.026. Interpretation In this cohort of 310 oligoarticular juvenile idiopathic arthritis patients, early intra-articular corticosteroid injections did not result in an increased risk of achieving an active joint count of zero or inactive disease. Methodological issues encountered when estimating treatment effect using observational data might have biased the estimates obtained. Firm conclusion on the inefficacy of early injections in improving outcomes in this population cannot be drawn from this study. Prospective studies addressing the limitations raised will be needed to clarify if early injections can alter the disease course.
66

Caractérisation pharmacocinétique et pharmacodynamique de la lidocaïne avec ou sans adrénaline lors d’un bloc paravertébral du plexus brachial chez le chien

Choquette, Amélie 04 1900 (has links)
Au cours des vingt dernières années, l’anesthésie régionale est devenue, autant en médecine vétérinaire qu’humaine, un outil essentiel à l’élaboration de protocoles analgésiques péri-opératoires. Parmi l’éventail de techniques mises au point en anesthésie canine, le bloc paravertébral du plexus vertébral (PBPB) et sa version modifiée sont d’un grand intérêt pour toute procédure du membre thoracique, dans sa portion proximale. Toutefois, l’essentiel des données publiées à ce jour provient d’études colorimétriques, sans évaluation clinique, et peu d’information est disponible sur les techniques de localisation nerveuse envisageables à ce site. Notre étude visait à décrire une approche échoguidée du PBPB modifié, puis à caractériser ses paramètres pharmacocinétiques et pharmacodynamiques après administration de lidocaïne (LI) ou lidocaïne adrénalinée (LA). Huit chiens ont été inclus dans un protocole prospectif, randomisé, en aveugle et croisé, réparti sur trois périodes. L’impact pharmacodynamique du bloc effectué avec LI ou LA a été évalué régulièrement pour 180 min suivant son exécution. Le traitement à l’adrénaline n’a pas démontré d’impact significatif (P = 0,845) sur la durée du bloc sensitif, tel qu’évalué par un stimulus douloureux mécanique appliqué aux dermatomes ciblés. À l’opposé, l’atteinte proprioceptive évaluée par la démarche a été trouvée prolongée (P = 0,027) et le bloc moteur mesuré par le pic de force verticale (PVF) au trot sur la plaque de force s’est avéré plus marqué (PVF réduit; P = 0,007) sous LA. À l’arrêt comme au trot, le nadir de la courbe PVF-temps a été trouvé retardé (P < 0,005) et la pente ascendante de retour aux valeurs normales adoucie (P = 0,005). Parallèlement aux évaluations cliniques, des échantillons plasmatiques ont été collectés régulièrement afin de quantifier et décrire le devenir pharmacocinétique de la lidocaïne. Parmi les trois élaborés, un modèle bi-compartimental doté d’une double absorption asynchrone d’ordre zéro a finalement été sélectionné et appliqué aux données expérimentales. Sous LA, la Cmax a été trouvée significativement diminuée (P < 0,001), les phases d’absorption prolongées [P < 0,020 (Dur1) et P < 0,001 (Dur2)] et leurs constantes réduites [P = 0,046(k01) et P < 0,001 (k02)], le tout en concordance avec les effets proprioceptifs et moteurs rapportés. Bien que l’extrapolation du dosage soit maintenant théoriquement envisageable à partir du modèle mis en lumière ici, des études supplémentaires sont encore nécessaires afin d’établir un protocole de PBPB d’intérêt clinique. L’analyse sur plaque de force pourrait alors devenir un outil de choix pour évaluer l’efficacité du bloc dans un cadre expérimental. / Over the last decade, regional anaesthesia has become a gold standard for peri-surgical management in veterinary medicine. Among the many techniques developed for analgesia in dogs, the paravertebral brachial plexus block (PBPB) is of great interest when targeting the proximal half of the thoracic limb. Yet, most available data on this technique is based on colorimetric protocols rather than clinical evaluation, and there are very few published results for PBPB execution using nerve location techniques. Through this work, we wished to describe an ultrasound-guided approach of the PBPB and characterize its pharmacokinetic/ pharmacodynamic parameters when executed with either lidocaine alone (LI) or combined to adrenaline (LA). Eight dogs were included in a prospective, randomised, blinded, crossover protocol performed over three distinct periods. Pharmacodynamic impact of LI and LA was compared for 180 minutes after block administration. No significant difference (P = 0.845) was noted between treatments regarding length of the sensitive block, as evaluated regularly through a mechanical painful stimulus applied to selected dermatomes. On the opposite, gait examination showed a longer proprioceptive deficit using LA (P = 0.027). Motor block measured with dynamic force plate analysis showed a lower peak vertical force with LA than LI (P = 0.007). For both dynamic and static evaluations, nadir was clearly delayed (P < 0.005) and the ascending slope back to baseline significantly softened (P = 0.005) in the LA group. Throughout block execution and evaluation, blood samples were collected regularly in order to quantify and describe lidocaine kinetics. Models where developed and compared. A two-compartment model with dual zero-order absorption processes was selected as the best fit for our experimental data. Cmax proved to be significantly reduced with LA (P < 0.001), thus reducing potential toxicity. Absorption phase was prolonged [P < 0.020 (Dur1) and P < 0.001 (Dur2)] and zero-order absorption constant rates lowered [P = 0.046(k01) and P < 0.001 (k02)] following adrenaline addition, in accordance with the previously noted prolonged gait and motor effects. Though dosage extrapolation is now possible using the model developed and tested here, further studies would be needed to establish a PBPB protocol of more clinical interest. Then, force plate analysis could become a key tool for block quality assessment, as both dynamic and static measurements proved to be the reliable ways to collect ground reaction force (GRF) data.
67

Étude de dispositifs hyperfréquences accordables en technologie microfluidique / Study of tunable microwave devices in microfluidics technology

Diedhiou, Daouda Lamine 20 December 2012 (has links)
La multiplication des besoins des utilisateurs dans le domaine des télécommunications a conduit à une surexploitation du spectre de fréquence. Ceci a engendré la raréfaction des bandes de fréquence conduisant à une nécessité de gestion rationnelle des fréquences. Des contraintes ont été rajoutées aux systèmes d’émission / réception et en particulier sur les filtres pour éviter la saturation des services. Dans cette thèse, les travaux s’orientent surtout vers la conception de résonateurs, de filtres planaires et volumiques (3D) accordables dans le domaine des fréquences millimétriques (>= 30 GHz) en utilisant une nouvelle technique d’accordabilité basée sur des principes microfluidiques. Il s’agit d’une nouvelle approche d’agilité qui consiste à faire circuler de la matière (liquides conducteur, diélectrique ou magnétique) dans un substrat diélectrique par le biais de micro canaux. Le substrat diélectrique utilisé, est une résine SU-8 qui offre une souplesse dans la réalisation des micros canaux et des structures volumiques grâce à son bon facteur de forme (≈ 50%). La circulation de liquides dans le substrat, permet de modifier localement les propriétés électromagnétiques du milieu, ce qui conduit à une modification de la fréquence de résonance du dispositif. / The proliferation of user needs in the field of telecommunications, has led to overexploitation of the frequency spectrum. This led to the scarcity of frequency bands leading to a need for efficient management of frequencies. Constraints were added to the transmitting / receiving systems and in particular on the filters to prevent the saturation of the services. In this thesis, work is mainly oriented towards the design of resonators, planar and volumetric (3D) tunable filters in the field of millimeter wave frequencies (> = 30 GHz) using a new tunable technique which is microfluidic. This is a new approach to agility which consists of circulating the material (conductive, dielectric or magnetic liquids) in a dielectric substrate through micro channels. The dielectric substrate used is a resin SU-8 which provides flexibility in the implementation of microchannels and volumetric structures thanks to its good form factor (≈ 50%). The circulation of fluid in the substrate allows to locally modifying the electromagnetic properties of the medium. This leads to a change in the resonant frequency of the device.
68

Indentation de films élastiques complexes par des sondes souples / Complex elastic films indented by soft probes

Martinot, Emmanuelle 14 December 2012 (has links)
La compréhension des mécanismes qui pilotent la transmission des contraintes aux interfaces déformables est au centre de nombreuses problématiques touchant des applications actuelles utilisant un film mince de polymère souple comme couche interfaciale. Arriver à caractériser de tels films fins est encore un défi aujourd’hui car l’analyse des mesures expérimentales destinées à extraire les contributions dues aux films est complexe et délicate et les techniques usuelles de caractérisation sont peu adaptées aux systèmes. Ce travail étudie la réponse mécanique de deux types de systèmes modèles au moyen de deux techniques de caractérisation différentes. Le premier système que nous avons élaboré et caractérisé mécaniquement par le test JKR, est constitué de films d’élastomère réticulé d’épaisseurs micrométriques (de 5 à 100µm) et déposés sur des wafers de silicium. Les mesures expérimentales ont été analysées par comparaison à un modèle semi-analytique récent proposé par E. Barthel dans le but d’extraire le module élastique de chaque film et de répondre à la question de savoir si l’épaisseur du film influe sur la valeur de ce module. Nous avons montré que ce modèle permet de rendre compte quantitativement du raidissement lié à la présence d’un solide supportant le film mais que la précision sur les mesures de modules de Young reste limitée (de l’ordre de 35 %).Le deuxième système modèle est constitué de brosses de polymères greffées (PDMS) par une extrémité à la surface de wafers de silicium et gonflées dans un bon solvant (47V20). Nous avons analysé la réponse mécanique dans plusieurs régimes de distance et de fréquence en utilisant un appareil à forces de surface (SFA) dans lequel on contrôle l’approche d’une sphère millimétrique d’un plan sur lequel sont greffées les polymères. En statique, nous avons vérifié que la réponse en compression était celle d’une brosse de type Alexander-de Gennes. En mode dynamique, quand la sphère est loin de la couche gonflée, nous avons vérifié que la réponse dissipative était celle d’un écoulement de Reynolds qui décrit normalement l’écoulement d’un fluide simple newtonien entre une sphère et un plan solide. Ceci nous a permis de montrer que l’écoulement du solvant pénètre partiellement à l’intérieur de la couche greffée sur une profondeur de l’ordre du tiers de l’épaisseur gonflée de la couche. Dans le régime ou les brosses sont comprimées, il n’y a pas d’accord entre les mesures réalisées et le modèle classique de Fredrickson et Pincus. Ceci s’explique par les expériences que nous avons réalisées sur un substrat nu (sans polymère) montrant pour la première fois la déformation des substrats solides qui sont indentés par l’écoulement de liquide et qu’il faut prendre en compte cette déformation dans les analyses de nanorhéologie. Finalement, une annexe est consacrée à la fabrication de surfaces hydrophobes silanisées optimisées en vue d’étudier le glissement d’un liquide simple et d’électrolytes à la paroi. / Understanding how stresses are transmitted to deformable interfaces is a key-point in numerous issues having everyday life applications which use a thin polymer film as an interfacial layer. Still, characterizing the mechanical properties of such elastic films remains a challenge because the usual employed techniques are destructive of the surface and because of the complexity of the associated analysis. In this work, we study the mechanical response of two types of home-made model systems using two different characterization techniques. The first system – studied with a JKR test- is composed of reticulated elastomeric films of micrometric thickness (5 to 100 µm) and stuck to a silicon wafer. We analyse the experimental data with E.Barthel’s recently published semi-analytical model in order to determine the elastic modulus of each indented film and see if the thickness of the film had any influence on its value. We show that this model is in a quantitatively good agreement with our data but that we only have a 35% accuracy on the elastic modulus values thanks to the set-up. The second system we studied consists in polymer brushes end-grafted onto the surface of silicon wafers and of nanometric thickness. To characterize the mechanical response of those brushes and the effect of both their molecular organization and ingredients on their ability to transmit stresses at the interface, we use a surface force apparatus in the dynamic mode as a soft fluid indenter. We use a millimetric sphere to create a liquid flow of the solvent in which the brushes are immerged and swollen. This flow induces hydrodynamic forces whose range we can control by varying the excitation frequency and the distance of approach. We obtain the following results : first with the static response we checked that the response of the polymer layers are well-described by the Alexander-de Gennes approximation. In the dynamical mode, when the sphere is far from the solid surface, we showed that the dissipative response was well-described by the Reynolds force. Thanks to those results, we succeeded in localizing the limit of penetration of the liquid flow inside the brushes at one third of the thickness of the swollen brush; second, when the brushes are compressed, we showed that the existing models (Fredrickson & Pincus) are insufficient to explain the dynamic responses of the brushes. This disagreement is explained by experiments we performed on the bare solid substrate, which show for the first time, the deformation of the substrate due to the liquid. Thus, the mechanical response of the underlying substrate has to be taken into account in the analysis of the nanorheological results on the brushes even though the substrate is much stiffer than the polymer layers. Finally, we present how we fabricated hydrophobic (silanized) surfaces in order to study the sliding of simple liquids at the wall with the same surface force apparatus.
69

Essays on exchange rate policies and monetary integration / Essais sur les politiques de change et l’intégration monétaire

Sangare, Ibrahima 14 December 2015 (has links)
Cette thèse étudie le choix des régimes de change dans des contextes économiques particuliers. La première partie (Chapitres 1 et 2) considère le cas des petits pays dont les dettes sont libellées en monnaies étrangères et celui d’une région constituée de tels petits pays lorsqu’il existe une similitude dans la composition des paniers définissant leurs taux de change effectifs. La deuxième partie de la thèse (Chapitres 3 et 4) se penche sur la considération des différents régimes de change dans le contexte monétaire de trappe à liquidité comparativement à un environnement monétaire traditionnel. En se basant sur une modélisation théorique de type DSGE, l’économétrie bayésienne et des données de panel, la thèse utilise principalement l’analyse des fonctions de réponses, de bien-être et de désalignements monétaires comme critères de comparaison de plusieurs régimes monétaires alternatifs. Les principaux enseignements de cette thèse se résument ainsi. Le change flexible semble être le meilleur régime pour des petites économies ouvertes comme ceux de l’Asie du Sud-Est. Au niveau régional, il est montré le ciblage effectif conduit à une stabilité des taux de change bilatéraux de la région, une sorte de fixité des taux de change qui ressemblerait à une zone monétaire de facto. Dans le contexte monétaire de trappe à liquidité, on trouve que,contrairement à la croyance commune lors la crise de la zone euro, l’union monétaire est plus performante que des politiques nationales de change flexible. Seule une intervention sur le taux de change nominal pourrait permettre au régime de change indépendant de dominer l’union monétaire. A travers une analyse théorique et empirique de l’effet de la trappe à liquidité sur l’ampleur des désalignements monétaires, il est aussi montré que la contrainte ZLB tend à réduire le désalignement monétaire dans une union monétaire comparativement aux politiques nationales de flottement.Cela plaide en faveur du renforcement de l’intégration monétaire au sein d’une union durant la période de trappe à liquidité. / This thesis investigates the choice of exchange rate regimes in specific economic contexts. The first part of this work (Chapters 1 and 2) considers the case of small open economies with foreign-currency denominated debt and that of a region where there is a similarity among trade-weighted currency baskets of countries. The second part of the thesis (Chapters 3 and 4) focuses on the study of exchange rate regimes and monetary integration in a liquidity trap environment relative to “tranquil” times. Based on dynamic stochastic general equilibrium (DSGE) models and Bayesian and Panel data econometrics, the thesis mainly uses the analyses of impulse responses, welfare and currency misalignments as comparison criteria among alternative currency regimes.The key lessons from this work are summarized as follows. For small open economies heavily in debted in foreign currency, like those of Southeast Asia, the flexible exchange is the best regime, followed by intermediate and fixed exchange rate regimes. At the regional level, it is shown that the exchange rate targeting regime leads to a stability of intra-regional bilateral exchange rates, which is a sort of fixity of exchange rates similar to a “de facto currency area”. In the context of a liquidity trap, we find that, contrary to common belief during the Euro area crisis, the currency union welfare dominates the independent floating regime. Only a central bank intervention in the form of a managed float policy could allow the independent floating to outperform the monetary union.Through both the empirical and theoretical analyses of the liquidity trap effects on currency misalignments, it is shown that the ZLB constraint tends to reduce currency misalignments compared with the independent floating policy. This suggests a reinforcement of the monetary integration within a monetary union during the liquidity trap
70

Une étude des sommes fortes : isomorphismes et formes normales

Balat, Vincent 05 December 2002 (has links) (PDF)
Le but de cette thèse est d'étudier la somme et le zéro dans deux principaux cadres : les isomorphismes de types et la normalisation de lambda-termes. Les isomorphismes de type avaient déjà été étudiés dans le cadre du lambda-calcul simplement typé avec paires surjectives mais sans somme. Pour aborder le cas avec somme et zéro, j'ai commencé par restreindre l'étude au cas des isomorphismes linéaires, dans le cadre de la logique linéaire, ce qui a conduit à une caractérisation remarquablement simple de ces isomorphismes, obtenue grâce à une méthode syntaxique sur les réseaux de preuve. Le cadre plus général de la logique intuitionniste correspond au problème ouvert de la caractérisation des isomorphismes dans les catégories bi-cartésiennes fermées. J'ai pu apporter une contribution à cette étude en montrant qu'il n'y a pas d'axiomatisation finie de ces isomorphismes. Pour cela, j'ai tiré partie de travaux en théorie des nombres portant sur un problème énoncé par Alfred Tarski et connu sous le nom du « problème des égalités du lycée ». Pendant tout ce travail sur les isomorphismes de types, s'est posé le problème de trouver une forme canonique pour représenter les lambda-termes, que ce soit dans le but de nier l'existence d'un isomorphisme par une étude de cas sur la forme du terme, ou pour vérifier leur existence dans le cas des fonctions très complexes que j'étais amené à manipuler. Cette réflexion a abouti à poser une définition « extensionnelle » de forme normale pour le lambda-calcul avec somme et zéro, obtenue par des méthodes catégoriques grâce aux relations logiques de Grothendieck, apportant ainsi une nouvelle avancée dans l'étude de la question réputée difficile de la normalisation de ce lambda-calcul. Enfin je montrerai comment il est possible d'obtenir une version « intentionnelle » de ce résultat en utilisant la normalisation par évaluation. J'ai pu ainsi donner une adaptation de la technique d' évaluation partielle dirigée par les types pour qu'elle produise un résultat dans cette forme normale, ce qui en réduit considérablement la taille et diminue aussi beaucoup le temps de normalisation dans le cas des isomorphismes de types considérés auparavant.

Page generated in 0.0419 seconds