• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 200
  • 83
  • 12
  • 1
  • Tagged with
  • 303
  • 81
  • 71
  • 38
  • 35
  • 31
  • 29
  • 28
  • 27
  • 25
  • 25
  • 24
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Invariance de Lorentz et Gravité Quantique : contraintes avec des sources extragalactiques variables observées par H.E.S.S. et Fermi-LAT / Lorentz Invariance Violation and Quantum Gravity : constraints from astrophysical observations of extragalactic transient events

Couturier, Camille 21 October 2014 (has links)
Des modèles de Gravité Quantique (QG) prédisent une violation de l'invariance de Lorentz (LIV), se manifestant par une dispersion de la lumière dans le vide. Si un tel effet existe, des photons d'énergies différentes émis en même temps par une source distante sont détectés sur Terre à des moments différents. Les émissions transitoires à (très) hautes énergies provenant de sources astrophysiques lointaines, comme les sursauts gamma (GRBs) et les blazars sont utilisées pour contraindre cet effet LIV. Cet ouvrage présente les études menées avec deux télescopes gamma majeurs : H.E.S.S. -- pour lequel une étude de la qualité des données étalonnées a été réalisée -- et Fermi-LAT. Les énergies et les temps d'arrivée de photons individuels ont été utilisés pour contraindre le paramètre de dispersion dans le vide ainsi que l'échelle d'énergie E_QG à laquelle des effets LIV peuvent apparaitre. La méthode de maximum de vraisemblance est décrite, avec une étude détaillée des systématiques. Une modification dans le cas de fond non négligeable est appliquée aux données de l'éruption d'un blazar observé par H.E.S.S. : les limites obtenues sur E_QG sont moins contraignantes que les meilleures limites précédentes, mais elles se trouvent à un redshift non couvert à ce jour. Quatre GRBs observés par Fermi-LAT ont aussi été analysés, en déterminant la courbe de lumière de deux manières : ajustements gaussiens et estimation par densité de noyaux. Les meilleures limites sur E_QG pour le cas linéaire/subluminal sont obtenus avec GRB090510 : E_QG,1 > 7,6 E_Planck. Des limites plus robustes, tenant compte des effets intrinsèques à la source, ont également été produites. / Some Quantum Gravity (QG) theories allow for a violation of Lorentz invariance (LIV), manifesting as a dependence on the velocity of light in vacuum on its energy. If such a dependence exists, then photons of different energies emitted together by a distant source will arrive at the Earth at different times. (Very) high energy transient emissions from distant astrophysical sources such as Gamma-ray Bursts (GRBs) and blazars can be used to search for and constrain LIV. This work presents the studies obtained with two leading Gamma-ray telescopes: H.E.S.S. -- for which a study of the quality of the calibrated data was performed -- and Fermi-LAT. The energies and arrival times of individual photons were used to constrain the vacuum dispersion parameter and the energy scale EQG at which QG effects causing LIV may arise. The maximum likelihood method is described, with detailed studies of the systematics. A modification for a non-negligible background is provided and applied to the data of an AGN flare observed by H.E.S.S.: the obtained limits on the QG energy scale are less constraining than the previous best limits obtained with blazars; yet, the new limits lie a redshift range not covered this far. Four bright and quasi background-free GRBs observed by the Fermi-LAT were also analysed, with two different template light curve determinations -- Gaussian fits and Kernel Density Estimates. The best limits on the E_QG scale for the linear/subluminal case are from the shortest burst, GRB090510: E_QG,1 > 7.6 E_Planck. More robust limits, considering the intrinsic effects possibly occurring at the source, were also derived.
192

Synthèse, auto-assemblage et libération contrôlée de principes actifs des nouveaux copolymères à blocs thermo-sensibles et amphiphiles à base de polylactide, de polyacrylamide et de poly(oligo(éthylène glycol) méthacrylate) / Synthesis, self-assembly and controlled drug delivery of novel thermo-responsive and amphiphilic block copolymers based on polylactide, polyacrylamide and poly(oligo(ethylene glycol) methacrylate)

Hu, Yanfei 08 April 2015 (has links)
Deux séries de copolymères tribloc thermo-sensibles et amphiphiles, à savoir poly(L-lactide)/poly(N-isopropylacrylamide-co-N,N-diméthylacrylamide) et poly(L-lactide)/poly(2-(2-méthoxyéthoxy) éthyl méthacrylate-co-oligo(éthylène glycol) méthacrylate) ont été synthétisées par polymérisation radicalaire par transfert d'atomes en utilisant le Br-PLLA-Br comme macroamorceur dans des conditions douces. Les copolymères obtenus présentent une structure de chaînes bien définie avec une dispersité étroite, et sont capable de s'auto-assembler dans un milieu aqueux pour donner des micelles sphériques de taille en dessous de 100 nm et de faible concentration micellaire critique (<0.016 mg mL-1). La température critique inférieure de solution peut être ajustée avec précision en faisant varier le rapport NIPAAm/DMAAm ou MEO2MA/OEGMA. Un principe actif hydrophobe, curcumine, a été choisi comme modèle pour déterminer les propriétés de libération des micelles à différentes températures. Une libération thermo-sensible de curcumine a été observée, indiquant que ces copolymères sont prometteurs pour la libération ciblée de principes actifs anti-tumoraux. / Two series of thermo-responsive and amphiphilic triblock copolymers, i.e. poly(L-lactide)/poly(N-isopropylacrylamide-co-N,N-dimethylacrylamide) and poly(L-lactide)/poly(2-(2-methoxyethoxy) ethyl methacrylate-co-oligo(ethylene glycol) methacrylate) were synthesized by atom transfer radical polymerization using Br-PLLA-Br as macroinitiator under mild conditions. The obtained copolymers present well defined chain structures with narrow dispersity, and are able to self-assemble in aqueous medium yielding spherical micelles with size below 100 nm and low critical micellization concentration (<0.016 mg mL-1). The lower critical solution temperature is precisely adjusted by changing the NIPAAm/DMAAm or MEO2MA/OEGMA ratio. A hydrophobic drug, curcumin, is taken as a model to evaluate the drug release properties of micelles at different temperatures. Thermo-responsive drug release behavior is observed, indicating that these copolymers are promising candidate for targeted delivery of anticancer drugs.
193

Optimisation of the ILC vertex detector and study of the Higgs couplings / Développement d'un détecteur de vertex de nouvelle génération pour le collisionneur ILC : impact sur la détermination des rapports d'embranchement du boson de Higgs standard

Voutsinas, Georgios 28 June 2012 (has links)
Cette thèse est une contribution au document intitulé "Detector Baseline Document (DBD)" décrivant le conceptde détecteur ILD envisagé auprès du collisionneur linéaire international électron-positon ILC (acronyme del'anglais International Linear Collider).Les objectifs de physique de l'ILD nécessitent un détecteur de vertex (VXD) particulièrement léger, rapide et trèsgranulaire permettant d'atteindre une résolution sans précédent sur le paramètre d'impact des trajectoiresreconstruites des particules produites dans les interactions étudiées. Le principal objectif de cette thèse est demontrer comment optimiser les paramètres du VXD dans le cas ou il est composé de Capteurs à Pixels Actifsfabriqués en technologie industrielle CMOS (CAPS). Ce travail a été réalisé en étudiant la sensibilité desperformances d'étiquetage des saveurs lourdes et de la précision sur les rapports d'embranchement hadroniquedu boson de Higgs aux différents paramètres du VXD.Le cahier des charges du VXD, particulièrement ambitieux, a nécessité le développement d'une nouvelletechnologie de capteurs de pixels de silicium, les CAPS, dont le groupe PICSEL de l'IPHC est à l'origine. Lavitesse de lecture et l'influence des paramètres qui régissent la fabrication des capteurs en fonderie ont étéétudiées dans cette thèse, et des prototypesde CAPS ont été caractérisés sur faisceau de particules. Enfin, les performances de trajectométrie d'un VXDcomposé de CAPS a été évalué avec des études de simulation. / This thesis is a contribution to the " Detector Baseline Document ", describing the ILD detector which is intendedfor the International Linear Collider (ILC).The physics goals of the ILD call for a vertex detector (VXD) particularly light, rapid and very granular allowing toreach an unprecedented resolution on the impact parameter of the tracks that reconstruct the particles producedin the studied interactions. The principle goal of this thesis is to show how to optimise the parameters of the VXDin the case that is composed of Active Pixel Sensors manufactured in industrial CMOS technology (CAPS). Thiswork has been realised by studying the sensitivity of the performance of the heavy flavour tagging and theprecision on the hadronic branching fractions of the Higgs boson as a function of different sets of VXDparameters.The specifications of the VXD, particularly ambitious, call for the development of a novel silicon pixel sensorstechnology, the CAPS, which was pioneered by the PICSEL group of IPHC. The readout speed and the influenceof the fabrication parameters have been studied in this thesis, and CAPS prototypes have been characterised intest beams. Finally, the tracking performance of a CAPS based VXD has been evaluated with simulation studies.
194

Le temps sédentaire au travail et les bureaux actifs : compréhension des différences entre les bureaux actifs

Dupont, François 10 1900 (has links)
Dans nos pays industrialisés, les comportements sédentaires entrainent des enjeux de santé pour de nombreux travailleurs, les exigences physiques de leur travail étant désormais insuffisantes. Afin de répondre à cette problématique, la recherche s’intéresse aux bureaux actifs (poste de travail debout, avec pédalier ou avec tapis roulant) qui comparativement au poste de travail conventionnel permettent aux travailleurs d’augmenter l’apport d’activité physique au travail et ainsi, réduire le temps sédentaire quotidien. Lorsqu’ils sont comparés au poste conventionnel (assis), les bureaux actifs ont des effets sur des biomarqueurs physiologiques et biomécaniques liés à l’amélioration de la santé. En plus, ils offrent quelques avantages sur la productivité et le bien-être au travail des travailleurs. Malgré l’accumulation des connaissances sur les bureaux actifs, les différences entre bureaux actifs sont toujours méconnues. Ce mémoire s’adresse donc à la compréhension et à la comparaison entre les types de bureaux actifs, plus précisément à leurs impacts sur le temps sédentaire au travail, leurs effets sur les biomarqueurs physiologiques et biomécaniques et à leurs effets sur la productivité et le bien-être au travail. Pour ce faire, les résultats et la discussion sont développés autour d’un article de revue systématique (Dupont et al., 2019) et d’un article issu d’une recherche expérimentale soumis en octobre 2019. Dans un premier temps, les avantages associés à chaque type de poste de travail actif (debout, avec pédalier ou avec tapis roulant) ne sont pas équivalents. En effet, les postes avec pédalier et avec tapis roulant semblent apporter de plus grands changements physiologiques à court terme que les postes de travail debout et pourraient potentiellement améliorer la santé. De plus, les postes debout, avec pédalier et avec tapis roulants semblent tous présenter des avantages de productivité à court terme, toutefois les postes avec tapis roulants réduisent les performances des tâches faites à l’aide de clavier et de souris d’ordinateur. Dans un deuxième temps, à court terme (2 semaines), l’introduction d’un poste debout et d’un poste à pédalier dans leur bureau permet aux travailleurs d’accumuler en moyenne 132 minutes de temps actif (ex. travail fait avec poste debout et/ou avec poste avec pédalier) par jour, ce qui représente 46 % du temps total passé dans leur espace de travail personnel. Ce faisant, les travailleurs réduisent de moitié leur temps assis au travail en fractionnant le temps assis en courtes périodes de 30 minutes. Basé sur nos résultats, l’ajout de deux postes de travail actif à même le bureau d’un travailleur permet de diminuer le temps sédentaire au travail. / In our industrialized countries, sedentary behaviours lead to health issues for many workers, as the physical demands of their work are now insufficient. To answer this problem, the research focuses on active workstations (standing, with pedals or treadmill workstations) which compared to the conventional workstation allow workers to increase physical load at work and thus, reduce daily sedentary time. When compared to the conventional (sit) workstation, active workstations have effects on physiological and biomechanical biomarkers related to better health. Also, they offer some advantages over workers’ productivity and wellbeing at work. Despite the accumulation of knowledge about active workstations, the differences between active workstations are still unknown. This thesis is aimed at understanding and comparison between active workstation types, specifically their impacts on sedentary time at work, their effects on physiological and biomechanical biomarkers and their effects on productivity and well-being at work. The results and the discussion are developed around a systematic review article (Dupont et al., 2019) and an article from an experimental research submitted in October 2019. First of all, the benefits associated with each type of active workstation (i.e. standing, cycling, treadmill) may not be equivalent. Cycling and treadmill workstations appear to provide greater short-term physiologic changes than standing workstations that could potentially lead to better health. Cycling, treadmill and standing workstations appear to show short-term productivity benefits, while treadmill workstations reduce the performance of computer-related work. Secondly, in the short term (2 weeks), the introduction of a standing workstation and a pedal workstation in their office allows workers to accumulate an average of 132 minutes of active time (i.e. work done with standing and/or cycling workstations) per day, which represents 46% of the total time spent in their personal workspace. As a result, workers reduce their total desk-sitting time by half and sat on average 30 minutes per sedentary bout. Based on our findings, adding two active workstations to an office worker’s helps reduce sedentary time at work.
195

Dynamique des actifs financiers et politiques monétaires non conventionnelles : Cas de la Bourse de Paris / Dynamics of fiancial assets and unconventional monetary policy : the Paris Stock Exchange's case

Aloui, Donia 19 June 2019 (has links)
Au cours de ces dernières années, les banques centrales principales ont adopté de nouvelles politiques monétaires considérées comme étant des politiques non conventionnelles. Ces politiques ont pour objectif de relancer la croissance économique et de maîtriser l’inflation par l’intermédiaire du marché obligataire. Dans ce travail de recherche, nous étudions l’impact de ces nouvelles pratiques monétaires sur les marchés financiers. Plus précisément, nous essayons d’explorer l’évolution du marché boursier face à la mise en œuvre de l’assouplissement quantitatif et de détecter les canaux de transmission de cette stratégie aux cours boursiers. / During the last few years, major central banks have adopted new monetary policies that were considered unconventional policies. These new measures aim to boost economic growth and control inflation through the bond market. In this research the main objective is to study the impact of these new monetary practices on the financial markets. More specifically, this dissertation tries to explore the stock market's evolution in the face of the implementation of quantitative easing and to detect the transmission channels of this strategy to stock prices.
196

Caractérisation de la transparence de l'univers aux rayons gamma de très haute énergie avec H.E.S.S. et aspects associés en physique fondamentale et cosmologie / Characterisation of the transparency of the universe to very-high-energy gamma rays with H.E.S.S. and related aspects in fundamental physics and cosmology

Lorentz, Matthias 21 September 2017 (has links)
La propagation des rayons Ɣ de très haute énergie (E > 100GeV) dans l'univers est affectée par les propriétés du milieu extragalactique. Ces photons à l'échelle du TeV, issus des processus d'accélération de particules dans les noyaux actifs de galaxies, peuvent en effet interagir avec des photons du fond optique et infrarouge qui baignent l'univers et produire des paires d'électrons et de positrons. Ce processus réduit la transparence de l'univers aux rayons Ɣ de très haute énergie mais permet en revanche de sonder les propriétés du milieu extragalactique de façon unique. Dans cette thèse, les données prises par le réseau de télescopes à imagerie Tcherenkov atmosphérique H.E.S.S. sont analysées et utilisées afin de caractériser la transparence de l'univers aux rayons Ɣ de très haute énergie. Une mesure indépendante de la distribution spectrale en énergie du fond cosmologique optique et infrarouge est réalisée à travers l'ajustement des modulations observées dans les spectres en énergie obtenus avec H.E.S.S. pour un échantillon de noyaux actifs de galaxies brillants dans une gamme en redshift 0.03 < z < 0.28. Les résultats obtenus sont compatibles avec les limites inférieures dérivées par comptages de galaxies et ne suggèrent pas d'anomalie de la transparence de l'univers aux rayons Ɣ vis à vis des modèles actuels du fond de lumière extragalactique. Des processus de second ordre affectant la propagation des rayons Ɣ de très haute énergie sont également explorés. Des limites sur une brisure de la symétrie de Lorentz à l'échelle de Planck sont obtenues à partir de l'analyse spectrale du noyau actif Mrk 501 observé dans un état de flux exceptionnel par H.E.S.S. en 2014, à grand angle zénithal. Enfin, des contraintes sur le champ magnétique extragalactique sont dérivées en considérant l'émission Ɣ secondaire attendue à partir de simulations des cascades électromagnétiques initiées lors du processus d'absorption pour le noyau actif distant PG 1553+113 vu par H.E.S.S. et le télescope spatial Fermi. Cette thèse a également été l'occasion d'une participation aux développements de certains aspects de la calibration et de l'analyse des données de H.E.S.S. / The propagation of very high energy Ɣ rays in the universe depends on the properties of the extragalactic medium. Such TeV-scale photons travelling cosmological distances are -emitted through particle acceleration mechanisms in active galaxy nuclei- can interact with the low-energy photons of the extragalactic background light (EBL) and produce electron-positron pairs. This effect reduces the transparency of the universe to very high energy Ɣ rays but it also provides a unique opportunity to probe the properties of the extragalactic medium. In this thesis, data taken with the H.E.S.S. array of Cherenkov telescopes are analyzed and used to characterize the transparency of the universe to very high energy Ɣ rays. A independent measurement of the spectral energy distribution of the EBL with H.E.S.S. is presented. It is obtained by extracting the EBL absorption signal from the fit of spectral modulations in the high-quality spectra of a sample of bright blazars in the redshift range 0.03 < z < 0.28. The intensity of the EBL obtained in different spectral bands is presented together with the associated Ɣ-ray horizon. The obtained results are consistent with lower limits derived from galaxy counts and do not suggest an anomaly of the transparency of the universe to Ɣ rays with respect to current models of the extragalactic background light. Second-order processes affecting the propagation of very high energy Ɣ rays in the universe are also considered. Limits on Lorentz invariance violation at Planck scale are obtained from the spectral analysis of the active galaxy nucleus Mrk 501 observed during a high-flux state by H.E.S.S. in 2014, at large zenith angle. Finally, constraints on the extragalactic magnetic field properties are derived by considering the secondary Ɣ-ray emission expected from the simulation of electromagnetic cascades initiated by the absorption process for the distant active galaxy nucleus PG 1553+113 seen by H.E.S.S. and the Fermi Ɣ-ray space telescope. In this thesis some developments related to the calibration and analysis of H.E.S.S. data are also presented.
197

Drug-initiated synthesis and biological evaluation of heterotelechelic polymer prodrug nanoparticles / Synthèse et évaluation biologique de nanoparticules de prodrogues polymères hétérotélechéliques obtenues par la méthode du principe actif amorceur

Vinciguerra, Daniele 10 December 2018 (has links)
Une méthodologie générale et efficace pour la synthèse de nanoparticules de prodrogues polymères hétérotéléchéliques à hauts taux de charge a été mise au point en combinant d’une part la méthode dite du “principe actif amorceur” pour obtenir des prodrogues polymères α-fonctionnelles par polymérisation radicalaire contrôlée par les nitroxydes (NMP), et d’autre part la réaction d'échange de nitroxyde à partir d’un nitroxyde fonctionnel pour coupler une seconde molécule d'intérêt en bout de chaîne. Une petite bibliothèque de prodrogues polymères hétérotéléchéliques avec différentes combinaisons pour diverses applications (e.g., libération de principes actifs, imagerie/théranostic, thérapie combinée, ciblage actif) a été synthétisée en utilisant le polyisoprène (PI) comme polymère.En particulier, une alcoxyamine basée sur le nitroxyde SG1 a été fonctionnalisée avec la première molécule d’intérêt et utilisée pour polymériser l'isoprène par NMP et donner la prodrogue polymère désirée. En appliquant ensuite la réaction d'échange de nitroxyde à partir du nitroxyde TEMPO fonctionnalisé avec la seconde molécule d’intérêt, le nitroxyde SG1 en bout de chaîne a été quantitativement remplacé par le TEMPO fonctionnel pour donner la prodrogues hétérobifonctionnelle. Cette approche générale a été appliquée aux combinaisons suivantes : (i) gemcitabine (Gem)/rhodamine (Rho) et Gem/cyanine pour la libération de principes actifs et l’imagerie; (ii) aminoglutethimide (Agm)/doxorubicine (Dox), Gem/Dox and Gem/Lapatinib (Lap) pour la thérapie combinée et (iii) Gem/biotine pour la libération de principes actifs et le ciblage actif in vitro et in vivo. Les propriétés d’imagerie des nanoparticules de prodrogues polymères comportant une molecule fluorescente ont été étudiées in vitro et in vivo, respectivement en termes d’internalisation intracellulaire et de biodistribution. Pour les thérapies combinées, la cytotoxicité in vitro des différentes nanoparticules a été étudiée et comparée à celle émanant d’autres strategies de délivrance de deux principes actifs (e.g., conanoprécipitation, mélange physique de nanoparticules).Enfin, des prodrogues polymères hétérobifonctionnelles comprenant l’adénosine en début de chaîne et un motif maléimide en fin de chaine ont été préparées et fonctionnalisées en surface par des protéines capables de promouvoir le passage des nanoparticules à travers la barrière hémato-encéphalique pour libérer l’adénosine au niveau du cerveau. / A facile and versatile synthetic platform to prepare high drug loading, heterobifunctional polymer prodrug nanoparticles was developed by combining the “drug-initiated” method to obtain α-functional polymer prodrugs by nitroxide-mediated polymerization (NMP), and the nitroxide exchange reaction from a functional nitroxide to attach a second molecule of interest at the ω chain-end. A library of heterotelechelic polymers prodrugs with different combinations for various purposes (e.g., drug delivery, imaging/theranostic, combination therapy, active targeting) was prepared using polyisoprene (PI) as polymer scaffold. More specifically, an alkoxyamine based on the SG1 nitroxide was functionalized with the first drug of interest and used to perform the NMP of isoprene to yield the desired polymer prodrug. Subsequently, by applying the nitroxide exchange reaction using a TEMPO nitroxide functionalized with the second molecule of interest, the SG1 nitroxide at the chain-end was quantitatively replaced by the functional TEMPO and the desired heterobifunctional polymer prodrug was formed. This general methodology was applied to the following combinations: (i) gemcitabine (Gem)/rhodamine (Rho) and Gem/cyanine for drug delivery and imaging; (ii) aminoglutethimide (Agm)/doxorubicin (Dox), Gem/Dox and Gem/Lapatinib (Lap) for combination therapy and (iii) Gem/biotin for drug delivery and active targeting in vitro and in vivo. For polymer prodrug nanoparticles bearing fluorescent dyes, in vitro and in vivo imaging studies were performed to investigate their cellular internalization and their biodistribution, respectively. As for the different combination therapies, the in vitro cytotoxicity of the nanoparticles was determined and compared to that of other strategies to deliver two different drugs (e.g., conanoprecipitation, physical mixture of nanoparticles).Finally, heterobifunctional polymer prodrugs bearing adenosine in alfa position and a maleimide moiety in omega position were synthesized to give nanoparticles that were further surface-functionalized with different proteins able to promote crossing through the blood brain barrier for drug delivery to the brain.
198

Étude multicritère pour l'enfouissement partiel ou total de convertisseurs d'électronique de puissance dans un circuit imprimé / Multi-criteria study for partial or complete Printed Circuit Board embedding of power electronic converters

Pascal, Yoann 22 October 2019 (has links)
Les travaux présentés dans ce manuscrit traitent de l’enfouissement dans un circuit imprimé de convertisseurs de puissance, paradigme visant l’insertion de composants électroniques au sein du circuit imprimé.Une structure simple et économique de composant inductif enfoui, pouvant être employé comme inductance, coupleur, ou résonateur monolithique, est tout d’abord décrite. Un modèle analytique complet est développé. Des prototypes sont réalisés, validant le modèle et démontrant l’intérêt de la topologie.L’agencement des composants de puissance constituant une cellule de commutation est ensuite étudié. En particulier, un modèle analytique permettant une compréhension intuitive des mécanismes oscillatoires dans le cadre de l’emploi de transistors rapides est décrit.Une technique de reprise de contact de face avant pour puce enfouie, basée sur un morceau de mousse pressée, est proposée. Une étude préliminaire, à forte composante expérimentale, est présentée. Elle démontre que certains prototypes enfouis présentent des caractéristiques électriques et une fiabilité similaires à celles obtenus avec des fils de bonding.Enfin, les résultats de l’étude sur l’agencement des composants d’une cellule de commutation sont appliqués pour concevoir et réaliser un hacheur basé sur des transistors SiC connectés par mousse pressée. La structure délivre 3 kW sous 600 V en continu, démontrant la viabilité du procédé de reprise de contact proposé. / This thesis deals with Printed-Circuit Board (PCB) embedding of power converters, paradigm according to which electronic components are placed within the substrate itself.First, a simple and economical structure of inductive component, which can be used either as an inductor, a coupler, or a monolithic resonator, is described. A comprehensive analytical model is developed. Prototypes are manufactured, validating the analytical model and highlighting the value of the topology.The arrangement of the power components of a switching cell is then studied. In particular, an analytical model offering an intuitive understanding of the oscillation mechanisms in cells using fast transistors is proposed.A simple and economical top-side connection technic for PCB-embedded power dies using a pressed piece of metal foam is described. A preliminary study, with strong experimental component, is proposed. It shows that the embedded prototypes have electrical performances and a reliability close to that of wire-bonded dies.Finally, the results from the study on the arrangement of the components of a switching cell are used to design and manufacture a chopper based on SiC transistors connected using a piece of pressed metal foam. This chopper proved to be able to continuously deliver 3 kW under 600 V to a load, thereby validating the proposed top-side connection technic.
199

Fluides actifs - Interactions et dynamiques collectives dans les suspensions phorétique / Active fluids - Interactions and collective dynamics in phoretic suspensions

Varma, Akhil 14 November 2019 (has links)
La phorèse est un mécanisme physico-chimique par lequel certains colloïdes microscopiques dérivent à travers les gradients d'un champ de concentration de soluté dans un fluide. Ce mécanisme est exploité par des particules autophorétiques, ou colloïdes actifs chimiquement, pour auto-propulser. Ces particules influencent les mouvements de leurs voisines par le biais d'interactions chimiques et hydrodynamiques et sont donc étudiées pour leur comportement collectif. La modélisation de ces interactions a fait l'objet de recherches approfondies au cours des dernières années, à la fois d'un point de vue physique pour comprendre les mécanismes précis des interactions, et d'un point de vue expérimental pour expliquer les observations de la formation de structures cohérentes à grande échelle. Cependant, une modélisation exacte de ces suspensions actives est difficile en raison des interactions à grand nombre de particules. Jusqu'à présent, la plupart des modèles proposés reposent sur la superposition d'approximations de champ lointain pour les signatures chimiques et hydrodynamiques de chaque particule, qui ne sont valides que de manière asymptotique dans la limite de suspensions très diluées. Un cadre analytique systématique et unifié basé sur la méthode classique de réflexion (MoR) est développé ici pour les problèmes de Laplace et de Stokes afin d'obtenir les interactions entre particules phorétiques et les vitesses résultantes avec un ordre de précision arbitraire en terme du rapport du rayon et de la distance typique entre deux particules voisines.Un système comprenant uniquement des particules autophorétiques homogènes et isotropes chimiquement et géométriquement est ensuite considéré en détail. On sait que de telles particules isotropes ne peuvent se propulser seules; cependant, en présence d'autres particules identiques, la symétrie du champ de concentration est brisée et les particules forment spontanément des agrégats ou clusters denses. De manière remarquable, ceux-ci peuvent s'auto-propulser si leur arrangement est présente une asymétrie. Ce résultat identifie donc une nouvelle voie pour briser la symétrie du champ de concentration et ainsi générer un mouvement, qui ne repose pas sur une conception anisotrope des particules individuelles, mais sur les interactions collectives de particules actives identiques et homogènes. Un argument pour l'origine de ce comportement auto-propulsif des clusters, basé sur la MoR, est proposé. De plus, en utilisant des simulations numériques complètes combinées à un modèle théorique réduit, nous caractérisons les propriétés statistiques de l'autopropulsion. / Diffusiophoresis is a physico-chemical mechanism by which certain microscopic colloids drift through gradients of a solute concentration field in a fluid. This mechanism is exploited by autophoretic particles, which are chemically active synthetic colloids, to achieve self-propulsion. These particles influence each others' motion through chemical and hydrodynamic interactions and are hence known to exhibit collective behaviour. Modeling these interactions is a subject of intense research over the past decades, both from a physical perspective to understand the precise mechanisms of the interactions, as well as from an experimental point of view to explain the observations of formation of coherent large-scale structures. However, an exact modeling of is difficult due to multi-body interactions and surface effects. Most efforts so far rely on the superposition of far-field approximations for each particle's signature, which are only valid asymptotically in the dilute suspension limit. A systematic and unified analytical framework based on the classical Method of Reflections (MoR) is developed here for both Laplace and Stokes' problems to obtain the multi-body interactions and the resulting velocities of phoretic particles, up to any order of accuracy in the radius-to-distance ratio of the particles.A system comprising only of chemically- and geometrically-isotropic autophoretic particles is then considered in detail. It is known that such isotropic particles cannot self-propel in isolation; however, in the presence of other identical particles, the symmetry of the concentration field is broken and the particles spontaneously form close packed clusters. Remarkably, these clusters are observed to self-propel based on their geometric arrangement. This result thus identifies a new route to symmetry-breaking for the concentration field and to self-propulsion, that is not based on an anisotropic design, but on the collective interactions of identical and homogeneous active particles. An argument for origin of this self-propulsive behaviour of clusters is made based on MoR. Furthermore, using full numerical simulations and theoretical model for clustering, we characterize the statistical properties of self-propulsion of the system.
200

Processus guidé pour l'identification des exigences de sécurité à partir de l'analyse des risques / Guided process for the identification security requirements from risk analysis

Laoufi, Nabil 20 March 2017 (has links)
Toute organisation est activée par un flux physique continu et un flux décisionnel qui opèrent de symbiose pour atteindre des objectifs déterminés. Ce qui engendre l’implantation d’un système d’information fiable, opérant avec un contrôle continu et une sécurité maximale, prenant en compte le contexte interne et externe pour garder son rôle opérationnel et stratégique. Compte tenu du niveau d'exposition aux risques et de la dépendance vitale des entreprises vis-à-vis de leurs systèmes d'information, il est crucial de prêter attention aux exigences de sécurité. La réalisation d'un équilibre entre la sécurité et l'efficacité du système d’information est une tâche complexe qui exige au préalable une analyse approfondie du contexte organisationnel. Elle nécessite également l'identification, l'analyse, et la gestion des risques encourus par l’entreprise. Elle nécessite aussi la détermination des exigences de sécurité. Peu d'approches offrent un guidage permettant de dériver les exigences de sécurité à partir des risques encourus. Le but de cette thèse est de concevoir un mécanisme de guidage suggestif qui permet de dériver les exigences de sécurité à partir de l'analyse des risques. Nous proposons, pour cela, une approche fondée sur une ontologie modulaire et un ensemble de règles de correspondance. A cette fin, nous proposons le développement de quatre ontologies et un processus d'alignement entre celles-ci en utilisant des relations sémantiques cohérentes. Le processus de validation se fonde sur une étude de cas et un prototype. / Any organization is enabled by continuous physical flow and decision flow from operating symbiosis to achieve specific objectives. Which generates the implementation of a reliable information system, operating with a continuous control and maximum security, taking in to account the internal and external environment to maintain its operational and strategic role. Given the level of risk exposure and the vital dependence of companies on their information systems, it is crucial to pay attention to security requirements. Achieving a balance between the security and effectiveness of the information system is a complex task requiring an in-depth analysis of the organizational context. It also requires the identification, analysis, and management of the risks incurred by the company. It also requires the determination of security requirements. Few approaches offer guidance to derive security requirements from the risks involved. The aim of this thesis is to design a suggestive guiding mechanism that allows to derive the security requirements from the risk analysis. We propose an approach based on a modular ontology and a set of correspondence rules. To achieve, we propose the development of four ontologies and an alignment process between then using consistent semantic relationships. The validation process is based on a case study and a prototype.

Page generated in 0.0336 seconds