• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 117
  • 45
  • 21
  • Tagged with
  • 181
  • 50
  • 49
  • 37
  • 37
  • 35
  • 23
  • 21
  • 21
  • 20
  • 19
  • 17
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Theoretical contributions to Monte Carlo methods, and applications to Statistics / Contributions théoriques aux méthodes de Monte Carlo, et applications à la Statistique

Riou-Durand, Lionel 05 July 2019 (has links)
La première partie de cette thèse concerne l'inférence de modèles statistiques non normalisés. Nous étudions deux méthodes d'inférence basées sur de l'échantillonnage aléatoire : Monte-Carlo MLE (Geyer, 1994), et Noise Contrastive Estimation (Gutmann et Hyvarinen, 2010). Cette dernière méthode fut soutenue par une justification numérique d'une meilleure stabilité, mais aucun résultat théorique n'avait encore été prouvé. Nous prouvons que Noise Contrastive Estimation est plus robuste au choix de la distribution d'échantillonnage. Nous évaluons le gain de précision en fonction du budget computationnel. La deuxième partie de cette thèse concerne l'échantillonnage aléatoire approché pour les distributions de grande dimension. La performance de la plupart des méthodes d’échantillonnage se détériore rapidement lorsque la dimension augmente, mais plusieurs méthodes ont prouvé leur efficacité (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). Dans la continuité de certains travaux récents (Eberle et al., 2017 ; Cheng et al., 2018), nous étudions certaines discrétisations d’un processus connu sous le nom de kinetic Langevin diffusion. Nous établissons des vitesses de convergence explicites vers la distribution d'échantillonnage, qui ont une dépendance polynomiale en la dimension. Notre travail améliore et étend les résultats de Cheng et al. pour les densités log-concaves. / The first part of this thesis concerns the inference of un-normalized statistical models. We study two methods of inference based on sampling, known as Monte-Carlo MLE (Geyer, 1994), and Noise Contrastive Estimation (Gutmann and Hyvarinen, 2010). The latter method was supported by numerical evidence of improved stability, but no theoretical results had yet been proven. We prove that Noise Contrastive Estimation is more robust to the choice of the sampling distribution. We assess the gain of accuracy depending on the computational budget. The second part of this thesis concerns approximate sampling for high dimensional distributions. The performance of most samplers deteriorates fast when the dimension increases, but several methods have proven their effectiveness (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). In the continuity of some recent works (Eberle et al., 2017; Cheng et al., 2018), we study some discretizations of the kinetic Langevin diffusion process and establish explicit rates of convergence towards the sampling distribution, that scales polynomially fast when the dimension increases. Our work improves and extends the results established by Cheng et al. for log-concave densities.
132

Neglected tropical disease therapy through exploration of novel points of intervention for combating resistant parasites

Nguyen, Anh Minh Thao 11 1900 (has links)
Les maladies tropicales négligées, causées par des trypanosomes telles que la leishmaniose, la trypanosomiase africaine (maladie du sommeil) et la trypanosomiase américaine (la maladie de Chagas), imposent une morbidité et un taux de mortalité graves ayant un grand impact sur les populations les plus pauvres. Les traitements contemporains de ces maladies sont limités en raison des effets secondaires toxiques et de l’émergence des souches résistantes. Dans le but de répondre au besoin croissant de traitement, l’exploration de nouveaux agents antiprotozoaires est donc plus que nécessaire. La recherche décrite dans cette thèse vise à développer une nouvelle thérapie pour traiter ces infections parasitaires en ciblant de multiples fonctions vitales pour la survie du parasite. Une série de peptides, petites molécules et combinaison de peptides et petites molécules conjugués ont été préparés et étudiés. Par exemple, les lipopeptides almiramides N-méthylés présentent une activité antiparasitaire avec un indice thérapeutique élevé en ciblant le glycosome, un organite typique des trypanosomes. Une étude de la relation structure-activité a été réalisée pour examiner l’influence de la N-méthylation et de la conformation sur l’activité contre diverses souches de Leishmania et sur la cytotoxicité. La synthèse et l’analyse biologique de vingt-cinq analogues ont démontré que les dérivés portant un acide aminé Na-méthylé aux deux extrémités présentaient une activité supérieure à celle des peptides perméthylés et une puissance relativement élevée contre les souches résistantes. Le remplacement des résidus d’acides aminés dans le peptide par un α-amino γ-lactam (Agl) et N-aminoimidazalone (Nai) réduit l’activité antiparasitaire; cependant, les amides peptidiques possédant des résidus d’Agl à la deuxième position conservaient une puissance significative dans les séries non méthylées et perméthylées. L’étude systématique des effets de la N-méthylation et de la géométrie de tour sur l’activité antiparasitaire a montré la pertinence d’un conformère étendu sur les résidus centraux et la mobilité conformationnelle par isomérisation des amides tertiaires et la géométrie des tours aux extrémités des peptides actifs. L’alcaloïde naturel anisomycine a été étudié en raison de son importance en tant qu’inhibiteur de la synthèse des protéines avec une vaste activité antiparasitaire. L’évaluation des relations structure-activité antiprotozoaires de l’anisomycine a été réalisée en modifiant les groupements fonctionnels du cycle de pyrrolidine ainsi que sa partie aromatique. L’examination de la cytotoxicité et l’activité antiprotozoaire contre diverses souches de Leishmania en comparant avec le produit naturel ont révélé une stratégie de préparation d’analogues à forte puissance et à faible toxicité pour l’hôte. L’étude préliminaire de l’activité antiprotozoaire et de la sélectivité a favorisé ii l’exploration de conjugués phénoliques de l’anisomycine. Une série d’analogues de l’anisomycine ont été synthétisés en conjuguant l’anisomycine sur des peptides almiramides et des résidus d’acides aminés qui peuvent respectivement cibler les fonctions glycosome et transporteur du parasite. La cytotoxicité et l’activité antiprotozoaire contre diverses souches de Leishmania, Trypanosoma brucei et Trypanosoma cruzi ont démontré que la conjugaison de divers acides aminés et résidues insaturées donnait des agents antiparasitaires prometteurs qui ciblaient sélectivement les différents parasites avec une cytotoxité minimale en comparaison avec celle du produit naturel. L’activité antiprotozoaire de l’anisomycine et de ses dérivés a incité à poursuivre l’exploration des relations structure-activité pour le développement d’un traitement antiparasitaire. Compte tenu de l’utilité de l’anisomycine dans cette étude, une synthèse formelle du produit naturel a été développée. En utilisant la (2S,4R)-4-hydroxyproline comme précurseur chiral peu coûteux, une voie de synthèse a été développée impliquant le couplage Negishi. L’introduction dans les analogues de la décacéoxy-anisomycine a également été réalisée par un protocole similaire. Les études de relation structure-activité des peptides almiramides et des analogues de l’anisomycine décrites dans cette thèse ont ouvert une voie prometteuse pour le développement de nouveaux agents antiparasitaires à haute puissance et à faible toxicité pour l’hôte. En ciblant plusieurs points d’intervention, les nouveaux agents offrent la promesse de ralentir les modes de résistance. En outre, la synthèse d’analogues désacétoxy-anisomycine a ouvert la porte à des intermédiaires clés pour une exploration plus approfondie des dérivés de l’anisomycine et pour améliorer la synthèse de prototypes thérapeutiques afin de relever des défis importants dans l’atténuation des maladies tropicales négligées. / Neglected Tropical Diseases (NTDs) which are caused by trypasonomatid infections, such as leishmaniasis, human African trypanosomiasis (HAT) and Chagas disease are known to inflict serious morbidity and mortality with greatest impact on the poorest populations. Contemporary anti-trypanosomatid therapy is limited due to toxic side effects and the rise of resistant stains. A growing need has emerged for novel anti-protozoal agents. The research described in this thesis seeks to develop novel therapy to treat trypasonomatid infection by targeting multiple vital functions for parasite survival. A series of peptide, small molecule, and peptide-small molecule conjugates have been prepared and studied. For example, the almiramide N-methylated lipo-peptides exhibit anti-parasitic activity with high therapeutic index by targeting the glycosome, an organelle without a mammalian counterpart. A structure-activity relationship study has been performed to examine the influences of N-methylation and conformation on activity against various strains of leishmaniasis protozoan and on cytotoxicity. The synthesis and biological analysis of twenty-five analogs demonstrated that derivatives with a single methyl group on specific residue amide nitrogen exhibited greater activity than the permethylated peptides and relatively high potency against resistant strains. Replacement of amino amide residues in the peptide by turn inducing α-amino γ-lactam (Agl) and N-aminoimidazalone (Nai) counterparts reduced typically anti-parasitic activity; however, peptide amides possessing Agl residues at the second residue retained significant potency in the unmethylated and permethylated series. Systematic study of the effects of methylation and turn geometry on anti-parasitic activity indicated the relevance of an extended conformer about the central residues and conformational mobility by tertiary amide isomerization and turn geometry at the extremities of the active peptides. The natural alkaloid anisomycin was studied because of significance as a protein synthesis inhibitor with broad anti-parasitic activity. Assessment of the structure - anti-protozoan activity relationships of anisomycin was performed by modifying pyrrolidine and aromatic functional groups. Examination of cytotoxicity and antiprotozoal activity against various strains of Leishmania and comparison with the natural product revealed a strategy for preparing analogs with high potency and low host toxicity. The preliminary study of antiprotozoal activity and selectivity promoted the exploration phenolic conjugates of anisomycin. A serie of anisomycin analogs were synthesized by conjugating anisomycin onto almiramide peptides and amino acids residues which iv may respectively target the glycosome and transporter functions of the parasite. The cytotoxicity and antiprotozoal activity against various strains of Leishmania, Trypanosoma brucei and Trypanosoma cruzi demonstrated that conjugation of various amino acid and unsaturated moieties yielded promising agents that selectively targeted the different parasites with minimal cytotoxity compared to that of the natural product. The antiprotozoal activity of anisomycin and derivatives has led to a better understanding of structure-activity relationships for the development of anti-parasitic therapy. Considering the utility of anisomycin in this study, a formal synthesis of the natural product was developed. Employing (2S,4R)-4-hydroxyproline as an inexpensive chiral building block, a route was conceived featuring the Negishi coupling. Entry into deacteoxy-anisomycin analogs was also achieved by a similar protocol. The structure-activity relationship studies of almiramide peptides and anisomycin analogs described in this thesis have opened a promissing gateway for developing new anti-parasitic agents with high potency and low host toxicity. By targeting multiple points of intervention, the new agents offer promise to minimize modes of resistance. Moreover, the synthesis of deacetoxyanisomycin analogs has paved the way to key intermediates for further exploration of anisomycin derivatives and for improving the synthesis of therapeutic prototypes to tackle important challenges in mitigating Neglected Tropical Diseases.
133

Modélisation, caractérisation et analyse de systèmes de PLL intégrés, utilisant une approche globale puce-boîtier-circuit imprimé / Modeling, characterization and analysis of integrated PLL systems using a global chip-package-board approach

Ranaivoniarivo, Manohiaina 15 December 2011 (has links)
Cette thèse porte sur la caractérisation, la modélisation et l'analyse des phénomènes de «Pulling» et de «Pushing» dans les systèmes de boucles à verrouillage de phase (PLL), utilisant une approche globale où les effets de couplages électromagnétiques aux différents niveaux d'intégration (niveau puce, niveau assemblage, niveau report sur PCB) sont pris en compte de manière distribuée. L'approche de modélisation adopte une méthodologie hybride où l'analyse des couplages électromagnétiques combinée à des schémas équivalents large-bande (compatibles avec les modèles de composants actifs disponibles dans les librairies) est couplée à des représentations comportementales dynamiques. Les représentations comportementales développées permettent de capturer des effets de non-linéarités tant au niveau composant (caractéristique non-linéaire des Varicap en fonction des tensions de contrôle) qu'au niveau block de fonction (gain KVCO non uniforme de l'oscillateur contrôlé en tension (VCO) en fonction de la fréquence).Cette méthodologie hybride permet l'évaluation d'effets compétitifs résultant de phénomènes de «pulling» et de «Pushing» au niveau de la puce (influence de la PLL, effets de l'amplificateur de puissance, intégrité des alimentations ou distribution des références de masse, etc.) , et des distorsions induites par des éléments extérieurs à la puce (exemple de composants sur PCB : Filtre SAW, capacités de découplages, réseaux d'adaptation).L'approche proposée est utilisée pour l'étude et la conception de deux types de circuits développés par NXP-semi-conducteurs pour des applications liées à la sécurité automobile (PLL fonctionnant aux alentours de 1.736GHz) et à la réception satellitaire (PLL de faible consommation fonctionnant à 9.75/10.6 GHz pour les circuits LNB).Les résultats de modélisation obtenus sont validés par corrélations avec les données expérimentales et par comparaison avec les résultats obtenus de différents outils (ADS Harmonic- Balance/Transient de Agilent, Spectre de Cadence / This thesis work focuses on characterization, modeling and analysis of «Pulling» and «Pushing» phenomena in Phase Locked Loops (PLL) based on a global approach where distributed effects of electromagnetic couplings at different integration levels (chip-level, assembly-level, board or PCB-level) are taken into account. The modeling approach adopts a hybrid methodology where the analysis of electromagnetic couplings combined with broadband equivalent circuit synthesis (compatible with library models of active components) is coupled with dynamic behavioral representations. The derived behavioral representations properly capture the effects of nonlinearities both at component scale (non-linear characteristic of varicap as function of control voltages) and at function block level (non-uniform gain KVCO of VCO circuits depending on frequency).The hybrid methodology renders possible the assessment of competitive effects resulting from «Pulling» and «Pushing» phenomena at chip level (influence of the PLL, effects of the power amplifier, power integrity, or ground reference distribution, etc..), and the distortions induced by components external to the chip at package and board levels (such as components on PCB: SAW filters, decoupling capacitors, matching networks).The proposed approach is used for the study and design of two types of circuits developed by NXP- Semiconductors, for applications related to automotive security and immobilization (an RF low power transceiver Integrated Circuit (PLL running around 1.763GHz), and to satellite receiver (PLL operating at low power for LNB circuits working at 9.75/10.6 GHz).The obtained modeling results are validated by correlation with experimental data and by comparison with different time-domain and frequency-domain simulation tools results (ADS-Harmonic Balance, ADS-Shooting solutions, Cadence-Spectre)
134

Mesure de la production W+W− dans les collisions proton-proton à p s = 7 TeV avec le détecteur ATLAS au LHC / Measurement of W+W− production in Proton-Proton Collisions at p s = 7 TeV with the ATLAS Detector at the LHC

Li, Shu 02 November 2012 (has links)
Cette thèse présente le mesure des sections efficaces de production WW MS et la détermination des couplages triples (TGCs) correspondants en utilisant ces 4.7 ${rm fb}^{-1}$ de donnes 2011 de collision $pp$. Ces mesures permettent un test contraignant du secteur 'électrofaible non abélien $SU(2) times U(1)$ du Modèle Standard; donnent l'opportunité de sonder la nouvelle physique `a travers les couplages triples anormaux de bosons de jauge (aTGCs) qui seront observés dans la distribution des variables cinématiques des WW produits ou de leurs produits de désintégration finaux dans le secteur de haute 'énergie; et permettent d'avoir une bonne compréhension du bruit de fond irréductible dans la recherche du boson de Higgs dans le canal de d'esint'egration $H rightarrow W^{+}W^{-}$.Ce travail de th`ese donne un base solide pour les mesures `a venir de la production WW avec les $sim$25 ${rm fb}^{-1}$ de luminosité intègré de donnes a 8 TeV prévue pour la fin 2012, qui conduiront vers une amélioration de la précision et des limites plus strictes sur les aTGCs. / This thesis presents a measurement of the SM WW production cross section and the determination of the corresponding limits on anomalous triple gauge boson couplings (aTGCs), using the 2011 4.7 ${rm fb}^{-1}$ $pp$ collisions data at 7 TeV collected in 2011. The measurement allows for a stringent test of the non-Abelian $SU(2) times U(1)$ SM electroweak sector and probes new physics that could manifest itself through aTGCs that may alter the observed production cross section or kinematic distributions. This measurement also provides a good understanding of the irreducible background in searches for the Higgs boson through the $Hrightarrow W^{+}W^{-}$ decay channel.This thesis work has laid a solid foundation for further measurements of the WW production with the $sim$25 ${rm fb}^{-1}$ integrated luminosity 8 TeV recorded data expected by the end of 2012, which will further improve the precision and yield more stringent limits on the aTGCs.
135

Etude du couplage thermomécanique du PEHD par essais mécaniques et inversion d'images infrarouges / A study of the termomechanical coupling in hdpe characterised with mechanical tests and infrared images inversion

Renault, Norbert 13 December 2007 (has links)
Ce travail vise à approfondir la connaissance du comportement mécanique de polymères structurés sur de multiples échelles. Il repose sur l'acquisition simultanée d'informations couplées relatives à la mécanique, à la thermique et à la microstructure. Nous avons à cet effet étudié le comportement du Polyéthylène Haute Densité (PEHD) sous sollicitations de traction à déformation contrôlée à l'aide de trois techniques optiques utilisées in situ simultanément : (i) Le système Vidéotraction® pour l'accès aux contraintes et aux déformations vraies. (ii) La thermographie infrarouge pour l'accès aux sources thermiques. (iii) Une technique de rétrodiffusion de lumière (ISLT) pour l'accès à une forme d'endommagement. Le corps du travail porte sur la reconstruction des sources thermiques 2D à partir de cartographies des champs de température mesurés au cours d'essais. Le problème inverse de reconstruction des champs de sources ther-miques est résolu par deux méthodes différentes : minimisation sous contrainte avec formulation adjointe et décomposition modale. Des techniques de régularisation du problème sont décrites en détail pour chaque méthode. D'autre part, la technique ISLT nous permet de suivre l'endommagement : l'apparition progressive de "mi-crocavités" isotropes puis un développement d'une forte anisotropie pendant la phase de durcissement hyperélastique. Nous montrons que ces informations sur la microstructure viennent corroborer les phénomènes observés sur la source thermique. Nous replaçons alors l'ensemble des informations obtenues dans le contexte d'une modélisation thermodynamique des lois de comportement. Une étude de sensibilité aux paramètres du modèle est développée, ce qui conduit à une réduction du modèle adaptée à leur bonne estimation / This research aims at looking further into current knowledge of the mechanical behavior of semi-crystalline polymers at multiple scales. It relies on the simultaneous acquisition of coupled information relating to me-chanical, thermal and microstructural behaviors. For this purpose, we have studied the response of High Density Polyethylene (HDPE) under tensile tests with controlled strain rates, using three optical techniques : (i) Vidéotraction®, a videoextensemeter to access the true stress and strain. (ii) Infrared thermography to access the thermal sources evolution. (iii) Backscattering of Incoherent Light (ISLT technique) to access information on damage mechanisms. The core of the research concerns the reconstruction of the 2D thermal sources starting from temperature fields maps measured during the test. This ill-posed problem has been solved with two different methods : A constrained optimization based on the adjoint formulation and a minimization based on a reduced spectral model. The regularization tools used in the problem are detailed for each method. The ISLT technique allows to monitor damaging processes due to crazing : the creation of isotropic micro-cavities followed by the development of a strong anisotropy during the hardening phase. We show that these information at microstructural level confirm the evolutions of the heat source thermal. All these experimental information are finally considered within a thermodynamical framework used for deri-ving constitutive laws. A sensitivity analysis applied to the parameters of our law led to a reduced model that is more appropriate for their proper estimation
136

Conception, synthèse et évaluation biologique d’ analogues contraints de l’isocombrétastatine a-4 à visée antitumorale / Design, synthesis and biological evaluation of conformationally restricted analogues of /i//so/combretastatin A-4 as potential antitumoral agents

Rasolofonjatovo, Evelia 02 December 2011 (has links)
Les résistances aux traitements actuels contre le cancer imposent de trouver de nouvelles cibles thérapeutiques. Une de ces cibles est le réseau vasculaire assurant un apport suffisant en nutriments et en oxygène à la tumeur, et permettant l’apparition de métastases. Détruire la vascularisation de la tumeur par l’utilisation d’agents antivasculaires (VDA)revient à l’asphyxier et à l’affamer, inhibant ainsi la prolifération des cellules tumorales et empêchant le processus métastatique. L’objectif de ce travail de thèse a été d’étudier des analogues contraints de l’isocombrétastatine A-4 (isoCA-4), une molécule phare du laboratoire, ayant un excellent pouvoir d’inhibition de la polymérisation de la tubuline et présentant une activité antivasculaire. Ces structures dont la double liaison est incluse dans différents types de cycles C,ont été étudiées également afin d’évaluer l’influence de l’angle dièdre formé par les noyaux A et B sur les activités biologiques des divers types de structures. Préalablement sélectionnés par modélisation moléculaire, ces analogues contraints sont de type 1-arylnaphtalène, 5-arylbenzoxépine ou 4-arylchromène et ont été préparés par des voies d’ accès originales développées dans le cadre de cette thèse. Parmi les composés synthétisés, l’analogue de type benzoxépine 3-53est aussi cytotoxique que l’isoCA-4 et possède un pouvoir d’inhibition de la polymérisation de la tubuline équivalent. Une évaluation plus poussée de son profil biologique, ainsi que celle des meilleurs représentants de chaque série chimique est actuellement en cours. / Most tumor cells rely on an efficient vascular supply for their survival, making the tumor vasculature an attractive target for anti-cancer therapy. This thesis aimed at the design and synthesis of constrained analogues of isocombretastatin A-4(isoCA-4), an antivascular agent developed in the laboratory, which exerts excellent cytotoxicities against a large panel ofcancer cell lines, and strongly inhibits tubulin polymerization. Conformationally restricted analogues of isoCA-4,featuring 1-arylnaphthalene, 5-arylbenzoxepine or 4-arylchromene skeletons were designed by computational studies andprepared by novel synthetic strategies. Of all synthesized compounds, benzoxepine analogue 3-53 strongly inhibits tubulinpolymerization and shows excellent cytotoxicities against several human cancer cell lines.
137

Observation of a Higgs boson and measurement of its mass in the diphoton decay channel with the ATLAS detector at the LHC / Observation d’un boson de Higgs et mesure de sa masse dans le canal de désintégration en deux photons avec le détecteur ATLAS au LHC

Lorenzo Martinez, Narei 10 September 2013 (has links)
Le Modèle Standard de la physique des particules prédit l’existence d’un boson scalaire massif, appelé boson de Higgs dans la littérature, comme résultant d’un mécanisme de brisure spontanée de symétrie, qui permettrait de générer la masse des particules. Le boson de Higgs, dont la masse est inconnue théoriquement, est recherché expérimentalement depuis plusieurs décennies. L’expérience ATLAS, au collisionneur LHC, a aussi entrepris cette recherche, depuis le début des collisions de protons à haute énergie en 2010. Un des canaux de désintégrations les plus intéressants à étudier dans cet environnement est le canal en deux photons, car l’état final peut être intégralement reconstruit avec une grande précision. La réponse en énergie des photons est un point crucial dans la recherche du boson de Higgs, car une résonance fine émergeant d’un bruit de fond important est attendue. Dans cette thèse une étude approfondie de la réponse en énergie des photons en utilisant le calorimètre électromagnétique d’ATLAS a été faite. Ces études ont permis de mieux comprendre la résolution et l’échelle d’énergie des photons, et donc d’améliorer la sensibilité de l’analyse d’une part et de mieux estimer les incertitudes expérimentales sur la position du signal d’autre part. Le canal en deux photons a eu un rôle prépondérant dans la découverte d’une nouvelle particule compatible avec le boson de Higgs en Juillet 2012 par les expériences ATLAS et CMS. En utilisant ce canal ainsi que la meilleure compréhension de la réponse en énergie acquise au cours de cette thèse, une mesure de la masse du boson est proposée avec les données collectées durant les années 2011 et 2012 avec une énergie de centre de masse de 7 TeV et 8 TeV.Une masse de 126.8 +/- 0.2 (stat) +/- 0.7 (syst) GeV/c2 est trouvée. L’étalonnage de la mesure de l’énergie des photons avec le calorimètre électromagnétique est la plus grande source d’incertitude sur cette mesure. Une stratégie pour réduire cette erreur systématique sur la masse est discutée. / The Standard Model of the particle physics predicts the existence of a massive scalar boson, usually referred to as Higgs boson in the literature, as resulting from the Spontaneous Symmetry Breaking mechanism, needed to generate the mass of the particles. The Higgs boson whose mass is theoretically undetermined, is experimentally looked for since half a century by various experiments. This is the case of the ATLAS experiment at LHC which started taking data from high energy collisions in 2010. One of the most important decay channel in the LHC environment is the diphoton channel, because the final state can be completely reconstructed with high precision. The photon energy response is a key point in this analysis, as the signal would appear as a narrow resonance over a large background. In this thesis, a detailed study of the photon energy response, using the ATLAS electromagnetic calorimeter has been performed. This study has provided a better understanding of the photon energy resolution and scale, thus enabling an improvement of the sensitivity of the diphoton analysis as well as a precise determination of the systematic uncertainties on the peak position. The diphoton decay channel had a prominent role in the discovery of a new particle compatible with the Standard Model Higgs boson by the ATLAS and CMS experiments, that occurred in July 2012. Using this channel as well as the better understanding of the photon energy response, a measurement of the mass of this particle is proposed in this thesis, with the data collected in 2011 and 2012 at a center-of-mass energy of 7 TeV and 8 TeV. A mass of 126.8 +/- 0.2 (stat) +\- 0.7 (syst) GeV/c2 is found. The calibration of the photon energy measurement with the calorimeter is the source of the largest systematic uncertainty on this measurement. Strategies to reduce this systematic error are discussed.
138

Conception de solutions exactes pour la fabrication de "vias" en utilisant la technologie DSA / Design of exact solutions for the manufacturing of "vias" using DSA technology

Ait ferhat, Dehia 15 October 2018 (has links)
Maitriser les coûts de fabrication des circuits intégrés tout en augmentant leur densité est d'une importance primordiale pour maintenir une certaine rentabilité dans l’industrie du semi-conducteur. Parmi les différents composants d’un circuit, nous nous intéressons aux connections verticales et métalliques, connues sous le nom de « vias ». Durant la fabrication, un processus de lithographie complexe est utilisé pour former une disposition de vias est formée sur une plaque de silicium, à l’aide d’un un masque optique. Pour des raisons de fabrication, une distance minimum entre les vias doit être respectée. Lorsque cette distance n’est pas respectée, nous parlons de « conflit ». Afin de supprimer ces conflits, l’industrie utilise une technique qui permet de décomposer une disposition de vias cible en plusieurs sous-ensembles, où les contraintes de distance minimum sont respectées : la formation des sous-ensembles individuels se fait en séquence sur la plaque de silicium en utilisant un masque optique par sous-ensemble. Cette technique est appelée Multiple Patterning (MP). Il y a de nombreuses façons de décomposer une disposition de vias et le but est d’assigner les vias à un nombre minimum de masques, car les masques sont coûteux. Minimiser le nombre de masques est équivalent à minimiser le nombre de couleurs dans un graphe disque unitaire. Ce problème est NP-difficile, mais un certain nombre de « bonnes » heuristiques existent. Une technique récente et prometteuse basée sur l’auto-assemblage et direction des molécules, aussi connue sous le nom Directed Self Assembly (DSA), permet de grouper les vias en conflits à condition de respecter certaines contraintes. L’objectif est de trouver la meilleure façon de grouper les vias afin de minimiser le nombre de masques tout en respectant les contraintes liées à DSA. Ce problème est un problème de coloration de graphes où les sommets de chaque couleurs définissent un ensemble de chemins « indépendants » de longueurs au plus k que nous appelons aussi le problème de coloration par k-chemins. Durant la modélisation, nous avons distingué deux problèmes de coloration par k-chemins pertinents: le problème général et le problème induit. Les deux problèmes sont connus pour être NP-difficile, ce qui explique l’utilisation d’heuristiques dans l’industrie pour trouver une décomposition valide en sous-ensembles. Dans cette étude, nous nous intéressons à des méthodes exactes afin de concevoir des solutions optimales et d’évaluer la qualité de l’heuristique développée en industrie (chez Mentor Graphics). Nous présentons différentes méthodes: une approche par programmation linéaire en nombre entier (ILP) où nous étudions plusieurs formulations, une approche par programmation dynamique pour résoudre le cas induit quand k=1 ou k=2 et lorsque les graphes ont une petite longueur arborescente ; enfin, nous étudions le cas particulier des graphes lignes. Les résultats des différentes études numériques montrent que les formulations ILP « naïves » sont les meilleures. Elles listent tous les chemins possibles de longueur au plus k. Les tests sur des données industrielles ayant au plus 2000 sommets (plus grande composante connexe parmi celles qui constituent une instance) ont montré que les deux problèmes, général et induit, sont résolus en moins de 6 secondes, pour k=1 et k=2. La programmation dynamique, appliquée au problème induit de coloration par k-chemins quand k=1 et k=2, montre des résultats équivalents à ceux de la formulation ILP naïve. Cependant, nous nous attendons à de meilleurs résultats par programmation dynamique quand la valeur de k augmente. Enfin, nous montrons qu’un cas particuliers des graphes lignes peut être résolu en temps polynomial en exploitant les propriétés de l’algorithme d'Edmonds et des couplages dans les graphes bipartis. / Controlling the manufacturing costs of integrated circuits while increasing their density is of a paramount importance to maintain a certain degree of profitability in the semi-conductor industry. Among various components of a circuit, we are interested in vertical metallic connections known as “vias”. During manufacturing, a complex lithography process is used to form an arrangement of vias on a silicon wafer support, using an optical mask. For manufacturing reasons, a minimum distance between the vias must be respected. Whenever this is not the case, we are talking about a “conflict”. In order to eliminate these conflicts, the industry uses a technique that decomposes an arrangement of vias in several subsets, where minimum distance constraints are respected: the formation of the individual subsets is done, in sequence, on a silicon wafer using one optical mask per subset. This technique is called Multiple Patterning (MP). There are several ways to decompose an arrangement of vias, the goal being to assign the vias to a minimum number of masks, since the masks are expensive. Minimizing the number of masks is equivalent to minimizing the number of colors in a unit disk graph. This is a NP-hard problem however, a number of “good” heuristics exist. A recent and promising technique is based on the direction and self-assembly of the molecules called Directed Self Assembly (DSA), allows to group vias in conflict according to certain conditions. The main challenge is to find the best way of grouping vias to minimize the number of masks while respecting the constraints related to DSA. This problem is a graph coloring problem where the vertices within each color define a set of independent paths of length at most k also called a k-path coloring problem. During the graph modeling, we distinguished two k-path coloring problems: a general problem and an induced problem. Both problems are known to be NP-hard, which explains the use of heuristics in the industry to find a valid decomposition into subsets. In this study, we are interested in exact methods to design optimal solutions and evaluate the quality of heuristics developed in the industry (at Mentor Graphics). We present different methods: an integer linear programming (ILP) approach where we study several formulations, a dynamic programming approach to solve the induced case when k=1 or k=2 and when the graphs have small tree-width; finally, we study a particular case of line graphs. The results of the various numerical studies show that the naïve ILP formulations are the best, they list all possible paths of length at most k. Tests on a snippet of industrial instances of at most 2000 vertices (a largest connected component among those constituting an instance) have shown that the two problems, general and induced, are solved in less than 6 seconds, for k=1 and k=2. Dynamic programming, applied to the induced k-path coloring when k=1 and k=2, shows results equivalent to those of the naïve ILP formulation, but we expect better results by dynamic programming when the value of k increases. Finally, we show that the particular case of line graphs can be solved in polynomial time by exploiting the properties of Edmonds’ algorithm and bipartite matching.
139

Optiques pour les impulsions attosecondes / Optical components for attosecond pulses

Bourassin-Bouchet, Charles 05 December 2011 (has links)
Les plus brefs flashs de lumière qui puissent être produits en laboratoire actuellement ont des durées de quelques dizaines d’attosecondes (1 as = 10-18 s), et ne peuvent être créés que dans le domaine extrême-ultraviolet (XUV). Le développement de composants optiques capables de contrôler et de mettre en forme ce rayonnement attoseconde est crucial pour permettre à ces impulsions de se généraliser. Cette thèse porte donc sur l’étude et la réalisation de tels composants.Les impulsions attosecondes ont la particularité de comporter une dérivée de fréquence intrinsèque au processus utilisé pour leur génération. Cela a pour effet d’augmenter leur durée. Nous avons donc développé des miroirs multicouches capables d’induire une dérive de fréquence opposée sur les impulsions s’y réfléchissant, permettant ainsi de les compresser. En caractérisant les impulsions attosecondes réfléchies par ces miroirs, nous avons pour la première fois observé une telle compression des impulsions attosecondes. Nous avons également développé des miroirs multicouches théoriquement capables de compresser des impulsions sous la barre symbolique des 50 as, soit en dessous du record actuel de durée d’une impulsion lumineuse.La mesure de ces impulsions requiert leur focalisation dans un spectromètre. Or les miroirs focalisants généralement utilisés peuvent très rapidement introduire des aberrations géométriques. A l’aide de simulations numériques et d’une étude analytique, nous avons montré que ces aberrations pouvaient très fortement déformer la structure spatio-temporelle des impulsions attosecondes, provoquant une augmentation de leur durée. Enfin, nous avons montré que ces effets n’étaient pas pris en compte par les techniques actuelles de caractérisation d’impulsions attosecondes, cela pouvant amener à mesurer une impulsion attoseconde plus courte qu’elle ne l’est en réalité. / The shortest flashes of light ever produced so far have durations of a few tens of attoseconds (1 as = 10-18 s), and can only be generated in the extreme ultraviolet spectral range (XUV). Developing optical components able to control and shape such attosecond radiation is crucial to generalize the use of these light pulses. This is the topic of this work.Attosecond pulses happen to be chirped due to the physical process used to generate them. This phenomenon leads to an increase in their duration. Consequently, we developed inversely chirped multilayer mirrors, allowing one to compress the pulses during their reflection off the mirrors. By measuring these reflected pulses, we observed for the first time such a compression of attosecond pulses. Moreover, we developed another set of multilayer mirrors theoretically able to compress pulses below 50 as. That is below the current pulse duration record.Furthermore, the measurement of these pulses requires that they be focussed into a spectrometer. However, typically used focusing mirrors can add geometric aberrations. By the use of numerical simulations and thanks to an analytic study, we showed that these aberrations could strongly distort the spatio-temporal structure of the pulses, and increase their duration. Moreover, we showed that this phenomenon was not taken into account by current attosecond pulse characterization techniques. This could lead to determining the pulse duration to be shorter than it actually is.
140

Analyse thermomécanique du comportement cyclique des élastomères par mesure de champs / Thermomechanical analysis of the cyclic behavior of elastomers using full field measurements

Samaca Martinez, José Ricardo 13 December 2013 (has links)
De nombreux phénomènes à l’oeuvre dans le processus de déformation et d’endommagement des élastomères sont étudiés à partir de la réponse mécanique de ces matériaux. Cependant, la plupart de ces phénomènes dépendent de la température et ont des signatures calorimétriques qui pourraient permettre de mieux les comprendre. Dans le contexte industriel de la manufacture de pneumatiques, les élévations de température induites par le chargement peuvent fortement impacter les performances physiques des pneumatiques ainsi que la tenue en fatigue des constituants caoutchoutiques. L’objectif de cette thèse est donc de caractériser le comportement thermomécanique des élastomères chargés et non chargés sous divers types de chargement mécanique. Pour ce faire, des mesures de champs thermiques et cinématiques couplées ont été mises en oeuvre lors d’essais mécaniques à température ambiante. Dans un premier temps, des essais de traction uniaxiale sur éprouvettes indemnes ont permis de confirmer que l’hystérésis mécanique observée lors d’un cycle de traction sur un caoutchouc naturel non chargé est essentiellement due au phénomène de cristallisation et non à des phénomènes dissipatifs. Par ailleurs, la construction de bilans énergétiques sur un cycle mécanique a permis de distinguer la contribution des différents mécanismes dissipatifs (viscosité, effet Mullins) des couplages thermomécaniques (élasticité entropique, cristallisation). Dans un second temps, des essais de cisaillement pur ont été menés sur des éprouvettes préalablement entaillées. Les analyses thermomécaniques menées à l’échelle de la zone d’influence de la fissure ont montré que les phénomènes dissipatifs aux très grandes déformations ne s’expriment pas de la même manière qu’aux déformations plus faibles. En particulier, pour les mélanges considérés dans cette étude, les effets du couplage entropique et de la viscosité sont du même ordre à la décharge, si bien que le matériau n’absorbe pas de chaleur à la décharge. Ces résultats sont très prometteurs à la fois pour la compréhension des phénomènes physiques impliqués dans le processus de déformation et pour la modélisation du comportement thermomécanique des élastomères. / Usually, most of the physical phenomena involved in the deformation of elastomers are studied from purely mechanical approaches. However, almost all of such phenomena depend on temperature and have distinguishable calorimetric signatures, which can enable us to better understand them. Furthermore, in the tire industrial context, the temperature increase induced by loading and self-heating may strongly impact the physical performances of tires as well as the fatigue life of the rubber components. Consequently, the aim of this PHD thesis was to characterize the thermomechanical behavior of rubbers, filled and unfilled, subjected to different mechanical loadings. For this purpose, coupled thermal and kinetic full field measurements have been performed during mechanical tests at ambient temperature. First, homogeneous uniaxial tensile tests have enabled us to confirm that the hysteresis loop in terms of the stress-strain relationship is mainly induced by crystallization phenomenon in natural rubber, not to dissipative phenomena. In the same way, energetic balances over one mechanical cycle have enabled us to distinguish the contribution of different dissipative phenomena (viscosity, Mullins effect) and the thermomechanical couplings (entropic elasticity, crystallization). Second, the analysis of the pure shear tests with pre-cracked specimens has enabled us to analyze, for the first time, the calorimetric response of rubbers in the zone of crack influence. Results have shown that dissipative phenomena at large strains differ from those involved at smaller strains. More especially, for the materials considered in the present study, the effects of the entropic coupling and viscosity are of the same order of magnitude during unloading, so that the material does not absorb any heat during unloading. These results are promising and motivate further work in this field in order to better understand the physical phenomena involved in the deformation processes as well as to more relevantly model the thermomechanical behavior of elastomers.

Page generated in 0.0497 seconds