• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 27
  • 4
  • Tagged with
  • 95
  • 28
  • 19
  • 14
  • 14
  • 13
  • 13
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Profile guided hybrid compilation / Compilation hybride guidée pour profilage

Nunes Sampaio, Diogo 14 December 2016 (has links)
L'auteur n'a pas fourni de résumé en français / The end of chip frequency scaling capacity, due heat dissipation limitations, made manufacturers search for an alternative to sustain the processing capacity growth. The chosen solution was to increase the hardware parallelism, by packing multiple independent processors in a single chip, in a Multiple-Instruction Multiple-Data (MIMD) fashion, each with special instructions to operate over a vector of data, in a Single-Instruction Multiple-Data (SIMD) manner. Such paradigm change, brought to software developer the convoluted task of producing efficient and scalable applications. Programming languages and associated tools evolved to aid such task for new developed applications. But automated optimizations capable of coping with such a new complex hardware, from legacy, single threaded applications, is still lacking.To apply code transformations, either developers or compilers, require to assert that, by doing so, they are not changing the expected comportment of the application producing unexpected results. But syntactically poor codes, such as use of pointer parameters with multiple possible indirections, complex loop structures, or incomplete codes, make very hard to extract application behavior solely from the source code in what is called a static analyses. To cope with the lack of information extracted from the source code, many tools and research has been done in, how to use dynamic analyses, that does application profiling based on run-time information, to fill the missing information. The combination of static and dynamic information to characterize an application are called hybrid analyses. This works advocates for the use of hybrid analyses to be able to optimizations on loops, regions where most of computations are done. It proposes a framework capable of statically applying some complex loop transformations, that previously would be considered unsafe, by assuring their safe use during run-time with a lightweight test.The proposed framework uses application execution profiling to help the static loop optimizer to: 1) identify and classify program hot-spots, so as to focus only on regions vital for the execution time; 2) guide the optimizer in understanding the overall loop behavior, so as to reduce the valid loop transformations search space; 3) using instruction's memory access functions, it statically builds a lightweight run-time test that determine, based on the program parameters values, if a given optimization is safe to be used or not. It's applicability is shown by performing complex loop transformations into a variety of loops, obtained from applications of different fields, and demonstrating that the run-time overhead is insignificant compared to the loop execution time or gained performance, in the vast majority of cases.
52

Modèles prédictifs pour les paramètres cinétiques et thermodynamiques des réactions chimiques / Predictive models for kinetic and thermodynamic parameters of reactions

Gimadiev, Timur 11 July 2018 (has links)
Ce travail est consacré à la modélisation QSPR des propriétés cinétiques et thermodynamiques des réactions chimiques à l'aide de l'approche Graphe Condensé de Réaction (CGR). Le CGR permet de coder des structures de réactifs et de produits en un seul graphe moléculaire pour lequel des descripteurs moléculaires peuvent être générés.Une base de données contenant plus de 11000 réactions collectées manuellement a été développée puis utilisée dans la modélisation. Les modèles prédictifs ont été construits pour les constantes de vitesse de réactions Diels-Alder, SN2 et E2 ainsi que pour les constantes d'équilibre des transformations tautomères. Ils sont rendus publics via un portail WEB. Une partie de la thèse concerne une étude de mécanique quantique des réactions entre des sydnones et des alcynes contraints pour lesquels la taille du jeux de données n'était pas suffisante pour produire des modèles statistiquement significatifs. / This work is devoted to QSPR modeling of kinetic and thermodynamic properties of chemical reactions using the Condensed Graph of Reaction (CGR) approach. CGR allows encoding structures of reactants and products into one sole molecular graph for which molecular descriptors can be generated. A comprehensive database containing some 11000 manually collected reactions has been developed then used in the modeling. Predictive models were built for rate constants of Diels-Alder, SN2 and E2 reaction as well as for equilibrium constants of tautomeric transformations. They are available for the users via WEB portal. A part of the thesis concerned quantum mechanics studies of reactions between sydnones and strained alkynes for which the size of the dataset was not sufficient to produce statistically meaningful models.
53

Collaboration de techniques formelles pour la vérification de propriétés de sûreté sur des systèmes de transition / Collaboration of formal techniques for the verification of safety properties over transition systems

Champion, Adrien 07 January 2014 (has links)
Ce travail porte sur la vérification de composants logiciels dans les systèmes embarqués critiques avioniques. Les conséquences d’une erreur dans de tels systèmes pouvant s'avérer catastrophiques, il se doivent de respecter leur spécification. La vérification formelle tend à prouver cette adéquation si elle est vraie, ou à produire un contre-exemple si elle ne l’est pas. Les méthodes actuelles ne sont pas capable de traiter les les systèmes industriels. La découverte d’informations supplémentaires (invariants) sur le système permet de réduire l’espace de recherche afin de renforcer l’objectif de preuve: les informations découvertes sont suffisantes pour conclure “facilement”. Nous définissons une architecture parallèle permettant à des méthodes de découverte d’invariants de collaborer autour d’un moteur de kinduction. Dans ce contexte nous proposons HullQe, une nouvelle heuristique de génération d’invariants potentiels combinant un calcul de pré-image par élimination de quantificateurs et des calculs d’enveloppes convexes. Nous montrons que HullQe est capable, automatiquement, de renforcer des objectifs de preuve correspondant à la vérification de patrons de conception courants en avionique. Pour autant que nous sachions, les méthodes actuelles sont incapables de conclure sur ces problèmes. Nous détaillons nos améliorations de l’algorithme d’élimination de quantificateurs de Monniaux afin d’assurer le passage à l’échelle sur nos systèmes. Notre framework formel Stuff est une implémentation de notre architecture parallèle composée de HullQe, d'une technique de découverte d’invariants basée sur des templates, et d'une généralisation de PDR à l’arithmétique. / This work studies the verification of software components in avionics critical embedded systems. As the failure of suchsystems can have catastrophic consequences, it is mandatory to make sure they are consistent with their specification.Formal verification consists in proving that a system respects its specification if it does, or to produce a counterexample if itdoes not. Current methods are unable to handle the verification problems stemming from realistic systems. Discoveringadditional information (invariants) on the system can however restrict the search space enough to strengthen the proofobjective: the information discovered allow to "easily" reach a conclusion. We define a parallel architecture for invariantdiscovery methods allowing them to collaborate around a k-induction engine. In this context we propose a new heuristic forthe generation of potential invariants by combining an iterated preimage calculus by quantifier elimination with convexhull computations, called HullQe. We show that HullQe is able to automatically strengthen proof objectives correspondingto safety properties on widespread design patterns in our field. To the best of our knowledge, these systems elude currenttechniques. We also detail our improvements to the quantifier elimination algorithm by David Monniaux in 2008, so that itscales to computing preimages on our systems. Our formal framework Stuff is an implementation of the parallel architecturewe propose in which we implemented not only HullQe, but also a template-based invariant discovery technique, and ageneralisation to Property Directed Reachability to linear real arithmetic and integer octagons.
54

Mesure de cylindricité de très haute exactitude.Développement d’une nouvelle machine de référence / Very high accurate cylindricity inspection

Vissiere, Alain 13 December 2013 (has links)
Le Laboratoire Commun de Métrologie LNE-CNAM (LCM) souhaite affiner sa maîtrise des références de pression afin de réaliser des appareillages de tout premier rang au niveau international. L'incertitude relative visée sur les références de pression est de l'ordre de 10-6. Cet objectif se traduit par une problématique de métrologie dimensionnelle où une mesure de la forme des pistons/cylindres utilisés dans les balances manométriques doit être menée. La mesure de cylindricité est également impliquée dans un très grand nombre d'applications industrielles comme la qualification d'étalons de référence destinés à la qualification d'appareillages de mesure. Notre travail de recherche, réalisé dans le cadre d'une convention CIFRE avec la SAS GEOMNIA, concerne la réalisation d'un instrument de référence de très haute précision permettant la mesure de forme de cylindres creux ou pleins. Nous proposons un saut technologique pour satisfaire un niveau d'incertitude sur la mesure de l'écart de cylindricité de l'ordre de 10 nanomètres dans un volume de mesure cylindrique de Ø350 mm et de hauteur 150 mm. La mesure de forme est habituellement pratiquée en déplaçant un capteur par rapport à la surface à mesurer par un guidage de haute précision. Il n'est cependant pas possible de réaliser un guidage entre deux solides d'un niveau de précision permettant de garantir les incertitudes souhaitées, même en utilisant les techniques de correction d'erreurs dont la précision est limitée par le défaut de répétabilité des guidages. Pour satisfaire à ce niveau d'incertitude, nous proposons une démarche basée sur le concept de structure métrologique dissociée. La mesure d'une pièce consiste alors à comparer sa forme à celle d'une pièce cylindrique de référence. Cette dernière doit seulement présenter une stabilité de forme parfaite. La cartographie d'écart de forme de la référence cylindrique doit cependant être identifiée au même niveau d'incertitude visé.Le travail de recherche développé propose une analyse détaillée des machines actuelles et de leurs limitations. Suite à cette analyse, une architecture de machine a été proposée pour lever ces limitations. Cette architecture tient compte des écarts « secondaires » liés à la position des capteurs et des effets de second ordre, pour satisfaire le niveau de précision visé. Une procédure complète d'étalonnage de la machine a été élaborée en s'inspirant des méthodes de séparation d'erreurs. Cette procédure originale permet de séparer les défauts de forme du cylindre de référence de ceux d'une pièce de qualification cylindrique mesurée simultanément. La méthode employée ne présente pas de limitations en termes d'exactitude. Cette procédure a été expérimentalement validée. Une analyse des effets liés à la mesure de surfaces cylindriques par des capteurs capacitifs a été menée. Ces essais ont conduit au développement de stratégies d'étalonnage de ces capteurs in situ utilisant des interféromètres à laser intégrés dans la machine. La traçabilité métrologique des résultats des mesures est ainsi garantie. Deux bancs de tests ont été développés pour caractériser les diverses influences et valider les procédures d'étalonnage des capteurs. La conception détaillée de l'instrument est issue de la synthèse des réflexions menées sur l'architecture, sur l'étalonnage et sur la maîtrise de la mesure de déplacements par capteurs capacitifs. Ce travail a abouti à la réalisation de ce nouvel instrument de référence ; sa conception, son montage et son réglage sont présentés. / The “Laboratoire Commun de Métrologie LNE-CNAM (LCM)” seeks to improve the measurement of primary pressure standards done using pressure balances, to an order of 10-6 relative uncertainty. Therefore, it is appropriate to back-up these pressure balances with a measurement of the topology of the piston-cylinder devices used on these balances. Cylindricity measurement is also found in many industrial applications such as the measurement of standards used for the calibration of measuring machines. This research project, conducted in collaboration with SAS GEOMNIA under a CIFRE agreement, has a main objet to develop a new ultra-high precision machine for cylinders form measurement. We pushes with this project the leading edge of the cylinders form measurement area; we propose indeed a technological leap which leads to reduce the uncertainty associated to cylindricity errors up to 10 nm in a cylindrical working volume of 350 mm diameter rand 150 mm height. Form measurement is usually done using a measurement probe moved about the surface to be measured with high precision guiding systems. Nonetheless, these guiding systems are not precise enough to offer the low uncertainty required even when error correction techniques are used. This is because the precision of the guides is limited by their low repeatability. To meet this uncertainty level, we propose an approach based on the “dissociated metrological structure” concept. The measurement consists of comparing the artifact's form with the form of a cylindrical reference which should have perfect form stability. However, the mapping form deviation of this cylindrical reference needs to be identified at the same level of uncertainty referred.The present work exposes a detailed analysis of the existing measuring machines and their limitations. Consequently, an optimized machine architecture is proposed in order to overcome the present limitations. The proposed machine architecture takes into account the "secondary" error terms relative to the probes positions and second order effects in order to satisfy the level of accuracy sought. A complete calibration procedure of the machine has been elaborated based on the error separation methods; it allows the separation of the form errors of each of the reference cylinder and a qualification cylindrical part simultaneously measured. This procedure does not present any accuracy limitations and has been experimentally verified. An analysis of the effects related to the measurement of cylindrical artifacts using capacitive sensors has also been investigated. These experiments have led to the development of in-situ calibration strategies using laser interferometers integrated in the machine. Thus, the metrological traceability of the measurements is guaranteed. Two test benches have been developed to characterize the error sources that influence the measurement and to validate the calibration procedures of the probes used. The detailed design of the instrument synthesizes all the conceptual thoughts about the architecture, the calibration and the displacement measurement of the capacitive probes. This work has resulted in the development of this new reference instrument; its design, installation and adjustment are detailed.
55

Nitrate removal and Fe(III) recovery through Fe(II)-driven denitrification with different microbial cultures / Élimination des nitrates et récupération du Fe(III) par la dénitrification autotrophe utilisant le fer ferreux avec différentes cultures microbiennes

Kiskira, Kyriaki 15 December 2017 (has links)
La dénitrification autotrophe utilisant le fer Ferreux est un bioprocédé innovant pour l'élimination des nitrates, en même temps que l'oxydation du fer dans les eaux usées. Les dénitrifiants chimio-autotrophes convertissent le nitrate en azote gazeux et l'oxydation du Fe(II) conduit à la production de précipités de fer ferrique qui peuvent ensuite être enlevés et récupérés. La possibilité de maintenir une dénitrification autotrophe avec le fer ferreux en utilisant une culture mixte de Thiobacillus, un inoculum de boue activée et des cultures pures de la souche Pseudogulbenkiania 2002 et de T. denitrificans dans différentes conditions de pH et d'EDTA:Fe(II) a été initialement étudiée dans des essais biologiques par lots. Des ratios plus faibles d’EDTA:Fe(II) se traduisent par une efficacité et des taux d'élimination des nitrates plus élevés. La culture mixte de Thiobacillus présente le taux d'élimination de nitrate le plus élevé, égal à 1.18 mM•(g VSS•d)-1.Par la suite, la culture mixte de Thiobacillus a été ensemencée dans deux réacteurs à lit tassé à flux montant identiques. Les deux réacteurs (réacteur 1 et 2) ont reçu respectivement 120 et 60 mg / L de nitrate et une alimentation différente de Fe (II) afin de respecter un rapport molaire Fe(II):NO3- de 5:1. L’EDTA a été supplémenté à un rapport molaire EDTA:Fe(II) de 0,5:1. Le pH, le TRH et la température étaient de 6,5-7,0, 31 h et 22 ± 2 ° C. Dans le réacteur 1, le TRH a été raccourci de 31 à 24 h et la concentration de NO3- a été maintenue stable à 250 mg / L. Inversement, le réacteur 2 a été mis en fonctionnement avec un TRH décroissant et une concentration de NO3- en alimentation, maintenant ainsi un taux de charge de NO3- stable. Après environ 80 jours d'incubation, l'élimination des nitrates était de 88% dans le réacteur 1 pour un THR de 31 h. L'élimination de nitrates la plus élevée obtenue dans le réacteur 2 était de 80%. Une diminution du TRH de 31 à 24 h n'a pas affecté l'élimination du nitrate dans le réacteur 1, alors que dans le réacteur 2 l'élimination du nitrate a diminué à 64%.De plus, l'influence des métaux lourds (Ni, Cu, Zn) sur la dénitrification autotrophe utilisant du fer ferreux a été évaluée dans des essais biologiques discontinus, en utilisant les mêmes quatre cultures microbiennes différentes. L'efficacité et les taux d'élimination des nitrates les plus élevés ont été obtenus avec la culture mixte dominante de Thiobacillus, alors que la souche Pseudogulbenkiania de 2002 était la moins efficace. Cu s'est avéré être le métal le plus inhibiteur pour les cultures mixtes. Un impact plus faible a été observé lorsque le Zn a été ajouté. Le Ni présentait l'effet inhibiteur le plus faible. Une sensibilité plus élevée à la toxicité des métaux a été observée pour les cultures pures. Enfin, la caractérisation minérale des précipités obtenus pour les expériences avec du Cu, Ni et Zn a été étudiée. Chez les témoins abiotiques, l'oxydation chimique du Fe (II) a entraîné la formation d'hématite. Un mélange de différents (hydro)oxides de Fe(III) a été observé pour toutes les cultures microbiennes, et en particulier : i) un mélange d'hématite, d'akaganéite et / ou de ferrihydrite a été observé dans les précipités des expériences réalisées avec la culture mixte dominée par la présence de Thiobacillus; ii) en plus d'hématite, de l'akaganeite et / ou de la ferrihydrite, la maghémite a été identifiée lorsque la culture pure de T. denitrificans a été utilisée; iii) l'utilisation de la culture pure de la souche Pseudogulbenkiania 2002 a entraîné la formation d'hématite et de maghémite; enfin, l'enrichissement en boues activées a permis la production d'hématite et de magnétite en plus de la maghémite. Aucune différence concernant la minéralogie des précipités n'a été observée avec l'addition de Cu, alors que l'addition de Ni et de Zn a probablement stimulé la formation de maghémite. Une caractérisation minérale supplémentaire est cependant nécessaire / Ferrous iron mediated autotrophic denitrification is an innovative bioprocess for nitrate removal, simultaneously with iron oxidation in wastewaters. Chemoautotrophic denitrifiers convert nitrate to nitrogen gas and Fe(II) oxidation results in the production of ferric iron precipitates that can be subsequently removed and recovered. The feasibility of maintaining Fe(II)-mediated autotrophic denitrification with a Thiobacillus mixed culture, an activated sludge inoculum and pure cultures of Pseudogulbenkiania strain 2002 and T. denitrificans under different pH and EDTA:Fe(II) conditions was initially investigated in batch bioassays. Lower EDTA: Fe(II) ratios resulted in higher nitrate removal efficiency and rates. The Thiobacillus mixed culture resulted in the highest specific nitrate removal rate, equal to 1.18 mM•(g VSS•d)-1.Subsequently, the Thiobacillus mixed culture was seeded in two identical up-flow packed bed reactors. The two reactors (reactor 1 and 2) were fed with 120 and 60 mg/L of nitrate, respectively, and a different Fe(II) feed in order to respect a molar ratio Fe(II):NO3- 5:1. EDTA was supplemented at a EDTA:Fe(II) molar ratio 0.5:1. The pH, HRT and temperature were 6.5-7.0, 31 h and 22±2°C. In reactor 1, HRT was shortened from 31 to 24 h and NO3- concentration was maintained stable at 250 mg/L. Conversely, reactor 2 was operated with decreasing HRT and feed NO3- concentration, thus maintaining a stable NO3- loading rate. After approximately 80 d of incubation, nitrate removal was 88% in reactor 1 at HRT of 31 h. The highest nitrate removal achieved in reactor 2 was 80%. A HRT decrease from 31 to 24 h did not affect nitrate removal in reactor 1, whereas nitrate removal decreased to 64% in reactor 2.Moreover, the influence of heavy metals (Ni, Cu, Zn) on Fe(II)-mediated autotrophic denitrification was assessed in batch bioassays. The highest nitrate removal efficiency and rates were achieved with the Thiobacillus-dominated mixed culture, whereas Pseudogulbenkiania strain 2002 was the least effective. Cu showed to be the most inhibitory metal for mixed cultures. A lower impact was observed when Zn was supplemented. Ni showed the lowest inhibitory effect. A higher sensitivity to metal toxicity was observed for the pure cultures. Finally, the mineral characterization of the precipitates obtained in the experiments with Cu, Ni and Zn was investigated. In abiotic controls, the chemical Fe(II) oxidation resulted in hematite formation. A mixture of different Fe(III) (hydr)oxides was observed with all microbial cultures, and in particular: i) a mixture of hematite, akaganeite and/or ferrihydrite was observed in the precipitates of the experiments carried out with the Thiobacillus-dominated mixed culture; ii) on top of hematite, akaganeite and/or ferrihydrite, maghemite was identified when the T.denitrificans pure culture was used; iii) the use of the pure culture of Pseudogulbenkiania strain 2002 resulted in hematite and maghemite formation; finally, the activated sludge enrichment allowed the production of hematite and magnetite besides maghemite. No difference in the mineralogy of the precipitates was observed with the addition of Cu, whereas the addition of Ni and Zn likely stimulated the formation of maghemite. Further mineral characterization is however required
56

Kala-azar in Nepal: public health evidence to support the elimination initiative

Uranw, Surendra Kumar 25 September 2013 (has links)
Visceral leishmaniasis (VL) or kala-azar is a parasitic infectious disease that is fatal if left untreated. Two types of Leishmania species are causal agents of VL: Leishmania infantum and Leishmania donovani. VL caused by L.infantum is a zoonosis and is endemic in countries around the Mediterranean basin and in Latin-America. VL caused by L. donovani is assumed to be an anthroponosis and is endemic in East-Africa and the Indian subcontinent.<p><p>VL is considered as a major public health problem in the Indian subcontinent and the annual case load of VL in this focus is represents around 80% of the global burden. In Nepal, a quarter of the country’s population is estimated to be at risk of this disease. The disease in the ISC is caused by L. donovani, which is transmitted from man to man by the bite of the sandfly Phlebotomus argentipes. VL occurs predominantly among the poorest of the poor. Since 2005, the governments of Bangladesh, India and Nepal have been engaged in a collaborative effort to eliminate VL from the region. The strategies to control the disease include early diagnosis and treatment, along with vector control measures, effective disease surveillance, social mobilization and partnership building, and clinical and operational research. In recent years, considerable efforts were made within the elimination initiative. Still, important gaps remain in the understanding of the VL epidemiology, and impact as well as on the best approach to case management or vector control. These knowledge gaps may affect the success of the ongoing VL elimination initiative and make it difficult to meet the set target of bringing the incidence down to less than 1 case per 10,000 by 2015. With this background we focused on some of the knowledge gaps; we wanted to generate evidence and offer sound recommendations for policy makers to underpin the ongoing VL elimination initiative in the Indian subcontinent in general and in Nepal in particular. <p><p>We have - for the first time- described the epidemiology of L. donovani infection in high transmission areas in Nepal. The sero-prevalence of L. donovani infection was 9% in these communities, but there was wide variation between endemic villages (5-15%). The seroprevalence rates remain however substantially lower than those observed in a parallel study in the neighbouring districts in Bihar, India. In our study 39% of individuals who live together in a house with at least one recent VL case were serologically (DAT) positive compared to 9% in the overall study population in the same endemic region. This pattern suggests that untreated VL cases are the main source of transmission and sharing the same household is an important risk factor for L. donovani infection. Therefore, the VL elimination campaign recently initiated an active case detection strategy including the search of active cases of VL and post-kala-azar dermal leishmaniasis (PKDL).<p><p>Generally the risk factors for VL are linked to precarious housing conditions and an environment that provides excellent breeding sites for the sandfly vector.VL has thus been largely considered as a disease of the rural poor. However, with occasional cases being reported also from town e.g. Dharan in south-eastern Nepal, questions were raised about possible extension of transmission to urban areas.<p><p>We conducted an outbreak investigation including a case-control study among the residents of Dharan town. We documented several clusters of VL cases in the more peripheral wards of the town. These are wards with new settlements where the poorest migrants install themselves. They are typically a rural-urban interface with most residents dependent on daily wages as agricultural labourers. However, several factors pointed to urban transmission: firstly, we found a strong association between VL and certain housing factors. Secondly, the clustering of VL cases in space and the intra-household clustering makes urban transmission more likely than infection due to migration. Finally, the entomological data also provide further evidence in support of local transmission of VL inside the town. The vector P. argentipes was captured repeatedly inside the town, and some of them were infested with L. donovani.<p><p>We studied the health seeking behavior and documented the households cost of VL care in a miltefosine-based programme after the intensified implementation of VL control efforts in Nepal. We enrolled 168 patients that had been treated for VL within twelve months prior to the survey in five districts in south-eastern Nepal. We observed a median delay of 25 days to present to the appropriate level of the primary healthcare system. Most patients first visited unqualified local practitioners or traditional faith healers for VL care. With a median total cost of US$ 165 per episode of VL treatment, the economic burden of VL across all households was 11% of annual household income or 57% of median annual per capita income. About half of the households exceeded the catastrophic expenditure threshold of 10% of annual household income. Our findings seem to suggest that, compared to previous studies, the economic burden of VL (as a % of household income) has indeed decreased. However, despite the provision of free diagnostics and drugs by the government, households still incurred substantial medical out-of-pocket expenditure, especially at private providers. The government should consider specific policies to reduce VL care costs such as a conditional cash programme for travel and food, and a better health insurance scheme. <p><p>We monitored clinical outcomes of VL treatment with miltefosine up to 12 months after the completion of therapy and explored the potential role of patient compliance, drug resistance, and reinfection. The initial cure rate was 95.8% and cure rate at 6 months after treatment was 82.5%, which further dropped to 73.3% at 12 months after miltefosine treatment. The relapse rate at 6 months was 10.8% and 20.0% at 12 months i.e. relapse is observed in one-fifth of miltefosine treated VL patients in Nepal. The decreased effectiveness of miltefosine observed in our study is an alarming signal for the ongoing VL elimination initiative and implicates the need for reviewing the drug policy in the Indian subcontinent. Relapse was most common among children (<12 years of age) and continued to occur beyond the commonly used 6-month follow-up period. No significant clinical risk factors or predictors of relapse apart from age <12 years were found. Parasite fingerprints of pre-treatment and relapse bone marrow isolates were similar within 8 tested patients, suggesting that clinical relapses were not due to re-infection with a new strain, but due to true recrudescences. MIL blood levels at the end of treatment were similar for cured and relapsed patients.The MIL-susceptibility of 131 VL isolates was also analysed in vitro with a promastigote assay and the mean promastigote MIL-susceptibility (IC50) of isolates from definite cures was similar to that of relapses.<p><p>We also assessed patient adherence to miltefosine treatment for VL given on an unsupervised ambulatory basis, prescribed under routine conditions (i.e. little or no time for treatment counselling) in government primary healthcare facilities. Our findings showed that adherence is a problem and the target of 90% of capsules taken is not reached in 15% of the enrolled patients. The gastrointestinal related side-effects and treatment-negligence after the resolution of clinical symptoms of VL were the main reasons for poor adherence. Effective counselling during the treatment, a short take-home message on the action and side effects of miltefosine, and on the importance of adherence are the best way to prevent poor adherence.<p><p>Post-kala-azar dermal leishmaniasis is more commonly seen in inadequately treated cases which is considered as a reservoir of infection maintaining disease transmission. The occurrence of PKDL in Nepal is relatively low compared to neighbouring countries involved in the elimination initiative. Supervised and adequate treatment of VL seems essential to reduce the risk of PKDL development. Policy makers should include surveillance and case management of PKDL in the VL elimination programme.<p> / Doctorat en Santé Publique / info:eu-repo/semantics/nonPublished
57

Synthèse de cyclooctatétraènes par réactions en cascade palladocatalysées / Synthesis of cyclooctatetraenes through palladium-catalyzed cascade reactions

Blouin, Sarah 21 October 2016 (has links)
Ces travaux de thèse ont permis de développer une voie d’accès à des systèmes polycycliques complexes contenant un cyclooctatétraène par réactions en cascade palladocatalysées à partir de substrats de départ originaux. Le mécanisme de formation de ces composés est tout à fait particulier. Une étude mécanistique approfondie, corroborée notamment par des calculs DFT, a mis en avant une étape de réaction inédite : une électrocyclisation conrotatoire 8pi d’un système triènyne formant ainsi un cyclooctadiènallène palladé. Cette méthodologie a permis de synthétiser de nombreux cyclooctatétraènes présentant une large diversité moléculaire. Les différents substituants du cyclooctatétraène ont pu être variés ainsi que la taille des cycles fusionnés à ce cyclooctatétraène. / This thesis work focused on the development of a new synthetic pathway leading to complex polycyclic molecules containing a cyclooctatetraene moiety via palladium-catalyzed cascade reactions from original starting substrates. The mechanism of formation of these compounds is very special. A thorough mechanistic study, supported in particular by DFT calculations, highlighted an unprecedented reaction step: an conrotatory 8pi electrocyclization of a trienyne system forming a palladiated cyclooctadienallene. This methodology allowed the synthesis of many cyclooctatetraenes showing a broad molecular diversity. The different substituents bearing by the cyclooctatetraene core were varied as well as the size of the fused rings to the cyclooctatetraene.
58

Sur les épreuves et les types dans la logique du second ordre / On proofs and types in second order logic

Pistone, Paolo 27 March 2015 (has links)
Dans cette thèse on s'intéresse aux formes de "circularité" qui apparaissent dans la théorie de la preuve de la logique du second ordre et de son contrepartie constructive, le Système F.Ces "circularités", ou "cercles vicieux" (Poincaré 1900), sont analysées sur la base d'une distinction entre deux points de vue distincts et irréductible (à cause des théorèmes d'incomplétude): le premier ("le pourquoi", Girard 1989) concerne la cohérence et l'Hauptsatz et demande des méthodes infinitaires (i.e. non élémentaires) de preuve. Le deuxième ("le comment", Girard 1989) concerne le contenu computationnel et combinatoire des preuves, donné par la correspondance entre preuves et programmes, et ne demande que de méthodes élémentaires de preuve.Dans la première partie de la thèse, dévouée au "pourquoi", les arguments philosophiques traditionnels sur les "cercles vicieux" sont confrontés avec la perspective qui émerge de la démonstration de l' Hauptsatz pour la logique de second ordre (obtenue par Girard avec la technique des candidats de réductibilité).Dans la deuxième partie de la thèse, dévouée au "comment", deux approches combinatoires aux cercles vicieux sont proposés: la première se basant sur la théorie du polymorphisme paramétrique, la deuxième sur l'analyse géométrique du typage qui vient de la théorie de l'unification. / In this dissertation several issues concerning the proof-theory of second order logic and its constructive counterpart (System F, Girard 1971) are addressed. The leitmotiv of the investigations here presented is the apparent "circularity'' or "impredicativity'' of second order proofs. This circularity is reflected in System F by the possibility to type functions applied to themselves, in contrast with Russell's idea that typing should rather forbid such ``vicious circles'' (Poincare 1906). A fundamental methodological distinction between two irreducible (because of incompleteness) approaches in proof theory constitutes the background of this work: on the one hand, "why-proof theory'' ("le pourquoi'', Girard 1989) addresses coherence and the Hauptsatz and requires non-elementary ("infinitary'') techniques; on the other hand, "how-proof theory'' ("le comment'', Girard 1989) addresses the combinatorial and computational content of proofs, given by the correspondence between proofs and programs, and is developed on the basis of elementary ("finitary'') techniques. }In the first part of the thesis, dedicated to "why-proof theory'', the traditional philosophical arguments on "vicious circles'' are confronted with the perspective arising from the proof of the Hauptsatz for second order logic (first obtained in Girard 1971 with the technique of reducibility candidates).In the second part of the thesis, dedicated to "how-proof theory'', two combinatorial approaches to "vicious circles'' are presented, with some technical results: the first one based on the theory of parametric polymorphism, the second one on the geometrical analysis of typing coming from unification theory.
59

Safe optimization algorithms for variable selection and hyperparameter tuning / Algorithmes d’optimisation sûrs pour la sélection de variables et le réglage d’hyperparamètre

Ndiaye, Eugene 04 October 2018 (has links)
Le traitement massif et automatique des données requiert le développement de techniques de filtration des informations les plus importantes. Parmi ces méthodes, celles présentant des structures parcimonieuses se sont révélées idoines pour améliorer l’efficacité statistique et computationnelle des estimateurs, dans un contexte de grandes dimensions. Elles s’expriment souvent comme solution de la minimisation du risque empirique régularisé s’écrivant comme une somme d’un terme lisse qui mesure la qualité de l’ajustement aux données, et d’un terme non lisse qui pénalise les solutions complexes. Cependant, une telle manière d’inclure des informations a priori, introduit de nombreuses difficultés numériques pour résoudre le problème d’optimisation sous-jacent et pour calibrer le niveau de régularisation. Ces problématiques ont été au coeur des questions que nous avons abordées dans cette thèse.Une technique récente, appelée «Screening Rules», propose d’ignorer certaines variables pendant le processus d’optimisation en tirant bénéfice de la parcimonie attendue des solutions. Ces règles d’élimination sont dites sûres lorsqu’elles garantissent de ne pas rejeter les variables à tort. Nous proposons un cadre unifié pour identifier les structures importantes dans ces problèmes d’optimisation convexes et nous introduisons les règles «Gap Safe Screening Rules». Elles permettent d’obtenir des gains considérables en temps de calcul grâce à la réduction de la dimension induite par cette méthode. De plus, elles s’incorporent facilement aux algorithmes itératifs et s’appliquent à un plus grand nombre de problèmes que les méthodes précédentes.Pour trouver un bon compromis entre minimisation du risque et introduction d’un biais d’apprentissage, les algorithmes d’homotopie offrent la possibilité de tracer la courbe des solutions en fonction du paramètre de régularisation. Toutefois, ils présentent des instabilités numériques dues à plusieurs inversions de matrice, et sont souvent coûteux en grande dimension. Aussi, ils ont des complexités exponentielles en la dimension du modèle dans des cas défavorables. En autorisant des solutions approchées, une approximation de la courbe des solutions permet de contourner les inconvénients susmentionnés. Nous revisitons les techniques d’approximation des chemins de régularisation pour une tolérance prédéfinie, et nous analysons leur complexité en fonction de la régularité des fonctions de perte en jeu. Il s’ensuit une proposition d’algorithmes optimaux ainsi que diverses stratégies d’exploration de l’espace des paramètres. Ceci permet de proposer une méthode de calibration de la régularisation avec une garantie de convergence globale pour la minimisation du risque empirique sur les données de validation.Le Lasso, un des estimateurs parcimonieux les plus célèbres et les plus étudiés, repose sur une théorie statistique qui suggère de choisir la régularisation en fonction de la variance des observations. Ceci est difficilement utilisable en pratique car, la variance du modèle est une quantité souvent inconnue. Dans de tels cas, il est possible d’optimiser conjointement les coefficients de régression et le niveau de bruit. Ces estimations concomitantes, apparues dans la littérature sous les noms de Scaled Lasso, Square-Root Lasso, fournissent des résultats théoriques aussi satisfaisants que celui du Lasso tout en étant indépendant de la variance réelle. Bien que présentant des avancées théoriques et pratiques importantes, ces méthodes sont aussi numériquement instables et les algorithmes actuellement disponibles sont coûteux en temps de calcul. Nous illustrons ces difficultés et nous proposons à la fois des modifications basées sur des techniques de lissage pour accroitre la stabilité numérique de ces estimateurs, ainsi qu’un algorithme plus efficace pour les obtenir. / Massive and automatic data processing requires the development of techniques able to filter the most important information. Among these methods, those with sparse structures have been shown to improve the statistical and computational efficiency of estimators in a context of large dimension. They can often be expressed as a solution of regularized empirical risk minimization and generally lead to non differentiable optimization problems in the form of a sum of a smooth term, measuring the quality of the fit, and a non-smooth term, penalizing complex solutions. Although it has considerable advantages, such a way of including prior information, unfortunately introduces many numerical difficulties both for solving the underlying optimization problem and to calibrate the level of regularization. Solving these issues has been at the heart of this thesis. A recently introduced technique, called "Screening Rules", proposes to ignore some variables during the optimization process by benefiting from the expected sparsity of the solutions. These elimination rules are said to be safe when the procedure guarantees to not reject any variable wrongly. In this work, we propose a unified framework for identifying important structures in these convex optimization problems and we introduce the "Gap Safe Screening Rules". They allows to obtain significant gains in computational time thanks to the dimensionality reduction induced by this method. In addition, they can be easily inserted into iterative algorithms and apply to a large number of problems.To find a good compromise between minimizing risk and introducing a learning bias, (exact) homotopy continuation algorithms offer the possibility of tracking the curve of the solutions as a function of the regularization parameters. However, they exhibit numerical instabilities due to several matrix inversions and are often expensive in large dimension. Another weakness is that a worst-case analysis shows that they have exact complexities that are exponential in the dimension of the model parameter. Allowing approximated solutions makes possible to circumvent the aforementioned drawbacks by approximating the curve of the solutions. In this thesis, we revisit the approximation techniques of the regularization paths given a predefined tolerance and we propose an in-depth analysis of their complexity w.r.t. the regularity of the loss functions involved. Hence, we propose optimal algorithms as well as various strategies for exploring the parameters space. We also provide calibration method (for the regularization parameter) that enjoys globalconvergence guarantees for the minimization of the empirical risk on the validation data.Among sparse regularization methods, the Lasso is one of the most celebrated and studied. Its statistical theory suggests choosing the level of regularization according to the amount of variance in the observations, which is difficult to use in practice because the variance of the model is oftenan unknown quantity. In such case, it is possible to jointly optimize the regression parameter as well as the level of noise. These concomitant estimates, appeared in the literature under the names of Scaled Lasso or Square-Root Lasso, and provide theoretical results as sharp as that of theLasso while being independent of the actual noise level of the observations. Although presenting important advances, these methods are numerically unstable and the currently available algorithms are expensive in computation time. We illustrate these difficulties and we propose modifications based on smoothing techniques to increase stability of these estimators as well as to introduce a faster algorithm.
60

Biofiltration et captage des métaux lourds de lixiviat de lieu d'enfouissement de matières résiduelles

Boucher, Karl 19 April 2018 (has links)
Au Canada, en 2006, plus de 27 millions de tonnes de déchets solides non-dangereux (DS) ont dû être éliminées. Au Québec, la principale méthode utilisée pour ce faire est l'enfouissement. Par exemple, en 2000, plus de 75% des 7 millions de tonnes de DS étant éliminées l'ont été par enfouissement. Cette méthode a pour inconvénient majeur la génération de lixiviat résultant de la percolation des eaux de précipitations au travers des masses de déchets. Ce lixiviat est généralement capté et doit être traité avant d'être rejeté vers un milieu récepteur. Les systèmes de traitement présentement utilisés peuvent s'avérer coûteux en plus de devoir être opérés par du personnel spécialisé. De plus, avec l'arrivée en 2009 au Québec d'une nouvelle réglementation sur les lieux d'enfouissement de DS, plusieurs de ces systèmes risquent de ne plus répondre aux normes quant aux concentrations en polluants dans les eaux traitées, particulièrement en ce qui a trait au zinc et à l'azote ammoniacal. Dans cette optique, des essais ont été effectués au Centre de recherche industrielle du Québec (CRIQ), en collaboration avec l'Université Laval, afin d'évaluer la performance de la biofiltration sur support organique pour le traitement du lixiviat de lieux d'enfouissement de DS. Deux biofiltres ayant chacun un diamètre de 200 mm et une hauteur de garnissage de 1500 mm ont été alimentés avec un lixiviat prélevé sur un site d'enfouissement existant. Un suivi bimensuel des paramètres normes par le règlement sur l'enfouissement et l'incinération des matières résiduelles (REIMR) a été effectué sur le lixiviat en entrée et en sortie de ces biofiltres, et ce pour une période d'opération de plus de 300 jours. D'autre part, cinq colonnes ayant chacune un diamètre de 76 mm et une hauteur de garnissage de 300 mm ont été construites et différents médias ont été mis à l'essai pour évaluer leur capacité à capter les métaux résiduels à la sortie d'un des biofiltres. Les résultats obtenus laissent entrevoir que la technologie de biofiltration sur support organique combinée à une couche de média spécifique pour le captage des métaux permet de traiter le lixiviat d'un lieu d'enfouissement de DS de manière à ce que leur rejets respectent l'ensemble des normes stipulées par le REIMR.

Page generated in 0.0902 seconds