• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 253
  • 96
  • 29
  • Tagged with
  • 377
  • 179
  • 69
  • 66
  • 65
  • 60
  • 52
  • 41
  • 39
  • 37
  • 36
  • 35
  • 35
  • 34
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Contribution à la description des particularités lexicales du français régional des Antilles. Étude d’un corpus de littérature contemporaine : les romans LʼHomme-au-Bâton (1992) et L’Envers du décor (2006) de l’auteur antillais Ernest Pépin / Contribution to the Description of the Lexical Particularities in the Regional Lesser Antilles French. A contemporary literary corpus-based study : the novels LʼHomme-au-Bâton (1992) and LʼEnvers du décor (2006) written by the Antillean author Ernest Pépin

Zanoaga, Téodor-Florin 17 November 2012 (has links)
Le but de cette thèse est de contribuer à l’étude des particularités lexicales du français régional des Antilles à partir d’un corpus de littérature antillaise contemporaine : les romans L’Homme-au-Bâton (1992) et L’Envers du décor (2006) de l’écrivain antillais Ernest Pépin. Après une brève présentation de quelques phénomènes spécifiques à la francophonie de l’aire caraïbe, nous avons dressé un inventaire des sources principales dont on dispose pour l’étude lexicologique des régionalismes antillais. Plusieurs types de régionalismes ont été découverts et commentés: héritages, emprunts et innovations (formelles, sémantiques, lexématiques). Les deux romans d’Ernest Pépin représentent un bon corpus pour illustrer la productivité lexicale du français régional antillais ainsi que ses multiples possibilités d’expression. Les champs sémantiques les mieux représentés sont : l’alimentation, la musique, la flore, la faune et la vie spirituelle. Au niveau formel, la composition est le procédé de formation lexicale le plus productif. Au niveau sémantique, on remarque des phénomènes de restriction, d’extension de sens ainsi que la création de nouveaux sens par métaphore et métonymie, entre autres. L’analyse des antillanismes dans un corpus littéraire pose de nombreux problèmes méthodologiques (faire la distinction entre les régionalismes et les phénomènes idiolectaux, la reconstruction de l’histoire des mots, des problèmes de technique lexicographique et de déontologie, le travail avec des données très dispersées et dégradées). La poursuite des recherches dans ce domaine pourrait se concrétiser dans la parution d’un dictionnaire complet du français régional antillais. / The purpose of this doctoral dissertation is to contribute to the study of the French variation in the Lesser Antilles, analyzing lexical particularities in a contemporary literary corpus: the novels L’Homme-au-Bâton (1992) and L’Envers du décor (2006) written by the Antillean author Ernest Pepin.After a short presentation of several specific phenomena from the francophone Caribbean area, we will make an inventory of the main sources we had at our disposal for the lexicological study of the Antillean regionalisms.Different types of regionalisms were discovered and they will be commented: heritages, bor-rowings, formal and / or semantic innovations. The two novels written by Ernest Pepin repre-sent a good corpus to illustrate the lexical productivity of the variety of French from the Lesser Antilles and its multiple possibilities of expression.The best represented semantic fields are: food, music, flora, fauna and spiritual life. At the formal level, the compounding is the most productive type of word formation. At the seman-tic level, some phenomena of semantic restriction and extension, and the building of new meanings by metaphor and metonymy among others can be observed.The lexical analysis of the regionalisms in a literary corpus raises many methodological problems (making the distinction between regionalisms and idiolectal phenomena, rebuilding the history of the words, ethical problems, difficulties related to lexicographic tools and tech-niques, working with disparate and ambiguous data).Our doctoral thesis could be a step forward towards a complex dictionary of the variety of French in the Lesser Antilles, but a lot of ideas are for the moment still on drawing board and the researches should continue in this direction.
312

Flots quasi-invariants associés aux champs de vecteur non réguliers / Quasi-invariant flows associated with irregular vector fields

Lee, Huaiqian 28 April 2011 (has links)
La thèse est composée de deux parties.Dans la première partie, nous allons étudier le flot quasi-invariant défini par une équation différentielle stochastique de Stratanovich avec le dérive ayant seulement la BV-régularitésur un espace euclidien, en généralisant des résultats de L. Ambrosio sur l'existence,unicité et stabilité des flots lagrangiens associés aux équations différentielles ordinaires[Invent. Math. 158 (2004), 227{260]. Comme une application d'un résultat de stabilité,nous allons construire une solution explicite à l'equation de transport stochastique enterme de flot stochastique. La différentiabilité approximative du flot sera aussi investie,lorsque le dérive possµede une régularité de Sobolev.Dans la deuxième partie, nous allons généraliser la théorie de DiPerna-Lions aux cas desvariétés riemanniennes complètes. Nous allons utiliser le semi-groupe de la chaleur pourrégulariser des fonctions et des champs de vecteur. L'estimation sur le commutateur seraobtenue par la méthode probabiliste. Une application de cette estimation est de prouverl'unicité des solutions à l'équation de transport à l'aide du concept des solutions renormal-isables. L'équation différentielle ordinaire associée à un champ de vecteur de régularité deSobolev sera enfin résolue en adoptant une méhode due à L. Ambrosio. La fin de cett par-tie consacre à la construction des processus de diffusion, par la méthode de la variation deconstante, sur une variété riemannienne complète, ayant comme générateur, un opérateurelliptique contenant le dérive non-régulier. Pour cela, nous allons donner des conditionssur la courbure pour que le flot horizontal canonique soit un flot de difféomorphismes / The thesis mainly consists of two parts.In the first part, we study the quasi-invariant flow generated by the Stratonovich stochas-tic differential equation with BV drift coefficients in the Euclidean space. We generalizethe results of Ambrosio [Invent. Math. 158 (2004), 227{260] on the existence, uniquenessand stability of regular Lagrangian flows of ordinary differential equations to Stratonovichstochastic differential equations with BV drift coefficients. As an application of the sta-bility result, we construct an explicit solution to the corresponding stochastic transportequation in terms of the stochastic flow. The approximate differentiability of the flow isalso studied when the drift coefficient has some Sobolev regularity.In the second part, we generalize the DiPerna-Lions theory in the Euclidean space to thecomplete Riemannian manifold. We define the commutator on the complete Riemannianmanifold which is a probabilistic version of the one in the DiPerna-Lions theory, andestablish the commutator estimate by the probabilistic method. As a direct applicationof the commutator estimate, we investigate the uniqueness of solutions to the transportequation by the method of the renormalized solution. Following Ambrosio's method, weconstruct the DiPerna-Lions flow on the Riemannian manifold. In order to construct thediffusion process associated to an elliptic operator with irregular drift on the completeRiemannian manifold, we give some conditions which guarantee the strong completenessof the horizontal flow. Finally, we construct the diffusion process with the drift coefficienthaving only Sobolev regularity.Besides, we present a brief introduction of the classical theory on the ordinary differentialequation in the smooth case and the quasi-invariant flow of homeomorphisms under theOsgood condition before the first part; and we recall some basic tools and results whichare widely used throughout the whole thesis after the second part.
313

Optical nano-antennas : passive properties and active control / Nano-antennes optiques : propriétés passives et contrôle actif

Huang, Caijin 12 March 2010 (has links)
Les nano-antennes optiques sont de nouveaux éléments, généralement métalliques, permettant d’améliorer les interactions électromagnétiques entre le rayonnement lumineux et un objet sub-longueur d’onde. Ces dispositifs innovants, fonctionnant dans une gamme de longueur d’onde correspondant au spectre visible et proche infrarouge, répondent à certaines contraintes inhérentes à l’optique lorsque les échelles d’interactions relèvent du nanomètre. En particulier, les propriétés des antennes optiques métalliques sont régies par l’apparition de résonances plasmons qui permettent, d’une part de confiner le champ électromagnétique dans des volumes très inférieurs aux limites imposées par la diffraction, et d’autre part d’exalter fortement les processus optiques à faibles sections efficaces. L’objectif de cette thèse est de comprendre par l’expérience quels sont les paramètres clés qui caractérisent une nano-antenne optique afin d’en contrôler son fonctionnement. Ces paramètres ont été accessibles expérimentalement grâce au développement d’une microscopie adaptée basée sur une illumination diascopique à faible ouverture numérique avec soit une détection coronographique confocale ou conoscopique. Cet appareillage nous a permis de mesurer la capacité d’une antenne optique unique à diffuser un rayonnement lumineux. Les études ont débutées avec des systèmes modèles simples (nanoparticules) pour évoluer vers des antennes couplées (dimères). Par analogie avec le domaine radiofréquences, les paramètres importants d’une antenne optique que sont la plage fréquentielle, le désaccord, le gain et le diagramme de rayonnement ont été définis et mesurés. L’influence des caractéristiques morphologiques de l’antenne sur ces paramètres a complété l’étude. Toujours par comparaison avec les antennes radiofréquences, nous avons introduit le concept de tuner optique. Le principe est de modifier la réponse optique de la charge de l’antenne, c’est-à-dire le milieu dans lequel elle émet son rayonnement. Dans ce but, nous avons utilisé un milieu anisotrope composé des molécules de cristal liquide dont l’orientation de l’ellipsoïde des indices peut être commandée par un champ électrostatique. Le fonctionnement du tuner, c’est-à-dire l’accord de l’antenne à une fréquence de travail, a été démontré pour des antennes optiques couplées. / Optical nanoantennas are a new class of optical devices, generally constituted of metal nanoparticles, used for enhancing the interaction between an electromagnetic wave and a nano-scale object. These components are operating in the visible to near infra-red part of the spectrum and are offering solutions for the inherent limitations of optics at the nanometer scale. In particular, the properties of optical antennas are governed by the surface plasmon resonances of the underlying structure. These resonances are associated with a large field confinement, beyond the diffraction limit, and an enhancement of the local electromagnetic response that is used to amplify weak optical processes. The objective of this doctoral thesis is to understand by an experimental approach what are the key parameters characterizing an optical antenna with the aim to control its operation. Through the development of an original microscopy based on a low numerical aperture diascopic illumination and a subsequent spatial filtering, the scattering characteristics of a single optical nano-antenna were successfully measured. Our approach was first tested with simple model antennas (nanoparticles) before investigating multi-element coupled antennas (dimers). In analogy to radiofrequency theory, we have defined and measured important antenna characteristics: operating frequency, detuning factor, gain and emission diagram. We have studied the influence of the morphology of the antenna on these characteristics. Continuing the comparison with microwave antennas, we have introduced the concept of an optical tuner. The operating principle is to modify the medium in which the antenna is emitting its radiation i.e. the load of the device. To this aim, we have employed anisotropic liquid crystal molecules. With this load medium, the orientation of the anisotropy can be controlled by a static electric field. The operation of the optical tuner, i.e. tuning of the antenna to a broadcasting frequency, is demonstrated for electromagnetically coupled antennas.
314

Analyse de maillages surfaciques par construction et comparaison de modèles moyens et par décomposition par graphes s'appuyant sur les courbures discrètes : application à l'étude de la cornée humaine / Mesh surface analysis by construction and comparison of mean models and by decomposition into graphs based on discrete curvatures : application to the study of the human cornea

Polette, Arnaud 03 December 2015 (has links)
Cette thèse se découpe en trois parties. Les deux premières portent sur le développement de méthodes pour la construction de modèles géométriques moyens et pour la comparaison de modèles. Plusieurs problématiques sont abordées, telles que la construction d'une cornée moyenne et la comparaison de cornées. Il existe à ce jour peu d'études ayant ces objectifs car la mise en correspondance de surfaces cornéennes est une problématique non triviale. En plus d'aider à développer la connaissance de l'anatomie cornéenne, la modélisation de la cornée normale permet de détecter tout écart significatif par rapport à la normale permettant un diagnostic précoce de pathologies. La seconde partie a pour objectif de développer une méthode pour reconnaître une surface parmi un groupe de surfaces à l’aide de leurs acquisitions pour une application de biométrie. L’idée est de quantifier la différence entre chaque surface et une surface donnée, et de déterminer un seuil permettant la reconnaissance. Deux méthodes sont proposées et une méthodologie en cascade utilisant ces deux méthodes afin de combiner les avantages de chacune est aussi proposée. La troisième et dernière partie porte sur une nouvelle méthode de décomposition en graphes de maillages 3D triangulés. Nous utilisons des cartes de courbures discrètes comme descripteur de forme afin de découper le maillage en différentes catégorie de carreaux. Ensuite un graphe d'adjacence est construit avec un nœud pour chaque carreau. Ces graphes sont utilisés pour extraire des caractéristiques géométriques décrites par des motifs (ou patterns), ce qui permet de détecter des régions spécifiques dans un modèle 3D, ou des motifs récurrents. / This thesis comprises three parts. The first two parts concern the development of methods for the construction of mean geometric models and for model comparison. Several issues are addressed, such as the construction of an average cornea and the comparison of corneas. Currently, there are few studies with these objectives because the matching of corneal surfaces is a non-trivial problem. In addition to help to develop a better understanding of the corneal anatomy, 3D models of normal corneas can be used to detect any significant deviation from the norm, thereby allowing for an early diagnosis of diseases or abnormalities using the shape of the cornea. The second part of this thesis aims to develop a method for recognizing a surface from a group of surfaces using their 3D acquisitions in a biometric application pertinent to the cornea. The concept behind this method is to quantify the difference between each surface and a given surface and to determine the threshold for recognition. Two complementary methods are proposed. A cascading methodology using both methods to combine the advantages of each method is also proposed. The third and final part of this thesis focuses on a new method for decomposing 3D triangulated meshes into graphs. We use discrete curvature maps as the shape descriptor to split the mesh in eight different categories. Next, an adjacency graph is built with a node for each patch. These graphs are used to extract geometric characteristics described by patterns that allow for the detection of specific regions in a 3D model or recurrent characteristics.
315

Consideration of multiple events for the analysis and prediction of a cancer evolution / Prise en compte d'événements multiples pour analyser et prédire l'évolution d'un cancer

Krol, Agnieszka 23 November 2016 (has links)
Le nombre croissant d’essais cliniques pour le traitement du cancer a conduit à la standardisation de l’évaluation de la réponse tumorale. Dans les essais cliniques de phase III des cancers avancés, la survie sans progression est souvent appliquée comme un critère de substitution pour la survie globale. Pour les tumeurs solides, la progression est généralement définie par les critères RECIST qui utilisent l’information sur le changement de taille des lésions cibles et les progressions de la maladie non-cible. Malgré leurs limites, les critères RECIST restent l’outil standard pour l’évaluation des traitements. En particulier, la taille tumorale mesurée au cours de temps est utilisée comme variable ponctuelle catégorisée pour identifier l’état d’un patient. L’approche statistique de la modélisation conjointe permet une analyse plus précise des marqueurs de réponse tumorale et de la survie. En outre, les modèles conjoints sont utiles pour les prédictions dynamiques individuelles. Dans ce travail, nous avons proposé d’appliquer un modèle conjoint trivarié pour des données longitudinales (taille tumorale), des évènements récurrents (les progressions de la maladie non-cible) et la survie. En utilisant des mesures de capacité prédictive, nous avons comparé le modèle proposé avec un modèle pour les progressions tumorales, définies selon les critères standards et la survie. Pour un essai clinique randomisé porté sur le cancer colorectal, nous avons trouvé une meilleure capacité prédictive du modèle proposé. Dans la deuxième partie, nous avons développé un logiciel en libre accès pour l’application de l’approche de modélisation conjointe proposée et les prédictions. Enfin, nous avons étendu le modèle à une analyse plus sophistiquée de l’évolution tumorale à l’aide d’un modèle mécaniste. Une équation différentielle ordinaire a été mise en œuvre pour décrire la trajectoire du marqueur biologique en tenant compte les caractéristiques biologiques de la croissance tumorale. Cette nouvelle approche contribue à la recherche clinique sur l’évaluation d’un traitement dans les essais cliniques grâce à une meilleure compréhension de la relation entre la réponse tumorale et la survie. / The increasing number of clinical trials for cancer treatments has led to standardization of guidelines for evaluation of tumor response. In phase III clinical trials of advanced cancer, progression-free survival is often applied as a surrogate endpoint for overall survival (OS). For solid tumors, progression is usually defined using the RECIST criteria that use information on the change of size of target lesions and progressions of non-target disease. The criteria remain the standard tool for treatment evaluation despite their limitations. In particular, repeatedly measured tumor size is used as a pointwise categorized variable to identify a patient’s status. Statistical approach of joint modeling allows for more accurate analysis of the tumor response markers and survival. Moreover, joint models are useful for individual dynamic predictions of death using patient’s history. In this work, we proposed to apply a trivariate joint model for a longitudinal outcome (tumor size), recurrent events (progressions of non-target disease) and survival. Using adapted measures of predictive accuracy we compared the proposed joint model with a model that considered tumor progressions defined within standard criteria and OS. For a randomized clinical trial for colorectal cancer patients, we found better predictive accuracy of the proposed joint model. In the second part, we developed freely available software for application of the proposed joint modeling and dynamic predictions approach. Finally, we extended the model to a more sophisticated analysis of tumor size evolution using a mechanistic model. An ordinary differential equation was implemented to describe the trajectory of the biomarker regarding the biological characteristics of tumor size under a treatment. This new approach contributes to clinical research on treatment evaluation in clinical trials by better understanding of the relationship between the markers of tumor response with OS.
316

Analyse linguistique du français louisianais dans un corpus de théâtre contemporain : description lexicographique différentielle de ses particularités régionales / Linguistic Analysis of Louisiana French from a Corpus of Contemporary Theater. A Comparative Lexicographical Description of its Regional Particularities

Schaffer, Michele 12 December 2013 (has links)
Cette thèse représente le résultat d’une analyse linguistique et d’une description lexicographique des variantes topolectales du français de la Louisiane telles que relevées dans un corpus de théâtre cadien contemporain. Nous présentons nos résultats sous la forme d’un glossaire dont les articles sont conçus selon l’approche de la lexicographie historico-comparative et différentielle. En analysant ces lexèmes et leurs emplois dans une triple perspective : diachronique, diastratique et diatopique, nous effectuons un classement rigoureux de chaque régionalisme sur les axes historique et différentiel.À travers notre traitement lexicographique, nous portons une attention spéciale aux mots d’origine inconnue et aux anglicismes, qui ont trop souvent été traités d’une manière sommaire par le passé. Nous présentons l’histoire de chaque particularité, et expliquons la raison d’être de chaque néologisme, information jusqu’à aujourd’hui non disponible pour la plupart de ces lexèmes. / This doctoral thesis represents the result of a linguistic analysis and a lexicographic description of topolectal variants of French in Louisiana selected from a corpus of contemporary Cajun theater. We present our findings through the form of a glossary whose articles are conceived in the approach of comparative, historical and differential lexicography. Analyzing these lexemes and their usage in a triple perspective: chronological, stratificational and topological, we carry out a rigorous classification of each regionalism on the historical and differential levels.Through our lexicographical treatment, will pay special attention to words of unknown origin and to Anglicisms, which have too often been treated in the past in a summary manner. We present the history of each particularity, and explain the reason behind each neologism, information which has been missing until now for the majority of these terms.
317

Étude de méthodes précises d'approximation d'équations différentielles stochastiques ou d'équations aux dérivées partielles déterministes en Finance / Study of precise methods of approximation of stochastic differential equations or deterministic partial differential equations in Finance

Youmbi Tchuenkam, Lord Bienvenu 12 December 2016 (has links)
Les travaux exposés dans cette thèse sont consacrés à l’étude de méthodesprécises pour approcher des équations différentielles stochastiques ou deséquations aux dérivées partielles (EDP) déterministes. La première parties’inscrit dans le cadre du développement de méthodes visant à corriger le biaisdans les processus de diffusion paramétrique. Trois modèles sont étudiés enparticulier : Ornstein-Uhlenbeck, Auto-régressif et Moyenne mobile. A l’issuede ce travail, plusieurs approximations de biais ont été proposées suivant deuxapproches : la première consiste en un développement de Taylor del’estimateur obtenu alors que la seconde s'appuie sur une expansionstochastique de celui-ci.La deuxième partie de cette thèse porte sur l’approximation de l’équation de lachaleur obtenue après changement de variables à partir du modèle de Black etScholes. En général, on préfère utiliser des méthodes implicites pour résoudredes EDP paraboliques mais depuis quelques années, les méthodes dites deRunge-Kutta explicites stabilisées, sont de plus en plus utilisées. Nousmontrons que l’utilisation de ce type de méthodes explicites et notamment lesschémas ROCK donnent de très bons résultats même si les conditions initialessont peu régulières, ce qui est le cas dans les modèles financiers / The work presented in this thesis is devoted to the study of precise methods forapproximating stochastic differential equations (SDE) or deterministic partialdifferential equations (PDE). The first part is devoted to the development ofbias correction methods in parametric diffusion processes. Three models arestudied in particular : Ornstein-Uhlenbeck, auto-regressive and Movingaverage. At the end of this work, several approximations of bias have beenproposed following two approaches : the first consists in a Taylor developmentof the obtained estimator while the second one relies on a stochastic expansionof the latter.The second part of this thesis deals with the approximation of the heatequation obtained after changing variables from the Black-Scholes model. Likethe vast majority of PDE, this equation does not have an exact solution, sosolutions must be approached using explicit or implicit time schemes. Itis often customary to prefer the use of implicit methods to solve parabolic PDEsuch as the heat equation, but in the past few years, the stabilized explicitRunge-Kutta methods which have the largest possible domains of stabilityalong the negative real axis, are increasingly used. We show that the useof this type of explicit methods and in particular the ROCK (Runge-Orthogonal-Chebyshev-Kutta) schemes give very good results even if the initial conditionsare not very regular, which is the case in the financial models
318

Amélioration des procédures de cryoconservation de type congélation-lente par simulation et caractérisation des effets de composés chitooligosaccharides / Slow-freezing procedures improvements, by simulation and characterization of the effects of chitooligosaccharides compounds

Desnos, Hugo 05 April 2019 (has links)
Les méthodes d’amélioration des procédures de cryoconservation sont traditionnellement basées sur l’empirisme. Pour s’en démarquer, nous sommes repartis des modèles biophysiques développés pour décrire les procédures en s’appuyant sur 2 méthodes. La 1ère méthode a consisté au développement de techniques de simulation des procédures en caractérisant l’utilisation du Snomax dans l’appareil DSC. Nous avons montré que le contrôle de la température de nucléation (Tn) est possible en choisissant les conditions expérimentales (volume d’échantillon et concentration en Snomax) qui influencent les probabilités de présence de 3 sous-populations d’INA des protéines de P. syringae. La possibilité d’effectuer des simulations a pu être validée pour certaines plages de surfusion dans les solutions de cryoconservation. Ceci a permis la caractérisation des effets physiques influencés par Tn et qui interviennent au cours des procédures et d’alimenter les modèles biophysiques de cryoconservation. La 2ème méthode a consisté à la modification de la composition des solutions afin de réduire le recours au DMSO (cytotoxique) en utilisant des composés de type oligosaccharides : les COS. Après vérification de la biocompatibilité des COS avec des cellules embryonnaires, la caractérisation de l’influence thermodynamique des COS a été effectuée. Il a été montré que les COS sont des cryostabilisateurs qui se lient à une petite quantité de molécule d’eau et n’en affecte pas les propriétés physicochimiques. Les COS peuvent donc être introduits dans le milieu extracellulaire sans risque d’accélérer la déshydratation cellulaire. De plus, il a été montré qu’ils favorisent la gélification du milieu extracellulaire, laquelle est fonction de la proportion massique d’eau en solution résiduelle. Cette gélification fige une partie du système ce qui favorise sa stabilisation au passage des zones de températures à risques de recristallisation / We wished to move aside classical cryopreservation procedure improvements that are based on empiricism and to focus on existing biophysical models in order to describe procedures. We based our study on two methods. The first method consisted in developing the methods for the simulations of procedures, by characterizing the use of Snomax in a DSC device. This study highlighted that the nucleation temperature (Tn) control is possible under precise experimental conditions (sample volume and Snomax concentration) that influence the presence probability of 3 INA subpopulations of the P. syringae protein aggregates. The possibility to simulate the cryopreservation procedures has been achieved for some supercooling ranges within complex cryopreservation solutions. Consequently, it has been possible to characterize the physical effects influenced by Tn and involved within procedures. These results will participate in supplying cryopreservation biophysical models. The second method aimed to modify the composition of cryopreservative solutions in order to reduce the DMSO use (because of its cytotoxicity), using extracellular CPA components: the chitooligosaccharides COS. Subsequent to the biocompatibility verification of the COS with embryonic cells, the thermodynamic influence of the COS has been characterized. Therefore, it has been demonstrated that COS are cryostabilizers that link themselves to a small number of water molecules and does not influence its physicochemical properties. Consequently, COS can be added within the extracellular space without any risk to accelerate the cell dehydration. It has been demonstrated that COS favor the gelation of the extracellular space and that this gelation relies on the mass proportion of water in the residual solution. This gelation immobilizes a part of the system and therefore favor its stabilization when the temperature reaches the risky recrystallization range
319

Essais en économie de l’environnement et des ressources naturelles sous incertitude

Kakeu Kengne, Justin Johnson 08 1900 (has links)
No description available.
320

Privacy and utility assessment within statistical data bases / Mesure de la vie privée et de l’utilité des données dans les bases de données statistiques

Sondeck, Louis-Philippe 15 December 2017 (has links)
Les données personnelles sont d’une importance avérée pour presque tous les secteurs d’activité économiques grâce à toute la connaissance qu’on peut en extraire. Pour preuve, les plus grandes entreprises du monde que sont: Google, Amazon, Facebook et Apple s’en servent principalement pour fournir de leurs services. Cependant, bien que les données personnelles soient d’une grande utilité pour l’amélioration et le développement de nouveaux services, elles peuvent aussi, de manière intentionnelle ou non, nuire à la vie privée des personnes concernées. En effet, plusieurs études font état d’attaques réalisées à partir de données d’entreprises, et ceci, bien qu’ayant été anonymisées. Il devient donc nécessaire de définir des techniques fiables, pour la protection de la vie privée des personnes tout en garantissant l’utilité de ces données pour les services. Dans cette optique, l’Europe a adopté un nouveau règlement (le Règlement Général sur la Protection des Données) (EU, 2016) qui a pour but de protéger les données personnelles des citoyens européens. Cependant, ce règlement ne concerne qu’une partie du problème puisqu’il s’intéresse uniquement à la protection de la vie privée, alors que l’objectif serait de trouver le meilleur compromis entre vie privée et utilité des données. En effet, vie privée et utilité des données sont très souvent inversement proportionnelles, c’est ainsi que plus les données garantissent la vie privée, moins il y reste d’information utile. Pour répondre à ce problème de compromis entre vie privée et utilité des données, la technique la plus utilisée est l’anonymisation des données. Dans la littérature scientifique, l’anonymisation fait référence soit aux mécanismes d’anonymisation, soit aux métriques d’anonymisation. Si les mécanismes d’anonymisation sont utiles pour anonymiser les données, les métriques d’anonymisation sont elles, nécessaires pour valider ou non si le compromis entre vie privée et utilité des données a été atteint. Cependant, les métriques existantes ont plusieurs défauts parmi lesquels, le manque de précision des mesures et la difficulté d’implémentation. De plus, les métriques existantes permettent de mesurer soit la vie privée, soit l’utilité des données, mais pas les deux simultanément; ce qui rend plus complexe l’évaluation du compromis entre vie privée et utilité des données. Dans cette thèse, nous proposons une approche nouvelle, permettant de mesurer à la fois la vie privée et l’utilité des données, dénommée Discrimination Rate (DR). Le DR est une métrique basée sur la théorie de l’information, qui est pratique et permet des mesures d’une grande finesse. Le DR mesure la capacité des attributs à raffiner un ensemble d’individus, avec des valeurs comprises entre 0 et 1; le meilleur raffinement conduisant à un DR de 1. Par exemple, un identifiant a un DR égale à 1 étant donné qu’il permet de raffiner complètement un ensemble d’individus. Grâce au DR nous évaluons de manière précise et comparons les mécanismes d’anonymisation en termes d’utilité et de vie privée (aussi bien différentes instanciations d’un même mécanisme, que différents mécanismes). De plus, grâce au DR, nous proposons des définitions formelles des identifiants encore appelés informations d’identification personnelle. Ce dernier point est reconnu comme l’un des problèmes cruciaux des textes juridiques qui traitent de la protection de la vie privée. Le DR apporte donc une réponse aussi bien aux entreprises qu’aux régulateurs, par rapport aux enjeux que soulève la protection des données personnelles / Personal data promise relevant improvements in almost every economy sectors thanks to all the knowledge that can be extracted from it. As a proof of it, some of the biggest companies in the world, Google, Amazon, Facebook and Apple (GAFA) rely on this resource for providing their services. However, although personal data can be very useful for improvement and development of services, they can also, intentionally or not, harm data respondent’s privacy. Indeed, many studies have shown how data that were intended to protect respondents’ personal data were finally used to leak private information. Therefore, it becomes necessary to provide methods for protecting respondent’s privacy while ensuring utility of data for services. For this purpose, Europe has established a new regulation (The General Data Protection Regulation) (EU, 2016) that aims to protect European citizens’ personal data. However, the regulation only targets one side of the main goal as it focuses on privacy of citizens while the goal is about the best trade-off between privacy and utility. Indeed, privacy and utility are usually inversely proportional and the greater the privacy, the lower the data utility. One of the main approaches for addressing the trade-off between privacy and utility is data anonymization. In the literature, anonymization refers either to anonymization mechanisms or anonymization metrics. While the mechanisms are useful for anonymizing data, metrics are necessary to validate whether or not the best trade-off has been reached. However, existing metrics have several flaws including the lack of accuracy and the complexity of implementation. Moreover existing metrics are intended to assess either privacy or utility, this adds difficulties when assessing the trade-off between privacy and utility. In this thesis, we propose a novel approach for assessing both utility and privacy called Discrimination Rate (DR). The DR is an information theoretical approach which provides practical and fine grained measurements. The DR measures the capability of attributes to refine a set of respondents with measurements scaled between 0 and 1, the best refinement leading to single respondents. For example an identifier has a DR equals to 1 as it completely refines a set of respondents. We are therefore able to provide fine grained assessments and comparison of anonymization mechanisms (whether different instantiations of the same mechanism or different anonymization mechanisms) in terms of utility and privacy. Moreover, thanks to the DR, we provide formal definitions of identifiers (Personally Identifying Information) which has been recognized as one of the main concern of privacy regulations. The DR can therefore be used both by companies and regulators for tackling the personal data protection issues

Page generated in 0.0839 seconds