• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 452
  • 274
  • 163
  • 47
  • 25
  • 22
  • 19
  • 10
  • 6
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • Tagged with
  • 1189
  • 259
  • 193
  • 143
  • 124
  • 87
  • 74
  • 67
  • 61
  • 61
  • 61
  • 61
  • 57
  • 54
  • 53
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

La valeur économique comme modalité d'action chez Marx / The economic value as a form of action in Marx

Sánchez Osorio, José Francisco 27 September 2016 (has links)
Ce travail propose une interprétation de la catégorie de la valeur économique qui prend pour fil conducteur une alternative aux lectures « économicistes » de Marx. Au lieu de parler de la « théorie de la valeur travail de Marx » et au lieu de nous interroger sur la véracité de cette théorie en termes de capacité de prédiction des prix des marchandises à partir de ce qui est exposé dans Le Capital, nous proposons de nous concentrer sur la forme de la valeur économique. D’après nous, il est possible de considérer la forme de la valeur économique du point de vue de l’action humaine. Ainsi, la valeur économique constituerait le reflet catégoriel d’une modalité d’action caractérisée par le fait que les hommes ne peuvent se comporter les uns vis-à-vis des autres, vis-à-vis du monde naturel et vis-à-vis du monde social, sans faire fonctionner une certaine catégorie de substance comme condition de possibilité, comme médiatrice et comme principe de rationalisation de leurs conduites. Cette compréhension de la valeur économique implique la prise en compte de la quantification de cette substance, afin de rendre opératoires la plupart des interactions. Cette quantification peut être vue comme une norme sociale qui s’inscrit dans les actions des hommes sans qu’il s’agisse, pour autant, d’un acte intellectuel ayant lieu « dans leur tête ». / This work offers an interpretation of the category of economic value which is an alternative to the “economistic” reads of Marx. Instead of speaking of the “labor theory of value of Marx” and instead of questioning the veracity of this theory in terms of ability to predict commodity prices from what is stated in The Capital, we offer to focus on the form of economic value. We believe that it is possible to consider the form of economic value from the perspective of human action. Thus, the economic value would be the categorical reflection of a form of action characterized by the fact that men can’t behave vis-à-vis each other, vis-à-vis the natural world and vis-à vis the social world, without running a certain category of substance as a condition of possibility, as a mediator and as a principle of rationalization of their behavior. This understanding of the economic value involves taking into account the quantification of the substance in order to make operative most part of the interactions. This quantification can be seen as a social norm which is in the actions of men without it being, however, an intellectual act taking place “in their head”.
62

Développement et validation d'un spectromètre de masse à ionisation laser pour l'analyse en ligne des nanoparticules dans l'atmosphère / Development and validation of a laser ionization mass spectrometer for on-line analysis of nanoparticles in the atmosphere

Gemayel, Rachel 27 September 2017 (has links)
L’objectif de cette thèse a été de développer et de valider une méthodologie d'analyse en ligne et en continue des nanoparticules (NPs) dans l'atmosphère qui permet d'effectuer des analyses mono-particulaires et donnant accès à la taille et à la chimie des NPs simultanément. Ce travail a été réalisé à l'aide d'un instrument nommé LAAP-ToF-MS (Laser Ablation Aerosol Particle - Time of Flight - Mass Spectrometer). Il est constitué de quatre parties principales qui sont : des lentilles aérodynamiques pour introduire les aérosols dans le spectromètre, un système optique de détection des particules afin de déterminer leurs tailles et de synchroniser le tir laser, un dispositif d'ionisation basé sur l'ablation laser et enfin un analyseur de masse à temps de vol pour l'analyse des ions produits. Les travaux de cette thèse se sont organisés en quatre parties principales :La première a été consacrée à la caractérisation du LAAP-ToF-MS afin de déterminer les performances individuelles des quatre éléments constitutifs de cet analyseur. Ces travaux ont fait l’objet d’un article publié dans le journal international "Atmospheric Measurement Techniques".La deuxième partie est dédiée au développement d'une méthode d'analyse quantitative, ces travaux ont fait l’objet d’un article publié dans le journal "Talanta".La troisième partie est consacrée au développement instrumental qui a été réalisé afin d’analyser les NPs non associées à des aérosols (Ø<100 nm). Ce développement a fait l’objet d’un brevet en cours de validation. La dernière partie donne quelques exemples concrets des applications et de l'utilité de cet instrument pour l'étude des NPs en laboratoire et sur le terrain. / The aim of this thesis is the development and the validation of an online analytical methodology for continuous measurements of nanoparticles (NPs) in the atmosphere. The particularity of this method is the capacity to determine the size and the chemical composition of each particle simultaneously, what we call mono-particular method. This work was conducted using the instrument LAAP-ToF-MS (Laser Ablation Aerosol Particle - Time of Flight - Mass Spectrometer). Being dedicated for single aerosol measurements, four parts constitute this instrument: aerodynamic lenses are used to introduce aerosols into the instrument, an optical detection system to determine the particles size and synchronize the laser shot used for the ionization process, and the produced ions are then analyzed by a Time of Flight (ToF) analyzer.The work is organized in four parts:The first part consists in the characterization of the LAAP-ToF-MS in order to determine the performances of each of its four parts. The results of this work were published in the international journal "Atmospheric Measurement Techniques".The second part is dedicated to the development of a quantitative analytical method and published in "Talanta" journal.The orientation of the third part is going into the direction of instrumental development to measure NPs not associated to aerosols (Ø<100 nm). Being the first development of this kind using the LAAP-ToF-MS, the work is highlighted by a patent which is under validation.In the end, the last part is dedicated to examples of concrete applications and the usefulness of the LAAP-ToF-MS instrument to study NPs during laboratory experiments as well as for field campaigns.
63

Fonctionnalisation et dépôt par électrophorèse de nanodiamants pour l'étude de leurs propriétés en optique non linéaire et l'élaboration de capteurs / Functionnalization and electrophoretical deposition of nanodiamonds for the non-linear optical properties and sensor applications

Schmidlin, Loïc 11 October 2012 (has links)
Les nanodiamants issus de la détonation ont été découverts en URSS dans les années 1960. Cette technique de synthèse permet de générer pendant un temps très court, des hautes pressions et hautes températures. Les particules de diamant formées, possèdent un diamètre moyen de 5nm et disposent d’une riche chimie de surface. Celle-ci a été étudiée et les sites oxygénés ont été quantifiés par diverses méthodes. Ces sites ont ensuite été modifiés par le greffage (par des liaisons covalentes ou métal-ligand) de molécules organiques (porphyrines, phthalocyanines, ...). Des techniques ont été développées afin de déterminer le rendement du greffage chimique. Les matériaux synthétisés ont ensuite été valorisés par leur utilisation comme filtres aux propriétés non-linéaires pour de la protection laser. Les propriétés colloïdales des nanodiamants ont également été étudiées, afin de séparer les agrégats des particules unitaires et procéder à des dépôts contrôlés. Grâce à un procédé présenté dans ce manuscrit, il a été possible de déposer de manière uniforme des particules unitaires de nanodiamant en monocouche extrêmement dense. Ces dépôts ont été utilisés pour l’élaboration de capteurs. / Detonation nanodiamonds were discovered in the early 60’s in URSS. This synthesis technique allows the generation of high pressures and high temperatures in a short duration. The resulting nanodiamond particles have a mean diameter of 5nm and a developed surface chemistry. The surface composition has been determined and the oxygenated sites were quantified by the use of various methods. These sites have been used to graft (by the use of covalent or metal-ligand bonds) different organic molecules (porphyrins, phthalocyanins, …). Different techniques enabled the determination of the chemical grafting yield. The resulting materials have been used as non-linear filters against laser threat.The nanodiamond colloidal properties have also been studied, to separate the aggregates from the unitary particles and well control their deposition. A method has been described in this manuscript, enabling the uniform deposition of unitary nanodiamond particles forming an extremely dense monolayer. These deposits have been used for sensors applications.
64

Quantification des incertitudes et analyse de sensibilité pour codes de calcul à entrées fonctionnelles et dépendantes / Stochastic methods for uncertainty treatment of functional variables in computer codes : application to safety studies

Nanty, Simon 15 October 2015 (has links)
Cette thèse s'inscrit dans le cadre du traitement des incertitudes dans les simulateurs numériques, et porte plus particulièrement sur l'étude de deux cas d'application liés aux études de sûreté pour les réacteurs nucléaires. Ces deux applications présentent plusieurs caractéristiques communes. La première est que les entrées du code étudié sont fonctionnelles et scalaires, les entrées fonctionnelles étant dépendantes entre elles. La deuxième caractéristique est que la distribution de probabilité des entrées fonctionnelles n'est connue qu'à travers un échantillon de ces variables. La troisième caractéristique, présente uniquement dans un des deux cas d'étude, est le coût de calcul élevé du code étudié qui limite le nombre de simulations possibles. L'objectif principal de ces travaux de thèse était de proposer une méthodologie complète de traitement des incertitudes de simulateurs numériques pour les deux cas étudiés. Dans un premier temps, nous avons proposé une méthodologie pour quantifier les incertitudes de variables aléatoires fonctionnelles dépendantes à partir d'un échantillon de leurs réalisations. Cette méthodologie permet à la fois de modéliser la dépendance entre les variables fonctionnelles et de prendre en compte le lien entre ces variables et une autre variable, appelée covariable, qui peut être, par exemple, la sortie du code étudié. Associée à cette méthodologie, nous avons développé une adaptation d'un outil de visualisation de données fonctionnelles, permettant de visualiser simultanément les incertitudes et les caractéristiques de plusieurs variables fonctionnelles dépendantes. Dans un second temps, une méthodologie pour réaliser l'analyse de sensibilité globale des simulateurs des deux cas d'étude a été proposée. Dans le cas d'un code coûteux en temps de calcul, l'application directe des méthodes d'analyse de sensibilité globale quantitative est impossible. Pour pallier ce problème, la solution retenue consiste à construire un modèle de substitution ou métamodèle, approchant le code de calcul et ayant un temps de calcul très court. Une méthode d'échantillonnage uniforme optimisé pour des variables scalaires et fonctionnelles a été développée pour construire la base d'apprentissage du métamodèle. Enfin, une nouvelle approche d'approximation de codes coûteux et à entrées fonctionnelles a été explorée. Dans cette approche, le code est vu comme un code stochastique dont l'aléa est dû aux variables fonctionnelles supposées incontrôlables. Sous ces hypothèses, plusieurs métamodèles ont été développés et comparés. L'ensemble des méthodes proposées dans ces travaux a été appliqué aux deux cas d'application étudiés. / This work relates to the framework of uncertainty quantification for numerical simulators, and more precisely studies two industrial applications linked to the safety studies of nuclear plants. These two applications have several common features. The first one is that the computer code inputs are functional and scalar variables, functional ones being dependent. The second feature is that the probability distribution of functional variables is known only through a sample of their realizations. The third feature, relative to only one of the two applications, is the high computational cost of the code, which limits the number of possible simulations. The main objective of this work was to propose a complete methodology for the uncertainty analysis of numerical simulators for the two considered cases. First, we have proposed a methodology to quantify the uncertainties of dependent functional random variables from a sample of their realizations. This methodology enables to both model the dependency between variables and their link to another variable, called covariate, which could be, for instance, the output of the considered code. Then, we have developed an adaptation of a visualization tool for functional data, which enables to simultaneously visualize the uncertainties and features of dependent functional variables. Second, a method to perform the global sensitivity analysis of the codes used in the two studied cases has been proposed. In the case of a computationally demanding code, the direct use of quantitative global sensitivity analysis methods is intractable. To overcome this issue, the retained solution consists in building a surrogate model or metamodel, a fast-running model approximating the computationally expensive code. An optimized uniform sampling strategy for scalar and functional variables has been developed to build a learning basis for the metamodel. Finally, a new approximation approach for expensive codes with functional outputs has been explored. In this approach, the code is seen as a stochastic code, whose randomness is due to the functional variables, assumed uncontrollable. In this framework, several metamodels have been developed and compared. All the methods proposed in this work have been applied to the two nuclear safety applications.
65

Exploration de la moelle osseuse en Imagerie par Résonance Magnétique : quantification de biomarqueurs / Bone marrow Magnetic Resonance Imaging : biomarker quantification

Le Ster, Caroline 05 April 2017 (has links)
De récentes études ont démontré la pertinence de la quantification par IRM (Imagerie par Résonance Magnétique) de la fraction de graisse, des temps de relaxation T1 et T2* de l’eau et des lipides, de la diffusion et de la perfusion dans la moelle osseuse, ces paramètres pouvant être utilisés en tant que biomarqueurs dans le cadre de pathologies affectant la moelle osseuse, telles que le myélome ou l'ostéoporose. La quantification de ces paramètres requiert cependant l'application de séquences IRM présentant des artéfacts spécifiques et dont les temps d'acquisition provoquent une immobilisation prolongée des patients. Ce travail de thèse porte sur la quantification de biomarqueurs dans le cadre de l’exploration de la moelle osseuse par IRM. L'objectif de ce travail de thèse était d'optimiser la quantification de ces biomarqueurs (fraction de graisse, T1, T2*, diffusion et perfusion) via l'optimisation de protocoles d'imagerie compatibles avec la pratique clinique, spécifiquement pour l'imagerie eau-graisse et l'imagerie de diffusion. Cette optimisation a consisté à prendre en compte les artéfacts inhérents aux techniques de quantification, les imperfections de l'instrument et à améliorer le rapport signal-sur-bruit par unité de temps des séquences IRM pour une application sur la moelle osseuse. La première partie de ce travail de thèse a porté sur le développement d’un protocole d’imagerie rapide, permettant la quantification simultanée de la fraction de graisse et des temps de relaxation T1 et T2* de l'eau et des lipides à partir de séquences eau-graisse. Dans un premier temps, cette méthode de quantification a été validée cliniquement par application à une population de volontaires, dans le cadre d'une étude réalisée au CHU de Rennes. Au cours d’une seconde étude sur volontaires, cette méthode de quantification a été appliquée à différents sites de moelle osseuse (humérus, sternum, vertèbres lombaires ilium et fémur), ce qui a permis de mettre en évidence des variations régionales de ces paramètres ainsi que la présence d'une corrélation négative entre le T1 de l'eau et la fraction de graisse. L’équation du signal utilisée dans cette méthode de quantification fait intervenir l'angle de basculement appliqué dans la séquence eau-graisse. Dans le but d’estimer l’influence de la variation de l’angle de basculement sur la mesure des paramètres, une méthode de quantification de l'angle de basculement spécialement adaptée à l'imagerie du rachis a également été développée au cours de ce travail.La seconde partie de ce travail de thèse a porté sur la quantification de la diffusion et de la perfusion dans la moelle osseuse, avec notamment l’imagerie des mouvements intra-voxels incohérents (IVIM). Ce travail a tout d’abord consisté à optimiser le protocole d’imagerie de diffusion pour une application au rachis lombaire, puis à étudier l'influence de la présence de graisse sur la quantification des paramètres de diffusion et de perfusion grâce à une étude sur volontaires. La perspective de ce travail est l'application des séquences eau-graisse et des séquences de diffusion optimisées à des populations atteintes de pathologies de la moelle osseuse, ces séquences permettant de réduire la durée d'immobilisation des patients et de détecter les modifications spécifiques à ces pathologies. / Recently published studies have shown the relevance of quantifying the bone marrow fat fraction, T1 and T2* relaxation times of water and lipid components, diffusion and perfusion with MRI (Magnetic Resonance Imaging). These parameters have indeed been used as biomarkers for bone marrow related pathologies, such as the myeloma and osteoporosis. The quantification of these parameters however requires the application of MR sequences which show specific artefacts and have long acquisition times that can be tiresome for older patients. The aim of this thesis was to optimise the quantification of the fat fraction, T1 and T2* relaxation times, diffusion and perfusion in the bone marrow. The quantification of these biomarkers was optimised by improving the imaging protocols of water-fat sequences and diffusion sequences for clinical applications. These sequences were optimised by taking into account the imperfections of the MR system and the specific artefacts of these techniques and by improving the signal-to-noise ratio per unit time of the sequences for an application on bone marrow. The first part of this work consisted in developing a fast quantification method that allows for the simultaneous quantification of the fat fraction and of the T1 and T2* relaxation times of water and lipids with water-fat sequences. This method was first clinically validated by applying these sequences in a population of healthy volunteers. In a second study, this method was applied in a population of healthy volunteers to different sites of bone marrow (humerus, sternum, vertebrae, ilium and femur). The results of this study showed local variations of these parameters and a strong negative correlation between the T1 of water and the fat fraction. The signal equation of this quantification method uses the flip angle applied in the water-fat sequence. In order to assess the influence of flip angle variations on the parameters measurement, a flip angle quantification method specially dedicated to spine imaging was also developed during this work. The second part of this work consisted in quantifying diffusion and perfusion in bone marrow, especially with the intra-voxel incoherent motion imaging (IVIM). The imaging protocol of the diffusion sequence was first optimised for a spine application; then the influence of fat on the quantification of diffusion and perfusion parameters was assessed in a study on healthy volunteers. In the future, the optimised water-fat sequences and diffusion sequences will be applied to patients suffering from bone marrow pathologies. These sequences allow a decreased total acquisition time and the detection of pathology-specific modifications.
66

Quantification de protéines dans des matrices complexes par spectrométrie de masse : nouveaux outils et apllications / Protein quantification in complex matrices by mass spectrometry : new tools and applications

Rougemont, Blandine 01 July 2016 (has links)
La spectrométrie de masse en tandem est désormais une technique de choix pour l'analyse du protéome humain ou de micro-organismes. Typiquement, les protéines sont tout d'abord digérées en peptides protéotypiques, ceux-ci étant ensuite séparés par chromatographie liquide avant d'être analysés par MS/MS. L'identification et la quantification de ces peptides rapporteurs de protéines permet la mise en évidence d'un phénotype ou d'un mécanisme cellulaire particulier, dans un organisme complexe. Des approches par spectrométrie de masse ciblée et non ciblée coexistent et sont complémentaires dans l'analyse protéomique. Les travaux présentés ici se sont focalisés sur le développement de méthodes ciblées, et plus particulièrement en mode SRM, à travers deux applications chez des micro-organismes modèles. Ainsi, une première étude s'est portée sur la quantification absolue des protéines du virus chimère dengue – fièvre jaune candidat vaccin. Par l'utilisation d'une stratégie de quantification de type AQUA, nous avons pu développer, valider et transférer le dosage des quatre sérotypes du virus chimère candidat vaccin. Les problématiques soulevées à travers ce projet nous ont amené à proposer des étapes à contrôler lors du développement d'un dosage par la stratégie AQUA.Dans une seconde partie, nous nous sommes attachés à développer une analyse quantitative sans marquage de 445 protéines afin d'étudier l'infection d'un phytopathogène, Dickeya dadantii, sur une plante modèle. Afin d'assurer un transfert simple et rapide de cette analyse multiplexée, nous proposons un nouvel outil d'acquisition indépendant des temps de rétention. Cet outil développé en partenariat avec la R&D Sciex à Toronto est appelé « Scout-MRM » / Tandem mass spectrometry is now a technique of choice for human or micro-organisms proteome analysis. Typically, proteins are first digested into surrogates’ peptides, separated by liquid chromatography before being analyzed by MS/MS. The ultimate goal is the identification and the quantification of these peptides, belonging to proteins and highlighting a phenotype or a cellular mechanism in a complex organism. Both targeted and untargeted approaches are used and are complementary in proteomic analysis. The work presented here is focused on the development of targeted methods, and more particularly in the SRM mode, through two applications involving micro-organisms. So, the first study concerned to absolute quantification of viral proteins of the chimeric yellow-dengue fever, vaccine candidate against dengue. By using the AQUA quantification strategy, we were able to develop, to validate and to transfer the method for the four chimeric virus serotypes. Then, problems met during development process, lead us to suggest check points to verify when using AQUA strategy. In a second part, we attempted to develop a quantitative label free analysis of 445 proteins to study the infection of the phytopathogen Dickeya dadantii, on a model plant. To ensure a simple and fast transfer of this multiplex, we purpose a new acquisition tool, independent from retention time. This tool was developed in a partnership with the R&D Sciex, Toronto and is called “Scout-SRM”
67

Mesurer la parole en ligne : traces, dispositifs et régimes de l'opinion sur le web / Measuring the online speech : digital footprints, instruments and regimes of online opinion

Kotras, Baptiste 09 December 2016 (has links)
“Know what people think”. Ce slogan, affiché sur la page d’accueil du site de l’entreprise britannique Brandwatch, résume à lui seul la promesse de l’industrie nouvelle associée à l’étude des opinions sur le web : savoir enfin ce que les gens pensent, et cela sans même avoir besoin de le leur demander. Un ensemble d’agences, de start-ups et d’éditeurs de logiciels propose en effet depuis le milieu des années 2000 de connaître les opinions du grand public à partir des millions de publications quotidiennes sur le web social : tweets, billets de blogs, messages sur les forums ou encore commentaires de la presse en ligne. Ces données massivement disponibles sont ainsi investies par des acteurs et des instruments extrêmement variés pour mesurer aussi bien la réputation des grandes marques et entreprises, que les réactions à une campagne publicitaire ou un débat télévisé, ou encore des pratiques de consommation émergentes ; tous ont en commun de s’intéresser pour cela aux opinions non sollicitées des internautes. Cette démarche rencontre par ailleurs un succès considérable depuis plusieurs années : en 2015, soit dix ans après la création des premières entreprises dans ce domaine, l’industrie des logiciels de social media analysis générait 2,2 milliards de dollars de chiffre d’affaires selon le cabinet Markets and Markets, qui prévoit par ailleurs la croissance de ce marché jusqu’à 17,9 milliards de dollars en 2019.À distance du positivisme qui entoure ces technologies comme d’une critique constructiviste extérieure à son objet, cette thèse cherche à décrire l’émergence de médiations d’un nouveau type qui se saisissent des traces conversationnelles du web social pour la mesure de l’opinion, et renouvellent ainsi le contenu épistémologique et politique de cette catégorie. Partant de l’hypothèse d’une pluralité des formes de l’opinion et des dispositifs qui la mesurent, nous suivons ainsi un ensemble extrêmement varié de modélisations, construites par des start-ups et entreprises innovantes. Nous nous intéressons ainsi dans un premier temps les tentatives de redéfinition de la notion de représentativité par l’échantillonnage de publics mobilisés et influents. Dans un second temps, nous étudions le modèle qui semble l’emporter sur ce marché, fondé sur des logiciels visant l’indexation exhaustive et continue des traces de la conversation en ligne. Mesurant l’opinion comme un flux continu d’événements singuliers, ces instruments rompent définitivement avec l’idée de représentativité et réactualisent une grammaire de l’opinion comme activité collective et discursive, attentive aux dynamiques médiatiques et relationnelles de la discussion en ligne. Ce régime indiciel de connaissance des opinions délaisse donc la quantification des majorités et des minorités pour la mesure des mobilisations et des mouvements de l’opinion. / "Know what people think." This slogan, posted on the homepage of the British company Brandwatch website, contains the promise of the new industry associated with the study of online opinion: know what people think, finally, without even having to ask. Indeed, since the mid-2000s, a group of agencies, startups and software companies offers to know the opinion from millions of daily publications on the social web: tweets, blog posts or messages on forums. These massively available data are invested by extremely diverse actors and instruments, to measure brand reputation, reactions to an advertising campaign or a televised debate, or emerging consumer practices. To this purpose, all have in common an interest for unsolicited opinions of Internet users. This approach met considerable success in recent years: in 2015, ten years after the creation of the first companies in this area of social media software industry analysis generated $ 2.2 billion in revenue by the firm markets and markets, which also provides for the growth of this market to $ 17.9 billion in 2019.Taking distance with both positivism, which surrounds these technologies, and with an external and critical constructivism, this thesis seeks to describe the emergence of a new type of mediation that captures conversational traces from the social web for measuring opinion, and thus renews the epistemological and political content of this category. Assuming the plurality of the instruments and regimes that measure opinion, we follow a very diverse set of models built by start-ups and innovative companies. We first analyze some attempts made by them to redefine the concept of representative sampling, based on the selection of mobilized and influential publics. Secondly, we study the model that seems to prevail in this market, based on software seeking a comprehensive and continuous indexing of the online conversation. Measuring the opinion as a continuous flow of singular events, these instruments definitively break with the idea of representativeness and reactualize a conception of opinion as collective and discursive activity, focused on the relational dynamics of the online discussion. This regime thus abandons the quantification of majorities and minorities, to concentrate on the mobilizations and movements of online opinion.
68

Novel multi-spectral imaging technique for the spatial quantification of optical properties / Détermination et mise en œuvre d'une technique d'imagerie multi-spectrale pour la quantification spatiale des propriétés optiques

Sorgato Casares, Verónica 18 October 2016 (has links)
La nouvelle technique 'Dual-Step' d'Imagerie Multispectrale qui a été développée a comme objectif de contribuer au diagnostic clinique des lésions superficielles, en procurant des cartes grand champ quantitatives des propriétés optiques endogènes telles que l'absorption et la diffusion. L'approche repose sur la combinaison d'une technique sans-contact de Spectroscopie de Réflectance Diffuse spatialement résolue (DRSsr) pour estimer la diffusion utilisée ensuite par une autre technique d'Imagerie Multispectrale (MSI) pour estimer l'absorption. Les bancs d'essai de chaque technique ont \'et\'e construits et caractérisés dans le cadre de ce travail. La quantification optimale des propriétés optiques s'appuie sur un nouvel algorithme de calibration ('ACA-Pro' ) qui atteint des erreurs d'estimation minimales et inférieures à 3.3% pour la diffusion et 5.3% pour l'absorption. La technique 'Dual-Step' a été validée sur des fantômes d'intralipide mais aussi sur des échantillons ex-vivo de peau humaine et des modèles in-vivo d'inflammation de peau de rats. Les résultats montrent la faisabilité de la technique 'Dual-Step' et son potentiel en diagnostic clinique grâce à son approche quantitative, grand champ et non-invasive. / The Novel 'Dual-Step' Multispectral Imaging Technique that has been developed intends to contribute to the clinical diagnosis of superficial lesions by providing non-invasively quantitative spatial wide field maps of absorption and scattering endogenous optical properties. The approach relies on the combination of a Non-Contact Spatially-resolved Diffuse Reflectance Spectroscopy (DRSsr) technique with a Multispectral Imaging (MSI) technique. Absolute quantification is based on the scattering estimation with Non-Contact DRSsr which is subsequently used by MSI to estimate wide field absorption. The instrumental setups of each technique are built and thoroughly characterized in this work. The optimal quantification of optical properties relies on a newly established calibration algorithm 'ACA-Pro' that achieves minimal estimation errors inferior to 3.3% for scattering and 5.3% for absorption. The developed 'Dual-Step' technique has been validated not only with an extensive intralipid phantom study but also with ex-vivo biological human skin samples and in-vivo inflammation skin models on rats. The results show the potential of the 'Dual-Step' technique as a valid quantitative, wide-field, and non-invasive clinical diagnosis approach.
69

Le crédit sous Bâle II - un dispositif néolibéral de financiarisation en pratiques / Credit under Basel II : a neoliberal device for financializing credit relationships in practices

Baud, Céline 12 July 2013 (has links)
Comment la réglementation internationale organise-t-elle la régulation des activités de crédit ? Pour répondre à cette question, cette thèse propose d’analyser le dispositif prudentiel relatif aux risques de crédit issu de la réforme des Accords de Bâle de 2004, dits « Accords de Bâle II », et de suivre ce dispositif des lieux institutionnels de sa production – le Comité de Bâle – à son interprétation dans les pratiques quotidiennes d’une banque. La thèse décrit la communauté transnationale et le projet libéral qui ont initié le processus de réforme des Accords de Bâle. Puis, elle analyse le dispositif réglementaire lui-même et montre qu’il marque un basculement vers un mode de gouvernement néolibéral qui est couplé avec un projet de financiarisation des activés de crédit. Enfin, la thèse étudie la manière dont le nouveau dispositif réglementaire a été mise en œuvre dans une banque mutualiste française spécialisée dans le financement des PME et conclut que la nouvelle réglementation participe activement au désencastrement et à la financiarisation des relations de crédit. / How does international regulation organize credit activities ? In order to address this question, this thesis analyzes the regulatory standards for assessing and controlling credit risks defined by the 2004 reform of the Basel Agreements on Capital Adequacy, the so-called Basel II Agreements, and it traces the genealogy of these standards from where and when they have been constructed – in the Basel Committee from 1998 to 2004 – down to their effects on the daily practices of a bank. The thesis describes the transnational community and the liberal project that launched the Basel Agreements reform process. Then it analyzes the regulatory framework itself and suggests that Basel II marks a shift within the regulatory regime of credit risk. Indeed it demonstrates that the norms are embedded in a financialized representation of credits and that they are implemented following a neoliberal mode of government. Finally, the thesis investigates how the new norms have been translated into a french cooperative bank specialized in SME lending and it concludes that the new regulatory framework is actively participating in the disembeddedness and in the financialization of credit relationships.
70

Analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe / Sensitivity analysis for numerical simulation of compressible flows in external aerodynamics

Resmini, Andrea 11 December 2015 (has links)
L'analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe par rapport à la discrétisation de maillage et aux incertitudes liées à des paramètres d'entrées du modèle a été traitée 1- par le moyen des méthodes adjointes pour le calcul de gradient et 2- par approximations stochastiques non-intrusives basées sur des grilles creuses. 1- Une méthode d'adaptation de maillages goal-oriented basée sur les dérivées totales des fonctions aérodynamiques d'intérêt par rapport aux nœuds du maillage a été introduite sous une forme améliorée. La méthode s'applique au cadre de volumes finis pour des écoulements RANS pour des maillages mono-bloc et multi-bloc structurés. Des applications 2D pour des écoulements transsoniques ainsi que subsonique détaché atour d'un profil pour l'estimation du coefficient de traînée sont présentées. L'apport de la méthode proposée est vérifié. 2- Les méthodes du polynôme de chaos généralisé sous forme pseudospectrale creuse et de la collocation stochastique construite sur des grilles creuses isotropes et anisotropes sont examinées. Les maillages anisotropes sont obtenus par le biais d'une méthode adaptive basée sur l'analyse de sensibilité globale. L'efficacité des ces approximations est testée avec des fonctions test et des écoulements aérodynamiques visqueux autour d'un profil en présence d'incertitudes géométriques et opérationnelles. L'intégration des méthodes et aboutissements 1- et 2- dans une approche couplée permettrait de contrôler de façon équilibrée l'erreur déterministe/stochastique goal-oriented. / Sensitivity analysis for the numerical simulation of external aerodynamics compressible flows with respect to the mesh discretization and to the model input parametric uncertainty has been addressed respectively 1- through adjoint-based gradient computation techniques and 2- through non-intrusive stochastic approximation methods based on sparse grids. 1- An enhanced goal-oriented mesh adaptation method based on aerodynamic functional total derivatives with respect to mesh coordinates in a RANS finite-volume mono-block and non-matching multi-block structured grid framework is introduced. Applications to 2D RANS flow about an airfoil in transonic and detached subsonic conditions for the drag coefficient estimation are presented. The asset of the proposed method is patent. 2- The generalized Polynomial Chaos in its sparse pseudospectral form and stochastic collocation methods based on both isotropic and dimension-adapted sparse grids obtained through an improved dimension-adaptivity method driven by global sensitivity analysis are considered. The stochastic approximations efficiency is assessed on multi-variate test functions and airfoil viscous aerodynamics simulation in the presence of geometrical and operational uncertainties. Integration of achievements 1- and 2- into a coupled approach in future work will pave the way for a well-balanced goal-oriented deterministic/stochastic error control.

Page generated in 0.121 seconds