• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 59
  • 33
  • Tagged with
  • 240
  • 240
  • 127
  • 123
  • 50
  • 48
  • 32
  • 28
  • 27
  • 26
  • 23
  • 23
  • 22
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Modèles de mélange de von Mises-Fisher

Parr Bouberima, Wafia 15 November 2013 (has links) (PDF)
Dans la vie actuelle, les données directionnelles sont présentes dans la majorité des domaines, sous plusieurs formes, différents aspects et de grandes tailles/dimensions, d'où le besoin de méthodes d'étude efficaces des problématiques posées dans ce domaine. Pour aborder le problème de la classification automatique, l'approche probabiliste est devenue une approche classique, reposant sur l'idée simple : étant donné que les g classes sont différentes entre elles, on suppose que chacune suit une loi de probabilité connue, dont les paramètres sont en général différents d'une classe à une autre; on parle alors de modèle de mélange de lois de probabilités. Sous cette hypothèse, les données initiales sont considérées comme un échantillon d'une variable aléatoire d-dimensionnelle dont la densité est un mélange de g distributions de probabilités spécifiques à chaque classe. Dans cette thèse nous nous sommes intéressés à la classification automatique de données directionnelles, en utilisant des méthodes de classification les mieux adaptées sous deux approches: géométrique et probabiliste. Dans la première, en explorant et comparant des algorithmes de type kmeans; dans la seconde, en s'attaquant directement à l'estimation des paramètres à partir desquels se déduit une partition à travers la maximisation de la log-vraisemblance, représentée par l'algorithme EM. Pour cette dernière approche, nous avons repris le modèle de mélange de distributions de von Mises-Fisher, nous avons proposé des variantes de l'algorithme EMvMF, soit CEMvMF, le SEMvMF et le SAEMvMF, dans le même contexte, nous avons traité le problème de recherche du nombre de composants et le choix du modèle de mélange, ceci en utilisant quelques critères d'information : Bic, Aic, Aic3, Aic4, Aicc, Aicu, Caic, Clc, Icl-Bic, Ll, Icl, Awe. Nous terminons notre étude par une comparaison du modèle vMF avec un modèle exponentiel plus simple ; à l'origine ce modèle part du principe que l'ensemble des données est distribué sur une hypersphère de rayon ρ prédéfini, supérieur ou égal à un. Nous proposons une amélioration du modèle exponentiel qui sera basé sur une étape estimation du rayon ρ au cours de l'algorithme NEM. Ceci nous a permis dans la plupart de nos applications de trouver de meilleurs résultats; en proposant de nouvelles variantes de l'algorithme NEM qui sont le NEMρ , NCEMρ et le NSEMρ. L'expérimentation des algorithmes proposés dans ce travail a été faite sur une variété de données textuelles, de données génétiques et de données simulées suivant le modèle de von Mises-Fisher (vMF). Ces applications nous ont permis une meilleure compréhension des différentes approches étudiées le long de cette thèse.
82

Optimization-based User Group Management : Discovery, Analysis, Recommendation / Optimization-based User Group Management : Discovery, Analysis, Recommendation

Omidvar Tehrani, Behrooz 06 November 2015 (has links)
Les donn ́ees utilisateurs sont devenue de plus en plus disponibles dans plusieurs do- maines tels que les traces d'usage des smartphones et le Web social. Les donn ́ees util- isateurs, sont un type particulier de donn ́ees qui sont d ́ecrites par des informations socio-d ́emographiques (ex., ˆage, sexe, m ́etier, etc.) et leurs activit ́es (ex., donner un avis sur un restaurant, voter, critiquer un film, etc.). L'analyse des donn ́ees utilisa- teurs int ́eresse beaucoup les scientifiques qui travaillent sur les ́etudes de la population, le marketing en-ligne, les recommandations et l'analyse des donn ́ees `a grande ́echelle. Cependant, les outils d'analyse des donn ́ees utilisateurs sont encore tr`es limit ́es.Dans cette th`ese, nous exploitons cette opportunit ́e et proposons d'analyser les donn ́ees utilisateurs en formant des groupes d'utilisateurs. Cela diff`ere de l'analyse des util- isateurs individuels et aussi des analyses statistiques sur une population enti`ere. Un groupe utilisateur est d ́efini par un ensemble des utilisateurs dont les membres parta- gent des donn ́ees socio-d ́emographiques et ont des activit ́es en commun. L'analyse au niveau d'un groupe a pour objectif de mieux g ́erer les donn ́ees creuses et le bruit dans les donn ́ees. Dans cette th`ese, nous proposons un cadre de gestion de groupes d'utilisateurs qui contient les composantes suivantes: d ́ecouverte de groupes, analyse de groupes, et recommandation aux groupes.La premi`ere composante concerne la d ́ecouverte des groupes d'utilisateurs, c.- `a-d., compte tenu des donn ́ees utilisateurs brutes, obtenir les groupes d'utilisateurs en op- timisantuneouplusieursdimensionsdequalit ́e. Ledeuxi`emecomposant(c.-`a-d., l'analyse) est n ́ecessaire pour aborder le probl`eme de la surcharge de l'information: le r ́esultat d'une ́etape d ́ecouverte des groupes d'utilisateurs peut contenir des millions de groupes. C'est une tache fastidieuse pour un analyste `a ́ecumer tous les groupes trouv ́es. Nous proposons une approche interactive pour faciliter cette analyse. La question finale est comment utiliser les groupes trouv ́es. Dans cette th`ese, nous ́etudions une applica- tion particuli`ere qui est la recommandation aux groupes d'utilisateurs, en consid ́erant les affinit ́es entre les membres du groupe et son ́evolution dans le temps.Toutes nos contributions sont ́evalu ́ees au travers d'un grand nombre d'exp ́erimentations `a la fois pour tester la qualit ́e et la performance (le temps de r ́eponse). / User data is becoming increasingly available in multiple domains ranging from phone usage traces to data on the social Web. User data is a special type of data that is described by user demographics (e.g., age, gender, occupation, etc.) and user activities (e.g., rating, voting, watching a movie, etc.) The analysis of user data is appealing to scientists who work on population studies, online marketing, recommendations, and large-scale data analytics. However, analysis tools for user data is still lacking.In this thesis, we believe there exists a unique opportunity to analyze user data in the form of user groups. This is in contrast with individual user analysis and also statistical analysis on the whole population. A group is defined as set of users whose members have either common demographics or common activities. Group-level analysis reduces the amount of sparsity and noise in data and leads to new insights. In this thesis, we propose a user group management framework consisting of following components: user group discovery, analysis and recommendation.The very first step in our framework is group discovery, i.e., given raw user data, obtain user groups by optimizing one or more quality dimensions. The second component (i.e., analysis) is necessary to tackle the problem of information overload: the output of a user group discovery step often contains millions of user groups. It is a tedious task for an analyst to skim over all produced groups. Thus we need analysis tools to provide valuable insights in this huge space of user groups. The final question in the framework is how to use the found groups. In this thesis, we investigate one of these applications, i.e., user group recommendation, by considering affinities between group members.All our contributions of the proposed framework are evaluated using an extensive set of experiments both for quality and performance.
83

Approche comportementale pour la sécurisation des utilisateurs de réseaux sociaux numériques mobiles / A behaviour-based approach to protecting mobile social network users

Perez, Charles 21 May 2014 (has links)
Notre société doit faire face à de nombreux changements dans les modes de communication.L’émergence simultanée des terminaux nomades et des réseaux sociaux numériques permet désormais de partager des informations depuis presque n’importe quel lieu et potentiellement avec toutes les entités connectées.Le développement de l’usage des smartphones dans un cadre professionnel ainsi que celui des réseaux sociaux numériques constitue une opportunité, mais également une source d’exposition à de nombreuses menaces telles que la fuites d’information sensible, le hameçonnage, l’accès non légitime à des données personnelles, etc.Alors que nous observons une augmentation significative de la malveillance sur les plateformes sociales, aucune solution ne permet d’assurer un usage totalement maîtrisé des réseaux sociaux numériques. L’apport principal de ce travail est la mise en place de la méthodologie (SPOTLIGHT) qui décrit un outil d’analyse comportementale d’un utilisateur de smartphone et de ses contacts sur les différents médias sociaux. La principale hypothèse est que les smartphones, qui sont étroitement liés à leurs propriétaires, mémorisent les activités de l’utilisateur (interactions) et peuvent être utiles pour mieux le protéger sur le numérique.Cette approche est implémentée dans un prototype d’application mobile appelé SPOTLIGHT 1.0 qui permet d’analyser les traces mémorisées dans le smartphone d’un utilisateur afin de l’aider à prendre les décisions adéquates dans le but de protéger ses données / Our society is facing many changes in the way it communicates. The emergence of mobile terminals alongside digital social networks allows information to be shared from almost anywhere with the option of all parties being connected simultaneously. The growing use of smartphones and digital social networks in a professional context presents an opportunity, but it also exposes businesses and users to many threats, such as leakage of sensitive information, spamming, illegal access to personal data, etc.Although a significant increase in malicious activities on social platforms can be observed, currently there is no solution that ensures a completely controlled usage of digital social networks. This work aims to make a major contribution in this area through the implementation of a methodology (SPOTLIGHT) that not only uses the behaviour of profiles for evaluation purposes, but also to protect the user. This methodology relies on the assumption that smartphones, which are closely related to their owners, store and memorise traces of activity (interactions) that can be used to better protect the user online.This approach is implemented in a mobile prototype called SPOTLIGHT 1.0, which analyses traces stored in users’ smartphone to help them make the right decisions to protect their data
84

Nutation de la Terre et stabilité du repère céleste : apport des observations VLBI / Earth nutation and celestial frame stabiliy : contribution of VLBI observations

Gattano, César 30 November 2016 (has links)
Le modèle de nutation de référence (MHB2000) et le repère céleste international (ICRF2) ont été établis en 2000 et en 2009 respectivement. Les observations VLBI s’étant accumulées depuis, ce sont autant de nouvelles données permettant d’affiner la nutation et de mieux caractériser l’instabilité des radiosources constituant le repère céleste. L’allongement des données disponibles révèle des défauts dans la nutation de référence comme des fluctuations dans la position des radiosources. Il importe donc de réajuster les termes de nutation, tout en évaluant l’impact de l’instabilité du repère de référence céleste sur celle-ci. Dans un premier temps, nous déterminons des corrections significatives des termes de nutation du modèle MHB2000 jusqu'à 50 micro-seconde d'arc sur la base des séries opérationnelles de l'IVS. Nous en évaluons aussi l'incertitude. Notre intérêt s’est focalisé sur la nutation libre du noyau et un terme spectralement proche, le terme annuel rétrograde. Nous tentons de caractériser leur variabilité multi-annuelle, en amplitude, phase et fréquence, malgré la corrélation qui les affecte.Dans un second temps, nous avons étudié la stabilité du repère céleste par une étude approfondie des sources susceptibles de définir ce repère. De telles sources sont sélectionnées par analyse de variance d'Allan de leurs déplacements astrométriques. Cette analyse donne la « couleur » du bruit aléatoire qui affecte leurs positions en fonction des différentes échelles de temps correspondant à 30 ans d’observations VLBI. Plus précisément, nous sélectionnons les radiosources présentant un bruit blanc. Il en résulte que sur 123 sources parmi celles choisies pour l'ICRF2 en 2009, seules 40 respectent ce critère de stabilité sur la période 1985-2016. Ce nombre est insuffisant pour construire un repère céleste stable et des compromis sont nécessaires. Enfin, la propagation des erreurs des positions des radiosources sur la nutation a été caractérisée, expliquant le bruit anormalement grands de certaines séries de nutation diffusées par l'IVS. / The reference nutation model (MHB2000) and the International Celestial Reference Frame (ICRF2) was established in 2000 and 2009 respectively. VLBI observations are being accumulated since and these are all new data to refine the nutation and better characterize the instability of radio sources constituting the celestial frame. The lengthening of the available data reveals defects in the reference wobble and fluctuations in the position of radio sources.It is important to adjust the nutation terms while assessing the impact of the instability of the celestial reference frame on it. Initially, we obtain significant corrections in terms of nutation model MHB2000 up to 50 micro-seconds of degree on the basis of IVS operational nutation time series. We also evaluate their uncertainty. Our interest is focused on the the free core nutation and a term closed in frequency, the retrograde annual term. We try to characterize the multi-annual variability, on amplitude, phase and period, despite correlation that affects both terms.Secondly, we study the stability of the celestial reference frame by a comprehensive study of the potential sources to define the frame. Such defining sources are selected by analysis using Allan variance of their astrometric displacements. This analysis gives the "color" of the random noise that affects positions based on different time scales corresponding to 30 years of VLBI observations. Specifically, we select radio sources with white noise. It follows that on 123 sources from those chosen for ICRF2 in 2009, only 40 meet this criterion of stability over the period 1985-2016. This number is too small to build a new celestial reference frame and compromises are necessary. Finally, errors propagation of radio position on nutation has been characterized, explaining the noise unusually large of some nutation time series diffused by the IVS.
85

Comparaison automatisée de reconstructions Bayésiennes de profils expérimentaux avec des modèles physiques / Automated comparison of Bayesian reconstructions of experimental profiles with physical models

Irishkin, Maxim 13 November 2014 (has links)
Dans ce travail, nous avons développé un système expert qui intègre les fonctions suivantes :i) l'identification des profils à partir des mesures sur les plasmas de tokamak, par les méthodes bayésiennes; ii) La prédiction des quantités reconstruites, selon les modèles choisis et; iii) une comparaison intelligente des résultats provenant des deux premières étapes. Ce système comprend une vérification systématique de la cohérence interne des quantités reconstruites, permet la validation automatique des modèles. Avec un modèle validé, il peut aider à la détection de nouveaux effets physique dans une expérience. Trois applications de ce système sont présentées dans ce travail. Le système expert peut détecter automatiquement les défauts dans la reconstruction des profils et fournir (lorsque la reconstruction est valide) des statistiques sur l'accord des modèles avec les données expérimentales, c'est à dire des informations sur la validité du modèle. / In this work we developed an expert system that carries out in an integrated and fully automated way i) a reconstruction of plasma profiles from the measurements, using Bayesian analysis ii) a prediction of the reconstructed quantities, according to some models and iii) an intelligent comparison of the first two steps. This system includes systematic checking of the internal consistency of the reconstructed quantities, enables automated model validation and, if a well-validated model is used, can be applied to help detecting interesting new physics in an experiment. The work shows three applications of this quite general system. The expert system can successfully detect failures in the automated plasma reconstruction and provide (on successful reconstruction cases) statistics of agreement of the models with the experimental data, i.e. information on the model validity.
86

Contraintes sur les violations à la symétrie de Lorentz par analyse des données de télémétrie laser Lune / Constaints on Lorentz symmetry violations using lunar laser ranging observations

Bourgoin, Adrien 19 December 2016 (has links)
La relativité générale (RG) et le modèle standard des particules permettent de comprendre les quatre interactions fondamentales de la nature. La formulation d'une théorie quantique de la gravitation permettrait d'unifier ces deux tenants de la physique moderne. D'après les grandes théories d'unification, une telle union est possible moyennant la brisure de certaines symétries fondamentales apparaissant à la fois en RG et dans le modèle standard telle la symétrie de Lorentz. Les violations de la symétrie de Lorentz peuvent être paramétrées dans tous les domaines de la Physique par une théorie effective du champ appelée extension du modèle standard (SME). Une violation au principe d'invariance locale de Lorentz dans le secteur gravitationnel serait supposée engendrer des perturbations dans la dynamique orbitale des corps présents dans le système solaire, notamment la Lune. Ainsi, à partir des données extrêmement précises de télémétrie laser, l'orbite lunaire peut être minutieusement analysée afin de débusquer d'éventuelles anomalies dans son mouvement. Dans cette optique, ELPN (Ephéméride Lunaire Parisienne Numérique), une nouvelle éphéméride lunaire intégrée dans le cadre du formalisme SME a été développée durant la thèse. ELPN fournit les solutions au problème lunaire sous la forme de séries temporelles datées en temps dynamique barycentrique (TDB). Parmi les solutions numériquement intégrées, mentionnons la position et la vitesse du vecteur barycentrique Terre-Lune, les angles de librations lunaires, la différence entre le temps terrestre et le TDB, ainsi que l'ensemble des dérivées partielles intégrées depuis l'équation aux variations. Les prédictions de l'éphéméride ont été utilisées afin de réduire les observations lunar laser ranging (LLR). Dans le cadre de la RG, la dispersion des résidus s'est avérée en accord avec les dispersions calculées à partir des éphémérides INPOP13b et DE430. Dans le cadre du SME minimal, l'analyse des données LLR a permis de contraindre toutes violations à l'invariance locale de Lorentz. Une grande attention a été portée à l'analyse des incertitudes afin de fournir des contraintes réalistes. Ainsi, dans un premier temps, les combinaisons linéaires de coefficients SME ont été isolées puis ajustées aux observations. Puis, dans un second temps, les incertitudes réalistes ont été déterminées par une méthode de ré-échantillonnage. L'analyse des données de télémétrie laser Lune n'a pas permis de révéler de violations au principe d'invariance locale de Lorentz agissant au niveau de l'orbite lunaire. Les prédictions de la RG ont donc été validées avec des précisions absolues allant de 10-9 à 10-12. / General Relativity (GR) and the standard model of particle physics provide a comprehensive description of the four interactions of nature. A quantum gravity theory is expected to merge these two pillars of modern physics. From unification theories, such a combination would lead to a breaking of fundamental symmetry appearing in both GR and the standard model of particle physics as the Lorentz symmetry. Lorentz symmetry violations in all fields of physics can be parametrized by an effective field theory framework called the standard-model extension (SME). Local Lorentz Invariance violations in the gravitational sector should impact the orbital motion of bodies inside the solar system, such as the Moon. Thus, the accurate lunar laser ranging (LLR) data can be analyzed in order to study precisely the lunar motion to look for irregularities. For this purpose, ELPN (Ephéméride Lunaire Parisienne Numérique), a new lunar ephemeris has been integrated in the SME framework. This new numerical solution of the lunar motion provides time series dated in temps dynamique barycentrique (TDB). Among that series, we mention the barycentric position and velocity of the Earth-Moon vector, the lunar libration angles, the time scale difference between the terrestrial time and TDB and partial derivatives integrated from variational equations. ELPN predictions have been used to analyzed LLR observations. In the GR framework, the residuals standard deviations has turned out to be the same order of magnitude compare to those of INPOP13b and DE430 ephemerides. In the framework of the minimal SME, LLR data analysis provided constraints on local Lorentz invariance violations. Spetial attention was paid to analyze uncertainties to provide the most realistic constraints. Therefore, in a first place, linear combinations of SME coefficients have been derived and fitted to LLR observations. In a second time, realistic uncertainties have been determined with a resampling method. LLR data analysis did not reveal local Lorentz invariance violations arising on the lunar orbit. Therefore, GR predictions are recovered with absolute precisions of the order of 10-9 to 10-12.
87

Caractériser les populations stellaires à l'aide d'indices sismiques / Characterise the stellar populations using seismic indices

De Assis Peralta, Raphaël 03 February 2016 (has links)
A l'instar de la sismologie terrestre, l'astérosismologie est l'étude des tremblements d'étoiles. Ces vibrations internes sont observées via les variations de luminosité (ou de vitesse) qui se manifestent à leurs surfaces. A partir de ces séries temporelles, on calcule les spectres de puissance qui contiennent une véritable mine d'informations. En particulier, pour les pulsateurs de types solaires, nous pouvons observer le signal de la granulation ainsi que les modes propres d'oscillations stellaires qui sont tous deux une conséquence directe de la convection dans l'enveloppe de l'étoile. L'astérosismologie permet de sonder l'intérieur des étoiles comme une échographie. Par ailleurs, avec les grands relevés de photométrie spatiale CoRoT et Kepler, un nouveau champ d'application pour la sismologie est apparu. En effet, il est possible de caractériser au premier ordre les spectres d'oscillations des pulsateurs de types solaires à partir de quelques indices que nous appellerons indices sismiques. Ces derniers permettent via des relations simples d'estimer les paramètres fondamentaux de ces étoiles. Cela fait de l'astérosismologie un outil très puissant pour l'étude des populations stellaires.Dans la perspective du développement de la base de données Stellar Seismic Indices (SSI - Ouverture de la base SSI prévue pour l'été 2016. Lien vers la base: http://ssi.lesia.obspm.fr/), l'objet de ma thèse a été de développer une méthode automatique capable d'extraire simultanément les indices sismiques et les paramètres caractérisant la granulation des pulsateurs de types solaires. Cette méthode, appelée MLEUP, a été pour l'instant optimisée pour les géantes rouges car CoRoT et Kepler ont observé plusieurs dizaines de milliers de géantes rouges contre quelques centaines de pulsateurs de type solaire de séquence principale. Le MLEUP présente un avantage majeur par rapport à la plupart des méthodes existantes : il utilise le patron universel d'oscillations (UP) des géantes rouges comme modèle d'ajustement du spectre d'oscillations, ce qui permet d'analyser le spectre non lissé, donc non dégradé, et d'ajuster simultanément la composante de granulation et celle des oscillations par l'estimation du maximum de vraisemblance (MLE). Le MLEUP a dans un premier temps été testé par des simulations Monte Carlo afin de quantifier ses performances. Ces dernières se sont révélées très bonnes, avec de faibles biais et dispersions. Dans un second temps, nous avons appliqué le MLEUP à plus de 36.500 étoiles observées par CoRoT et Kepler, parmi lesquelles nous obtenons les indices sismiques et les paramètres de la granulation pour plus de 13.500 étoiles. Ces résultats ont d'ores et déjà été utilisés dans plusieurs travaux et leur utilisation devrait s'intensifier rapidement. / Like terrestrial seismology, asteroseismology is the study of star quakes. These internal vibrations are detected by observing the luminosity (or velocity) variations at the stellar surfaces. From these time series, one computes power spectra which contain a wealth of information. In particular, for solar-like pulsators, we are able to observe the signal of granulation as well as the eigenmodes of stellar oscillations, both of which are a direct consequence of the convection in the star's envelope. Asteroseismology allows us to probe the interior of stars much like an ultrasound. Furthermore, with the large spatial photometric surveys CoRoT and Kepler, a new scope for seismology appeared. Indeed, it is possible to characterise to first order the oscillation spectra of solar-like pulsators with few indices or parameters, called seismic indices. Using simple relations, they allow us to estimate fundamental parameters of these stars. Asteroseismology is by consequence a very powerful tool for the study of stellar populations.In the perspective of the development of the Stellar Seismic Indices (SSI - The opening of the SSI database is planned for the summer of 2016, see http://ssi.lesia.obspm.fr/).) database, the purpose of my thesis was to develop an automatic method able to extract simultaneously the seismic indices and the parameters characterizing the granulation signature of solar-like pulsators. This method, called MLEUP, was optimized for red giants because for the few hundred main-sequence solar-like pulsators observed by CoRoT and Kepler, several tens of thousands of red giants have been observed by these same missions. MLEUP has a major advantage over most existing methods: it relies on the use red-giant stellar oscillation universal pattern (UP) to fit the oscillation spectra. This allows us to analyse the unsmoothed spectrum and fit simultaneously both granulation and oscillations with the maximum likelihood estimate (MLE).As a first step, MLEUP was tested on Monte Carlo simulations in order to quantify its performances. These simulations have revealed that MLEUP achieves very good performances, with low biases and dispersions. As a second step, we applied MLEUP to more than 36,500 stars observed by CoRoT and Kepler, thereby yielding seismic indices and granulation parameters for more than 13,500 stars. Those results have already been used in several works and are expected to be used in many more.
88

Méthode d’évaluation de l’impact des composants de construction sur la performance globale (énergétique & environnementale, économique et sociale) d’un bâtiment tout au long de son cycle de vie / Assessment method of the construction components impact on the overall performance (energy & environmental, economic and social) of a building throughout its life cycle

Hadji Rezai, Sara 10 July 2017 (has links)
Aujourd’hui les attentes en terme de performance énergétique, environnementale, mais également économique et sociale, toujours de plus en plus élevées, rendent de plus en plus complexe l’acte de construire et compliquée la prise de décision en phase de conception. Aussi l’enjeu de demain est notamment d’accompagner les acteurs de la construction dans le choix de composants de construction les moins risqués et les plus appropriés pour un projet de construction donné. Cette thèse est née de la volonté de répondre à cet enjeu. Aussi, l’objectif de cette thèse a été de développer une méthode d’évaluation de l’impact de l’intégration d’un composant de construction sur la performance globale (énergétique, environnementale, économique et sociale) d’un bâtiment tout au long de son cycle de vie. L’appropriation de la culture du risque, son appréciation (identification, analyse et évaluation), ainsi que son management dans le domaine de la construction est un phénomène récent, encore principalement à l’état de recherche. Cependant d’autres domaines tels que le nucléaire, l’aéronautique ou la finance ont déjà acquis des connaissances, développé des outils, méthodes et techniques et mis en exergue des bonnes pratiques et des précautions à suivre. Ainsi nous avons choisi de nous appuyer sur cela pour développer notre méthode et notamment nous avons fait le choix d’utiliser la méthode classique de Cooke (1991) pour pondérer les jugements d’experts et s’assurer qu’ils soient les plus représentatifs de la réalité. La méthode proposée ici se décompose en trois étapes. La première est une étape préliminaire qui permet d’une part de définir les objectifs de performance à atteindre pour un bâtiment performant en construisant une famille d’indicateurs de performance et d’autre part de choisir entre les deux étapes suivantes. Soit le composant de construction est largement diffusé et le processus principal est mis en œuvre. Soit il est innovant et c’est le processus secondaire qui est mis en œuvre. In fine la méthode permet : 1) d’identifier les couples ‘aléa/risque’ associés au composant étudié (composant largement diffusé ou innovant) ; 2) de mettre en évidence, grâce à l’aide d’un jeu de poids pondérant les indicateurs de performance représentant la performance globale à atteindre pour un bâtiment donné : a) les indicateurs les plus sensibles au regard de ce composant (composant largement diffusé) b) l’impact de l’intégration du composant via les couples ‘aléa/risque’ recensés sur tout le cycle de vie du bâtiment à l’échelle du composant et à l’échelle du bâtiment (composant largement diffusé). Elle a été expérimentée sur deux composants de construction, l’un largement diffusé, l’autre innovant et cela a permis de mettre en exergue ses avantages, limites, perspectives et améliorations d’un point de vue théorique. Mais également d’identifier des bonnes pratiques, des risques et des apprentissages associés à sa mise en application. Sa force réside dans son déploiement à grande échelle. Plus elle sera mis en œuvre sur un grand nombre de composants de construction d’une même famille et plus elle apportera un intérêt dans l’aide à la conception grâce à la comparaison entre ces composants pour choisir le plus approprié et le moins risqué pour un projet de construction donné. / Current expectations in terms of energy, environmental, economic and social performance, are increasingly higher, making more complex the act of building and complicating decision-making in the design phase. Therefore, tomorrow's challenge includes the support of construction stakeholders in the choice of the least risky and most appropriate construction components for a given construction project. This PhD was born of the desire to respond to this challenge. The objective being to develop a method for assessing the impact of the integration of a construction component on the overall performance (energy, environmental, economic and social) of a building throughout its life cycle. The appropriation of the risk culture, its assessment (identification, analysis and evaluation), and its management in the field of construction is a new phenomenon, still mainly in the state of research. However, other fields such as nuclear, aeronautics or finance have already acquired knowledge. Tools, methods and techniques were developed and highlighted good practices and precautions to be followed. This robust basis was used to develop our method and in particular, the classical method of Cooke (1991) was used to weigh the expert judgments in order to ensure a better representativeness of reality. The proposed method is composed of three steps. The first is a preliminary step that allows to define the objectives of performance to be achieved for an efficient building by building-up a family of performance indicators. It also allows to choose between the two next steps. Either the construction component is largely distributed and the main process is implemented, or it is innovative component and the secondary process is implemented. In fine the method enables : 1) to identify the 'hazard/risk' pairs associated with the component studied (largely distributed or innovative component) ; 2) to highlight, by weighting the performance indicators representing the overall performance to be achieved for a particular building : a) the most sensitive indicators regarding this component (largely distributed component) ; b) the impact of the integration of this component through the 'hazard/risk' pairs identified throughout the life cycle of the building at the component scale and at the building scale (largely distributed component). It was tested on two construction components, one largely distributed, the other innovative, which has highlighted the method advantages, limits, prospects and improvements from a theoretical point of view. But also to identify good practices, risks and learning associated with its implementation. Its strength lies in its large-scale deployment. The more it will be implemented on a large number of construction components of the same family, the more it will bring an interest in design assistance by comparing these components to choose the most appropriate and least risky for a given construction project.
89

Piwi-dependent transcriptional silencing and Dicer-2-dependent post-transcriptional silencing limit transposon expression in adult heads of Drosophila Melanogaster / L'effet synergique de la répression transcriptionelle par piwi et post-transcriptionelle par Dicer-2 contrôle l'expression de transposon dans les têtes de Drosophila Melanogaster

Van Den Beek, Marius 09 February 2015 (has links)
Les éléments transposables (ET) sont des constituants majeurs des génomes eucaryotes. Leur mobilisation joue un rôle important dans l'évolution et l'adaptation des organismes. Cependant, la transposition des ET peut conduire à des dommages irréversibles du génome et elle doit donc être étroitement contrôlé. Chez Drosophila melanogaster, la transposition des ET est contrôlée par les siRNA (small interfering RNAs) et les piRNA (Piwi-interacting RNAs) qui agissent en réprimant des cibles ARN de séquences complémentaires. Les siRNA et piRNA ont des modes distincts de biogenèse, de reconnaissance de cibles et d'activité repressive. Les piRNAs sont seulement présents en abondance dans les gonades, et transmis maternellement aux embryons. Par une approche de séquençage à haut débit, j'ai pu montrer que bien qu'ils induisent une répression transcriptionnelle des ET à ce stade du développement, ils sont pratiquement absents des têtes de drosophiles adultes. Cet état est cependant hérité et il est suffisant pour limiter l'expression des ET dans l'adulte, même en l'absence de siRNA. A l'inverse, si la répression transcriptionnelle précoce n'est pas établie, les siRNA agissent comme un système de sauvegarde en limitant l'expression des ET. En cas de perte conjointe des piRNA et siRNA, l'expression des ET augmente significativement et la durée de vie des mouches adultes se trouve réduite. Les analyses de sequences à grande échelle m'ont par ailleurs conduit à développer des outils logiciels intégrés dans Galaxy et à m'impliquer significativement dans la communauté qui développe ce système au niveau international. / Transposable elements are major components of eukaryotic genomes and have been proposed as important drivers of gene network evolution, as they can move or “transpose” in their host genome, creating gene duplications, gene inactivations or altogether altering gene function. Nevertheless, uncontrolled high-rate transposition leads to DNA damage and genomic instabilities, and therefore needs to be kept at a low level. In the fruitfly Drosophila melanogaster, transposition is counteracted by multiple mechanisms, amongst which the generation of small interfering RNAs (siRNAs) and Piwi-interacting RNAs (piRNAs). siRNAs and piRNAs belong to the category of small RNAs, and these are involved in negative regulation of complementary target RNAs abundance, but siRNAs and piRNAs have distinct mechanisms of biogenesis, target recognition and mechanisms of target regulation. Notably, piRNAs are only abundant in gonads and are transmitted to the embryo. By sequencing small RNAs and normal transcripts in adult heads, I conclude that, while piRNAs are likely absent in adult heads, they induce a repressive state on TEs. If this repressive state is lost, the siRNA pathway can compensate and limit Transposable element levels. If siRNAs are lost, the repressive state induced by piRNAs suffices to limit Transposable element levels. If both piRNAs and siRNAs are lost, the expression level of Transposable elements increases, and flies have a shorter life span. The requirement to analyse large-scale sequencing data led to the development of multiple tools for the reproducible research platform Galaxy.
90

Binaires compactes : modèles de populations, détection multi-messagers et cosmologie / Compact binaries : models of populations, multi-messenger detection and cosmology

Meacher, Duncan 08 September 2015 (has links)
Je présente ma thèse sur l'analyse des ondes gravitationnelles dans les deux domaines suivants. Pour le premier il s'agit de vérifier que les collaborations LIGO et Virgo sont prêtes pour la détection d'un fond gravitationnel stochastique astrophysique pendant l'ère des détecteurs avancés qui va démarrer à l'été 2015. Pour le deuxième il s'agit de poursuivre l'étude du potentiel scientifique, notamment pour l'astrophysique et la cosmologie, d'un détecteur de troisième génération, le Einstein Telescope. Dans les deux cas, j'utilise des "mock data and science challenges" qui consistent à simuler Les données des détecteurs gravitationnels contenant un grand nombre de sources distribuées de façon réalistes dans l'espace des paramètres. / Here I present my thesis investigating gravitational-wave data analysis in the following two areas. The first is to test the readiness of the LIGO-Virgo collaborations to the advanced detector era, which will begin in the summer of 2015, to make a detection of an astrophysical stochastic gravitational-wave background. The second is to continue an investigation into the science potential of a conceived, third generation gravitational-wave detector, the Einstein Telescope, in terms of astrophysics and cosmology. Both of these are conducted with the use of mock data and science challenges which consists of the production of expected gravitational-wave detector data, containing a large number of sources, that are simulated using realists distributions.

Page generated in 0.0523 seconds