• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 6
  • 6
  • Tagged with
  • 40
  • 40
  • 27
  • 26
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modèle d'estimation de l'imprécision des mesures géométriques de données géographiques

Girres, Jean-François, Girres, Jean-François 04 December 2012 (has links) (PDF)
De nombreuses applications SIG reposent sur des mesures de longueur ou de surface calculées à partir de la géométrie des objets d'une base de données géographiques (comme des calculs d'itinéraires routiers ou des cartes de densité de population par exemple). Cependant, aucune information relative à l'imprécision de ces mesures n'est aujourd'hui communiquée à l'utilisateur. En effet, la majorité des indicateurs de précision géométrique proposés porte sur les erreurs de positionnement des objets, mais pas sur les erreurs de mesure, pourtant très fréquentes. Dans ce contexte, ce travail de thèse cherche à mettre au point des méthodes d'estimation de l'imprécision des mesures géométriques de longueur et de surface, afin de renseigner un utilisateur dans une logique d'aide à la décision. Pour répondre à cet objectif, nous proposons un modèle permettant d'estimer les impacts de règles de représentation (projection cartographique, non-prise en compte du terrain, approximation polygonale des courbes) et de processus de production (erreur de pointé et généralisation cartographique) sur les mesures géométriques de longueur et de surface, en fonction des caractéristiques des données vectorielles évaluées et du terrain que ces données décrivent. Des méthodes d'acquisition des connaissances sur les données évaluées sont également proposées afin de faciliter le paramétrage du modèle par l'utilisateur. La combinaison des impacts pour produire une estimation globale de l'imprécision de mesure demeure un problème complexe et nous proposons des premières pistes de solutions pour encadrer au mieux cette erreur cumulée. Le modèle proposé est implémenté au sein du prototype EstIM (Estimation de l'Imprécision des Mesures)
22

Plateforme visuelle pour l'intégration de données faiblement structurées et incertaines / A visual platform to integrate poorly structured and unknown data

Da Silva Carvalho, Paulo 19 December 2017 (has links)
Nous entendons beaucoup parler de Big Data, Open Data, Social Data, Scientific Data, etc. L’importance qui est apportée aux données en général est très élevée. L’analyse de ces données est importante si l’objectif est de réussir à en extraire de la valeur pour pouvoir les utiliser. Les travaux présentés dans cette thèse concernent la compréhension, l’évaluation, la correction/modification, la gestion et finalement l’intégration de données, pour permettre leur exploitation. Notre recherche étudie exclusivement les données ouvertes (DOs - Open Data) et plus précisément celles structurées sous format tabulaire (CSV). Le terme Open Data est apparu pour la première fois en 1995. Il a été utilisé par le groupe GCDIS (Global Change Data and Information System) (États-Unis) pour encourager les entités, possédant les mêmes intérêts et préoccupations, à partager leurs données [Data et System, 1995]. Le mouvement des données ouvertes étant récent, il s’agit d’un champ qui est actuellement en grande croissance. Son importance est actuellement très forte. L’encouragement donné par les gouvernements et institutions publiques à ce que leurs données soient publiées a sans doute un rôle important à ce niveau. / We hear a lot about Big Data, Open Data, Social Data, Scientific Data, etc. The importance currently given to data is, in general, very high. We are living in the era of massive data. The analysis of these data is important if the objective is to successfully extract value from it so that they can be used. The work presented in this thesis project is related with the understanding, assessment, correction/modification, management and finally the integration of the data, in order to allow their respective exploitation and reuse. Our research is exclusively focused on Open Data and, more precisely, Open Data organized in tabular form (CSV - being one of the most widely used formats in the Open Data domain). The first time that the term Open Data appeared was in 1995 when the group GCDIS (Global Change Data and Information System) (from United States) used this expression to encourage entities, having the same interests and concerns, to share their data [Data et System, 1995]. However, the Open Data movement has only recently undergone a sharp increase. It has become a popular phenomenon all over the world. Being the Open Data movement recent, it is a field that is currently growing and its importance is very strong. The encouragement given by governments and public institutions to have their data published openly has an important role at this level.
23

Amélioration de la qualité des données produits échangées entre l'ingénierie et la production à travers l'intégration de systèmes d'information dédiés / Quality Improvement of product data exchanged between engineering and production through the integration of dedicated information systems.

Ben Khedher, Anis 27 February 2012 (has links)
Le travail présenté dans ce mémoire de thèse apporte sa contribution à l'amélioration de la qualité des données échangées entre la production et les services d'ingénierie dédiés à la conception du produit et du système de production associé. Cette amélioration de la qualité des données passe par l'étude des interactions entre la gestion du cycle de vie du produit et la gestion de la production.Ces deux concepts étant supportés, tout ou partie, par des systèmes d'information industriels, l'étude de leurs interactions a ensuite conduit à l'intégration de ces systèmes d'information (PLM, ERP et MES). Dans un contexte de forte concurrence et de mondialisation, les entreprises sont obligées d'innover et de minimiser les coûts, notamment ceux de production. Face à ces enjeux, le volume des données de production et leur fréquence de modification ne cessent d'augmenter en raison de la réduction constante de la durée de vie et de mise sur le marché des produits, de la personnalisation accrue des produits et en n de la généralisation des démarches d'amélioration continue en production. La conséquence directe est alors la nécessité de formaliser et de gérer l'ensemble des données de production devant être fournies aux opérateurs de production et aux machines. Suite à une analyse du point de vue de la qualité des données pour chaque architecture existante démontrant ainsi leur incapacité à répondre à cette problématique, une architecture basée sur l'intégration des trois systèmes d'information directement impliqués dans la production (PLM, ERP et MES) a été proposée. Cette architecture nous a menés à deux sous-problématiques complémentaires qui sont respectivement la construction d'une architecture basée sur des Web Services permettant d'améliorer l'accessibilité, la sécurité et la complétude des données échangées, et la construction d'une architecture d'intégration, basée sur les ontologies, permettant d'offrir des mécanismes d'intégration basés sur la sémantique dans le but d'assurer la bonne interprétation des données échangées.Enfin, la maquette de l'outil logiciel supportant la solution proposée et permettant d'assurer l'intégration des données échangées entre ingénierie et production a été réalisée. / The research work contributes to improve the quality of data exchanged between the production and the engineering units which dedicated to product design and production system design. This improvement is qualified by studying the interactions between the product life cycle management and the production management. These two concepts are supported, wholly or partly by industrial information systems, the study of the interactions then lead to the integration of information systems (PLM, ERP and MES).In a highly competitive environment and globalization, companies are forced to innovate and reduce costs, especially the production costs. Facing with these challenges, the volume and frequency change of production data are increasing due to the steady reduction of the lifetime and the products marketing, the increasing of product customization and the generalization of continuous improvement in production. Consequently, the need to formalize and manage all production data is required. These data should be provided to the production operators and machines.After analysis the data quality for each existing architecture demonstrating the inability to address this problem, an architecture, based on the integration of three information systems involved in the production (PLM, ERP and MES) has been proposed. This architecture leads to two complementary sub-problems. The first one is the development of an architecture based on Web services to improve the accessibility, safety and completeness of data exchanged. The second is the integration architecture of integration based on ontologies to offer the integration mechanisms based on the semantics in order to ensure the correct interpretation of the data exchanged. Therefore, the model of the software tool supports the proposed solution and ensures that integration of data exchanged between engineering and production was carried out.
24

L'applicabilité du système de comptabilité nationale 1993 en Syrie / The applicability of the System of National Accounts 1993 in Syria

Maarof, Salman 14 December 2011 (has links)
Bien que le SCN 1993 ait été mis en place depuis plus de quinze ans, certains pays ne l'ont toujours pas mis en application, tandis que d'autres affirment l'appliquer sans qu'en réalité il ne le soit parfaitement.Les difficultés de la mise en œuvre du SCN 1993 s'expliquent par plusieurs raisons parmi lesquelles nous pouvons répertorier la disponibilité des sources de données et les bases de données.La Syrie n'a pas adapté le SCN 1993, et les comptes nationaux syriens sont aujourd'hui encore établis selon le SCN 1968.Dans notre recherche, nous avons analysé la qualité des données des comptes nationaux pour réaliser une application complète du SCN 1993 au département des comptes nationaux de Syrie.Ce système n'est certes pas en cours, mais l'application complète donnerait une réelle image de l'économie syrienne. Afin de réaliser cet objectif, et en profitant des expériences que nous offrent les autres pays, il était indispensable d'analyser la qualité des données de la comptabilité nationale produites au sein du département de la comptabilité nationale. Ce travail doit nous permettre de connaître la capacité de la Syrie à répondre aux recommandations du SCN 1993.Le SCN 2008 publié récemment, ne fait qu'approfondir le besoin d'adapter le système syrien au SCN. .Il est essentiel de garder à l'esprit que l'objectif n'est pas d'annoncer avec précipitation appliquer le système, mais il est urgent de produire et d'être capable de faire de vraies données et ainsi d'appliquer sainement le SCN.Cette recherche n'est pas un aboutissement mais se veut au contraire être le point de départ de d'une réflexion approfondie sur la refonte complète de la comptabilité nationale syrienne qui permettra de produire des données saines qui reflètent la réalité économique et permettent d'établir des stratégies économiques et de permettre le développement économique de la Syrie. / Although the SNA 1993 has been established for over fifteen years, some countries have still not yet implemented, while others pretend implementing it, without it being correctly applied.The difficulties in the implementation of the SNA 1993 are explained by a few main reasons among which we can identify the availability of data sources and databases.Syria has still not adopted the SNA 1993, and the Syrian national accounts are still set according to the 1968 SNA.In our research, we analyzed the quality of national accounts data to make a good applicability of the 1993 SNA of national accounts department of Syria.To achieve this goal, and taking advantage of the experiences that other countries offer us, it was necessary to analyze the quality of national accounts data produced in the department of the national accounts.The work should enable us to know our ability to respond to the recommendations of the system 93.The SNA 2008 has recently been published, however, we believe that when we are able to generate sound data, we will also be able to practice any developed system.It is essential to keep in mind that the goal is not to announce has only the implementation of the system. But it is urgent to produce and be able to do real data and to apply reasonably well the SNA.This research is not an end but will instead be the starting point of the national accounts, in order to produce sound data that reflect the reality of the economic in the future, for the establishment of economic strategies and economic development of Syria.
25

Apprentissage supervisé à partir des multiples annotateurs incertains / Supervised Learning from Multiple Uncertain Annotators

Wolley, Chirine 01 December 2014 (has links)
En apprentissage supervisé, obtenir les réels labels pour un ensemble de données peut être très fastidieux et long. Aujourd'hui, les récentes avancées d'Internet ont permis le développement de services d'annotations en ligne, faisant appel au crowdsourcing pour collecter facilement des labels. Néanmoins, le principal inconvénient de ces services réside dans le fait que les annotateurs peuvent avoir des niveaux d'expertise très hétérogènes. De telles données ne sont alors pas forcément fiables. Par conséquent, la gestion de l'incertitude des annotateurs est un élément clé pour l'apprentissage à partir de multiples annotateurs non experts. Dans cette thèse, nous proposons des algorithmes probabilistes qui traitent l'incertitude des annotateurs et la qualité des données durant la phase d'apprentissage. Trois modèles sont proposés: IGNORE permet de classer de nouvelles instances tout en évaluant les annotateurs en terme de performance d'annotation qui dépend de leur incertitude. X-IGNORE intègre la qualité des données en plus de l'incertitude des juges. En effet, X-IGNORE suppose que la performance des annotateurs dépend non seulement de leur incertitude mais aussi de la qualité des données qu'ils annotent. Enfin, ExpertS répond au problème de sélection d'annotateurs durant l'apprentissage. ExpertS élimine les annotateurs les moins performants, et se base ainsi uniquement sur les labels des bons annotateurs (experts) lors de l'étape d'apprentissage. De nombreuses expérimentations effectuées sur des données synthétiques et réelles montrent la performance et la stabilité de nos modèles par rapport à différents algorithmes de la littérature. / In supervised learning tasks, obtaining the ground truth label for each instance of the training dataset can be difficult, time-consuming and/or expensive. With the advent of infrastructures such as the Internet, an increasing number of web services propose crowdsourcing as a way to collect a large enough set of labels from internet users. The use of these services provides an exceptional facility to collect labels from anonymous annotators, and thus, it considerably simplifies the process of building labels datasets. Nonetheless, the main drawback of crowdsourcing services is their lack of control over the annotators and their inability to verify and control the accuracy of the labels and the level of expertise for each labeler. Hence, managing the annotators' uncertainty is a clue for learning from imperfect annotations. This thesis provides three algorithms when learning from multiple uncertain annotators. IGNORE generates a classifier that predict the label of a new instance and evaluate the performance of each annotator according to their level of uncertainty. X-Ignore, considers that the performance of the annotators both depends on their uncertainty and on the quality of the initial dataset to be annotated. Finally, ExpertS deals with the problem of annotators' selection when generating the classifier. It identifies experts annotators, and learn the classifier based only on their labels. We conducted in this thesis a large set of experiments in order to evaluate our models, both using experimental and real world medical data. The results prove the performance and accuracy of our models compared to previous state of the art solutions in this context.
26

Contributions à une nouvelle approche de Recherche d'Information basée sur la métaphore de l'impédance et illustrée sur le domaine de la santé / Contributions to a new information retrieving approach based on the impedance metaphor and illustrated on the health domain

Guemeida, Abdelbasset 16 October 2009 (has links)
Les récentes évolutions dans les technologies de l’information et de la communication, avec le développement de l’Internet, conduisent à l’explosion des volumes des sources de données. Des nouveaux besoins en recherche d’information émergent pour traiter l’information en relation aux contextes d’utilisation, augmenter la pertinence des réponses et l’usabilité des résultats produits, ainsi que les possibles corrélations entre sources de données, en rendant transparentes leurs hétérogénéités. Les travaux de recherche présentés dans ce mémoire apportent des contributions à la conception d’une Nouvelle Approche de Recherche d’Information (NARI) pour la prise de décision. NARI vise à opérer sur des grandes masses de données cataloguées, hétérogènes, qui peuvent être géo référencées. Elle est basée sur des exigences préliminaires de qualité (standardisation, réglementations), exprimées par les utilisateurs, représentées et gérées à l’aide des métadonnées. Ces exigences conduisent à pallier le manque de données ou leur insuffisante qualité, pour produire une information de qualité suffisante par rapport aux besoins décisionnels. En utilisant la perspective des utilisateurs, on identifie et/ou on prépare des sources de données, avant de procéder à l’étape d’intégration des contenus. L’originalité de NARI réside dans la métaphore de l’écart d’impédance (phénomène classique lorsque on cherche à connecter deux systèmes physiques hétérogènes). Cette métaphore, dont R. Jeansoulin est à l’origine, ainsi que l’attention portée au cadre réglementaire, en guident la conception. NARI est structurée par la dimension géographique (prise en compte de divers niveaux de territoires, corrélations entre plusieurs thématiques) : des techniques d’analyse spatiale supportent des tâches de la recherche d’information, réalisées souvent implicitement par les décideurs. Elle s’appuie sur des techniques d’intégration de données (médiation, entrepôts de données), des langages de représentation des connaissances et des technologies et outils relevant du Web sémantique, pour supporter la montée en charge, la généralisation et la robustesse théorique de l’approche. NARI est illustrée sur des exemples relevant de la santé / The recent developments in information and communication technologies along with the growth of the Internet have lead to the explosion of data source volumes. This has created many growing needs such as in information retrieval to: treat the information according to its usage context, to increase the relevance of answers and the usability of results, and to increase the potential correlations between results, which can be done by making the heterogeneities and source distribution transparent. Our contributions consist in designing a NARI (New Approach to Information Retrieval) for decision-making. NARI is designed to operate on large amounts of catalogued and heterogeneous data that can be geo-referenced. It is based on quality preliminary requirements expressed by users, which are represented and managed using metadata. These requirements lead to the lack of data or their insufficient quality in relation to decision-making needs. Using the users’ perspective, we identify and/or prepare the data sources, before integration step processing. NARI’s originality relies on the metaphor of the impedance mismatch (classical phenomenon when we try to connect two physical heterogeneous systems), due to R. Jeansoulin. This metaphor, as well as the attention paid to regulatory framework (standardization), guides the design of NARI. The geographical dimension structures NARI, taking into account various territorial levels, correlations between several themes. Thus, it takes advantage of spatial analysis techniques, by automating information retrieval tasks, often implicitly made by policy makers. NARI is based on data integration techniques (mediation, data warehouses), knowledge representation languages and a set of Semantic Web technologies and tools, adapted to support the scalability, robustness and generalization theory of the approach. NARI is illustrated on examples relevant to the health domain
27

Prise en compte des fluctuations spatio-temporelles pluies-débits pour une meilleure gestion de la ressource en eau et une meilleure évaluation des risques / Taking into account the space-time rainfall-discharge fluctuations to improve water resource management and risk assessment

Hoang, Cong Tuan 30 November 2011 (has links)
Réduire la vulnérabilité et accroître la résilience des sociétés d'aujourd'hui aux fortes précipitations et inondations exige de mieux caractériser leur très forte variabilité spatio-temporelle observable sur une grande gamme d'échelle. Nous mettons donc en valeur tout au long de cette thèse l'intérêt méthodologique d'une approche multifractale comme étant la plus appropriée pour analyser et simuler cette variabilité. Cette thèse aborde tout d'abord le problème de la qualité des données, qui dépend étroitement de la résolution temporelle effective de la mesure, et son influence sur l'analyse multifractale et la détermination de lois d'échelle des processus de précipitations. Nous en soulignons les conséquences pour l'hydrologie opérationnelle. Nous présentons la procédure SERQUAL qui permet de quantifier cette qualité et de sélectionner les périodes correspondant aux critères de qualité requise. Un résultat surprenant est que les longues chronologies de pluie ont souvent une résolution effective horaire et rarement de 5 minutes comme annoncée. Ensuite, cette thèse se penche sur les données sélectionnées pour caractériser la structure temporelle et le comportement extrême de la pluie. Nous analysons les sources d'incertitudes dans les méthodes multifractales « classiques » d'estimation des paramètres et nous en déduisons des améliorations pour tenir compte, par exemple, de la taille finie des échantillons et des limites de la dynamique des capteurs. Ces améliorations sont utilisées pour obtenir les caractéristiques multifractales de la pluie à haute résolution de 5 minutes pour plusieurs départements de la France (à savoir, les départements 38, 78, 83 et 94) et pour aborder la question de l'évolution des précipitations durant les dernières décennies dans le cadre du changement climatique. Cette étude est confortée par l'analyse de mosaïques radars concernant trois événements majeurs en région parisienne. Enfin, cette thèse met en évidence une autre application des méthodes développées, à savoir l'hydrologie karstique. Nous discutons des caractéristiques multifractales des processus de précipitation et de débit à différentes résolutions dans deux bassins versant karstiques au sud de la France. Nous analysons, en utilisant les mesures journalière, 30 minutes et 3 minutes, la relation pluie-débit dans le cadre multifractal. Ceci est une étape majeure dans la direction d'une définition d'un modèle multi-échelle pluie-débit du fonctionnement des bassins versants karstiques / To reduce vulnerability and to increase resilience of nowadays societies to heavy precipitations and floods require better understanding of their very strong spatio-temporal variability observable over a wide range of scales. Therefore, throughout this thesis we highlight the methodological interest of a multifractal approach as being most appropriate to analyze and to simulate such the variability. This thesis first discusses the problem of data quality, which strongly depends on the effective temporal resolution of the measurements, and its influence on multifractal analysis determining the scaling laws of precipitation processes. We emphasize the consequences for operational hydrology. We present the SERQUAL procedure that allows to quantify the data quality and to select periods corresponding to the required quality criteria. A surprising result is that long chronological series of rainfall often have an effective hourly data, rather than the pretended 5-minute rainfall data. Then, this thesis focuses on the selected data to characterize the temporal structure and extreme behaviour of rainfall. We analyze the sources of uncertainties of already "classical" multifractal methods for the parameter estimates, and we therefore developed their improvements considering e.g., the finite size of data samples and the limitation of sensor dynamics. These improvements are used to obtain proper multifractal characteristics of 5-minute high-resolution rainfall for several French departments (i.e., 38, 78, 83 and 94), and hence to raise the question of preicipitation evolution during the last decades in the context of climate change. This study is reinforced by the analysis of radar mosaics for three major events in the Paris region. Finally, this thesis highlights another application of the developed methods, i.e. for the karst hydrology. We discuss the multifractal characteristics of rainfall and runoff processes observed at the different resolutions in two karst watersheds on the south of France. Using daily, 30-minute and 3-minute measurements we analyse the rainfall-runoff relationships within the multifractal framework. This is a major step towards defining a rainfall-runoff multi-scale model of the karst watershed functioning
28

Amélioration de la qualité des données : correction sémantique des anomalies inter-colonnes / Improved data quality : correction of semantic inter-column anomalies

Zaidi, Houda 01 February 2017 (has links)
La qualité des données présente un grand enjeu au sein d'une organisation et influe énormément sur la qualité de ses services et sur sa rentabilité. La présence de données erronées engendre donc des préoccupations importantes autour de cette qualité. Ce rapport traite la problématique de l'amélioration de la qualité des données dans les grosses masses de données. Notre approche consiste à aider l'utilisateur afin de mieux comprendre les schémas des données manipulées, mais aussi définir les actions à réaliser sur celles-ci. Nous abordons plusieurs concepts tels que les anomalies des données au sein d'une même colonne, et les anomalies entre les colonnes relatives aux dépendances fonctionnelles. Nous proposons dans ce contexte plusieurs moyens de pallier ces défauts en nous intéressons à la performance des traitements ainsi opérés. / Data quality represents a major challenge because the cost of anomalies can be very high especially for large databases in enterprises that need to exchange information between systems and integrate large amounts of data. Decision making using erroneous data has a bad influence on the activities of organizations. Quantity of data continues to increase as well as the risks of anomalies. The automatic correction of these anomalies is a topic that is becoming more important both in business and in the academic world. In this report, we propose an approach to better understand the semantics and the structure of the data. Our approach helps to correct automatically the intra-column anomalies and the inter-columns ones. We aim to improve the quality of data by processing the null values and the semantic dependencies between columns.
29

La démographie des centenaires québécois : validation des âges au décès, mesure de la mortalité et composante familiale de la longévité

Beaudry-Godin, Mélissa 06 1900 (has links)
L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-delà de cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles. / The recent rise in the number of centenarians within low mortality countries has led to multiple studies conducted on longevity, and more specifically on its determinants and repercussions. Some are trying to identify genes that could be responsible for extreme longevity. Others are studying the social, economic and political impact of the rise in life expectancy and population aging, or questioning themselves about the existence of a biological limit to the human life span. In this thesis, we first study the demographic situation of centenarians from Quebec using aggregated data (census data, vital statistics, and population estimations). Then, we evaluate the quality of Quebec data at the oldest ages using the death records of centenarians belonging to the 1870-1894 birth cohorts. We are particularly interested in the mortality trajectories beyond 100 years old. Finally, we analyze the survival of siblings and parents of a semi-supercentenarians (105 years and over) sample in order to assess the familial component of longevity. The thesis is divided into three articles. In the first article, we study the evolution of the centenarian population from the 1920s in Quebec. With demographic indicators such as the centenarian ratio, the survival probabilities and the maximal age at death, we try to demonstrate the remarkable progress realised in old age mortality. We also analyze the determinants of the increase in the number of centenarians in Quebec. Among the factors identified, the improvement in late mortality is the main determinant of the increase of the number of centenarians in Quebec. The second article deals with the validation of the ages at death of French-Canadian centenarians born in Quebec between 1870-1894. The validation results confirm that Quebec data at the highest ages at death are of very good quality. Therefore, the measure of centenarian mortality based on all death records is representative of the true trends. The evolution of age-specific life table death rates beyond 100 years old assesses the mortality deceleration at the highest ages. Among men and women, the death rates reach a plateau at around 45%. Finally, in the third article, we study the familial predisposition for longevity. We compare the survival probabilities of siblings and parents of semi-supercentenarians deceased between 1995 and 2004 to those of their birth cohort-matched counterparts. The survival differences between the siblings and parents of semi-supercentenarians and their respective birth cohorts are statistically significant at a 0,01% level of significance. The siblings and parents have a 1,7 to 3 times greater probability of survival from age 50 to 90 then members of their respective birth cohorts. These findings support the existence of a substantial familial component to longevity.
30

Observation of a Higgs boson and measurement of its mass in the diphoton decay channel with the ATLAS detector at the LHC / Observation d’un boson de Higgs et mesure de sa masse dans le canal de désintégration en deux photons avec le détecteur ATLAS au LHC

Lorenzo Martinez, Narei 10 September 2013 (has links)
Le Modèle Standard de la physique des particules prédit l’existence d’un boson scalaire massif, appelé boson de Higgs dans la littérature, comme résultant d’un mécanisme de brisure spontanée de symétrie, qui permettrait de générer la masse des particules. Le boson de Higgs, dont la masse est inconnue théoriquement, est recherché expérimentalement depuis plusieurs décennies. L’expérience ATLAS, au collisionneur LHC, a aussi entrepris cette recherche, depuis le début des collisions de protons à haute énergie en 2010. Un des canaux de désintégrations les plus intéressants à étudier dans cet environnement est le canal en deux photons, car l’état final peut être intégralement reconstruit avec une grande précision. La réponse en énergie des photons est un point crucial dans la recherche du boson de Higgs, car une résonance fine émergeant d’un bruit de fond important est attendue. Dans cette thèse une étude approfondie de la réponse en énergie des photons en utilisant le calorimètre électromagnétique d’ATLAS a été faite. Ces études ont permis de mieux comprendre la résolution et l’échelle d’énergie des photons, et donc d’améliorer la sensibilité de l’analyse d’une part et de mieux estimer les incertitudes expérimentales sur la position du signal d’autre part. Le canal en deux photons a eu un rôle prépondérant dans la découverte d’une nouvelle particule compatible avec le boson de Higgs en Juillet 2012 par les expériences ATLAS et CMS. En utilisant ce canal ainsi que la meilleure compréhension de la réponse en énergie acquise au cours de cette thèse, une mesure de la masse du boson est proposée avec les données collectées durant les années 2011 et 2012 avec une énergie de centre de masse de 7 TeV et 8 TeV.Une masse de 126.8 +/- 0.2 (stat) +/- 0.7 (syst) GeV/c2 est trouvée. L’étalonnage de la mesure de l’énergie des photons avec le calorimètre électromagnétique est la plus grande source d’incertitude sur cette mesure. Une stratégie pour réduire cette erreur systématique sur la masse est discutée. / The Standard Model of the particle physics predicts the existence of a massive scalar boson, usually referred to as Higgs boson in the literature, as resulting from the Spontaneous Symmetry Breaking mechanism, needed to generate the mass of the particles. The Higgs boson whose mass is theoretically undetermined, is experimentally looked for since half a century by various experiments. This is the case of the ATLAS experiment at LHC which started taking data from high energy collisions in 2010. One of the most important decay channel in the LHC environment is the diphoton channel, because the final state can be completely reconstructed with high precision. The photon energy response is a key point in this analysis, as the signal would appear as a narrow resonance over a large background. In this thesis, a detailed study of the photon energy response, using the ATLAS electromagnetic calorimeter has been performed. This study has provided a better understanding of the photon energy resolution and scale, thus enabling an improvement of the sensitivity of the diphoton analysis as well as a precise determination of the systematic uncertainties on the peak position. The diphoton decay channel had a prominent role in the discovery of a new particle compatible with the Standard Model Higgs boson by the ATLAS and CMS experiments, that occurred in July 2012. Using this channel as well as the better understanding of the photon energy response, a measurement of the mass of this particle is proposed in this thesis, with the data collected in 2011 and 2012 at a center-of-mass energy of 7 TeV and 8 TeV. A mass of 126.8 +/- 0.2 (stat) +\- 0.7 (syst) GeV/c2 is found. The calibration of the photon energy measurement with the calorimeter is the source of the largest systematic uncertainty on this measurement. Strategies to reduce this systematic error are discussed.

Page generated in 0.4622 seconds