• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 503
  • 220
  • 97
  • 4
  • 3
  • 1
  • Tagged with
  • 825
  • 342
  • 198
  • 126
  • 121
  • 120
  • 109
  • 95
  • 91
  • 90
  • 87
  • 83
  • 80
  • 76
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Apprentissage non-supervisé de la morphologie des langues à l’aide de modèles bayésiens non-paramétriques / Unsupervised learning of natural language morphology using non-parametric bayesian models

Löser, Kevin 09 July 2019 (has links)
Un problème central contribuant à la grande difficulté du traitement du langage naturel par des méthodes statistiques est celui de la parcimonie des données, à savoir le fait que dans un corpus d'apprentissage donné, la plupart des évènements linguistiques n'ont qu'un nombre d'occurrences assez faible, et que par ailleurs un nombre infini d'évènements permis par une langue n'apparaitront nulle part dans le corpus. Les modèles neuronaux ont déjà contribué à partiellement résoudre le problème de la parcimonie en inférant des représentations continues de mots. Ces représentations continues permettent de structurer le lexique en induisant une notion de similarité sémantique ou syntaxique entre les mots. Toutefois, les modèles neuronaux actuellement les plus répandus n'offrent qu'une solution partielle au problème de la parcimonie, notamment par le fait que ceux-ci nécessitent une représentation distribuée pour chaque mot du vocabulaire, mais sont incapables d'attribuer une représentation à des mots hors vocabulaire. Ce problème est particulièrement marqué dans des langues morphologiquement riches, ou des processus de formation de mots complexes mènent à une prolifération des formes de mots possibles, et à une faible coïncidence entre le lexique observé lors de l’entrainement d’un modèle, et le lexique observé lors de son déploiement. Aujourd'hui, l'anglais n'est plus la langue majoritairement utilisée sur le Web, et concevoir des systèmes de traduction automatique pouvant appréhender des langues dont la morphologie est très éloignée des langues ouest-européennes est un enjeu important. L’objectif de cette thèse est de développer de nouveaux modèles capables d’inférer de manière non-supervisée les processus de formation de mots sous-jacents au lexique observé, afin de pouvoir de pouvoir produire des analyses morphologiques de nouvelles formes de mots non observées lors de l’entraînement. / A crucial issue in statistical natural language processing is the issue of sparsity, namely the fact that in a given learning corpus, most linguistic events have low occurrence frequencies, and that an infinite number of structures allowed by a language will not be observed in the corpus. Neural models have already contributed to solving this issue by inferring continuous word representations. These continuous representations allow to structure the lexicon by inducing semantic or syntactic similarity between words. However, current neural models only partially solve the sparsity issue, due to the fact that they require a vectorial representation for every word in the lexicon, but are unable to infer sensible representations for unseen words. This issue is especially present in morphologically rich languages, where word formation processes yield a proliferation of possible word forms, and little overlap between the lexicon observed during model training, and the lexicon encountered during its use. Today, several languages are used on the Web besides English, and engineering translation systems that can handle morphologies that are very different from western European languages has become a major stake. The goal of this thesis is to develop new statistical models that are able to infer in an unsupervised fashion the word formation processes underlying an observed lexicon, in order to produce morphological analyses of new unseen word forms.
222

Modélisation mathématique des interactions entre pathogènes chez l’hôte humain : Application aux virus de la grippe et au pneumocoque / Mathematical modelling of between-pathogen interactions in the human host : Application to the influenza viruses and pneumococcus

Arduin, Hélène 15 March 2018 (has links)
De nombreux pathogènes sont soupçonnés d'interagir entre eux lorsqu’ils circulent dans les populations humaines. L'effet de ces interactions entre pathogènes peut être synergique ou antagoniste. Les avancées technologiques récentes en microbiologie ont favorisé la multiplication des études sur les interactions entre pathogènes chez l’hôte humain, notamment au sein des voies respiratoires. En effet, ces interactions peuvent jouer un rôle dans la dynamique de transmission des pathogènes concernés et avoir un impact conséquent sur la santé publique. Néanmoins, hormis certains systèmes plus souvent étudiés comme l’interaction entre la grippe et le pneumocoque pour laquelle des hypothèses mécanistiques spécifiques ont été suggérées, les connaissances concernant les mécanismes biologiques à l’origine de ces interactions restent limitées. De ce fait, un nouveau champ d'étude se développe soulevant de nombreuses questions. Du point de vue de la modélisation épidémiologique, il est nécessaire de répondre aux questions suivantes : comment formaliser les mécanismes sous-jacents à ces interactions dans des modèles mathématiques ? Quelles sont les conséquences de ces interactions sur la dynamique des infections dans les populations ? Dans quelles conditions et avec quelles méthodes les détecter à partir de données écologiques d’incidence, telles que celles rapportées par les systèmes de surveillance ? L’objectif du présent travail de thèse est de répondre à ces questions à partir de méthodes de modélisation statistique et mathématique, en travaillant spécifiquement sur les interactions entre grippe et pneumocoque. Bien que peu utilisée dans ce contexte, la modélisation mathématique permet une approche globale de ces phénomènes car elle formalise le lien entre l’échelle individuelle où ils se produisent et l’échelle de la population à laquelle ils peuvent être détectés. Dans un premier temps, j’ai conçu et développé un nouveau modèle agent afin de simuler la propagation simultanée de deux pathogènes en interaction dans une population humaine. Ce modèle a permis d’étudier au niveau populationnel les conséquences des phénomènes complexes liés à ces interactions, formalisées au niveau individuel. Notamment, j’ai montré que différentes hypothèses sur les mécanismes d’interaction entre la grippe et le pneumocoque conduisaient à des dynamiques d’incidence spécifiques. Dans un second temps, j'ai simulé à partir du modèle agent précédent des données similaires à des données de surveillance, pour lesquelles les mécanismes d’interaction et leur intensité étaient contrôlés. Les méthodes statistiques et mathématiques classiquement employées dans la littérature ont été appliquées à ces données. Les résultats ont montré leur capacité à identifier des associations entre pathogènes à partir d'un certain seuil, variable selon les méthodes et les mécanismes d'interaction. Enfin, dans le cadre d’une collaboration avec le CNRP et Santé Publique France, nous avons proposé une nouvelle méthode d'analyse des interactions entre pathogènes à partir de séries temporelles, basée sur l’étude de leur saisonnalité. Cette méthode a permis d'identifier une association faible dans les données françaises de syndromes grippaux et infections invasives à pneumocoque sur la période 2000-2014. Ainsi, les résultats et développements issus de ce travail de thèse permettent, par une approche de modélisation mathématique, une meilleure compréhension de l’impact des interactions au sein de l’hôte sur la dynamique d’incidence au niveau populationnel. Du fait du grand nombre de facteurs impliqués (pathogènes, hôte, environnement), la co-circulation de pathogènes en interaction dans une population est un système complexe que la modélisation est particulièrement apte à appréhender. Une meilleure compréhension de ces phénomènes est un enjeu capital pour le futur, notamment quant au développement de mesures de santé publique globales visant à réduire le fardeau des maladies infectieuses. / Several pathogens have been suggested to interact with each other while circulating within human populations. These between-pathogen interactions may be synergistic, when one pathogen favours another, or antagonistic when one pathogen is detrimental to the other. Recent technological developments in the field of microbiology have created new opportunities for studying between-pathogen interactions within the human host, and particularly in the respiratory tract. These interactions may have dramatic consequences on the transmission dynamics of the implicated pathogens, and consequent public health impacts. However, despite some mechanistic hypotheses having been formulated, especially for the well-studied influenza-pneumococcus system, the underlying biological mechanisms are still poorly understood. This developing field raises numerous questions. From an epidemiological modelling perspective, how should these interaction mechanisms be formalized into models? How do these interactions impact the transmission dynamics and burden of the involved pathogens? Under which conditions, and with which methods can interactions be detected from ecological incidence data, classically reported from surveillance systems? The aim of this thesis is to address these questions using statistical and mathematical modelling tools, with a specific focus on the interaction between influenza and pneumococcus. While mathematical models have scarcely been used to address between-pathogen interactions, they are powerful tools that allow for a global approach by precisely formalizing the interactions at the individual scale and linking them to the population scale at which data are collected and phenomena observed. First, I conceived and developed a new agent-based model which simulates the co-circulation of two interacting pathogens in a human population. This model specifically formalizes between-pathogen interactions at the individual level, resulting in global dynamics at the population level. Notably, I demonstrated that different hypotheses regarding interaction mechanisms between influenza and pneumococcus lead to specific incidence dynamics and interaction burdens. Second, in order to construct in silico data mimicking surveillance data, I simulated a large number of interaction scenarios from the previous agent-based model. These simulated datasets were analysed using a variety of statistical and mathematical methods classically applied in between pathogen association studies. Results showed that all methods consistently detected between-pathogen associations as long as the simulated interaction strength remained above a threshold, which varied according to the method and the simulated interaction mechanism. Lastly, collaborating with the National Center for Pneumococcal Reference and Santé Publique France, we developed a new method to analyse between-pathogen interactions from incidence time series, based on the analysis of their seasonality patterns. By applying this method to French data of influenza-like illnesses and invasive pneumococcal diseases over the 2000-2014 period, we identified a small association, consistent with previous studies. The mathematical models developed and results presented in this thesis provide new understanding of the impact of between-pathogen interactions at the population level and the efficiency of available methods to assess them. Because the co-circulation of pathogens in populations is a complex system involving a large number of factors related to the pathogens, the host, and the environment, the development of mathematical models will be critical in the future. A better comprehension of these phenomena is of major importance as it may lead to new opportunities to reduce the public health burden of infectious diseases.
223

Analyse de données volumineuses dans le domaine du transport / Big data analysis in the field of transportation

Carel, Léna 08 February 2019 (has links)
L'objectif de cette thèse est de proposer de nouvelles méthodologies à appliquer aux données du transport public. En effet, nous sommes entourés de plus en plus de capteurs et d'ordinateurs générant d'énormes quantités de données. Dans le domaine des transports publics, les cartes sans contact génèrent des données à chaque fois que nous les utilisons, que ce soit pour les chargements ou nos trajets. Dans cette thèse, nous utilisons ces données dans deux buts distincts. Premièrement, nous voulions être capable de détecter des groupes de passagers ayant des habitudes temporelles similaires. Pour ce faire, nous avons commencé par utilisé la factorisation de matrices non-négatives comme un outil de pré-traitement pour la classification. Puis nous avons introduit l'algorithme NMF-EM permettant une réduction de la dimension et une classification de manière simultanée pour un modèle de mélange de distributions multinomiales. Dans un second temps, nous avons appliqué des méthodes de régression à ces données afin d'être capable de fournir une fourchette de ces validations probables. De même, nous avons appliqué cette méthodologie à la détection d'anomalies sur le réseau. / The aim of this thesis is to apply new methodologies to public transportation data. Indeed, we are more and more surrounded by sensors and computers generating huge amount of data. In the field of public transportation, smart cards generate data about our purchases and our travels every time we use them. In this thesis, we used this data for two purposes. First of all, we wanted to be able to detect passenger's groups with similar temporal habits. To that end, we began to use the Non-negative Matrix Factorization as a pre-processing tool for clustering. Then, we introduced the NMF-EM algorithm allowing simultaneous dimension reduction and clustering on a multinomial mixture model. The second purpose of this thesis is to apply regression methods on these data to be able to forecast the number of check-ins on a network and give a range of likely check-ins. We also used this methodology to be able to detect anomalies on the network.
224

Comment sortir de prison ? Le rôle des statistiques pénitentiaires dans la compréhension des comportements de récidive. / Getting Out of Jail ? How Prison Statistics can Help Us to Understand Recidivism Behaviors.

Henneguelle, Anaïs 30 November 2017 (has links)
Près de deux tiers des sortants de prison sont recondamnés durant les cinq années suivant leur libération. Ce constat simple interroge : peut-on imaginer des solutions au problème social de la récidive ? Quel peut être le rôle de l’économiste et du sociologue en la matière ? Comment sont construits ces chiffres et qu’omettent-ils de dire ? Combinant méthodes quantitatives et qualitatives, cette thèse examine la construction sociale des statistiques pénitentiaires. Elle apporte une contribution en matière de connaissance économétrique des comportements de récidive, mais aussi en matière de sociologie de la quantification et plus largement de sociologie et d’économie du droit. Elle mobilise également la théorie de l’économie des conventions.Dans la première partie, nous passons en revue la littérature économique existant au sujet de l’efficacité des sanctions pénales, avant de présenter une étude originale montrant que les condamnés ayant bénéficié d’un bracelet électronique récidivent moins ceteris paribus que ceux qui ont été incarcéré. Dans la seconde partie, nous plongeons dans la fabrique des statistiques pénitentiaires, c’est-à-dire dans les prisons : comment sont fabriquées les données que nous avons utilisées pour nos travaux économétriques ? Dans la troisième partie, nous explorons un autre angle mort des statistiques en nous intéressant au biais de sélection construit dans les tribunaux : comment les juges de l’application des peines choisissent-ils les bénéficiaires d’un aménagement de peine ? / About two third of ex-inmates are re-convicted during the five years following their release. This simple fact raises many questions: what can we do to fight recidivism? What role shold economists and sociologists play in this regard? How are these statistics established and what do they omit?Based on mixed methods, this thesis investigates the social construction of prison statistics. It contributes to econometrics in terms of recidivism behaviors, but also to the sociology of quantification and more broadly to law sociology and economics. It also uses the economics of convention theory.In the first part, we review the existing economic literature about the efficacity of penal sanctions. We then present an original study which shows that convicts who undergo electronic monitoring do re-offend less ceteris paribus than those who have been into jails. In the second part, analyse how prison statistics are established in detail: how is the data that we used in our econometric work created?In the third and last part, we explore another blind spot of the econometric method, namely selection bias. How do judges chose who will obtain an alternative to prison?
225

Some statistical results in high-dimensional dependence modeling / Contributions à l'analyse statistique des modèles de dépendance en grande dimension

Derumigny, Alexis 15 May 2019 (has links)
Cette thèse peut être divisée en trois parties.Dans la première partie, nous étudions des méthodes d'adaptation au niveau de bruit dans le modèle de régression linéaire en grande dimension. Nous prouvons que deux estimateurs à racine carrée, peuvent atteindre les vitesses minimax d'estimation et de prédiction. Nous montrons qu'une version similaire construite à parti de médianes de moyenne, peut encore atteindre les mêmes vitesses optimales en plus d'être robuste vis-à-vis de l'éventuelle présence de données aberrantes.La seconde partie est consacrée à l'analyse de plusieurs modèles de dépendance conditionnelle. Nous proposons plusieurs tests de l'hypothèse simplificatrice qu'une copule conditionnelle est constante vis-à-vis de son évènement conditionnant, et nous prouvons la consistance d'une technique de ré-échantillonage semi-paramétrique. Si la copule conditionnelle n'est pas constante par rapport à sa variable conditionnante, alors elle peut être modélisée via son tau de Kendall conditionnel. Nous étudions donc l'estimation de ce paramètre de dépendance conditionnelle sous 3 approches différentes : les techniques à noyaux, les modèles de type régression et les algorithmes de classification.La dernière partie regroupe deux contributions dans le domaine de l'inférence.Nous comparons et proposons différents estimateurs de fonctionnelles conditionnelles régulières en utilisant des U-statistiques. Finalement, nous étudions la construction et les propriétés théoriques d'intervalles de confiance pour des ratios de moyenne sous différents choix d'hypothèses et de paradigmes. / This thesis can be divided into three parts.In the first part, we study adaptivity to the noise level in the high-dimensional linear regression framework. We prove that two square-root estimators attains the minimax rates of estimation and prediction. We show that a corresponding median-of-means version can still attains the same optimal rates while being robust to outliers in the data.The second part is devoted to the analysis of several conditional dependence models.We propose some tests of the simplifying assumption that a conditional copula is constant with respect to its conditioning event, and prove the consistency of a semiparametric bootstrap scheme.If the conditional copula is not constant with respect to the conditional event, then it can be modelled using the corresponding Kendall's tau.We study the estimation of this conditional dependence parameter using 3 different approaches : kernel techniques, regression-type models and classification algorithms.The last part regroups two different topics in inference.We review and propose estimators for regular conditional functionals using U-statistics.Finally, we study the construction and the theoretical properties of confidence intervals for ratios of means under different sets of assumptions and paradigms.
226

Towards a better formalisation of the side-channel threat / Vers une meilleure formalisation des attaques par canaux cachés

Cherisey, Eloi de 18 December 2018 (has links)
Dans le cadre de la sécurité des systèmes embarqués, il est nécessaire de connaître les attaques logicielles et physiques pouvant briser la sécurité de composants cryptographiques garantissant l’intégrité, la fiabilité et la confidentialité des données. Etant donné que les algorithmes utilisés aujourd’hui comme Advanced Encryption Standard (AES) sont considérés comme résistants contre la cryptanalyse linéaire et différentielle, d’autres méthodes plus insidieuses sont utilisées pour récupérer les secrets de ces composants. En effet, la clé secrète utilisée pour le chiffrement de données peut fuiter pendant l’algorithme. Il est ainsi possible de mesurer cette fuite et de l’exploiter. Cette technique est appelée attaque par canal auxiliaire.Le principal objectif de ce manuscrit de thèse est de consolider les connaissances théoriques sur ce type de menace. Pour cela, nous appliquons des résultats de théorie de l’information à l’ étude par canal auxiliaire. Nous montrons ainsi comment il est possible de comparer un modèle de fuite par canal auxiliaire à un modèle de transmission de l’information. Dans un premier temps, nous montrons que la sécurité d’un composant est fortement dépendante du rapport signal à bruit de la fuite. Ce résultat a un impact fort car il ne dépend pas de l’attaque choisie. Lorsqu’un designer équipe son produit, il ne connaît pas encore la manière dont son système embarqué pourra être attaque plusieurs années plus tard. Les outils mathématiques proposés dans ce manuscrit pourront aider les concepteurs à estimer le niveau de fiabilité de leurs puces électroniques. / In the field of the security of the embeded systems, it is necessary to know and understandthe possible physical attacks that could break the security of cryptographic components. Sincethe current algorithms such as Advanced Encryption Standard (AES) are very resilient agaisntdifferential and linear cryptanalysis, other methods are used to recover the secrets of thesecomponents. Indeed, the secret key used to encrypt data leaks during the computation of thealgorithm, and it is possible to measure this leakage and exploit it. This technique to recoverthe secret key is called side-channel analysis.The main target of this Ph. D. manuscript is to increase and consolidate the knowledge onthe side-channel threat. To do so, we apply some information theoretic results to side-channelanalysis. The main objective is show how a side-channel leaking model can be seen as acommunication channel.We first show that the security of a chip is dependant to the signal-to-noise ratio (SNR) ofthe leakage. This result is very usefull since it is a genereic result independant from the attack.When a designer builds a chip, he might not be able to know in advance how his embededsystem will be attacked, maybe several years later. The tools that we provide in this manuscriptwill help designers to estimated the level of fiability of their chips.
227

Probing Cosmology with the homogeneity scale of the universe through large scale structure surveys / Test de la cosmologie via l'échelle de transition vers l'homogénéité au travers des relevés des grandes structures dans l'Univers

Ntelis, Pierros 28 September 2017 (has links)
Cette thèse présente ma contribution à la mesure de l’échelle d’homogénéité à l’aide de galaxies, avec l’interprétation cosmologique des résultats. En physique, tout modèle est constitué par un ensemble de principes. La plupart des modèles de cosmologie sont basés sur le principe cosmologique, qui indique que l’univers est statistiquement homogène et isotrope à grande échelle. Aujourd’hui, ce principe est considéré comme vrai car il est respecté par ces modèles cosmologiques qui décrivent avec précision les observations. Cependant, l’isotropie de l’univers est maintenant confirmée par de nombreuses expériences, mais ce n’est pas le cas pour l’homogénéité. Pour étudier l’homogénéité cosmique, nous proposons un postulat d’homogénéité cosmique. Depuis 1998, les mesures des distances cosmiques à l’aide de supernovae de type Ia, nous savons que l’univers est maintenant en phase d’expansion accélérée. Ce phénomène s’explique par l’ajout d’une composante énergétique inconnue, appelée énergie sombre. Puisque l’énergie noire est responsable de l’expansion de l’univers, nous pouvons étudier ce fluide mystérieux en mesurant le taux d’expansion de l’univers. L’échelle d’oscillation acoustique Baryon (BAO). En mesurant cette échelle à différents moments de la vie de notre univers, il est alors possible de mesurer le taux d'expansion de l’univers et donc de caractériser cette énergie sombre. Alternativement, nous pouvons utiliser l’échelle d’homogénéité pour étudier cette énergie sombre. L’étude l’échelle de l’homogénéité et l’échelle BAO réclament l’étude statistique du regroupement de la matière de l’univers à grandes échelles, supérieure à plusieurs dizaines de Megaparsecs. Les galaxies et les quasars sont formés dans les vastes surdensités de la matière et ils sont très lumineuses: ces sources tracent la distribution de la matière. En mesurant les spectres d’émission de ces sources en utilisant de larges études spectroscopiques, telles que BOSS et eBOSS, nous pouvons mesurer leurs positions. Il est possible de reconstruire la distribution de la matière en trois dimensions en volumes gigantesques. Nous pouvons ensuite extraire divers observables statistiques pour mesurer l’échelle BAO et l’échelle d’homogénéité de l’univers. En utilisant les catalogues de diffusion de données 12 de la version 12 de données, nous avons obtenu une précision sur l’échelle d’homogénéité réduite de 5 par rapport la mesure de WiggleZ. À grande échelle, l’univers est remarquablement bien décrit en ordre linéaire selon le modèle LCDM, le modèle standard de la cosmologie. En général, il n’est pas nécessaire de prendre en compte les effets non linéaires qui compliquent le modèle à petites échelles. D’autre part, à grande échelle, la mesure de nos observables devient très sensible aux effets systématiques. Ceci est particulièrement vrai pour l’analyse de l’homogénéité cosmique, qui nécessite une méthode d’observation. Afin d’étudier le principe d’homogénéité d’une manière indépendante du modèle, nous explorons une nouvelle façon d’inférer des distances en utilisant des horloges cosmiques et SuperNovae de type Ia. C'est la théorie la plus couramment utilisée dans le domaine des hypothèses astrophysiques / This thesis exposes my contribution to the measurement of homogeneity scale using galaxies, with the cosmological interpretation of results. In physics, any model is characterized by a set of principles. Most models in cosmology are based on the Cosmological Principle, which states that the universe is statistically homogeneous and isotropic on a large scales. Today, this principle is considered to be true since it is respected by those cosmological models that accurately describe the observations. However, while the isotropy of the universe is now confirmed by many experiments, it is not the case for the homogeneity. To study cosmic homogeneity, we propose to not only test a model but to test directly one of the postulates of modern cosmology. Since 1998 the measurements of cosmic distances using type Ia supernovae, we know that the universe is now in a phase of accelerated expansion. This phenomenon can be explained by the addition of an unknown energy component,which is called dark energy. Since dark energy is responsible for the expansion of the universe, we can study this mysterious fluid by measuring the rate of expansion of the universe. Nature does things well: the universe has imprinted in its matter distribution a standard ruler, the Baryon Acoustic Oscillation (BAO) scale. By measuring this scale at different times in the life of our universe, it is then possible to measure the rate of expansion of the universe and thus characterize this dark energy. Alternatively, we can use the homogeneity scale to study this dark energy. Studying the homogeneity and the BAO scale requires the statistical study of the matter distribution of the universe at large scales, superior to tens of Megaparsecs. Galaxies and quasars are formed in the vast overdensities of matter and they are very luminous: these sources trace the distribution of matter. By measuring the emission spectra of these sources using large spectroscopic surveys, such as BOSS and eBOSS, we can measure their positions. It is thus possible to reconstruct the distribution of matter in 3 dimensions in gigantic volumes. We can then extract various statistical observables to measure the BAO scale and the scale of homogeneity of the universe. Using Data Release 12 CMASS galaxy catalogs, we obtained precision on the homogeneity scale reduced by 5 times compared to WiggleZ measurement. At large scales, the universe is remarkably well described in linear order by the ΛCDM-model, the standard model of cosmology. In general, it is not necessary to take into account the nonlinear effects which complicate the model at small scales. On the other hand, at large scales, the measurement of our observables becomes very sensitive to the systematic effects. This is particularly true for the analysis of cosmic homogeneity, which requires an observational method so as not to bias the measurement In order to study the homogeneity principle in a model independent way, we explore a new way to infer distances using cosmic clocks and type Ia SuperNovae. This establishes the Cosmological Principle using only a small number of a priori assumption, i.e. the theory of General Relativity and astrophysical assumptions that are independent from Friedmann Universes and in extend the homogeneity assumption
228

Développement et comparaison de modèles d'appariement personne-environnement effectués auprès de personnes ayant une déficience intellectuelle en démarche d'intégration socioprofessionnelle

Chiocchio, François January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
229

Portrait économique de l'industrie chimique canadienne

Kambou, Moses Kwadwo 09 November 2022 (has links)
Dans ce mémoire, nous brossons un portrait économique de l'industrie chimique canadienne. À l'aide des données de Statistique Canada, nous réalisons un tableau des ressources et des emplois de l'industrie chimique qui fait ressortir les interactions entre les différents acteurs du secteur. Il ressort de cela que les principaux clients de l'industrie chimique sont les autres industries, à l'exception de produits comme les savons qui sont principalement consommés par les ménages. Nos résultats nous montrent également que le secteur chimique est l'un des principaux secteurs manufacturiers canadiens en termes de revenus de la production, de valeur ajoutée, mais aussi un des plus actifs sur le plan de la recherche et du développement. / In this paper, we paint an economic portrait of the Canadian chemical industry. Using data from Statistics Canada, we produce a supply and use table of the chemical industry that highlights the interactions between the various players in the sector. We find that the chemical industry's main customers are other industries, except for products such as soaps, which are mainly consumed by households. Our results also show that the chemical sector is one of the main Canadian manufacturing sectors in terms of production revenues and value added, but also one of the most active in terms of research and development.
230

Quantitative risk analysis for linear infrastructure supported by permafrost : methodology and computer program

Brooks, Heather 31 October 2019 (has links)
Le pergélisol est omniprésent dans l’Arctique et l’Antarctique, et il est présent en haute altitude partout dans le monde. Les communautés et le développement industriel des régions pergélisolées ont besoin d’infrastructures de transport (routes, aéroports, chemins de fer, etc.), sachant que le transport y revêt une importance vitale au niveau social, économique et politique (Regehr, Milligan et Alfaro 2013). Toutefois, les changements climatiques auront des répercussions sur les infrastructures de transport existantes et futures en Alaska de l’ordre de 282 à 550 M$ (2015 USD), selon les scénarios d’émissions (Melvin et al. 2016). Vu ces conditions, des outils sont nécessaires pour aider les décideurs à prioriser l’entretien, le remplacement et la construction des infrastructures, et potentiellement justifier l’utilisation des stratégies de mitigation pour les remblais sur pergélisol. Des méthodes d’analyse de risque peuvent être utilisées, mais leur application en ingénierie du pergélisol est actuellement limitée. Le risque est un produit du hasard, de la conséquence et de la vulnérabilité pour chacun des dangers considérés. La probabilité et le coût de l’occurrence d’un danger sont respectivement un hasard et une conséquence, tandis que la vulnérabilité corrèle le dommage possible avec la conséquence. Comme il existe peu de données de défaillance pour les installations sur pergélisol, le risque doit être déterminé à l’aide des méthodes d’analyse de fiabilité (premier-ordre deuxièmemoment ou simulations de Monte Carlo), qui intègrent les incertitudes des paramètres d’entrée pour déterminer la variabilité des résultats. Ces méthodes exigent la caractérisation de l’incertitude des variables aléatoires, ce qui peut être difficile en l’absence de données suffisantes, souvent plus que nécessaire dans la pratique actuelle. En outre, ces méthodes d’analyse de fiabilité exigent une fonction d’état limite pour que le danger soit analysé. Les dangers communs qui affectent les remblais sur pergélisol incluent : le tassement, la fissuration, la rupture soudaine, le déplacement latéral du remblai, le drainage et l’accumulation d’eau en pied de remblai, et les glissements de la couche active. Parmi ces dangers, seuls quelques-uns ont des fonctions d’état limite déterminées ou qui peuvent être approfondies par l’auteure. Les dangers associés à ces fonctions d’état limite ou de hasard comprennent : les tassements totaux et différentiels au dégel, la formation d’arche par le positionnement de particules audessus de cavité, les glissements de la couche active, la rupture de la pente du ponceau et l’affaissement de la structure du ponceau. Un programme a été créé sur le logiciel Excel pour calculer le risque des installations linéaires construites sur un remblai de pergélisol en utilisant les méthodes statistiques appliquées aux fonctions d’état limite afin de déterminer les dangers communs aux infrastructures sur pergélisol, ainsi que d'estimer les coûts directs de réparation et les facteurs d’échelle permettant de tenir compte des coûts indirects des dommages causés aux utilisateurs de l’infrastructure et aux communautés concernées. Les calculs des risques sont basés sur les propriétés géotechniques et l’incertitude climatique, telles que caractérisées par des fonctions de densité de probabilité, en utilisant les méthodes statistiques de simulations de Monte Carlo. Une analyse de la fragilité du réchauffement climatique permet de recalculer les dangers à partir des variations des températures de l’air. Les analyses répétées le long de l’infrastructure fournissent un profil de risque actuel ainsi qu'un profil tenant compte du réchauffement climatique. Le programme a servi à déterminer les dangers pour la route d’accès à l’aéroport de Salluit, et l'évaluation des dangers, des risques et de la rentabilité a été effectuée pour l’aéroport international d’Iqaluit / Permafrost is ubiquitous in the Arctic and Antarctic, and present in high elevation regions throughout the world. The communities and industrial development in permafrost regions require transportation infrastructures (roadways, airports, railways, etc.) and, in these regions, transportation is of vital social, economic, and political importance (Regehr, Milligan, and Alfaro 2013). However, warming climate conditions will endanger existing and future transportation infrastructure in Alaska to the tune of $282 to $550 million (2015 USD) depending on future emission scenarios (Melvin et al. 2016). Given these conditions, tools are required to aid decisionmakers in prioritizing infrastructure maintenance, replacement, and construction, and potentially justifying the use of mitigation strategies of permafrost embankments. Risk analysis methods can be used but their existing application to permafrost engineering is limited. Risk is a product of hazard, consequence and vulnerability for each of the dangers under consideration. The probability and costs of a danger’s occurrence is a hazard and the consequence, respectively, while vulnerability correlated the damage with the consequence. Since little failure data is available for permafrost infrastructure, the hazard must be determined from reliability analysis methods (First-Order Second-Moment or Monte Carlo Simulation), which aggregate the uncertainty of input parameters to determine the result’s variation. These methods require the characterization of random variable uncertainty, which can be difficult without sufficient data, often more than the current standard-of-practice. Additionally, the method requires a limit state function for the danger to be analyzed. Common dangers effecting permafrost embankment infrastructure included: settlement, cracking, sudden collapse, lateral embankment spreading, drainage and ponding water, and active layer detachment landslides. Of these dangers, only a few have existing limit state functions or have limit state functions that can be developed by the author. The dangers with limit state functions or hazard functions include: total and differential thaw settlement, particle position bridging over voids, active layer detachment landslides, and culvert gradient and structural failure. A Microsoft Excel-based program was created to calculate the risk for permafrost embankment linear infrastructure, using statistical methods applied to limit state functions to determine hazards for common permafrost dangers, estimated direct costs for the repair of a hazard’s occurrence, and scaling factors to account for the indirect costs of damage to the infrastructure’s users and connected communities. Hazard calculations are based on geotechnical property and climate uncertainty, as characterized by probability density functions, using Monte Carlo Simulation methods. A climate change fragility analysis recalculates the hazard with warming air temperatures. Repeated analyses along the infrastructure provide a risk profile of the infrastructure, now and with a warming climate. The program is used to determine hazard for the Airport Access Road in Salluit, and hazard, risk and cost/benefit assessments were conducted using this program for the Iqaluit International Airport.

Page generated in 0.0369 seconds