• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 305
  • 96
  • 41
  • 24
  • 17
  • 11
  • 9
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 614
  • 318
  • 204
  • 170
  • 140
  • 115
  • 102
  • 101
  • 88
  • 77
  • 65
  • 56
  • 55
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
511

Pr??valence et incidence de la douleur lombaire r??currente au Qu??bec : une perspective administrative

Beaudet, Nicolas January 2014 (has links)
R??sum?? : La douleur lombaire (DL) est l???une des conditions musculosquelettiques les plus fr??quentes et co??teuses au Canada. La pr??valence annuelle de DL aig??e varierait de 19 % ?? 57 %, et un patient sur quatre souffrirait de r??currence dans la m??me ann??e. La pr??sente ??tude vise donc ?? produire une analyse descriptive de l?????pid??miologie de la DL r??currente ?? l?????chelle de la population. Une nouvelle approche m??thodologique est propos??e afin d???optimiser l???identification de vrais cas incidents de DL r??currente ?? partir d???une analyse secondaire de donn??es administratives. Puisque 10 % des patients ayant de la DL seraient responsables de 80 % des co??ts qui y sont associ??s, nous avons ??galement d??termin?? la tendance s??culaire des co??ts d???interventions m??dicales des patients r??currents incidents entre 2003 et 2008. En utilisant le fichier des services m??dicaux r??mun??r??s ?? l???acte de la R??gie de l???assurance maladie du Qu??bec, des cohortes pr??valentes ont ??t?? construites ?? partir de 401 264 dossiers de patients ayant consult?? au moins trois fois pour de la DL entre 1999 et 2008. Onze ans d???historique m??dical des 81 329 patients de la cohorte de 2007 ont ensuite ??t?? analys??s afin d???exclure les patients ayant eu des consultations ant??rieures de DL. Une valeur pr??dictive positive et un coefficient de Kappa ??lev??s ont permis d???identifier une clairance optimale pour r??cup??rer les cas v??ritablement incidents. Les co??ts de consultations ont ensuite ??t?? calcul??s pour tous les patients incidents de 2003 ?? 2007 ?? partir des manuels de facturation. Nous avons observ?? une pr??valence annuelle de la DL r??currente de 1,64 % en 2000 chez les hommes diminuant ?? 1,33 % en 2007. Cette baisse a majoritairement eu lieu dans le groupe d?????ge des 35-59 ans. Les femmes ??g??es (> 65 ans) ??taient 1,4 fois plus ?? risque de consulter un m??decin de mani??re r??currente que les hommes du m??me ??ge. L???incidence annuelle de la DL en 2007 ??tait de 242 par 100 000 personnes. Les hommes de 18 ?? 34 ans ??taient 1,2 fois plus ?? risque que les femmes de d??velopper un premier ??pisode r??current et les personnes ??g??es 1,9 fois plus ?? risque que les jeunes. L???incidence annuelle a diminu?? de 12 % entre 2003 et 2007 pendant que les co??ts totaux augmentaient de 1,4 %. La m??diane des co??ts ??tait la plus ??lev??e chez les femmes ??g??es et tendait ?? augmenter dans le temps. Ces analyses secondaires sugg??rent de s???int??resser particuli??rement ?? la DL chez les personnes tr??s ??g??es, et de d??terminer si la baisse de fr??quence de consultations r??currentes observ??e dans le temps est li??e ?? une meilleure gestion de la DL ou ?? un probl??me d???accessibilit??. Les co??ts devraient faire l???objet d???un suivi continu pour limiter les hausses. // Abstract : Low back pain (LBP) is one of the most frequent and costly musculoskeletal health conditions in Canada. Annual prevalence was found to vary between 19 % and 57 % and likely one out of four patients experience a LBP recurrence within one year. The body of knowledge on the prevalence of recurrent LBP is still limited. This study sought to present a descriptive analysis on the epidemiology of recurrent LBP in a medical population. A new methodology is also proposed to identify true cases of incident recurrent LBP. Since 10 % of LBP patients have been reported to generate 80 % of the costs, we will sought to determine the secular trend of medical costs for the incident cohorts of 2003 to 2008. Using the Canadian province of Quebec medical administrative physicians??? claims database, 401 264 prevalent claims-based recurrent LBP patients were identified between 1999 to 2008 for having consulted at least three times for LBP in a period of 365 days. The medical history of 81 329 prevalent patients in 2007 was screened for a retrospective period of 11 years. High positive predictive values and Kappa statistics were used to determine the optimal clearance period for capturing true incidence cases among patients with no prior encounters for LBP. Physicians??? claims manuals were then used to apply a price for every intervention provided to LBP incident patients in their index year and follow-up years. We observed a decrease from 1.64 % to 1.33 % in the LBP annual prevalence between 2000 and 2007 for men. This decrease was mostly observed between 35 and 59 years of age. Older women (??? 65 years) were 1.4 times more at risk to consult a physician for LBP in a recurrent manner than older men. The annual incidence in 2007 of adult claims-based recurrent LBP was 242 per 100 000 persons. Males of 18 to 34 years of age were found 1.2 times more at risk than their counterparts. Altogether, elderlies were 1.9 times more at risk than young adults to consult in a recurrent manner for LBP. The annual incidence decreased by 12 % between 2003 and 2007, while the direct costs increase by 1.4 %. The median cost for consultations was highest for elder women and increasing in time. These secondary analyses emphasize the importance to keep the watch on the elders in regards to LBP, and to determine if the timely decrease in morbidity is related to improvements in LBP management or to a medical accessibility issue. Also, costs will need to be surveyed on a regular basis to limit the impact of future increases.
512

Modélisation de l'interprétation des pianistes & applications d'auto-encodeurs sur des modèles temporels

Lauly, Stanislas 04 1900 (has links)
Ce mémoire traite d'abord du problème de la modélisation de l'interprétation des pianistes à l'aide de l'apprentissage machine. Il s'occupe ensuite de présenter de nouveaux modèles temporels qui utilisent des auto-encodeurs pour améliorer l'apprentissage de séquences. Dans un premier temps, nous présentons le travail préalablement fait dans le domaine de la modélisation de l'expressivité musicale, notamment les modèles statistiques du professeur Widmer. Nous parlons ensuite de notre ensemble de données, unique au monde, qu'il a été nécessaire de créer pour accomplir notre tâche. Cet ensemble est composé de 13 pianistes différents enregistrés sur le fameux piano Bösendorfer 290SE. Enfin, nous expliquons en détail les résultats de l'apprentissage de réseaux de neurones et de réseaux de neurones récurrents. Ceux-ci sont appliqués sur les données mentionnées pour apprendre les variations expressives propres à un style de musique. Dans un deuxième temps, ce mémoire aborde la découverte de modèles statistiques expérimentaux qui impliquent l'utilisation d'auto-encodeurs sur des réseaux de neurones récurrents. Pour pouvoir tester la limite de leur capacité d'apprentissage, nous utilisons deux ensembles de données artificielles développées à l'Université de Toronto. / This thesis addresses the problem of modeling pianists' interpretations using machine learning, and presents new models that use temporal auto-encoders to improve their learning for sequences. We present previous work in the field of modeling musical expression, including Professor Widmer's statistical models. We then discuss our unique dataset created specifically for our task. This dataset is composed of 13 different pianists recorded on the famous Bösendorfer 290SE piano. Finally, we present the learning results of neural networks and recurrent neural networks in detail. These algorithms are applied to the dataset to learn expressive variations specific to a style of music. We also present novel statistical models involving the use of auto-encoders in recurrent neural networks. To test the limits of these algorithms' ability to learn, we use two artificial datasets developed at the University of Toronto.
513

Épidémiologie spatiale de la campylobactériose au Québec

Arsenault, Julie 08 1900 (has links)
La campylobactériose représente la principale cause de gastro-entérite bactérienne dans les pays industrialisés. L’épidémiologie de la maladie est complexe, impliquant plusieurs sources et voies de transmission. L’objectif principal de ce projet était d’étudier les facteurs environnementaux impliqués dans le risque de campylobactériose et les aspects méthodologiques pertinents à cette problématique à partir des cas humains déclarés au Québec (Canada) entre 1996 et 2006. Un schéma conceptuel des sources et voies de transmission de Campylobacter a d’abord été proposé suivant une synthèse des connaissances épidémiologiques tirées d’une revue de littérature extensive. Le risque d’une récurrence de campylobactériose a ensuite été décrit selon les caractéristiques des patients à partir de tables de survie et de modèles de régression logistique. Comparativement au risque de campylobactériose dans la population générale, le risque d’un épisode récurrent était plus élevé pour les quatre années suivant un épisode. Ce risque était similaire entre les genres, mais plus élevé pour les personnes de régions rurales et plus faible pour les enfants de moins de quatre ans. Ces résultats suggèrent une absence d’immunité durable ou de résilience clinique suivant un épisode déclaré et/ou une ré-exposition périodique. L’objectif suivant portait sur le choix de l’unité géographique dans les études écologiques. Neuf critères mesurables ont été proposés, couvrant la pertinence biologique, la communicabilité, l’accès aux données, la distribution des variables d’exposition, des cas et de la population, ainsi que la forme de l’unité. Ces critères ont été appliqués à des unités géographiques dérivées de cadre administratif, sanitaire ou naturel. La municipalité affichait la meilleure performance, étant donné les objectifs spécifiques considérés. Les associations entre l’incidence de campylobactériose et diverses variables (densité de volailles, densité de ruminants, abattoirs, température, précipitations, densité de population, pourcentage de diplomation) ont ensuite été comparées pour sept unités géographiques différentes en utilisant des modèles conditionnels autorégressifs. Le nombre de variables statistiquement significatives variait selon le degré d’agrégation, mais la direction des associations était constante. Les unités plus agrégées tendaient à démontrer des forces d’association plus élevées, mais plus variables, à l’exception de l’abattoir. Cette étude a souligné l’importance du choix de l’unité géographique d’analyse lors d’une utilisation d’un devis d’étude écologique. Finalement, les associations entre l’incidence de campylobactériose et des caractéristiques environnementales ont été décrites selon quatre groupes d’âge et deux périodes saisonnières d’après une étude écologique. Un modèle de Poisson multi-niveau a été utilisé pour la modélisation, avec la municipalité comme unité. Une densité de ruminant élevée était positivement associée avec l’incidence de campylobactériose, avec une force d’association diminuant selon l’âge. Une densité de volailles élevée et la présence d’un abattoir de volailles à fort volume d’abattage étaient également associées à une incidence plus élevée, mais seulement pour les personnes de 16 à 34 ans. Des associations ont également été détectées avec la densité de population et les précipitations. À l’exception de la densité de population, les associations étaient constantes entre les périodes saisonnières. Un contact étroit avec les animaux de ferme explique le plus vraisemblablement les associations trouvées. La spécificité d’âge et de saison devrait être considérée dans les études futures sur la campylobactériose et dans l’élaboration de mesures préventives. / Campylobacteriosis is a leading cause of acute bacterial gastro-enteritis in industrialized countries. The epidemiology of the disease is complex, involving many sources and transmission pathways. The principal objective of this project was to study environmental factors and methodological aspects pertinent to the spatial epidemiology of human campylobacteriosis using cases reported in Quebec (Canada) between 1996 and 2006. A conceptual diagram of sources and transmission pathways of Campylobacter was first proposed following a synthesis of current epidemiological knowledge based on a comprehensive literature review. The risk of recurrent episodes in relation to patient characteristics was described. Life table estimates and logistic regression were used for modeling. Compared to campylobacteriosis risk in the general population, the risk for a recurrent disease event was higher for a period of four years with a decreasing trend. This increased risk was similar across gender but higher for people from rural areas and lower for children under four years old. These results may suggest the absence of durable immunity or clinical resilience following a first episode and/or periodic re-exposure, at least among reported cases. Next, criteria were proposed and applied to ascertain the best geographical unit to use. Nine measurable criteria were proposed, including biological relevance, communicability of results, ease of data access, distribution of exposure variables, cases and population, and unit shape. These criteria were applied to various geographical units derived from administrative, health services and natural frameworks. Ultimately, the municipal geographical unit performed the best, given the specific objectives of the study. Future research areas for optimizing the choice of geographical unit were discussed. Another objective was to estimate and compare the associations between incidence and various environmental characteristics (poultry density, ruminant density, slaughterhouse, temperature, and precipitation) and demographic characteristics (population density, diploma) using seven different geographical units. Conditional autoregressive models were used for statistical modeling. In general, the number of significant predictors decreased as the aggregation level increased but directions of associations were consistent. More aggregated scales tended to show larger but more variable estimates for all variables, with the exception of the presence of slaughterhouses. This study highlighted the need for careful selection and analysis of geographical units when using ecological designs in epidemiological studies. Finally, the association between environmental characteristics and incidence in relation to four age groups and deux seasonal periods was studied. A multi-level Poisson regression model was used for modeling at the municipal level. High ruminant density was positively associated with incidence but decreased with age. High poultry density and presence of a large poultry slaughterhouse were also associated with higher incidence for people aged 16-34. Associations were also detected with population density and average daily precipitation. Except for population density, associations were constant across seasonal periods. Close contact with farm animals is most likely involved in the associations observed. Clearly, age and season must be considered in future studies on campylobacteriosis and in the design of preventive measures.
514

Réseaux de neurones à relaxation entraînés par critère d'autoencodeur débruitant

Savard, François 08 1900 (has links)
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte. / Machine learning is a vast field where we seek to learn parameters for models from concrete data. The goal will be to execute various tasks requiring abilities normally associated more with human intelligence than with a computer program, such as the ability to process high dimensional data containing a lot of variations. Artificial neural networks are a large class of such models. In some neural networks said to be deep, we can observe that high level (or "abstract") concepts are automatically learned. The work we present here takes its inspiration from deep neural networks, from recurrent networks and also from neuroscience of the visual system. Our test tasks are classification and denoising for near binary images. We aim to take advantage of a feedback mechanism through which high-level representations, that is to say relatively abstract concepts, can influence lower-level representations. This influence will happen during what we call relaxation, which is iterations where the different levels (or layers) of the model can influence each other. We will present two families of architectures based on this mechanism. One, the fully connected architecture, can in principle accept generic data. The other, the convolutional one, is specifically made for images. Both were trained on images, though, and mostly images of written characters. In one type of experiment, we want to reconstruct data that has been corrupted. In these tasks, we have observed the feedback influence phenomenon previously described by comparing the results we obtained with and without relaxation. We also note some numerical and visual improvement in terms of reconstruction performance when we add upper layers’ influence. In another type of task, classification, little gain has been noted. Still, in one setting where we tried to classify noisy data with a representation trained without prior class information, relaxation did seem to improve results significantly. The convolutional architecture, a bit more risky at first, was shown to produce numerical and visual results in reconstruction that are near those obtained with the fully connected version, even though the connectivity is much more constrained.
515

Subepithelial collagen content in the peripheral airways of heaves-affected and control horses

Setlakwe, Emilie L. 04 1900 (has links)
Chez les patients asthmatiques, on retrouve un remodelage de la matrice extracellulaire des poumons, caractérisé par une augmentation du collagène ou fibrose de la couche sous-épithéliale des voies respiratoires. Le souffle, maladie inflammatoire chronique des voies respiratoires inférieures des chevaux matures, présente des similarités physiopathologiques avec l’asthme humain, incluant le remodelage. Ceci nous conduit à l’hypothèse que la fibrose de la couche sous-épithéliale pourrait être une composante des lésions pulmonaires chez les chevaux affectés, ce que notre étude avait pour objectif d’évaluer. Des biopsies pulmonaires périphériques réalisées par voie thoracoscopique ont été obtenues chez 5 chevaux témoins et 6 chevaux atteints du souffle, avant (T0) et après une stimulation antigénique de 30 jours avec du foin moisi et de la paille. Avant le début de l’étude, les sujets étaient en rémission clinique et ne démontraient aucun signe clinique de maladie. Un examen microscopique des échantillons prélevés a été réalisé après traitement au picrosirius-rouge, colorant spécifique des fibres de collagène. La surface du collagène de la couche sous-épithéliale a été mesurée et corrigée en fonction de la taille de la voie respiratoire en utilisant des techniques morphométriques standards. Les chevaux atteints de souffle ont une surface de collagène plus grande dans la couche sous-épithéliale (p<0.1) en comparaison avec les chevaux témoins. La fibrose de la couche sous-épithéliale demeure inchangée chez les chevaux malades après la stimulation antigénique de 30 jours. À T0, la fibrose de la couche sous-épithéliale est associée positivement aux variations maximales de pression pleurale et à la résistance pulmonaire chez les chevaux atteints de souffle. Les résultats de cette étude suggèrent qu’une fibrose de la couche sous-épithéliale est présente dans les voies respiratoires périphériques des chevaux atteints de souffle et contribue au déficit de fonction résiduel pulmonaire observé lors de rémission clinique. / Extracellular matrix remodelling is present in the human asthmatic lung, and is characterized by increased collagen or fibrosis of the subepithelial area of the airway. Heaves, a naturally occurring chronic lower airway inflammatory condition in horses shares aspects of pathophysiology with asthma, including features of airway remodelling. We thus hypothesize that airway fibrosis is a characteristic of remodelling in heaves. The aim of this study was to evaluate the presence of fibrosis in the subepithelial area of the peripheral airways of heaves-affected horses. Peripheral lung biopsies acquired under thoracoscopic guidance were obtained from 5 control and 6 heaves-affected horses, both before (T0) and after a 30 day antigenic challenge with mouldy hay and straw. Prior to the study, diseased horses were in clinical remission and exhibited no clinical signs of disease. Obtained samples were microscopically examined using picrosirius-red, a collagen specific histological staining technique. Collagen area in the subepithelial layer, e.g. the region between the airway smooth muscle and the epithelial layer was measured, and corrected for airway size using standard morphometric techniques. In comparison with controls, heaves-affected horses had an increased collagen content in the airway subepithelial area (p<0.1). No change in fibrosis of the subepithelial area was observed in diseased horses after the 30 day antigenic challenge. Peripheral airway subepithelial collagen at baseline was positively associated with maximal changes in transpulmonary pressure and pulmonary resistance in horses with heaves but not in controls. Results of this study indicate that fibrosis of the subepithelial area is present in the peripheral airways of heaves-affected horses, and may play a role in residual lung function deficits observed in diseased horses even while in clinical remission.
516

Stochastic Modelling of Financial Processes with Memory and Semi-Heavy Tails

Pesee, Chatchai January 2005 (has links)
This PhD thesis aims to study financial processes which have semi-heavy-tailed marginal distributions and may exhibit memory. The traditional Black-Scholes model is expanded to incorporate memory via an integral operator, resulting in a class of market models which still preserve the completeness and arbitragefree conditions needed for replication of contingent claims. This approach is used to estimate the implied volatility of the resulting model. The first part of the thesis investigates the semi-heavy-tailed behaviour of financial processes. We treat these processes as continuous-time random walks characterised by a transition probability density governed by a fractional Riesz- Bessel equation. This equation extends the Feller fractional heat equation which generates a-stable processes. These latter processes have heavy tails, while those processes generated by the fractional Riesz-Bessel equation have semi-heavy tails, which are more suitable to model financial data. We propose a quasi-likelihood method to estimate the parameters of the fractional Riesz- Bessel equation based on the empirical characteristic function. The second part considers a dynamic model of complete financial markets in which the prices of European calls and puts are given by the Black-Scholes formula. The model has memory and can distinguish between historical volatility and implied volatility. A new method is then provided to estimate the implied volatility from the model. The third part of the thesis considers the problem of classification of financial markets using high-frequency data. The classification is based on the measure representation of high-frequency data, which is then modelled as a recurrent iterated function system. The new methodology developed is applied to some stock prices, stock indices, foreign exchange rates and other financial time series of some major markets. In particular, the models and techniques are used to analyse the SET index, the SET50 index and the MAI index of the Stock Exchange of Thailand.
517

Classifying Hate Speech using Fine-tuned Language Models

Brorson, Erik January 2018 (has links)
Given the explosion in the size of social media, the amount of hate speech is also growing. To efficiently combat this issue we need reliable and scalable machine learning models. Current solutions rely on crowdsourced datasets that are limited in size, or using training data from self-identified hateful communities, that lacks specificity. In this thesis we introduce a novel semi-supervised modelling strategy. It is first trained on the freely available data from the hateful communities and then fine-tuned to classify hateful tweets from crowdsourced annotated datasets. We show that our model reach state of the art performance with minimal hyper-parameter tuning.
518

Aide à la conception de chaînes logistiques humanitaires efficientes et résilientes : application au cas des crises récurrentes péruviennes / Resilient and efficient humanitarian supply chain design approach : application to recurrent peruvian disasters

Vargas Florez, Jorge 15 October 2014 (has links)
Chaque année, plus de 400 catastrophes naturelles frappent le monde. Pour aider les populations touchées, les organisations humanitaires stockent par avance de l’aide d’urgence dans des entrepôts. Cette thèse propose des outils d’aide à la décision pour les aider à localiser et dimensionner ces entrepôts. Notre approche repose sur la construction de scénarios représentatifs. Un scénario représente la survenue d’une catastrophe dont on connaît l’épicentre, la gravité et la probabilité d’occurrence. Cette étape repose sur l’exploitation et l’analyse de bases de données des catastrophes passées. La seconde étape porte sur la propagation géographique de la catastrophe et détermine son impact sur la population des territoires touchés. Cet impact est fonction de la vulnérabilité et de la résilience du territoire. La vulnérabilité mesure la valeur attendue des dégâts alors que la résilience estime la capacité à résister au choc et à se rétablir rapidement. Les deux sont largement déterminées par des facteurs économiques et sociaux, soit structurels (géographie, PIB…) ou politiques (existence d’infrastructure d’aide, normes de construction…). Nous proposons par le biais d’analyses en composantes principales (ACP) d’identifier les facteurs influents de résilience et de vulnérabilité, puis d’estimer le nombre de victimes touchées à partir de ces facteurs. Souvent, les infrastructures (eau, télécommunication, électricité, voies de communication) sont détruits ou endommagés par la catastrophe (ex : Haïti en 2010). La dernière étape a pour objectif d’évaluer les impacts logistiques en ce qui concerne : les restrictions des capacités de transport existant et la destruction de tout ou partie des stocks d’urgence. La suite de l’étude porte sur la localisation et le dimensionnement du réseau d’entrepôt. Nos modèles présentent l’originalité de tenir compte de la dégradation des ressources et infrastructures suite due à la catastrophe (dimension résilience) et de chercher à optimiser le rapport entre les coûts engagés et le résultat obtenu (dimension efficience). Nous considérons d’abord un scénario unique. Le problème est une extension d’un problème de location classique. Puis, nous considérons un ensemble de scénarios probabilisés. Cette approche est indispensable à la considération du caractère très incertain des catastrophes humanitaires. L’ensemble de ces contributions a été confronté à la réalité des faits dans le cadre d’une application au cas des crises récurrentes du Pérou. Ces crises, essentiellement dues aux tremblements de terre et aux inondations (El Niño), imposent la constitution d’un réseau logistique de premiers secours qui soit résilient et efficient. / Every year, more than 400 natural disasters hit the world. To assist those affected populations, humanitarian organizations store in advance emergency aid in warehouses. This PhD thesis provides tools for support decisions on localization and sizing of humanitarian warehouses. Our approach is based on the design of representative and realistic scenarios. A scenario expresses some disasters’ occurrences for which epicenters are known, as well as their gravity and frequency. This step is based on the exploitation and analysis of databases of past disasters. The second step tackles about possible disaster’s propagation. The objective consists in determining their impact on population on each affected area. This impact depends on vulnerability and resilience of the territory. Vulnerability measures expected damage values meanwhile resilience estimates the ability to withstand some shock and recover quickly. Both are largely determined by social and economic factors, being structural (geography, GDP, etc.) or political (establishment or not relief infrastructure, presence and strict enforcement of construction standards, etc.). We propose through Principal Component Analysis (PCA) to identify, for each territory, influential factors of resilience and vulnerability and then estimate the number of victims concerned using these factors. Often, infrastructure (water, telecommunications, electricity, communication channels) are destroyed or damaged by the disaster (e.g. Haiti in 2010). The last step aims to assess the disaster logistics impact, specifically those related to with: transportation flows capacity limitations and destruction of all or part of emergency relief inventories. The following of our study focuses on location and allocation of a warehouses’ network. The proposed models have the originality to consider potential resources and infrastructure degradation after a disaster (resilience dimension) and seek optimizing the equilibrium between costs and results (effectiveness dimension). Initially we consider a single scenario. The problem is an extension of classical location studies. Then we consider a set of probable scenarios. This approach is essential due to the highly uncertain character of humanitarian disasters. All of these contributions have been tested and validated through a real application case: Peruvian recurrent disasters. These crises, mainly due to earthquakes and floods (El Niño), require establishment of a first aid logistics network that should be resilient and efficient.
519

Rozpoznávání pojmenovaných entit pomocí neuronových sítí / Neural Network Based Named Entity Recognition

Straková, Jana January 2017 (has links)
Title: Neural Network Based Named Entity Recognition Author: Jana Straková Institute: Institute of Formal and Applied Linguistics Supervisor of the doctoral thesis: prof. RNDr. Jan Hajič, Dr., Institute of Formal and Applied Linguistics Abstract: Czech named entity recognition (the task of automatic identification and classification of proper names in text, such as names of people, locations and organizations) has become a well-established field since the publication of the Czech Named Entity Corpus (CNEC). This doctoral thesis presents the author's research of named entity recognition, mainly in the Czech language. It presents work and research carried out during CNEC publication and its evaluation. It fur- ther envelops the author's research results, which improved Czech state-of-the-art results in named entity recognition in recent years, with special focus on artificial neural network based solutions. Starting with a simple feed-forward neural net- work with softmax output layer, with a standard set of classification features for the task, the thesis presents methodology and results, which were later used in open-source software solution for named entity recognition, NameTag. The thesis finalizes with a recurrent neural network based recognizer with word embeddings and character-level word embeddings,...
520

Predictive models for career progression

Soliman, Zakaria 08 1900 (has links)
No description available.

Page generated in 0.1099 seconds