• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 164
  • 61
  • 13
  • 1
  • Tagged with
  • 238
  • 166
  • 117
  • 83
  • 77
  • 66
  • 58
  • 38
  • 35
  • 33
  • 33
  • 26
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Aide à la conception de chaînes logistiques humanitaires efficientes et résilientes : application au cas des crises récurrentes péruviennes / Resilient and efficient humanitarian supply chain design approach : application to recurrent peruvian disasters

Vargas Florez, Jorge 15 October 2014 (has links)
Chaque année, plus de 400 catastrophes naturelles frappent le monde. Pour aider les populations touchées, les organisations humanitaires stockent par avance de l’aide d’urgence dans des entrepôts. Cette thèse propose des outils d’aide à la décision pour les aider à localiser et dimensionner ces entrepôts. Notre approche repose sur la construction de scénarios représentatifs. Un scénario représente la survenue d’une catastrophe dont on connaît l’épicentre, la gravité et la probabilité d’occurrence. Cette étape repose sur l’exploitation et l’analyse de bases de données des catastrophes passées. La seconde étape porte sur la propagation géographique de la catastrophe et détermine son impact sur la population des territoires touchés. Cet impact est fonction de la vulnérabilité et de la résilience du territoire. La vulnérabilité mesure la valeur attendue des dégâts alors que la résilience estime la capacité à résister au choc et à se rétablir rapidement. Les deux sont largement déterminées par des facteurs économiques et sociaux, soit structurels (géographie, PIB…) ou politiques (existence d’infrastructure d’aide, normes de construction…). Nous proposons par le biais d’analyses en composantes principales (ACP) d’identifier les facteurs influents de résilience et de vulnérabilité, puis d’estimer le nombre de victimes touchées à partir de ces facteurs. Souvent, les infrastructures (eau, télécommunication, électricité, voies de communication) sont détruits ou endommagés par la catastrophe (ex : Haïti en 2010). La dernière étape a pour objectif d’évaluer les impacts logistiques en ce qui concerne : les restrictions des capacités de transport existant et la destruction de tout ou partie des stocks d’urgence. La suite de l’étude porte sur la localisation et le dimensionnement du réseau d’entrepôt. Nos modèles présentent l’originalité de tenir compte de la dégradation des ressources et infrastructures suite due à la catastrophe (dimension résilience) et de chercher à optimiser le rapport entre les coûts engagés et le résultat obtenu (dimension efficience). Nous considérons d’abord un scénario unique. Le problème est une extension d’un problème de location classique. Puis, nous considérons un ensemble de scénarios probabilisés. Cette approche est indispensable à la considération du caractère très incertain des catastrophes humanitaires. L’ensemble de ces contributions a été confronté à la réalité des faits dans le cadre d’une application au cas des crises récurrentes du Pérou. Ces crises, essentiellement dues aux tremblements de terre et aux inondations (El Niño), imposent la constitution d’un réseau logistique de premiers secours qui soit résilient et efficient. / Every year, more than 400 natural disasters hit the world. To assist those affected populations, humanitarian organizations store in advance emergency aid in warehouses. This PhD thesis provides tools for support decisions on localization and sizing of humanitarian warehouses. Our approach is based on the design of representative and realistic scenarios. A scenario expresses some disasters’ occurrences for which epicenters are known, as well as their gravity and frequency. This step is based on the exploitation and analysis of databases of past disasters. The second step tackles about possible disaster’s propagation. The objective consists in determining their impact on population on each affected area. This impact depends on vulnerability and resilience of the territory. Vulnerability measures expected damage values meanwhile resilience estimates the ability to withstand some shock and recover quickly. Both are largely determined by social and economic factors, being structural (geography, GDP, etc.) or political (establishment or not relief infrastructure, presence and strict enforcement of construction standards, etc.). We propose through Principal Component Analysis (PCA) to identify, for each territory, influential factors of resilience and vulnerability and then estimate the number of victims concerned using these factors. Often, infrastructure (water, telecommunications, electricity, communication channels) are destroyed or damaged by the disaster (e.g. Haiti in 2010). The last step aims to assess the disaster logistics impact, specifically those related to with: transportation flows capacity limitations and destruction of all or part of emergency relief inventories. The following of our study focuses on location and allocation of a warehouses’ network. The proposed models have the originality to consider potential resources and infrastructure degradation after a disaster (resilience dimension) and seek optimizing the equilibrium between costs and results (effectiveness dimension). Initially we consider a single scenario. The problem is an extension of classical location studies. Then we consider a set of probable scenarios. This approach is essential due to the highly uncertain character of humanitarian disasters. All of these contributions have been tested and validated through a real application case: Peruvian recurrent disasters. These crises, mainly due to earthquakes and floods (El Niño), require establishment of a first aid logistics network that should be resilient and efficient.
182

Analyse par ToF-SIMS de matériaux fragiles pour les micro/nanotechnologies : évaluation et amplification de l'information chimique / ToF-SIMS characterisation of fragile materials used in microelectronic and microsystem devices : validation and enhancement of the chemical information

Scarazzini, Riccardo 04 July 2016 (has links)
Aujourd’hui, une grande variété de matériaux dit « fragiles » sont intégrés dans des dispositifs micro ou nanotechnologiques. Ces matériaux sont définissables comme « fragiles » en raison de leur forme, de leur dimension ou encore de leur densité. Dans ce travail, trois catégories de matériaux, de différents niveaux de maturités industrielle et technologique, ont été étudiés par spectrométrie de masse des ions secondaires à temps du vol (ToF-SIMS). Ces matériaux sont: du silicium méso-poreux, des polyméthacrylates déposés en couches très minces par voie chimique en phase vapeur initiée (iCVD) et des matériaux organosilicates (SiOCH) à basse constante diélectrique (low-k). L’objectif de ce travail est de vérifier et de valider la méthode ToF-SIMS comme une technique fiable pour répondre aux besoins de caractérisation chimique rencontrés pas ces matériaux Il s’agit également d’établir la cohérence de l’information chimique produite par l’interprétation de l’interaction ion/matière se déroulant lors de l’analyse. Pour le silicium méso-poreux, les échantillons ont été pulvérisés par différentes sources primaires d’ions (Césium, Xénon, Oxygène) et l’information secondaire générée comme, par exemple, les différences d’ionisation entre la couche poreuse et le matériau dense ont été analysées, notamment vis de l’énergie du faisceau de pulvérisation mais aussi du taux de porosité du matériau cible. Des modifications morphologiques significativement différentes selon la source d’ions ont également été observées et ont été corrélées à différents types de régime de pulvérisation, principalement induits par le taux de porosité de la cible.Concernant la caractérisation de polymères en couches minces, des conditions d’abrasion très peu agressives, notamment l’usage d’ions d’argon en cluster polyatomiques, ont été appliquées avec l’intention d’obtenir une information chimique secondaire riche en hautes masses moléculaires. La discrimination de films de polyméthacrylate avec une structure chimique quasi-identique a pu être obtenue et un protocole de quantification de copolymères proposé. De plus, par l’utilisation de la méthode d’analyse de données en composantes principales (PCA) appliquée aux spectres,une corrélation claire a été établie entre les composantes principales et la masse moléculaire des films de polymères.Enfin l’impact de traitements d’intégration tels que de la gravure ou du nettoyage chimique, nécessaires à la mise en œuvre industrielle des matériaux low-k, mais défavorables à leurs propriétés diélectriques, a été étudié. Pour obtenir une information chimique résolue en profondeur, l’abrasion par césium à basse énergie a été identifiée comme la stratégie la plus sensible et la plus adaptée. De même, la PCA a permis d’amplifier significativement les différences chimiques entre échantillons, permettant de rapprocher les variations de constante diélectrique aux compositions chimiques / Nowadays, the micro and nanotechnology field integrates a wide range of materials that can be defined as “fragile” because of their shape, dimension or density. In this work, three materials of this kind, at different level of technological and industrial maturity are studied by time of flight secondary ion mass spectrometry (ToF-SIMS). These materials are: mesoporous silicon, thin polymethacrylate films deposited by initiated Chemical Vapour Deposition (i-CVD)and hybrid organosilicate (SiOCH) dielectric materials (low-k). The objective is to verify and validate the ToF-SIMS as a reliable characterisation technique for describing the chemical properties of these materials. Indeed, because of this intrinsic ‘fragility’ the consistency of the chemical information is connected to an appropriate interpretation of the specific ion/matter interactions taking place.For mesoporous silicon, a systematic analysis is carried out considering various sputtering ion sources (Caesium, Xenon and Oxygen); both sputtering and ionisation behaviours are examined relatively to the nonporous silicon, taking into account energy of the sputtering beam and porosity rate of the target material.Concerning nanometric thick polymer films, low damaging analysis conditions are applied by the use of argon cluster primary ion sources in order to obtain a significant molecular secondary ion information. In these conditions, a discrimination of quasi-identical nanometre thick structures is made possible and a quantification method for copolymers is then proposed. In addition, with the supplement of data principal component analysis (PCA) an innovative and significant correlation is obtained between main Principal Component and sample molecular weights.Finally, the effect of several industrial integration processes (such as etching or wet cleaning) applied on low-k materials are studied in order to understand their detrimental impact on low-k insulating properties. To achieve a depth-resolved chemical information, low energy caesium sputterings are shown to be the most adapted and sensitive strategy. In addition, PCA is shown to be almost essential to amplify differences between samples significantly. This approach allowed combining the variation of physical properties (dielectric constant) with the chemical ones.
183

Évaluation de l'acquisition de la résistance à la colistine chez Escherichia coli O149 chez le porc

Thériault, William 04 1900 (has links)
No description available.
184

Adaptation de clones orofaciaux à la morphologie et aux stratégies de contrôle de locuteurs cibles pour l'articulation de la parole / Adaptation of orofacial clones to the morphology and control strategies of target speakers for speech articulation

Valdés Vargas, Julian Andrés 28 June 2013 (has links)
La capacité de production de la parole est apprise et maintenue au moyen d'une boucle de perception-action qui permet aux locuteurs de corriger leur propre production en fonction du retour perceptif reçu. Ce retour est auditif et proprioceptif, mais pas visuel. Ainsi, les sons de parole peuvent être complétés par l'affichage des articulateurs sur l'écran de l'ordinateur, y compris ceux qui sont habituellement cachés tels que la langue ou le voile du palais, ce qui constitue de la parole augmentée. Ce type de système a des applications dans des domaines tels que l'orthophonie, la correction phonétique et l'acquisition du langage. Ce travail a été mené dans le cadre du développement d'un système de retour articulatoire visuel, basé sur la morphologie et les stratégies articulatoires d'un locuteur de référence, qui anime automatiquement une tête parlante 3D à partir du son de la parole. La motivation de cette recherche était d'adapter ce système à plusieurs locuteurs. Ainsi, le double objectif de cette thèse était d'acquérir des connaissances sur la variabilité inter-locuteur, et de proposer des modèles pour adapter un clone de référence, composé de modèles des articulateurs de la parole (lèvres, langue, voile du palais, etc.), à d'autres locuteurs qui peuvent avoir des morphologies et des stratégies articulatoires différentes. Afin de construire des modèles articulatoires pour différents contours du conduit vocal, nous avons d'abord acquis des données qui couvrent l'espace articulatoire dans la langue française. Des Images médio-sagittales obtenues par Résonance Magnétique (IRM) pour onze locuteurs francophones prononçant 63 articulations ont été recueillis. L'un des principaux apports de cette étude est une base de données plus détaillée et plus grande que celles disponibles dans la littérature. Cette base contient, pour plusieurs locuteurs, les tracés de tous les articulateurs du conduit vocal, pour les voyelles et les consonnes, alors que les études précédentes dans la littérature sont principalement basées sur les voyelles. Les contours du conduit vocal visibles dans l'IRM ont été tracés à la main en suivant le même protocole pour tous les locuteurs. Afin d'acquérir de la connaissance sur la variabilité inter-locuteur, nous avons caractérisé nos locuteurs en termes des stratégies articulatoires des différents articulateurs tels que la langue, les lèvres et le voile du palais. Nous avons constaté que chaque locuteur a sa propre stratégie pour produire des sons qui sont considérées comme équivalents du point de vue de la communication parlée. La variabilité de la langue, des lèvres et du voile du palais a été décomposé en une série de mouvements principaux par moyen d'une analyse en composantes principales (ACP). Nous avons remarqué que ces mouvements sont effectués dans des proportions différentes en fonction du locuteur. Par exemple, pour un déplacement donné de la mâchoire, la langue peut globalement se déplacer dans une proportion qui dépend du locuteur. Nous avons également remarqué que la protrusion, l'ouverture des lèvres, l'influence du mouvement de la mâchoire sur les lèvres, et la stratégie articulatoire du voile du palais peuvent également varier en fonction du locuteur. Par exemple, certains locuteurs replient le voile du palais contre la langue pour produire la consonne /ʁ/. Ces résultats constituent également une contribution importante à la connaissance de la variabilité inter-locuteur dans la production de la parole. Afin d'extraire un ensemble de patrons articulatoires communs à différents locuteurs dans la production de la parole (normalisation), nous avons basé notre approche sur des modèles linéaires construits à partir de données articulatoires. Des méthodes de décomposition linéaire multiple ont été appliquées aux contours de la langue, des lèvres et du voile du palais ... / The capacity of producing speech is learned and maintained by means of a perception-action loop that allows speakers to correct their own production as a function of the perceptive feedback received. This auto feedback is auditory and proprioceptive, but not visual. Thus, speech sounds may be complemented by augmented speech systems, i.e. speech accompanied by the virtual display of speech articulators shapes on a computer screen, including those that are typically hidden such as tongue or velum. This kind of system has applications in domains such as speech therapy, phonetic correction or language acquisition in the framework of Computer Aided Pronunciation Training (CAPT). This work has been conducted in the frame of development of a visual articulatory feedback system, based on the morphology and articulatory strategies of a reference speaker, which automatically animates a 3D talking head from the speech sound. The motivation of this research was to make this system suitable for several speakers. Thus, the twofold objective of this thesis work was to acquire knowledge about inter-speaker variability, and to propose vocal tract models to adapt a reference clone, composed of models of speech articulator's contours (lips, tongue, velum, etc), to other speakers that may have different morphologies and different articulatory strategies. In order to build articulatory models of various vocal tract contours, we have first acquired data that cover the whole articulatory space in the French language. Midsagittal Magnetic Resonance Images (MRI) of eleven French speakers, pronouncing 63 articulations, have been collected. One of the main contributions of this study is a more detailed and larger database compared to the studies in the literature, containing information of several vocal tract contours, speakers and consonants, whereas previous studies in the literature are mostly based on vowels. The vocal tract contours visible in the MRI were outlined by hand following the same protocol for all speakers. In order to acquire knowledge about inter-speaker variability, we have characterised our speakers in terms of the articulatory strategies of various vocal tract contours like: tongue, lips and velum. We observed that each speaker has his/her own strategy to achieve sounds that are considered equivalent, among different speakers, for speech communication purposes. By means of principal component analysis (PCA), the variability of the tongue, lips and velum contours was decomposed in a set of principal movements. We noticed that these movements are performed in different proportions depending on the speaker. For instance, for a given displacement of the jaw, the tongue may globally move in a proportion that depends on the speaker. We also noticed that lip protrusion, lip opening, the influence of the jaw movement on the lips, and the velum's articulatory strategy can also vary according to the speaker. For example, some speakers roll up their uvulas against the tongue to produce the consonant /ʁ/ in vocalic contexts. These findings also constitute an important contribution to the knowledge of inter-speaker variability in speech production. In order to extract a set of common articulatory patterns that different speakers employ when producing speech sounds (normalisation), we have based our approach on linear models built from articulatory data. Multilinear decomposition methods have been applied to the contours of the tongue, lips and velum. The evaluation of our models was based in two criteria: the variance explanation and the Root Mean Square Error (RMSE) between the original and recovered articulatory coordinates. Models were also assessed using a leave-one-out cross validation procedure ...
185

La couverture des risques extremes de catastrophes naturelles : analyse théorique et empirique / Natural Catastrophe Risk Insurance : theory and empirical analysis

Zawali, Naima 09 January 2017 (has links)
L’objectif de cette thèse est de mener une réflexion sur les systèmes de couverture des risques de catastrophes naturelles en accordant une place particulière à la perception que les agents économiques ont des caractéristiques de ces risques. Il s’agit d’une part de mieux comprendre les déterminants des systèmes de couverture existant dans le monde et des comportements individuels, et d’autre part de comparer les différentes formes d’intervention publique face à ces risques. Nos travaux, essentiellement empiriques, s’appuient sur des données statistiques issues d’organismes internationaux et de centres de recherche sur les risques, mais aussi sur des données comportementales issue d’une expérience contrôlée. La typologie des systèmes d’assurance contre le risque d’inondation dans le monde que nous élaborons montre que le système public est globalement dominant et surtout appliqué dans les pays à faible revenu et à forte exposition au risque, le système mixte public/privé étant principalement appliqué dans des pays riches et relativement peu exposés. Concernant la demande d’assurance, ladisponibilité à payer pour s’assurer contre les risques naturels est significativement plus faible que celle pour les autres risques et ce, indépendamment des probabilités et des montants de perte. En comparant différents systèmes d’intervention publique, nous montrons que la mesure la plus efficace semble être une subvention de la prime d’assurance, mais qui peut être très coûteuse si la population est majoritairement composée d’individus présentant de forts biais dans la perception des risques. / The objective of this thesis is to better understand the determinants of natural catastrophe insurance systems in the world, as well as of individual behavior towards these risks. We also compare the efficiency of different public intervention forms in catastrophe risk management. Our data come from international organizations, research centers and one controlled experiment. From the typology of countries in terms of flood insurance that we elaborate it appears that the publicly provided flood insurance system is globally dominant and mainly applied in low-income countries with high risk exposure. Mixed public / private system are mainly applied in rich countries with low risk exposure. Concerning insurance demand, the willingness to pay for insurance is significantly lower for catastrophe risks than for other, standard risks, regardless of probability and amount of loss. Comparing different public intervention systems, we show that the most efficient measure is insurance premium subsidy but its costs can be very high for individual whose risk perception is biased.
186

Machine learning spatial appliquée aux images multivariées et multimodales / Spatial machine learning applied to multivariate and multimodal images

Franchi, Gianni 21 September 2016 (has links)
Cette thèse porte sur la statistique spatiale multivariée et l’apprentissage appliqués aux images hyperspectrales et multimodales. Les thèmes suivants sont abordés :Fusion d'images :Le microscope électronique à balayage (MEB) permet d'acquérir des images à partir d'un échantillon donné en utilisant différentes modalités. Le but de ces études est d'analyser l’intérêt de la fusion de l'information pour améliorer les images acquises par MEB. Nous avons mis en œuvre différentes techniques de fusion de l'information des images, basées en particulier sur la théorie de la régression spatiale. Ces solutions ont été testées sur quelques jeux de données réelles et simulées.Classification spatiale des pixels d’images multivariées :Nous avons proposé une nouvelle approche pour la classification de pixels d’images multi/hyper-spectrales. Le but de cette technique est de représenter et de décrire de façon efficace les caractéristiques spatiales / spectrales de ces images. Ces descripteurs multi-échelle profond visent à représenter le contenu de l'image tout en tenant compte des invariances liées à la texture et à ses transformations géométriques.Réduction spatiale de dimensionnalité :Nous proposons une technique pour extraire l'espace des fonctions en utilisant l'analyse en composante morphologiques. Ainsi, pour ajouter de l'information spatiale et structurelle, nous avons utilisé les opérateurs de morphologie mathématique. / This thesis focuses on multivariate spatial statistics and machine learning applied to hyperspectral and multimodal and images in remote sensing and scanning electron microscopy (SEM). In this thesis the following topics are considered:Fusion of images:SEM allows us to acquire images from a given sample using different modalities. The purpose of these studies is to analyze the interest of fusion of information to improve the multimodal SEM images acquisition. We have modeled and implemented various techniques of image fusion of information, based in particular on spatial regression theory. They have been assessed on various datasets.Spatial classification of multivariate image pixels:We have proposed a novel approach for pixel classification in multi/hyper-spectral images. The aim of this technique is to represent and efficiently describe the spatial/spectral features of multivariate images. These multi-scale deep descriptors aim at representing the content of the image while considering invariances related to the texture and to its geometric transformations.Spatial dimensionality reduction:We have developed a technique to extract a feature space using morphological principal component analysis. Indeed, in order to take into account the spatial and structural information we used mathematical morphology operators
187

Caractérisation de sources acoustiques par imagerie en écoulement d'eau confiné / Characterization of acoustic sources by imaging in confined water flow

Amailland, Sylvain 28 November 2017 (has links)
Les exigences en matière de bruit rayonné par les navires de la Marine ou de recherche engendrent le développement de nouvelles méthodes pour améliorer leurs caractérisations. Le propulseur, qui est la source la plus importante en champ lointain, est généralement étudié en tunnel hydrodynamique. Cependant, compte tenu de la réverbération dans le tunnel et du niveau élevé du bruit de couche limite turbulente (CLT), la caractérisation peut s’ avérer délicate. L'objectif de la thèse est d'améliorer les capacités de mesures acoustiques du Grand Tunnel Hydrodynamique (GTH) de la DGA en matière de bruits émis par les maquettes testées dans des configurations d'écoulement.Un modèle de propagation basé sur la théorie des sources images est utilisé afin de prendre en compte le confinement du tunnel. Les coefficients de réflexion associés aux parois du tunnel sont identifiés par méthode inverse et à partir de la connaissance de quelques fonctions de transfert. Un algorithme de débruitage qui repose sur l’ Analyse en Composantes Principales Robuste est également proposé. Il s'agit de séparer, de manière aveugle ou semi-aveugle, l’ information acoustique du bruit de CLT en exploitant, respectivement, la propriété de rang faible et la structure parcimonieuse des matrices interspectrales du signal acoustique et du bruit. Ensuite, une technique d'imagerie basée sur la méthode des sources équivalentes est appliquée afin de localiser et quantifier des sources acoustiques corrélées ou décorrélées. Enfin, la potentialité des techniques proposées est évaluée expérimentalement dans le GTH en présence d'une source acoustique et d'un écoulement contrôlé. / The noise requirements for naval and research vessels lead to the development of new characterization methods. The propeller, which is the most important source in the far field, is usually studied in a water tunnel. However, due to the reverberation in the tunnel and the high level of flow noise, the characterization may be difficult. The aim of the thesis is to improve the measurement capabilities of the DGA Hydrodynamic tunnel (GTH) in terms of noise radiated by models in flow configurations.The propagation model is described through the image source method. Unfortunately, the reflection coefficients of the tunnel walls are generally unknown and it is proposed to estimate these parameters using an inverse method and the knowledge of some reference transfer functions. The boundary layer noise (BLN) may be stronger than the acoustic signal, therefore a Robust Principal Component Analysis is introduced in order to separate, blindly or semi-blindly, the acoustic signal from the noise. This algorithm is taking advantage of the low rank and sparse structure of the acoustic and the BLN cross-spectrum matrices. Then an acoustic imaging technique based on the equivalent source method is applied in order to localize and quantify correlated or decorrelated sources. Finally, the potentiality of the proposed techniques is evaluated experimentally in the GTH in the presence of an acoustic source and a controlled flow.
188

On the stability of document analysis algorithms : application to hybrid document hashing technologies / De la stabilité des algorithmes d’analyse de documents : application aux technologies de hachage de documents hybrides

Eskenazi, Sébastien 14 December 2016 (has links)
Un nombre incalculable de documents est imprimé, numérisé, faxé, photographié chaque jour. Ces documents sont hybrides : ils existent sous forme papier et numérique. De plus les documents numériques peuvent être consultés et modifiés simultanément dans de nombreux endroits. Avec la disponibilité des logiciels d’édition d’image, il est devenu très facile de modifier ou de falsifier un document. Cela crée un besoin croissant pour un système d’authentification capable de traiter ces documents hybrides. Les solutions actuelles reposent sur des processus d’authentification séparés pour les documents papiers et numériques. D’autres solutions reposent sur une vérification visuelle et offrent seulement une sécurité partielle. Dans d’autres cas elles nécessitent que les documents sensibles soient stockés à l’extérieur des locaux de l’entreprise et un accès au réseau au moment de la vérification. Afin de surmonter tous ces problèmes, nous proposons de créer un algorithme de hachage sémantique pour les images de documents. Cet algorithme de hachage devrait fournir une signature compacte pour toutes les informations visuellement significatives contenues dans le document. Ce condensé permettra la création de systèmes de sécurité hybrides pour sécuriser tout le document. Ceci peut être réalisé grâce à des algorithmes d’analyse du document. Cependant ceux-ci ont besoin d’être porté à un niveau de performance sans précédent, en particulier leur fiabilité qui dépend de leur stabilité. Après avoir défini le contexte de l’étude et ce qu’est un algorithme stable, nous nous sommes attachés à produire des algorithmes stables pour la description de la mise en page, la segmentation d’un document, la reconnaissance de caractères et la description des zones graphiques. / An innumerable number of documents is being printed, scanned, faxed, photographed every day. These documents are hybrid : they exist as both hard copies and digital copies. Moreover their digital copies can be viewed and modified simultaneously in many places. With the availability of image modification software, it has become very easy to modify or forge a document. This creates a rising need for an authentication scheme capable of handling these hybrid documents. Current solutions rely on separate authentication schemes for paper and digital documents. Other solutions rely on manual visual verification and offer only partial security or require that sensitive documents be stored outside the company’s premises and a network access at the verification time. In order to overcome all these issues we propose to create a semantic hashing algorithm for document images. This hashing algorithm should provide a compact digest for all the visually significant information contained in the document. This digest will allow current hybrid security systems to secure all the document. This can be achieved thanks to document analysis algorithms. However those need to be brought to an unprecedented level of performance, in particular for their reliability which depends on their stability. After defining the context of this study and what is a stable algorithm, we focused on producing stable algorithms for layout description, document segmentation, character recognition and describing the graphical parts of a document.
189

Modèle prédictif d'évolution des Accidents Vasculaires Cérébraux / Predictive model of stroke outcome

Burnol, Stéphane 15 February 2010 (has links)
Les lésions résultantes d’un Accident Ischémique Cérébral (AIC) restent invisibles pendant plusieurs heures voire dizaines d’heures sur les techniques conventionnelles d’imagerie médicale (scanner X ou IRM). De nouvelles séquences d’IRM (pondérées en diffusion et en perfusion) permettent de visualiser les atteintes immédiatement. Les images de diffusion et de perfusion sont le reflet de mécanismes physiopathologiques complexes et contiennent aussi des informations sur le devenir tissulaire. Un modèle probabiliste d’évolution des lésions visibles au stade précoce a été développé de manière à prédire les extensions et rétrécissements des dommages. Le résultat se présente sous la forme d’une cartographie probabiliste de nécrose où la valeur de chaque voxel de l’image représente le risque de mort cellulaire au stade chronique. Cette cartographie pourra être, ensuite, prise en compte dans la décision thérapeutique. Deux types d’approche ont été mises en place : une méthode de segmentation, permettant d’extraire les régions à risque, et une méthode de prédiction des voxels à risque de nécrose, de type régression logistique. Ces modèles fournissent des performances similaires par rapport aux quelques modèles décrits dans la littérature, mais sont plus performants sur les petites lésions et présentent une grande amélioration en raison de leur caractère entièrement automatique / The lesions resulting from an ischemic stroke remain invisible for several hours or even tens of hours on conventional techniques of medical imaging (CT scan or MRI). New MRI sequences (diffusion-weighted and perfusion-weighted images) reveal the damages immediately. The diffusion and perfusion images reflect complex pathophysiological mechanisms and also contain some information on the fate of the tissue. A probabilistic model of evolution of the lesions visible at an early stage was set up so as to predict expansions and contractions of the damages. The result is presented as a probabilistic mapping of necrosis where the value of each voxel of the image represents the risk of cellular death in the chronic phase. This mapping can then be taken into account in the therapeutic decision. We implemented two types of approach: a segmentation method, allowing extracting regions atrisk, and a prediction method, type of logistic regression, to predict voxels at risk of necrosis. These models provide similar performances with regard to the few models described in the literature, but are more efficient for small lesions and show a big improvement because they are fully automatic
190

Les motivations des cadres français pour accepter une affectation internationale : une étude empirique basée sur la théorie d’Ajzen / The motivations of the French executives to accept an international assignment : an empirical study based on the theory of Ajzen

Martakouche, Naeem 30 January 2015 (has links)
Dans le cadre d’une réflexion sur la mobilité internationale, nous nous intéressons dans cette thèse aux motivations des cadres français dans leur intention d’accepter une affectation internationale. Notre étude nous permet de soutenir que cette intention ne dépend pas uniquement des attitudes. Le contrôle comportemental perçu contribue également à la détermination de cette intention. Ce travail s’appuie sur la Théorie du Comportement Planifié (TCP). L’apport théorique de notre recherche est d’appliquer le modèle de la TCP auprès des cadres français pour savoir dans quelle mesure ils ont l’intention d’accepter une affectation internationale. L’apport managérial est de proposer aux entreprises des clés de compréhension leur permettant d’améliorer leurs pratiques de mobilité en identifiant les motivations des cadres pour une affectation internationale. L’apport méthodologique est la proposition de scénarios en fonction du pays de destination pour mettre en évidence la contribution des trois déterminants de cette intention en termes d’attitudes, de normes sociales et de contrôle perçu. / In the context of international mobility, we aim to explore in this thesis the motivations of the French executives regarding their intentions to accept an international assignment.Our study is based on the Theory of Planned Behavior (TPB) and enabled us to conclude that the intentions to accept international assignment does not depend solely on the attitudes. The perceived behavioral control also contribute to the determination of this intention. The theoretical contribution of our research is to apply the model of TPB on the French executives who have the intention to accept an international assignment. The managerial contribution is to offer the firms some key guidelines to broaden their understanding pertaining to the improvement in their practices of mobility by identifying the motivations of the executives for an international assignment.The methodological contribution is the proposition of scenarios based on country of destination for exhibiting the contribution of three determinants of this intention in terms of attitudes, social norms and perceived control.

Page generated in 0.0587 seconds