• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 2
  • 2
  • Tagged with
  • 12
  • 12
  • 12
  • 7
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Etudes d'algorithmes d'extraction des informations de spatialisation sonore : application aux formats multicanaux

Briand, Manuel 20 March 2007 (has links) (PDF)
--<br />La première orientation de ce travail de thèse vise à améliorer les performances des méthodes de codage audio paramétrique basées sur les indices de la localisation auditive. Nous avons cherché à adapter l'extraction des paramètres au contenu fréquentiel des signaux. La seconde orientation des travaux établie une modélisation des signaux multicanaux pour proposer une alternative au schéma de codage paramétrique actuel. Nous présentons une interprétation et l'évaluation des performances de l'Analyse en Composante Principale, réalisée en temps et en sous-bandes de fréquences avec une approche paramétrique. Finalement, nous utilisons cette décomposition au sein d'une nouvelle méthode de codage paramétrique qui repose à la fois sur la concentration de l'information dominante et sur l'extraction de paramètres pertinents. Les performances de notre méthode de codage paramétrique sont évaluées pour le cas stéréophonique et une extension au codage de signaux au format 5.1 est proposée.<br />--
2

Validation de l'utilisation des stéroïdes en tant qu'outil de traçage de l'origine des contaminations fécales des eaux de surface

Derrien, Morgane 10 November 2011 (has links) (PDF)
Les contaminations fécales d'origine humaine ou animale contribuent à la dégradation des écosystèmes et affectent la qualité de l'eau avec des risques pour la santé publique par l'exposition à des agents pathogènes. Afin de réduire ces risques et d'améliorer la qualité de l'eau, il est nécessaire de développer des outils capables d'identifier les sources de contaminations fécales. Cet enjeu est exacerbé en Europe par le durcissement des directives sur les eaux de baignade et les eaux conchylicoles et l'obligation de procéder à l'identification et à la hiérarchisation des sources de contaminations. Cette thèse s'est attachée à valider l'utilisation des stéroïdes en tant que traceurs des sources de contaminations fécales des eaux de surface. La méthode utilisée est basée sur une analyse en composante principale de six stanols fécaux. L'approche scientifique a été menée en trois étapes, de l'échelle moléculaire à l'échelle du bassin versant. La spécificité des stéroïdes et l'homogénéité des sources ont été étudiées sur des déjections bovines, porcines et sur des influents, effluents et boues de stations d'épuration domestiques. Puis, la conservation et la persistance des empreintes stéroïdes ont été évaluées au cours du transport des échantillons sources vers le milieu naturel récepteur par des expérimentations en conditions contrôlées. Enfin, la méthode développée a été validée à l'échelle de deux bassins versants sujets à des contaminations fécales récurrentes multi-sources. L'ensemble des résultats obtenus au cours de ce travail permettent de valider l'utilisation des stéroïdes en tant que traceurs opérationnels de l'origine des contaminations fécales.
3

Influence des fermentations alcoolique et malolactique sur la composition chimique des cidres à distiller en cours d'élaboration.

Marie, Herrero 02 September 2011 (has links) (PDF)
Ce travail consistait à caractériser et suivre les changements de la composition chimique des cidres à distiller durant leur élaboration. Pour répondre à cet objectif, pendant deux campagnes de production (2007/2008 et 2008/2009), une centaine d'échantillons de cidre a été prélevée sur 4 cuves différentes se déclinant sous deux AOC et trois savoirs faire (industriel, artisanal et fermier). Les teneurs en sucres ont été déterminées par dosage enzymatique, les acides malique et lactique ont été dosés par CLHP/UV et les composés volatils ont été suivis par CPG/SM après SPE et concentration. De manière générale, les sucres sont consommés rapidement dans le cas de cuves industrielles contrairement aux cuves artisanale et fermière, au frais et de plus petit volume. Des fermentations malolactiques (FML) ont été repérées seulement pour les cuves industrielles et pour la cuve artisanale sur une année. Quand elle a lieu, la FML se déroule très rapidement (moins d'un mois) et de façon simultanée avec la fermentation alcoolique. L'apparition d'une FML se caractérise par l'apparition d'acétates (acétate de 2-phényléthyle et de 3-méthylbutyle) en début de procédé et une présence importante d'acide carboxyliques et de dérivés volatils des acides lactique et succinique plutôt en fin. In fine, des composés comme l'acétoïne, le butanol et l'hexanol sont présents de manière plus importante dans les cidres où une FML n'a pas lieu. En revanche, peu de différences ont été observées pour l'évolution régulière des alcools supérieurs. Un contrôle systématique des pommes et de la température des cuves permettrait d'obtenir une meilleure répétabilité du cidre à distiller.
4

Attaques par canaux cachés : expérimentations avancées sur les attaques template

Elaabid, Abdelaziz 07 December 2011 (has links) (PDF)
Au début des années 90, l'apparition de nouvelles méthodes de cryptanalyse a bouleversé la sécurité des dispositifs cryptographiques. Ces attaques se basent sur l'analyse de consommation en courant lorsque le microprocesseur d'une carte est en train de dérouler l'algorithme cryptographique. Dans cette thèse nous explorons, principalement, les attaques template, et y apportons quelques améliorations pratiques notamment par l'utilisation de différentes techniques de traitement du signal. Nous commençons par étudier l'efficacité de ces attaques sur des mises en oeuvre matérielles non protégées, et explorons au fur et à mesure quelque modèles de fuite d'information. Après cela, nous examinons la pertinence du cadre théorique sur les attaques par profilage présenté par F.-X. Standaert et al. à Eurocrypt 2009. Ces analyses consistent en des études de cas basées sur des mesures de courant acquises expérimentalement à partir d'un accélérateur cryptographique. À l'égard de précédentes analyses formelles effectuées sur des mesures par " simulations ", les investigations que nous décrivons sont plus complexes, en raison des différentes architectures et de la grande quantité de bruit algorithmique. Dans ce contexte, nous explorons la pertinence des différents choix pour les variables sensibles, et montrons qu'un attaquant conscient des transferts survenus pendant les opérations cryptographiques peut sélectionner les distingueurs les plus adéquats, et augmenter ainsi son taux de succès. Pour réduire la quantité de données, et représenter les modèles en deux dimensions, nous utilisons l'analyse en composantes principales (ACP) et donnons une interprétation physique des valeurs propres et vecteurs propres. Nous introduisons une méthode basée sur le seuillage de la fuite de données pour accélérer le profilage ainsi que l'attaque. Cette méthode permet de renforcer un attaquant qui peut avec un minimum de traces, améliorer 5 fois sa vitesse dans la phase en ligne de l'attaque. Aussi, il a été souligné que les différents modèles utilisés, ainsi que les échantillons recueillis durant la même acquisition peuvent transporter des informations complémentaires. Dans ce contexte, nous avons eu l'occasion d'étudier comment combiner au mieux différentes attaques en se basant sur différentes fuites. Cela nous a permis d'apporter des réponses concrètes au problème de la combinaison des attaques. Nous nous sommes concentrés également sur l'identification des problèmes qui surgissent quand il y a une divergence entre les templates et les traces attaquées. En effet, nous montrons que deux phénomènes peuvent entraver la réussite des attaques lorsque les templates sont obsolètes, à savoir, la désynchronisation des traces, et le redimensionnement des traces en amplitudes. Nous suggérons deux remèdes pour contourner ce type de problèmes : le réajustement des signaux et la normalisation des campagnes d'acquisitions. Finalement, nous proposons quelques méthodes du traitement du signal dans le contexte des attaques physiques. Nous montrons que lorsque les analyses sont effectuées en multi-résolution, il y a un gain considérable en nombre de traces nécessaires pour récupérer la clé secrète, par rapport à une attaque ordinaire.
5

Interprétation des signaux cérébraux pour l’autonomie des handicapés : Système de reconnaissance de mots imaginés / Cerebral signal processing for the autonomy of the handicapped : Imagery recognition system

Abdallah, Nassib 20 December 2018 (has links)
Les interfaces Cerveau Machine représentent une solution pour rétablir plusieurs fonctions comme le mouvement, la parole, etc. La construction de BCI se compose de quatre phases principales: "Collecte des données", "Prétraitement du signal", "Extraction et sélection de caractéristiques", "Classification". Dans ce rapport nous présentons un nouveau système de reconnaissance de mots imaginées basé sur une technique d’acquisition non invasive (EEG) et portable pour faciliter aux personnes ayant des handicaps spécifiques, leurs communications avec le monde extérieur. Cette thèse inclut un système nommé FEASR pour la construction d’une base de données pertinente et optimisée. Cette base a été testée avec plusieurs méthodes de classification pour obtenir un taux maximal de reconnaissance de 83.4% pour cinq mots imaginés en arabe. De plus, on discute de l’impact des algorithmes d’optimisations (Sélection des capteurs de Wernicke, Analyse en composante principale et sélection de sous bandes résultant de la décomposition en ondelette) sur les pourcentages de reconnaissance en fonction de la taille de notre base de données et de sa réduction. / The Brain Machine interfaces represent a solution to restore several human issues such as movement, speech, etc. The construction of BCI consists of four main phases: "Data Recording", "Signal preprocessing", "Extraction and Selection of Characteristics", and "Classification". In this report we present a new imagery recognition system based on a non-invasive (EEG) and portable acquisition technique to facilitate communication with the outside world for people with specific disabilities.This thesis includes a system called FEASR for the construction of a relevant and optimized database. This database has been tested with several classification methods to obtain a maximum recognition rate of 83.4% for five words imagined in Arabic. In addition, we discuss the impact of optimization algorithms (Wernicke sensor selection, principal component analysis algorithm and the selection of subbands resulting from the discrete wavelet transform decomposition) on recognition percentages according to the size of our database and its reduction.
6

Relation entre tableaux de données : exploration et prédiction / Relating datasets : exploration and prediction

El Ghaziri, Angélina 20 October 2016 (has links)
La recherche développée dans le cadre de cette thèse aborde différents aspects relevant de l’analyse statistique de données. Dans un premier temps, une analyse de trois indices d’associations entre deux tableaux de données est développée. Par la suite, des stratégies d’analyse liées à la standardisation de tableaux de données avec des applications en analyse en composantes principales (ACP) et en régression, notamment la régression PLS sont présentées. La première stratégie consiste à proposer une standardisation continuum des variables. Une standardisation plus générale est aussi abordée consistant à réduire de manière graduelle non seulement les variances des variables mais également les corrélations entre ces variables. De là, une approche continuum de régression a été élaborée regroupant l’analyse des redondances et la régression PLS. Par ailleurs, cette dernière standardisation a inspiré une démarche de régression biaisée dans le cadre de régression linéaire multiple. Les propriétés d’une telle démarche sont étudiées et les résultats sont comparés à ceux de la régression Ridge. Dans le cadre de l’analyse de plusieurs tableaux de données, une extension de la méthode ComDim pour la situation de K+1 tableaux est développée. Les propriétés de cette méthode, appelée P-ComDim, sont étudiées et comparées à celles de Multiblock PLS. Enfin, la situation où il s’agit d’évaluer l’effet de plusieurs facteurs sur des données multivariées est considérée et une nouvelle stratégie d’analyse est proposée. / The research developed in this thesis deals with several statistical aspects for analyzing datasets. Firstly, investigations of the properties of several association indices commonly used by practitioners are undergone. Secondly, different strategies related to the standardization of the datasets with application to principal component analysis (PCA) and regression, especially PLS-regression were developed. The first strategy consists of a continuum standardization of the variables. The interest of such standardization in PCA and PLS-regression is emphasized.A more general standardization is also discussed which consists in reducing gradually not only the variances of the variables but also their correlations. Thereafter, a continuum approach was developed combining Redundancy Analysis and PLS-regression. Moreover, this new standardization inspired a biased regression model in multiple linear regression. Properties related to this approach are studied and the results are compared on the basis of case studies with those of Ridge regression. In the context of the analysis of several datasets in an exploratory perspective, the method called ComDim, has certainly raised interest among practitioners. An extension of this method for the analysis of K+1 datasets was developed. Properties related to this method, called P-ComDim, are studied and compared to Multiblock PLS. Finally, for the analysis of datasets depending on several factors, a new approach based on PLS regression is proposed.
7

Contribution à la modélisation des durées de séjour du CHU de Grenoble

Delhumeau, Cécile 06 December 2002 (has links) (PDF)
Cette thèse propose une méthodologie permettant l'identification des groupes homogènes de malades (GHM) du Centre Hospitalier Universitaire (CHU) de Grenoble dont la durée de séjour (DS) s'écarte de la "référence nationale", mais aussi d'identifier la présence d'éventuels groupes d'"outliers" (patients avec des DS extrêmes) dans ces GHM. L'enjeu est de taille : des séjours longs entraînent une occupation des lits supérieure à ce que permet la valorisation financière correspondant à la pathologie prise en charge. Il est donc important de repérer ces GHM, responsables du coût élevé du point Indice Synthétique d'Activité (ISA), unité d'oeuvre des hôpitaux utilisée par le Programme de Médicalisation des Systèmes d'Information pour connaître leur activité, leur allouer le budget correspondant, et contraindre à une productivité optimale. Les écarts entre la distribution des DS des GHM grenoblois et celle de leurs homologues de la base nationale ont été comparés. Pour chaque GHM, un profil, fondé sur la comparaison des quartiles de DS des distributions nationales et grenobloises, deux à deux, a été construit. Des méthodes statistiques de classification (analyse en composantes principales, classification hiérarchique, analyse discriminante et modèles de mélange) ont été utilisées pour repérer aisément et sûrement les GHM économiquement coûteux. De manière empirique, les profils grenoblois semblent se structurer en 9 catégories. La classification hiérarchique identifie 4 catégories de GHM, dont une particulière comptant 16 GHM, dans laquelle un tiers des patients participe fortement à la dérive en points ISA du CHU, et pour qui la mise en place d'une action économiquement rentable serait aisée. Le modèle de mélange montre que les GHM se structurent en 3 catégories et permet de valider la classification issue de l'approche multidimensionnelle.
8

Operational research on an urban planning tool : application in the urban development of Strasbourg 1982 / Approche empirique de la restructuration urbaine : application d'un Système Multi Agent (SMA) à Strasbourg 1982

Kaboli, Mohammad Hadi 28 June 2013 (has links)
L’Impact des caractéristiques spatiales sur les dynamiques de développement urbain est d’un grand intérêt dans les études urbaines. L’interaction entre les résidents et les caractéristiques spatiales est d’un intérêt particulier dans le contexte des modèles urbains car de nombreux modèles urbains sont fondés sur le processus d’installation des individus dans des parties spécifiques des villes. Il s’agit d’une étude sur la dynamique de développement urbain avec des Automates Cellulaires et un Système Multi-Agent. Le développement urbain de cette étude recouvre le « urban renewal » et la mobilité résidentielle. Il correspond à la mobilité résidentielle des ménages qui sont attirés par le confort résidentiel et le confort de centralité ; ces conforts sont localisés dans quelques quartiers de Strasbourg. La diversité et la qualité de ces conforts deviennent des critères pour les choix résidentiels de telle façon que chaque ménage recherche la proximité de ces conforts. Dans cette étude l’Automate Cellulaire modélise les caractéristiques techniques des unités spatiales, celles-ci sont identifiées par des attributs inhérents qui sont égaux aux conforts dans les résidences et dans les zones urbaines. Dans le Système Multi-Agent la population de la ville de Strasbourg interagit entre elle et avec la ville. Les agents représentent les classes socio-professionnelles des ménages. Pendant un changement spatio- temporel, l’aspiration des ménages forme le développement socio-spatio-temporelle de la ville. / The impact of spatial characteristics on the dynamics of urban development is a topic of great interest in urban studies. The interaction between the residents and the spatial characteristics is of particular interest in the context of urban models where some of the most famous urban models have been based on the process of individual settlements in some specific parts of cities.This research investigates the dynamism of urban development modeled by Cellular Automata and Multi-Agent System. The urban development, in this study embraces urban renewal and residential mobility. It corresponds to the residential mobility of households, attracted by residential and centrality comfort; these comforts are crystallized in some areas and residences of Strasbourg. The diversity and quality of these comforts become criteria for residential choice in a way that the households seek for proximity to these comforts.The Cellular Automata in this study, models the spatial characteristics of urban spatial units and they are identified by some inherent attributes that are equal to the comfort in residences and urban areas. The Multi- Agent System represent a system in which the population of the city interact between them and between them and the city; the agents delegate the socio-professional classes of households. During the spatiotemporal change, the aspiration of households forms the socio-spatio-temporal development of the city.
9

Modélisation et analyses cinématiques de l'épaule lors de levers de charges en hauteur

Desmoulins, Landry 10 1900 (has links)
Thèse de doctorat à mi-chemin entre la recherche fondamentale et appliquée. Les champs disciplinaires sont principalement la biomécanique, l'ergonomie physique ou encore l'anatomie. Réalisé en cotutelle avec le professeur Paul Allard et Mickael Begon. / An occupation that requires handling loads combined with large elevation of the arms is associated with the occurrence of shoulders musculoskeletal disorder. The analysis of these joint movements is essential because it helps to quantify the stress applied to the musculoskeletal structures. This thesis provides an innovative model which allows the estimation of the shoulder complex kinematics and used it to analyze the joints kinematics during lifting tasks. It is organized into three sub-objectives. The first aim is the development and validation of a kinematic model the most representative as possible of the shoulder complex anatomy while correcting soft tissue artifacts through the use of global optimization. This model included a scapulothoracic closed loop, which constrains a scapular dot contact to be coincident with thoracic gliding plane modeled by a subject-specific ellipsoid. In the validation process, the reference model used the gold standard for direct measurements of bone movements. In dynamic movements, the closed loop model developed generates barely more kinematic errors that errors obtained for the study of standard movements by existing models. The second aim is to detect and quantify the shoulder articular movements influenced by the combined effects of two risk factors: task height and load weight. The results indicate that many peaks of joint angles are influenced by the interaction of height and weight. According to the different initial and deposits heights when the weight increases, the kinematics changes are substantial, in number and magnitude. The kinematic strategies of participants are more consistent when the weight of load increase for initial height lift at hips level compared to shoulders level, and for a deposit at eye level compared to shoulders. The third aim is to investigate the magnitude and temporality of the maximum peak vertical acceleration of the box. The significant joints movements are characterized with a principal component analysis of joint angle values collected at this instant. In particular, this study highlights that elbow flexion and thoraco-humeral elevation are two correlated invariant joint movements to all lifting tasks whatever the initial and deposit height, and weight of the load. The realism of the developed shoulder model and kinematics analyzes open perspectives in occupational biomechanics and contribute to risk prevention efforts in health and safety. / Une activité professionnelle qui exige de manipuler des charges combinée à de grandes élévations des bras augmente les chances de développer un trouble musculo-squelettique aux épaules. L’analyse de ces mouvements articulaires est essentielle car elle contribue à quantifier les contraintes appliquées aux structures musculo-squelettiques. Cette thèse propose un modèle innovant qui permet l’estimation de la cinématique du complexe de l’épaule, et l’utilise ensuite afin d’analyser la cinématique de levers de charge. Elle s’organise en trois sous-objectifs. Le premier concerne le développement et la validation d’un modèle cinématique le plus représentatif possible de l’anatomie du complexe de l’épaule tout en corrigeant les artéfacts des tissus mous par une optimisation multi-segmentaire. Ce modèle avec une fermeture de boucle scapulo-thoracique, impose à un point de contact scapulaire d’être coïncident au plan de glissement thoracique modélisé par un ellipsoïde mis à l’échelle pour chaque sujet. Le modèle qui a été utilisé comme référence lors des comparaisons du processus de validation bénéficie du « gold standard » de mesures directes des mouvements osseux. Le modèle développé en boucle fermée génère à peine plus d’erreurs cinématiques lors de mouvements dynamiques que les erreurs obtenues par les modèles existants pour l’étude de mouvements standards. Le second identifie et quantifie les mouvements articulaires de l’épaule influencés par la combinaison des effets de deux facteurs de risques : les hauteurs importantes d’agencement de la tâche (hauteurs de saisie et de dépôt) et les masses de charges (6 kg, 12 kg et 18 kg). Les résultats indiquent qu’il existe de nombreux pics d’angles articulaires qui sont influencés par l’interaction des deux effets. Lorsque la masse augmente, les modifications cinématiques sont plus importantes, en nombre et en amplitude, selon les différentes hauteurs de saisies et de dépôts de la charge. Les participants varient peu leur mode opératoire pour une saisie à hauteur des hanches en comparaison des épaules, et pour un dépôt à hauteur des yeux en comparaison aux épaules avec une charge plus lourde. Un troisième s’intéresse au pic maximal d’accélération verticale de la charge dans son intensité et sa temporalité. Basée sur une analyse en composante principale des valeurs d’angles articulaires à cet instant, elle permet de caractériser les mouvements articulaires significatifs. Cette étude met notamment en évidence que la flexion du coude et l’élévation thoraco-humérale sont deux mouvements articulaires corrélés invariants à toutes les tâches de lever en hauteur quelles que soient la hauteur de dépôt et la masse de la charge. Le souci de réalisme du modèle développé et les analyses cinématiques menées ouvrent des perspectives en biomécanique occupationnelle et participent à l’effort de prévention des risques en santé et sécurité.
10

Analyse, caractérisation et classification de signaux foetaux

Voicu, Iulian 13 December 2011 (has links) (PDF)
Cette thèse s'inscrit dans le domaine biomédical, à l'interface entre l'instrumentation et le traitement du signal. L'objectif de ce travail est d'obtenir, grâce à une mélange de différentes informations, un monitorage de l'activité du fœtus (rythme cardiaque et mouvements fœtaux) pour apprécier son état de bien-être ou de souffrance, et ceci aux différents stades de la grossesse. Actuellement, les paramètres qui caractérisent la souffrance fœtale, issus du rythme cardiaque et des mouvements fœtaux, sont évalués par le médecin et ils sont réunis dans le score de Manning. Deux inconvénients majeurs existent: a) l'évaluation du score est trop longue puisqu'elle dure 1 heure; b) il existe des variations inter et intra-opérateur conduisant à différentes interprétations du bilan médical de la patiente. Pour s'affranchir de ces désavantages nous évaluons le bien-être fœtal d'une façon objective, à travers le calcul d'un score. Pour atteindre ce but, nous avons développé une technologie ultrasonore multi-capteurs (12 capteurs) permettant de recueillir une soixantaine de (paires de) signaux Doppler en provenance du cœur, des membres inférieurs et supérieurs. Dans cette thèse notre première contribution s'appuie sur la mise en œuvre de nouveaux algorithmes de détection du rythme cardiaque (mono-canal et multi-canaux). Notre deuxième contribution concerne l'implémentation de deux catégories de paramètres basés sur le rythme cardiaque : a) la classes des paramètres "traditionnels" utilisés par les obstétriciens et évalués aussi dans le test de Manning (ligne de base, accélérations, décélérations); b) la classe des paramètres utilisés par les cardiologues et qui caractérisent la complexité d'une série temporelle (entropie approximée, entropie échantillonnée, entropie multi-échelle, graphe de récurrence, etc.). Notre troisième contribution consiste également à apporter des modifications notables aux différents algorithmes du calcul des mouvements fœtaux et des paramètres qui en découlent comme : le nombre de mouvements, le pourcentage du temps passé en mouvement par un fœtus, la durée des mouvements. Notre quatrième contribution concerne l'analyse conjointe du rythme cardiaque et des mouvements fœtaux. Cette analyse nous conduit alors à l'identification de différents états comportementaux. Le développement ou le non-développement de ces états est un indicateur de l'évolution neurologique du fœtus. Nous proposons d'évaluer les paramètres de mouvements pour chaque état comportemental. Enfin, notre dernière contribution concerne la mise en œuvre de différents scores et des classifications qui en découlent. Les perspectives directes à donner à ce travail concernent l'intégration des scores ou paramètres les plus pertinents dans un dispositif de surveillance à domicile ou bien dans un dispositif de monitorage clinique.

Page generated in 0.5125 seconds