• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 10
  • 2
  • Tagged with
  • 40
  • 18
  • 13
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation bayésienne des changements aux niches écologiques causés par le réchauffement climatique

Akpoué, Blache Paul 05 1900 (has links)
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche. / This thesis presents some estimation methods and algorithms to analyse count data in particular and discrete data in general. It is also part of an NSERC strategic project, named CC-Bio, which aims to assess the impact of climate change on the distribution of plant and animal species in Québec. After a brief introduction to the concepts and definitions of biogeography and those relative to the generalized linear mixed models in chapters 1 and 2 respectively, my thesis will focus on three major and new ideas. First, we introduce in chapter 3 a new form of distribution whose components have marginal distribution Poisson or Skellam. This new specification allows to incorporate relevant information about the nature of the correlations between all the components. In addition, we present some properties of this probability distribution function. Unlike the multivariate Poisson distribution initially introduced, this generalization enables to handle both positive and negative correlations. A simulation study illustrates the estimation in the two-dimensional case. The results obtained by Bayesian methods via Monte Carlo Markov chain (MCMC) suggest a fairly low relative bias of less than 5% for the regression coefficients of the mean. However, those of the covariance term seem a bit more volatile. Later, the chapter 4 presents an extension of the multivariate Poisson regression with random effects having a gamma density. Indeed, aware that the abundance data of species have a high dispersion, which would make misleading estimators and standard deviations, we introduce an approach based on integration by Monte Carlo sampling. The approach remains the same as in the previous chapter. Indeed, the objective is to simulate independent latent variables to transform the multivariate problem estimation in many generalized linear mixed models (GLMM) with conventional gamma random effects density. While the assumption of knowledge a priori dispersion parameters seems too strong and not realistic, a sensitivity analysis based on a measure of goodness of fit is used to demonstrate the robustness of the method. Finally, in the last chapter, we focus on the definition and construction of a measure of concordance or a correlation measure for some zeros augmented count data with Gaussian copula models. In contrast to Kendall's tau whose values lie in an interval whose bounds depend on the frequency of ties observations, this measure has the advantage of taking its values on the interval (-1, 1). Originally introduced to model the correlations between continuous variables, its extension to the discrete case implies certain restrictions and its values are no longer in the entire interval (-1,1) but only on a subset. Indeed, the new measure could be interpreted as the correlation between continuous random variables before being transformed to discrete variables considered as our discrete non negative observations. Two methods of estimation based on integration via Gaussian quadrature and maximum likelihood are presented. Some simulation studies show the robustness and the limits of our approach.
12

Une nouvelle classification des myopathies inflammatoires fondée sur des manifestations cliniques et la présence d'auto-anticorps spécifiques par analyses multidimensionnelles / A new classification of inflammatory myopathies based on clinical manifestations and the presence of myositis-specific autoantibodies by multidimensional analysis

Mariampillai, Kubéraka 15 December 2017 (has links)
Les myopathies inflammatoires idiopathiques (MII) sont hétérogènes dans leurs physiopathologies et pronostics. L'émergence d'auto-anticorps spécifiques de myosites (ASM) suggère des sous-groupes plus homogènes de patients. Notre but est de trouver une nouvelle classification des MII fondée des critères phénotypiques, biologiques et immunologiques. Une étude observationnelle, rétrospective, multicentrique a été conduite à partir de la base de données du réseau français des myosites. Nous avons inclus 260 myosites, définies selon les classifications historiques pour la polymyosite (PM), la dermatomyosite (DM) et la myosite à inclusions (MI). Tous les patients ont eu au moins un dot myosite testant les anti-Jo1, anti-PL7, anti-PL12, anti-Mi-2, anti-Ku, anti-PMScl, anti-Scl70 and anti-SRP. Nous avons utilisé l'analyse des correspondances multiples suivie d'une classification hiérarchique ascendante afin d'agréger les patients dans des sous-groupes plus homogènes. Quatre clusters émergent. Le premier cluster (n=77) regroupe principalement des MI, avec des vacuoles bordées, des anomalies mitochondriales et de l'inflammation avec des fibres envahies. Le second cluster (n=91) était caractérisé par des myopathies nécrosantes auto-immunes (MNAi) en majorité, avec des anticorps anti-SRP et anti-HMGCR. Le troisième cluster (n=52) regroupe essentiellement des DM avec des anticorps anti-Mi-2, anti-MDA5, ou anti-TiF1 gamma. Le quatrième cluster (n=40) était défini par le SAS (n=36), avec notamment la présence des anti-Jo1 ou anti-PL7. Les critères histologiques sont dispensables pour la prédiction des clusters, soulignant l'importance d'une classification clinico-sérologique. / Idiopathic inflammatory myopathies (IIM or myositis) are heterogeneous in their pathophysiology and prognosis. The emergence of myositis-specific autoantibodies (MSA) suggests homogenous subgroups of patients. Our aim was to find a new classification of IIM based on phenotypic, biological and immunological criteria. An observational, retrospective, multicentre study was led from the database of the myositis French network. We included 260 adult myositis, defined according to historical classifications for polymyositis (PM), dermatomyositis (DM) and inclusion body myositis (IBM). All patients did at least a screening with a line blot assays testing anti-Jo1, anti-PL7, anti-PL12, anti-Mi-2, anti-Ku, anti-PMScl, anti-Scl70 and anti-SRP. We performed multiple correspondence analysis and hierarchical clustering analysis to aggregate patients in homogenous subgroups. Four clusters emerged. The first cluster (n=77) regrouped primarily IBM patients with vacuolated fibres, mitochondrial abnormalities and inflammation with invaded fibres. The second cluster (n=91) was characterized by immune-mediated necrotizing myopathy (IMNM) in the majority of patients, with anti-SRP and anti-HMGCR antibodies. The third cluster (n=52) regrouped mainly DM patients with anti-Mi-2, anti-MDA5, or anti-TiF1 gamma antibodies. The fourth cluster (n=40) was defined by anti-synthetase syndrome (ASS), with the notable presence of anti-Jo1 or anti-PL7 antibodies. The histological criteria are dispensable for the prediction of the clusters, underlining the importance of a clinico-serological classification.
13

Developing a model and a language to identify and specify the integrity constraints in spatial datacubes

Salehi, Mehrdad 16 April 2018 (has links)
La qualité des données dans les cubes de données spatiales est importante étant donné que ces données sont utilisées comme base pour la prise de décision dans les grandes organisations. En effet, une mauvaise qualité de données dans ces cubes pourrait nous conduire à une mauvaise prise de décision. Les contraintes d'intégrité jouent un rôle clé pour améliorer la cohérence logique de toute base de données, l'un des principaux éléments de la qualité des données. Différents modèles de cubes de données spatiales ont été proposés ces dernières années mais aucun n'inclut explicitement les contraintes d'intégrité. En conséquence, les contraintes d'intégrité de cubes de données spatiales sont traitées de façon non-systématique, pragmatique, ce qui rend inefficace le processus de vérification de la cohérence des données dans les cubes de données spatiales. Cette thèse fournit un cadre théorique pour identifier les contraintes d'intégrité dans les cubes de données spatiales ainsi qu'un langage formel pour les spécifier. Pour ce faire, nous avons d'abord proposé un modèle formel pour les cubes de données spatiales qui en décrit les différentes composantes. En nous basant sur ce modèle, nous avons ensuite identifié et catégorisé les différents types de contraintes d'intégrité dans les cubes de données spatiales. En outre, puisque les cubes de données spatiales contiennent typiquement à la fois des données spatiales et temporelles, nous avons proposé une classification des contraintes d'intégrité des bases de données traitant de l'espace et du temps. Ensuite, nous avons présenté un langage formel pour spécifier les contraintes d'intégrité des cubes de données spatiales. Ce langage est basé sur un langage naturel contrôlé et hybride avec des pictogrammes. Plusieurs exemples de contraintes d'intégrité des cubes de données spatiales sont définis en utilisant ce langage. Les designers de cubes de données spatiales (analystes) peuvent utiliser le cadre proposé pour identifier les contraintes d'intégrité et les spécifier au stade de la conception des cubes de données spatiales. D'autre part, le langage formel proposé pour spécifier des contraintes d'intégrité est proche de la façon dont les utilisateurs finaux expriment leurs contraintes d'intégrité. Par conséquent, en utilisant ce langage, les utilisateurs finaux peuvent vérifier et valider les contraintes d'intégrité définies par l'analyste au stade de la conception.
14

Évaluation subjective de la qualité : proposition d'un système de référence pour les codecs en bande élargie / Subjective quality assessment : proposal of a reference system for Wideband codecs

Zango, Tiraogo Abdoulaye Yves 06 February 2013 (has links)
L'évolution des systèmes de télécommunications conduit à la conception de codecs de la parole et du son de plus en plus sophistiqués, accroissant ainsi la concurrence de l'industrie de l'audio et accordant une importance grandissante à la qualité de service. Si l'évaluation de la qualité des codecs peut s'opérer suivant des mesures objectives ou subjectives, les secondes restent les plus fiables dans la mesure où la qualité perçue par les utilisateurs est intrinsèquement subjective. Toutefois, les tests subjectifs requièrent des signaux d'ancrage, i.e. des signaux artificiels visant la reproduction des défauts perceptifs des codecs de sorte que les dégradations provoquées soient aisément contrôlables. Le système de référence actuellement normalisé par l'Union Internationale des Télécommunications est le MNRU (Modulated Noise Reference Unit) qui simule le bruit de quantification introduit par les premiers codecs en forme d'onde. L'évolution de la technologie rend aujourd'hui ce système obsolète, et il s'agit donc de concevoir un nouveau système d'ancrage plus adapté aux codecs actuels. En considérant la qualité audio comme un objet multidimensionnel, nous avons mis en évidence un espace perceptif à quatre dimensions, et ce à partir de deux approches de réduction de dimensionnalité, l'AFM (Analyse Factorielle Multiple) et la MDS 3–voies (MultiDimensional Scaling). A partir des quatre dimensions identifiées – « Réduction de la largeur de bande », « Bruit de fond », « Écho/Réverbération » et « Distorsion de la parole » –, nous avons modélisé puis validé les signaux d'ancrage des trois premières dimensions et proposé deux modèles de signaux d'ancrage pour la quatrième. / The evolution of technology led to the design of very sophisticated speech and audio codecs. Accordingly, the competition in audio devices manufacturing has increased and today the quality of service becomes crucial for telecommunications operators. Quality of codecs is assessed through objective and subjective measures, the second ones being the most reliable since the quality perceived by users is inherently subjective. Nevertheless, subjective tests require anchor signals corresponding to artificial signals, which reproduce the perceptual impairments of codecs in such a manner that the amount of degradation can be easily controlled. The reference system currently standardized by the International Telecommunication Union is the Modulated Noise Reference Unit (MNRU), which simulates the quantization noise of the first generation of waveform codecs. Due to the evolution of codecs, the MNRU system became obsolete and researchers aim at designing a new reference system of anchor signals more suited to current codecs. Assuming that speech and audio quality is multidimensional, we first identified four perceptual dimensions using two dimensionality reduction techniques – the MFA (Multiple Factor Analysis) and the 3–way MDS (MultiDimensional Scaling). From the identified dimensions, namely “Bandwidth limitation”, “Background noise”, “Echo/Reverberation” and “Speech distortion”, we succeeded in modeling and validating anchor signals for three of them and we suggested two models of anchor signals for the last one.
15

Approximation par éléments finis conformes et non conformes enrichis / Approximation by enriched conforming and nonconforming finite elements

Zaim, Yassine 11 September 2017 (has links)
L’enrichissement des éléments finis standard est un outil performant pour améliorer la qualité d’approximation. L’idée principale de cette approche est d’ajouter aux fonctions de base un ensemble de fonctions censées améliorer la qualité des solutions approchées. Le choix de ces dernières est crucial et est en grande partie basé sur la connaissance a priori de quelques informations telles que les caractéristiques de la solution, de la géométrie du problème à résoudre, etc. L’efficacité de cette approche pour résoudre une équation aux dérivées partielles dans un maillage fixe, sans avoir recours au raffinement, a été prouvée dans de nombreuses applications dans la littérature. La clé de son succès repose principalement sur le bon choix des fonctions de base et plus particulièrement celui des fonctions d’enrichissement. Une question importante se pose alors : quelles conditions faut-il imposer sur les fonctions d’enrichissement afin qu’elles génèrent des éléments finis bien définis ?Dans cette thèse sont abordés différents aspects d’une approche générale d’enrichissement d’éléments finis. Notre première contribution porte principalement sur l’enrichissement de l’élément fini du type Q_1. Par contre, notre seconde contribution, certainement la plus importante, met l’accent sur une approche plus générale pour enrichir n’importe quel élément fini qu’il soit P_k, Q_k ou autres, conformes ou non conformes. Cette approche a conduit à l’obtention des versions enrichies de l’élément de Han, l’élément de Rannacher-Turek et l’élément de Wilson, qui font maintenant partie des codes d’éléments finis les plus couramment utilisés en milieu industriel. Pour établir ces extensions, nous avons eu recours à l’élaboration de nouvelles formules de quadrature multidimensionnelles appropriées généralisant les formules classiques bien connues en dimension 1, dites du “point milieu,” des “trapèzes” et de leurs versions perturbées, ainsi que la formule de Simpson. Elles peuvent être vues comme des extensions naturelles de ces formules en dimension supérieure. Ces dernières, en plus de leurs tests numériques implémentés sous MATLAB, version R2016a, ont fait l’objet de notre troisième contribution. Nous mettons particulièrement l’accent sur la détermination explicite des meilleures constantes possibles apparaissant dans les estimations d’erreur pour ces formules d’intégration. Enfin, dans la quatrième contribution nous testons notre approche pour résoudre numériquement le problème d’élasticité linéaire à l’aide d’un maillage rectangulaire. Nous effectuons l’analyse numérique aussi bien l’analyse de l’erreur d’approximation et résultats de convergence que l’analyse de l’erreur de consistance. Nous montrons également comment cette dernière peut être établie à n’importe quel ordre, généralisant ainsi certains travaux menés dans le domaine. Nous réalisons la mise en œuvre de la méthode et donnons quelques résultats numériques établis à l’aide de la bibliothèque libre d’éléments finis GetFEM++, version 5.0. Le but principal de cette partie sert aussi bien à la validation de nos résultats théoriques, qu’à montrer comment notre approche permet d’élargir la gamme de choix des fonctions d’enrichissement. En outre, elle permet de montrer comment cette large gamme de choix peut aider à avoir des solutions optimales et également à améliorer la validité et la qualité de l’espace d’approximation enrichie. / The enrichment of standard finite elements is a powerful tool to improve the quality of approximation. The main idea of this approach is to incorporate some additional functions on the set of basis functions. These latter are requested to improve the accuracy of the approximate solution. Their best choice is crucial and is based on the knowledge of some a priori information, such as the characteristics of the solution, the geometry of the problem to be solved, etc. The efficiency of such an approach for finding numerical solutions of partial differential equations using a fixed mesh, without recourse to refinement, was proved in numerous applications in the literature. However, the key to its success lies mainly on the best choice of the basis functions, and more particularly those of enrichment functions.An important question then arises: How to suitably choose them, in such a way that they generate a well-defined finite element ?In this thesis, we present a general approach that enables an enrichment of the finite element approximation. This was the subject of our first contribution, which was devoted to the enrichment of the classical Q_1 element, as a first step. As a second step, in our second contribution, we have developed a more general framework for enriching any finite element either P_k, Q_k or others, conforming or nonconforming. As an illustration of how to use this framework to build new enriched finite elements, we have introduced the extensions of some well-known nonconforming finite elements, notably, Han element, Rannacher-Turek element and Wilson element, which are now part of the main code of finite element methods. To establish these extensions, we have introduced a new family of multivariate versions of the classical trapezoidal, midpoint and Simpson rules. These latter, in addition to their numerical tests under MATLAB, version R2016a, have been the subject of our third contribution. They may be viewed as an extension of the well-known trapezoidal, midpoint and Simpson’s one-dimensional rules to higher dimensions. We particularly pay attention to the explicit expressions of the best possible constants appearing in the error estimates for these cubatute formulas. Finally, in the fourth contribution we apply our approach to numerically solving the linear elasticity problem based on a rectangular mesh. We carry out the numerical analysis of the approximation error and also for the consistency error, and show how the latter can be established to any order. This constitutes a generalization of some work already done in the field. In addition to our theoretical results, we have also made some numerical tests, which were achieved by using the GetFEM++ library, version 5.0. The aim of this contribution was not only to confirm our theoretical predictions, but also to show how the new developed framework allows us to expand the range of choices of enrichment functions. Furthermore, we have shown how this wide choices range can help us to improve some approximation properties and to get the optimal solutions for the particular problem of elasticity.
16

Communications à grande efficacité spectrale sur le canal à évanouissements

Lamy, Catherine 18 April 2000 (has links) (PDF)
du fait de l'explosion actuelle des télécommunications, les opérateurs sont victimes d'une crise de croissance les obligeant à installer toujours plus de relais, à découper les cellules (zone de couverture d'un relais) en micro-cellules dans les grandes villes, afin de faire face à la demande toujours grandissante de communications. Les concepteurs des nouveaux réseaux de transmission sont donc constamment à la recherche d'une utilisation plus efficace des ressources disponibles
17

Détection d'événements dans une séquence vidéo

Lefèvre, Sébastien 13 December 2002 (has links) (PDF)
Le problème abordé ici concerne l'indexation de données multimédia par la recherche d'extraits pertinents. Nos travaux se focalisent sur l'analyse de séquences vidéo afin d'y détecter des événements prédéfinis. La recherche de ces événements étant contextuelle, nous proposons une architecture et des outils génériques et rapides pour la mise en oeuvre de systèmes d'indexation spécifiques. Nous insistons notamment sur les problèmes suivants : la segmentation temporelle des données, la séparation du fond et des objets, la structuration du fond, le suivi des objets (rigides ou non, avec ou sans apprentissage) et l'analyse des données audio. Afin de résoudre ces différents problèmes, les outils génériques que nous proposons sont basés sur des analyses semi-locales, des approches multirésolution, des modèles de Markov cachées et la méthode des contours actifs. L'architecture et les outils introduits ici ont été validés au travers de plusieurs applications.
18

Efficient Content-based Retrieval in Parallel Databases of Images

Manjarrez Sanchez, Jorge 26 October 2009 (has links) (PDF)
Cette thèse porte sur le traitement des requêtes par similarité sur les données de haute dimensionnalité, notamment multimédias, et, parmi elles, les images plus particulièrement. Ces requêtes, notamment celles des k plus proches voisins (kNN), posent des problèmes de calcul de par la nature des données elles-mêmes et de la taille de la base des données. Nous avons étudié leurs performances quand une méthode de partitionnement est appliquée sur la base de données pour obtenir et exploiter des classes. Nous avons proposé une taille et un nombre optimaux de ces classes pour que la requête puisse être traitée en temps optimal et avec une haute précision. Nous avons utilisé la recherche séquentielle comme base de référence. Ensuite nous avons proposé des méthodes de traitement de requêtes parallèles sur une grappe de machines. Pour cela, nous avons proposé des méthodes d'allocation des données pour la recherche efficace des kNN en parallèle. Nous proposons de même, un nombre réduit de noeuds sur la grappe de machines permettant néanmoins des temps de recherche sous-linéaires et optimaux vis-à-vis des classes déterminées précédemment. Nous avons utilisé des donnés synthétiques et réelles pour les validations pratiques. Dans les deux cas, nous avons pu constater des temps de réponse et une qualité des résultats supérieurs aux méthodes existantes, lesquelles, au-delà d'un faible nombre des dimensions, deviennent inefficaces.
19

Cubes Émergents pour l'analyse des renversements de tendances dans les bases de données multidimensionnelles

Nedjar, Sébastien 23 November 2009 (has links) (PDF)
Découvrir des renversements de tendances entre deux cubes de données offre aux utilisateurs une connaissance nouvelle et intéressante lors des fluctuations de l'univers réel modélisé : quelles sont les nouveautés ? Quelle tendance apparaît ou disparaît ? Nous introduisons le nouveau concept de Cube Émergent. Il capture les renversements de tendances en mettant en œuvre une contrainte d'émergence (conjonction de contrainte monotones et antimonotones). Les bordures, classiques en fouille de données, sont reprises pour le Cube Émergent. Dans un second temps, nous proposons un nouveau couple de bordures pour optimiser à la fois l'espace de stockage et le temps de calcul. Cette nouvelle représentation fournit une caractérisation simple de la taille du Cube Émergent aussi bien que des outils de classification et de navigation dans les cubes. La connexion entre les bordures classiques et celles proposées est formellement établie en utilisant le concept de cube transversal. Connaître la taille du Cube Émergent est d'un grand intérêt, en particulier pour ajuster au mieux la contrainte d'émergence sous-jacente. Cette problématique est traitée en étudiant une borne supérieure et en caractérisant la taille exacte du Cube Émergent. Deux stratégies sont proposées pour estimer rapidement cette taille : la première est basée sur une estimation analytique, sans accès à la base de données, la seconde s'appuie sur un comptage probabiliste utilisant les bordures proposées comme entrée de l'algorithme proche de l'optimal HYPERLOGLOG. Grâce à la particulière efficacité de cet algorithme, plusieurs itérations peuvent être réalisées pour calibrer au mieux la contrainte d'émergence. De plus, des nouvelles représentations réduites et sans perte d'information du Cube Émergent sont proposées en utilisant le concept de fermeture cubique.
20

Caractérisation des propriétés mécaniques et électriques des matériaux composites par méthode holographique numérique 3D et analyse diélectrique

Karray, Mayssa 05 November 2012 (has links) (PDF)
Ce travail de thèse décrit l'application de méthodes d'analyse innovantes à la caractérisation des propriétésmécaniques et électriques de matériaux composites.Le Chapitre premier dresse un état de l'art des fondamentaux théoriques et pré requis nécessaires à lacompréhension du manuscrit. Un regard critique permet de dégager une stratégie pour l'analyse, basée d'une partsur des méthodes holographiques numériques et d'autre part sur des techniques de mesure diélectrique.Le Chapitre second est dédié au choix de la méthode d'holographie numérique. En particulier, la configurationimage montre quelques particularités qui sont analysées en détail : le rôle du diaphragme d'ouverture du systèmed'imagerie. Nous concluons que la méthode d'holographie de Fresnel présente des avantages d'achromatismepour les applications avec plusieurs longueurs d'onde.Le 3ème Chapitre présente deux applications de l'holographie numérique au contrôle de structures compositesincorporées avec des pastilles piézoélectriques dédiées à l'émission acoustique. Nous avons démontré en premiertemps, la possibilité d'analyser par holographie numérique de Fresnel en temps moyenné le comportementvibratoire des poutres composites excitées harmoniquement. Dans un second temps, on a montré que les pastillesutilisées influencent le comportement mécanique des matériaux en régime statique.Le Chapitre 4 présente l'analyse expérimentale et numérique des structures composites soumises à un essai decisaillement en flexion trois points rapprochés. Nous présentons les résultats obtenus pour des applications à deséchantillons lin/époxy et lin/carbone/époxy.Le 5ème Chapitre aborde l'analyse des propriétés diélectriques des composites renforcés par fibres de lin. Deuxtechniques expérimentales sont mises en oeuvre : la calorimétrie différentielle à balayage (DSC) et l'impédancemètre de type Novocontrol. Nous concluons que les fibres de lin seules dans le composite sont moinshydrophiles que celles incorporées avec des fibres de carbone, ce qui explique la meilleure adhérencefibres/matrice dans le premier cas.

Page generated in 0.0912 seconds