• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 31
  • 3
  • 1
  • 1
  • Tagged with
  • 93
  • 34
  • 31
  • 30
  • 22
  • 20
  • 17
  • 16
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Approches empiriques et modélisation statistique de la parole

Gilles, Adda 14 November 2011 (has links) (PDF)
Ce document décrit à la fois un parcours en modélisation statistique du langage et son application aux systèmes multilingues de traitement de la langue, où je relate mes travaux de recherches sur 28 années, en une présentation diachronique selon quelques grandes rubriques, et une prise de position pour la mise en place d'un cadre théorique et pratique permettant de faire émerger une science empirique de la parole. Cette science doit se fonder sur l'apport de toutes les sciences, du traitement automatique ou de la linguistique, dont l'objet d'étude est la parole. Au coeur de ce rapprochement se trouve l'idée que les systèmes automatiques peuvent être utilisés comme des instruments afin d'explorer les très grandes quantités de données à notre disposition et d'en tirer des connaissances nouvelles qui, en retour, permettront d'améliorer les modélisations utilisées en traitement automatique. Après une mise en perspective historique, où est rappelé en particulier la mise en place du paradigme de l'évaluation et le développement de la modélisation statistique de la parole, issue de la théorie de l'information, ainsi que les critiques que ces deux faits majeurs ont engendrées, nous aborderons quelques points théoriques et pratiques. Certaines questions épistémologiques concernant cette science empirique de la parole sont abordées : quel est le statut de la connaissance que nous produisons, comment la qualifier par rapport à d'autres sciences ? est-il possible d'autonomiser les sciences du langage en une véritable science, en essayant de trouver à la fois quel est son observable et le moyen d'améliorer la manière de l'observer, et d'en tirer des connaissances généralisables ? Nous détaillons en particulier la définition de l'observable, et l'étude du résiduel en tant que diagnostic de l'écart entre la modélisation et la réalité. Des propositions pratiques sont ensuite exposées concernant la structuration de la production scientifique et le développement de centres instrumentaux permettant la mutualisation du développement et de la maintenance de ces instruments complexes que sont les systèmes de traitement automatique de la parole.
62

Méthodes pour l'analyse des champs profonds extragalactiques MUSE : démélange et fusion de données hyperspectrales ;détection de sources étendues par inférence à grande échelle / Methods for the analysis of extragalactic MUSE deep fields : hyperspectral unmixing and data fusion;detection of extented sources with large-scale inference

Bacher, Raphael 08 November 2017 (has links)
Ces travaux se placent dans le contexte de l'étude des champs profonds hyperspectraux produits par l'instrument d'observation céleste MUSE. Ces données permettent de sonder l'Univers lointain et d'étudier les propriétés physiques et chimiques des premières structures galactiques et extra-galactiques. La première problématique abordée dans cette thèse est l'attribution d'une signature spectrale pour chaque source galactique. MUSE étant un instrument au sol, la turbulence atmosphérique dégrade fortement le pouvoir de résolution spatiale de l'instrument, ce qui génère des situations de mélange spectral pour un grand nombre de sources. Pour lever cette limitation, des approches de fusion de données, s'appuyant sur les données complémentaires du télescope spatial Hubble et d'un modèle de mélange linéaire, sont proposées, permettant la séparation spectrale des sources du champ. Le second objectif de cette thèse est la détection du Circum-Galactic Medium (CGM). Le CGM, milieu gazeux s'étendant autour de certaines galaxies, se caractérise par une signature spatialement diffuse et de faible intensité spectrale. Une méthode de détection de cette signature par test d'hypothèses est développée, basée sur une stratégie de max-test sur un dictionnaire et un apprentissage des statistiques de test sur les données. Cette méthode est ensuite étendue pour prendre en compte la structure spatiale des sources et ainsi améliorer la puissance de détection tout en conservant un contrôle global des erreurs. Les codes développés sont intégrés dans la bibliothèque logicielle du consortium MUSE afin d'être utilisables par l'ensemble de la communauté. De plus, si ces travaux sont particulièrement adaptés aux données MUSE, ils peuvent être étendus à d'autres applications dans les domaines de la séparation de sources et de la détection de sources faibles et étendues. / This work takes place in the context of the study of hyperspectral deep fields produced by the European 3D spectrograph MUSE. These fields allow to explore the young remote Universe and to study the physical and chemical properties of the first galactical and extra-galactical structures.The first part of the thesis deals with the estimation of a spectral signature for each galaxy. As MUSE is a terrestrial instrument, the atmospheric turbulences strongly degrades the spatial resolution power of the instrument thus generating spectral mixing of multiple sources. To remove this issue, data fusion approaches, based on a linear mixing model and complementary data from the Hubble Space Telescope are proposed, allowing the spectral separation of the sources.The second goal of this thesis is to detect the Circum-Galactic Medium (CGM). This CGM, which is formed of clouds of gas surrounding some galaxies, is characterized by a spatially extended faint spectral signature. To detect this kind of signal, an hypothesis testing approach is proposed, based on a max-test strategy on a dictionary. The test statistics is learned on the data. This method is then extended to better take into account the spatial structure of the targets, thus improving the detection power, while still ensuring global error control.All these developments are integrated in the software library of the MUSE consortium in order to be used by the astrophysical community.Moreover, these works can easily be extended beyond MUSE data to other application fields that need faint extended source detection and source separation methods.
63

Combinaison des techniques de Bounded Model Checking et de programmation par contraintes pour l'aide à la localisation d'erreurs : exploration des capacités des CSP pour la localisation d'erreurs / Combining techniques of Bounded Model Checking and constraint programming to aid for error localization : exploration of CSP capacities for error localization

Bekkouche, Mohammed 11 December 2015 (has links)
Un vérificateur de modèle peut produire une trace de contreexemple, pour un programme erroné, qui est souvent difficile à exploiter pour localiser les erreurs dans le code source. Dans ma thèse, nous avons proposé un algorithme de localisation d'erreurs à partir de contreexemples, nommé LocFaults, combinant les approches de Bounded Model Checking (BMC) avec un problème de satisfaction de contraintes (CSP). Cet algorithme analyse les chemins du CFG (Control Flow Graph) du programme erroné pour calculer les sous-ensembles d'instructions suspectes permettant de corriger le programme. En effet, nous générons un système de contraintes pour les chemins du graphe de flot de contrôle pour lesquels au plus k instructions conditionnelles peuvent être erronées. Ensuite, nous calculons les MCSs (Minimal Correction Sets) de taille limitée sur chacun de ces chemins. La suppression de l'un de ces ensembles de contraintes donne un sous-ensemble satisfiable maximal, en d'autres termes, un sous-ensemble maximal de contraintes satisfaisant la postcondition. Pour calculer les MCSs, nous étendons l'algorithme générique proposé par Liffiton et Sakallah dans le but de traiter des programmes avec des instructions numériques plus efficacement. Cette approche a été évaluée expérimentalement sur des programmes académiques et réalistes. / A model checker can produce a trace of counter-example for erroneous program, which is often difficult to exploit to locate errors in source code. In my thesis, we proposed an error localization algorithm from counter-examples, named LocFaults, combining approaches of Bounded Model-Checking (BMC) with constraint satisfaction problem (CSP). This algorithm analyzes the paths of CFG (Control Flow Graph) of the erroneous program to calculate the subsets of suspicious instructions to correct the program. Indeed, we generate a system of constraints for paths of control flow graph for which at most k conditional statements can be wrong. Then we calculate the MCSs (Minimal Correction Sets) of limited size on each of these paths. Removal of one of these sets of constraints gives a maximal satisfiable subset, in other words, a maximal subset of constraints satisfying the postcondition. To calculate the MCSs, we extend the generic algorithm proposed by Liffiton and Sakallah in order to deal with programs with numerical instructions more efficiently. This approach has been experimentally evaluated on a set of academic and realistic programs.
64

Determination of the stress field in polycrystalline materials by Laue microdiffraction / Détermination du champ de contraintes dans les matériaux cristallins par microdiffraction Laue

Zhang, Fengguo 07 July 2015 (has links)
La microdiffraction Laue permet l'estimation des déformations élastiques à l'échelle du micron. La procédure d'analyse standard, bien établie, utilisée pour extraire les déformations élastiques des images de Laue est limitée par deux sources d'erreurs : la détermination de la positions des taches de Laue sur le détecteur, et la sensibilité aux paramètres de calibration du montage. Pour améliorer la procédure, nous avons développé une procédure appelée Laue-DIC qui utilise la très bonne résolution de la technique de corrélation d'images numériques (DIC). Cette méthode utilise, pour la détermination de l'incrément de déformation élastique et de rotation, le déplacement des pics entre deux configurations mécaniques, estimé par DIC, au lieu de leur position. Nous montrons que cette méthode donne un profil de contrainte en meilleur accord avec les solutions analytiques et numériques, pour des échantillons monocristallins déformés en flexion 4-points. Nous proposons également une méthode Laue-DIC améliorée, dans laquelle les paramètres de calibration sont estimés à chaque point de mesure, simultanément à la déformation élastique.En parallèle à la formulation de la méthode Laue-DIC (améliorée), nos efforts ont porté sur l'estimation de l'incertitude obtenue sur les déformations élastiques. Nous avons développé un modèle de bruit pour les images de Laue mesurées en rayonnement synchrotron, qui a été validé sur des séries de données, et qui nous a permis d'estimer les erreurs statistiques de la DIC, à partir d'images de Laue synthétiques. Ces erreurs ont ensuite été propagées dans la méthode Laue-DIC afin d'estimer les incertitudes sur les déformations élastiques, que l'on trouve en bon accord avec la fluctuation des contraintes locales estimées. / Laue microdiffraction is a powerful technique to characterize the intragranular elastic strain field at the scale of micrometer. Although a standard procedure extracting elastic strain and crystal orientation from Laue image has been well-established, it can suffer from two sources of uncertainties: the determination of peaks' positions and the sensitivity to calibration parameters. In light of the high accuracy of digital image correlation (DIC), we developed the so-called Laue-DIC method which used the peaks' displacements measured by DIC instead of peaks' positions to determine the elastic strain increment and rotation between two mechanical configurations. This method has been proved more efficient than the standard procedure in terms of stress profiles of bended beam. We also developed the enhanced version of Laue-DIC. By using the term “enhanced”, we mean that we attempt to obtain both lattice matrices and calibration parameters of two configurations rather than solely the elastic strain increment and rotation from peaks' displacements.Aside from the formulation of Laue-DIC, we also developed a procedure of statistically estimating the errors of elastic strain/stress resulted from DIC errors and calibration accuracy. We have first validated a classical noise model, Poissonian-Gaussian model, from diffraction images acquired at synchrotron radiation facility. With the noise model, we could statistically estimate the DIC errors by synthesizing artificial spots. The estimated DIC errors were further transmitted into the errors of Laue-DIC through statistical tests.
65

Analyse et développement de méthodes de raffinement hp en espace pour l'équation de transport des neutrons

Fournier, Damien 10 October 2011 (has links)
Pour la conception des cœurs de réacteurs de 4ème génération, une précision accrue est requise pour les calculs des différents paramètres neutroniques. Les ressources mémoire et le temps de calcul étant limités, une solution consiste à utiliser des méthodes de raffinement de maillage afin de résoudre l'équation de transport des neutrons. Le flux neutronique, solution de cette équation, dépend de l'énergie, l'angle et l'espace. Les différentes variables sont discrétisées de manière successive. L'énergie avec une approche multigroupe, considérant les différentes grandeurs constantes sur chaque groupe, l'angle par une méthode de collocation, dite approximation Sn. Après discrétisation énergétique et angulaire, un système d'équations hyperboliques couplées ne dépendant plus que de la variable d'espace doit être résolu. Des éléments finis discontinus sont alors utilisés afin de permettre la mise en place de méthodes de raffinement dite hp. La précision de la solution peut alors être améliorée via un raffinement en espace (h-raffinement), consistant à subdiviser une cellule en sous-cellules, ou en ordre (p-raffinement) en augmentant l'ordre de la base de polynômes utilisée.Dans cette thèse, les propriétés de ces méthodes sont analysées et montrent l'importance de la régularité de la solution dans le choix du type de raffinement. Ainsi deux estimateurs d'erreurs permettant de mener le raffinement ont été utilisés. Le premier, suppose des hypothèses de régularité très fortes (solution analytique) alors que le second utilise seulement le fait que la solution est à variations bornées. La comparaison de ces deux estimateurs est faite sur des benchmarks dont on connaît la solution exacte grâce à des méthodes de solutions manufacturées. On peut ainsi analyser le comportement des estimateurs au regard de la régularité de la solution. Grâce à cette étude, une stratégie de raffinement hp utilisant ces deux estimateurs est proposée et comparée à d'autres méthodes rencontrées dans la littérature. L'ensemble des comparaisons est réalisé tant sur des cas simplifiés où l'on connaît la solution exacte que sur des cas réalistes issus de la physique des réacteurs.Ces méthodes adaptatives permettent de réduire considérablement l'empreinte mémoire et le temps de calcul. Afin d'essayer d'améliorer encore ces deux aspects, on propose d'utiliser des maillages différents par groupe d'énergie. En effet, l'allure spatiale du flux étant très dépendante du domaine énergétique, il n'y a a priori aucune raison d'utiliser la même décomposition spatiale. Une telle approche nous oblige à modifier les estimateurs initiaux afin de prendre en compte le couplage entre les différentes énergies. L'étude de ce couplage est réalisé de manière théorique et des solutions numériques sont proposées puis testées. / The different neutronic parameters have to be calculated with a higher accuracy in order to design the 4th generation reactor cores. As memory storage and computation time are limited, adaptive methods are a solution to solve the neutron transport equation. The neutronic flux, solution of this equation, depends on the energy, angle and space. The different variables are successively discretized. The energy with a multigroup approach, considering the different quantities to be constant on each group, the angle by a collocation method called Sn approximation. Once the energy and angle variable are discretized, a system of spatially-dependent hyperbolic equations has to be solved. Discontinuous finite elements are used to make possible the development of $hp-$refinement methods. Thus, the accuracy of the solution can be improved by spatial refinement (h-refinement), consisting into subdividing a cell into subcells, or by order refinement (p-refinement), by increasing the order of the polynomial basis.In this thesis, the properties of this methods are analyzed showing the importance of the regularity of the solution to choose the type of refinement. Thus, two error estimators are used to lead the refinement process. Whereas the first one requires high regularity hypothesis (analytical solution), the second one supposes only the minimal hypothesis required for the solution to exist. The comparison of both estimators is done on benchmarks where the analytic solution is known by the method of manufactured solutions. Thus, the behaviour of the solution as a regard of the regularity can be studied. It leads to a hp-refinement method using the two estimators. Then, a comparison is done with other existing methods on simplified but also realistic benchmarks coming from nuclear cores.These adaptive methods considerably reduces the computational cost and memory footprint. To further improve these two points, an approach with energy-dependent meshes is proposed. Actually, as the flux behaviour is very different depending on the energy, there is no reason to use the same spatial discretization. Such an approach implies to modify the initial estimators in order to take into account the coupling between groups. This study is done from a theoretical as well as from a numerical point of view.
66

Résultants de polynômes de Ore et Cryptosystèmes de McEliece sur des Codes Rang faiblement structurés / Resultants of Ore polynomials and McEliece Cryptosystems based on weakly structured Rank Codes

Murat, Gaetan 09 December 2014 (has links)
Les techniques de chiffrement les plus utilisées en cryptographie, basées sur des problèmes de théorie des nombres, présentent malgré leur efficacité des défauts notamment une vulnérabilité aux attaques menées à l'aide d'ordinateur quantiques. Il est donc pertinent d'étudier d'autres familles de cryptosystèmes. Nous nous intéressons ici aux cryptosystèmes basés sur les codes correcteurs, introduits par McEliece en 1978 qui, étant basés sur des problèmes difficiles de théorie des codes, ne présentent pas cette vulnérabilité. Ces cryptosystèmes présentent des inconvénients, qui font qu'ils sont peu utilisés en pratique. Selon le code choisi, ils peuvent être vulnérables aux attaques structurelles, mais surtout ils nécessitent des clés de taille très importante.Récemment une nouvelle famille de codes appelés codes MDPC a été introduite ainsi qu'un cryptosystème basé sur cette famille de codes. Les codes MDPC semblent être distinguables seulement en trouvant des mots de poids faibles dans leur dual, les affranchissant ainsi d'une éventuelle vulnérabilité aux attaques structurelles. De plus, en utilisant une des matrices quasi-cycliques, ils obtiennent des clés de taille très compacte.Nous avons pour notre part, travaillé dans le contexte de la métrique rang, une nouvelle métrique introduite en 1985 par Gabidulin qui semble bien adaptée à une utilisation en cryptographie :• Nous avons commencé par travailler autour de la notion de polynôme de Ore et le cas particulier important des q-polynômes. Ces derniers sont des combinaisons linéaires des itérés de l'automorphisme de Frobenius sur un corps fini.Ces polynômes constituent un objet d'étude important en métrique rang, de par leur utilisation dans les premiers cryptosystèmes dans cette métrique. Nous présentons sous une nouvelle forme des résultats déjà connus, et de nouveaux algorithmes pour le calcul du PGCD de deux polynômes de Ore et le calcul des résultants et sous-résultants de polynômes de Ore (ainsi que de polynômes usuels en généralisant au calcul des sous-résultants la formule déjà connue pour les résultants) en utilisant une matrice de multiplication à droite plus petite que la matrice de Sylvester utilisée habituellement.Ces résultats peuvent être réexploités indirectement dans le cryptosystème présenté par la suite bien que celui-ci ne soit pas basé sur les q-polynômes.• La partie suivante de notre travail est consacrée à l'introduction d'une nouvelle famille de codes en métrique rang appelés codes LRPC (pour Low Rank Parity Check codes). Ces codes ont la particularité d'avoir une matrice de parité de poids rang faible (et peuvent donc être vus comme une généralisation des codes LDPC ou MDPC à la métrique rang).Nous présentons le cryptosystème LRPC, un cryptosystème de type Mc Eliece en métrique rang basé sur les codes LRPC. Ces codes sont très peu structurés et sont donc vraisemblablement résistants aux attaques structurelles. La matrice de parité peut être choisie doublement circulante (on parle alors de codes DC-LRPC) ce qui diminue considérablement la taille de la clé.Ainsi, le cryptosystème DC-LRPC cumule les avantages d'offrir une bonne sécurité en étant basé sur un problème difficile (comme tous les cryptosystèmes basés sur les codes correcteurs), d'être faiblement structurés, de disposer d'une clé de taille assez petite (quelques milliers de bits au plus) et d'un algorithme de décodage efficace.Une attaque a été trouvée dans le cas du cryptosystème DC-LRPC. Cette attaque basée sur la notion de code replié permet de baisser significativement la sécurité du cryptosystème dans le cas où le polynôme X^(k-1)+X^(k-2)+⋯+1 est scindable (k désignant la dimension du code). Cependant ce n'est pas le cas pour les paramètres présentés où le cryptosystème reste valide. / The most commonly used encryption techniques in cryptography are based on problems in number theory. Despite their efficiency, they are vulnerable to post-quantum cryptographic attack. Therefore it is relevant to study other types of cryptosystems. In this work we study error-corrector codes based cryptosystmems, introduced by McEliece in 1978 ; being based on hard problems in coding theory, these cryptosystems do not have this weakness. However these cryptosystems are almost not used in practice because they are vulnerable to strucural attacks and they require a key with very big length. Recently a new family of codes named MDPC codes has been introduced as well as a cryptosystem that is based on these codes. It seems that MDPC codes are distinguishable only by finding words with weak weight in their dual, thus preventing them from structural attacks. Furthermore, they can have compact keys by using quasi-cyclic matrices.In the present paper we use the rank metric, a new metric for codes that was introduced by Gabidulin in and seems suited for a cryptographic use :• At first we studied Ore Polynomials and the special case of q-polynomials , the latter being iterates of the Fobenius automorphism on a finite field.These polynomials are widely in rank metric due to their use in the first code-based cryptosystems in rank metric. We reformulate already known results and give new results regarding the computation of GCD, resultants and subresultants of two Ore polynomials (as well as usual polynomials for which we give a generalization of the resultant computation to subresultants) using a right-hand multiplication matrix which is smaller than the well-known Sylvester matrix.These results may be reused in the cryptosystem we introduce in the next chapters, though this cryptosystem is not based on q-polynomials.• In the next part of our work we define the LRPC codes (for Low Rank Parity Check Codes), a new family of codes in rank metric. These codes have a parity check matrix whose rank weight is low (and thus they can be seen as a generalization of LDPC or MDPC codes to rank metric).We present the LRPC cryptosystem, a McEliece cryptosystem in rank metric based on LRPC codes. These codes are weakly structured and so are likely to resist structural attacks. We can choose a double-circulant parity check matrix which greatly lowers the key size (we name these particular codes DC-LRPC codes).Thus the DC-LRPC cryptosystems have a good security (being based on a hard problem in coding theory), are weakly structured, have small public keys and can be quickly decoded.An attack was found for DC-LRPC cryptosystem. This attack relies on folded codes and may greatly lower the security of the cryptosystem, however it works only when the polynomial X^(k-1)+X^(k-2)+⋯+1 has a divisor with big degree. We give parameters for which the cryptosystem remains valid.
67

Modélisation et simulation du mouvement de structures fines dans un fluide visqueux : application au transport mucociliaire / Modelling and simulation of the movement of thin structures in a viscous fluid : application to the muco-ciliary transport

Lacouture, Loïc 23 June 2016 (has links)
Une grande part des muqueuses à l’intérieur du corps humain sont recouvertes de cils qui, par leurs mouvements coordonnés, conduisent à une circulation de la couche de fluide nappant la muqueuse. Dans le cas de la paroi interne des bronches, ce processus permet l’évacuation des impuretés inspirées à l’extérieur de l’appareil respiratoire.Dans cette thèse, nous nous intéressons aux effets du ou des cils sur le fluide, en nous plaçant à l’échelle du cil, et on considère pour cela les équations de Stokes incompressible. Due à la finesse du cil, une simulation directe demanderait un raffinement important du maillage au voisinage du cil, pour un maillage qui évoluerait à chaque pas de temps. Cette approche étant trop onéreuse en terme de coûts de calculs, nous avons considéré l’asymptotique d’un diamètre du cil tendant vers 0 et d’une vitesse qui tend vers l’infini : le cil est modélisé par un Dirac linéique de forces en terme source. Nous avons montré qu’il était possible de remplacer ce Dirac linéique par une somme de Dirac ponctuels distribués le long du cil. Ainsi, nous nous sommes ramenés, par linéarité, à étudier le problème de Stokes avec en terme source une force ponctuelle. Si les calculs sont ainsi simplifiés (et leurs coûts réduits), le problème final est lui plus singulier, ce qui motive une analyse numérique fine et l’élaboration d’une nouvelle méthode de résolution.Nous avons d’abord étudié une version scalaire de ce problème : le problème de Poisson avec une masse de Dirac en second membre. La solution exacte étant singulière, la solution éléments finis est à définir avec précaution. La convergence de la méthode étant dégradée dans ce cas-là, par rapport à celle dans le cas régulier, nous nous sommes intéressés à des estimations locales. Nous avons démontré une convergence quasi-optimale en norme Hs (s ě 1) sur un sous-domaine qui exclut la singularité. Des résultats analogues ont été obtenus dans le cas du problème de Stokes.Pour palier les problèmes liés à une mauvais convergence sur l’ensemble du domaine, nous avons élaboré une méthode pour résoudre des problème elliptiques avec une masse de Dirac ou une force ponctuelle en terme source. Basée sur celle des éléments finis standard, elle s’appuie sur la connaissance explicite de la singularité de la solution exacte. Une fois données la position de chacun des cils et leur paramétrisation, notre méthode rend possible la simulation directe en 3d d’un très grand nombre de cils. Nous l’avons donc appliquée au cas du transport mucociliaire dans les poumons. Cet outil numérique nous donne accès à des informations que l’on ne peut avoir par l’expérience, et permet de simuler des cas pathologiques comme par exemple une distribution éparse des cils. / Numerous mucous membranes inside the human body are covered with cilia which, by their coordinated movements, lead to a circulation of the layer of fluid coating the mucous membrane, which allows, for example, in the case of the internal wall of the bronchi, the evacuation of the impurities inspired outside the respiratory system.In this thesis, we integrate the effects of the cilia on the fluid, at the scale of the cilium. For this, we consider the incompressible Stokes equations. Due to the very small thickness of the cilia, the direct computation would request a time-varying mesh grading around the cilia. To avoid too prohibitive computational costs, we consider the asymptotic of a zero diameter cilium with an infinite velocity: the cilium is modelled by a lineic Dirac of force in source term. In order to ease the computations, the lineic Dirac of forces can be approached by a sum of punctual Dirac masses distributed along the cilium. Thus, by linearity, we have switched our initial problem with the Stokes problem with a punctual force in source term. Thus, we simplify the computations, but the final problem is more singular than the initial problem. The loss of regularity involves a deeper numerical analysis and the development of a new method to solve the problem.We have first studied a scalar version of this problem: Poisson problem with a Dirac right-hand side. The exact solution is singular, therefore the finite element solution has to be defined with caution. In this case, the convergence is not as good as in the regular case, and thus we focused on local error estimates. We have proved a quasi-optimal convergence in H1-norm (s ď 1) on a sub-domain which does not contain the singularity. Similar results have been shown for the Stokes problem too.In order to recover an optimal convergence on the whole domain, we have developped a numerical method to solve elliptic problems with a Dirac mass or a punctual force in source term. It is based on the standard finite element method and the explicit knowl- edge of the singularity of the exact solution. Given the positions of the cilia and their parametrisations, this method permits to compute in 3d a very high number of cilia. We have applied this to the study of the mucociliary transport in the lung. This numerical tool gives us information we do not have with the experimentations and pathologies can be computed and studied by this way, like for example a small number of cilia.
68

Détection d'erreurs et confinement logiciel : une évaluation empirique

Perron, Sébastien January 2021 (has links) (PDF)
No description available.
69

Correction de données de séquençage de troisième génération / Error correction of third-generation sequencing data

Morisse, Pierre 26 September 2019 (has links)
Les objectifs de cette thèse s’inscrivent dans la large problématique du traitement des données issues de séquenceurs à très haut débit, et plus particulièrement des reads longs, issus de séquenceurs de troisième génération.Les aspects abordés dans cette problématiques se concentrent principalement sur la correction des erreurs de séquençage, et sur l’impact de la correction sur la qualité des analyses sous-jacentes, plus particulièrement sur l’assemblage. Dans un premier temps, l’un des objectifs de cette thèse est de permettre d’évaluer et de comparer la qualité de la correction fournie par les différentes méthodes de correction hybride (utilisant des reads courts en complément) et d’auto-correction (se basant uniquement sur l’information contenue dans les reads longs) de l’état de l’art. Une telle évaluation permet d’identifier aisément quelle méthode de correction est la mieux adaptée à un cas donné, notamment en fonction de la complexité du génome étudié, de la profondeur de séquençage, ou du taux d’erreurs des reads. De plus, les développeurs peuvent ainsi identifier les limitations des méthodes existantes, afin de guider leurs travaux et de proposer de nouvelles solutions visant à pallier ces limitations. Un nouvel outil d’évaluation, proposant de nombreuses métriques supplémentaires par rapport au seul outil disponible jusqu’alors, a ainsi été développé. Cet outil, combinant une approche par alignement multiple à une stratégie de segmentation, permet également une réduction considérable du temps nécessaire à l’évaluation. À l’aide de cet outil, un benchmark de l’ensemble des méthodes de correction disponibles est présenté, sur une large variété de jeux de données, de profondeur de séquençage, de taux d’erreurs et de complexité variable, de la bactérie A. baylyi à l’humain. Ce benchmark a notamment permis d’identifier deux importantes limitations des outils existants : les reads affichant des taux d’erreurs supérieurs à 30%, et les reads de longueur supérieure à 50 000 paires de bases. Le deuxième objectif de cette thèse est alors la correction des reads extrêmement bruités. Pour cela, un outil de correction hybride, combinant différentes approches de l’état de l’art, a été développé afin de surmonter les limitations des méthodes existantes. En particulier, cet outil combine une stratégie d’alignement des reads courts sur les reads longs à l’utilisation d’un graphe de de Bruijn, ayant la particularité d’être d’ordre variable. Le graphe est ainsi utilisé afin de relier les reads alignés, et donc de corriger les régions non couvertes des reads longs. Cette méthode permet ainsi de corriger des reads affichant des taux d’erreurs atteignant jusqu’à 44%, tout en permettant un meilleur passage à l’échelle sur de larges génomes et une diminution du temps de traitement, par rapport aux méthodes de l’état de l’art les plus efficaces. Enfin, le troisième objectif de cette thèse est la correction des reads extrêmement longs. Pour cela, un outil utilisant cette fois une approche par auto-correction a été développé, en combinant, de nouveau, différentes méthodologies de l’état de l’art. Plus précisément, une stratégie de calcul des chevauchements entre les reads, puis une double étape de correction, par alignement multiple puis par utilisation de graphes de de Bruijn locaux, sont utilisées ici. Afin de permettre à cette méthode de passer efficacement à l’échelle sur les reads extrêmement longs, la stratégie de segmentation mentionnée précédemment a été généralisée. Cette méthode d’auto-correction permet ainsi de corriger des reads atteignant jusqu’à 340 000 paires de bases, tout en permettant un excellent passage à l’échelle sur des génomes plus complexes, tels que celui de l’humain. / The aims of this thesis are part of the vast problematic of high-throughput sequencing data analysis. More specifically, this thesis deals with long reads from third-generation sequencing technologies. The aspects tackled in this topic mainly focus on error correction, and on its impact on downstream analyses such a de novo assembly. As a first step, one of the objectives of this thesis is to evaluate and compare the quality of the error correction provided by the state-of-the-art tools, whether they employ a hybrid (using complementary short reads) or a self-correction (relying only on the information contained in the long reads sequences) strategy. Such an evaluation allows to easily identify which method is best tailored for a given case, according to the genome complexity, the sequencing depth, or the error rate of the reads. Moreover, developpers can thus identify the limiting factors of the existing methods, in order to guide their work and propose new solutions allowing to overcome these limitations. A new evaluation tool, providing a wide variety of metrics, compared to the only tool previously available, was thus developped. This tool combines a multiple sequence alignment approach and a segmentation strategy, thus allowing to drastically reduce the evaluation runtime. With the help of this tool, we present a benchmark of all the state-of-the-art error correction methods, on various datasets from several organisms, spanning from the A. baylyi bacteria to the human. This benchmark allowed to spot two major limiting factors of the existing tools: the reads displaying error rates above 30%, and the reads reaching more than 50 000 base pairs. The second objective of this thesis is thus the error correction of highly noisy long reads. To this aim, a hybrid error correction tool, combining different strategies from the state-of-the-art, was developped, in order to overcome the limiting factors of existing methods. More precisely, this tool combines a short reads alignmentstrategy to the use of a variable-order de Bruijn graph. This graph is used in order to link the aligned short reads, and thus correct the uncovered regions of the long reads. This method allows to process reads displaying error rates as high as 44%, and scales better to larger genomes, while allowing to reduce the runtime of the error correction, compared to the most efficient state-of-the-art tools.Finally, the third objectif of this thesis is the error correction of extremely long reads. To this aim, aself-correction tool was developed, by combining, once again, different methologies from the state-of-the-art. More precisely, an overlapping strategy, and a two phases error correction process, using multiple sequence alignement and local de Bruijn graphs, are used. In order to allow this method to scale to extremely long reads, the aforementioned segmentation strategy was generalized. This self-correction methods allows to process reads reaching up to 340 000 base pairs, and manages to scale very well to complex organisms such as the human genome.
70

Impacts des non-linéarités dans les systèmes multi-porteuses de type FBMC-OQAM / OFDM-FBMC performance in presence of non-linear high power amplifier

Bouhadda, Hanen 22 March 2016 (has links)
Dans cette thèse une étude des performances des systèmes OFDM et FBMC/OQAM en présence d'amplificateur de puissance sans mémoire en terme de TEB est présentée. Ensuite, nous avons proposé une technique de linéarisation d'AP par pré-distorsion adaptative neuronale. Aussi, nous avons proposé deux techniques de correction des non-linéarités au niveau du récepteur. / In our work, we have studied the impact of in-band non linear distortions caused by PA on both OFDM and FBMC/OQAM systems. A theoretical approach was proposed to evaluate the BER performance for the two systems. This approach is based on modeling the in-band non-linear distortion with a complex gain and an uncorrelated additive white Gaussian noise, given by the Bussgang theorem. Then, we have proposed different techniques to compensate this NLD either on the transmitter or the receiver sides.

Page generated in 0.0922 seconds