• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 16
  • 2
  • Tagged with
  • 51
  • 32
  • 26
  • 21
  • 18
  • 18
  • 18
  • 17
  • 16
  • 16
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Shape οptimizatiοn and applicatiοns tο hydraulic structures : mathematical analysis and numerical apprοximatiοn / Optimisation de forme et applications aux ouvrages hydrauliques : analyse mathématique et approximation numérique

Kadiri, Mostafa 10 July 2019 (has links)
Nous nous intéressons à l’étude théorique et numérique de plusieurs modèles d’écoulement (Saint-Venant, multicouches, milieux poreux stationnaires et non stationnaires) et de leurs applications à l’optimisation de formes de certains ouvrages hydrauliques. Nous explorons le caractère bien posé des systèmes, nous dérivons un système adjoint lié à chaque modèle.Une méthode de pénalisation est utilisée pour relaxer la contrainte d’incompressibilité de la vitesse.Nous exprimons le gradient de forme en fonction de la vitesse u comme variable d’état, des variables adjointes, et le vecteur unité normal au bord du domaine.Nous adoptons une méthode d’éléments finis discrète pour approcher la solution du problème pénalisé et établissons des estimations à priori afin de prouver la convergence de la solution approchée vers la solution du système non perturbé.Le problème d’optimisation est implémenté en utilisant la méthode adjointe continue et la méthode d’éléments finis. / We are interested in the theoretical and numerical study of different flow models (shallow water system, multilayer, stationary and non stationary porous media) and their applications to the shape optimization of some hydraulic structures.We explore the well-posedness of the models and derive the adjoint equations related to each system.A penalty method is used to relax the incompressibility constraint for the velocity. We express the shape gradient of the cost function in terms of the velocity value as a state variable, the adjoint variables and the unit normal vector to the boundary of the domain.We propose a discrete finite element method to approximate the solution for the penalizedproblem and establish a priori estimates to prove the convergence of the approximate solution to the solution of the non perturbed problem. Error estimates for the velocity and the pressure are established.The optimization procedure is implemented using the continuous adjoint method and the finite element method.
12

Generative models for natural images

Ahmed, Faruk 08 1900 (has links)
No description available.
13

Extraction d'information dans des documents manuscrits non contraints : application au traitement automatique des courriers entrants manuscrits

Thomas, S. 12 July 2012 (has links) (PDF)
Malgré l'entrée récente de notre monde dans l'ère du tout numérique, de nombreux documents manuscrits continuent à s'échanger, obligeant nos sociétés et administrations à faire face au traitement de ces masses de documents. Le traitement automatique de ces documents nécessite d'accéder à un échantillon inconnu mais pertinent de leur contenu et implique de prendre en compte trois points essentiels : la segmentation du document en entités comparable à l'information recherchée, la reconnaissance de ces entités recherchées et le rejet des entités non pertinentes. Nous nous démarquons des approches classiques de lecture complète de documents et de détection de mots clés en parallélisant ces trois traitements en une approche d'extraction d'information. Une première contribution réside dans la conception d'un modèle de ligne générique pour l'extraction d'information et l'implémentation d'un système complet à base de modèles de Markov cachés (MMC) construit autour de ce modèle. Le module de reconnaissance cherche, en une seule passe, à discriminer l'information pertinente, caractérisée par un ensemble de requêtes alphabétiques, numériques ou alphanumériques, de l'information non pertinente, caractérisée par un modèle de remplissage. Une seconde contribution réside dans l'amélioration de la discrimination locale des observations des lignes par l'utilisation d'un réseau de neurones profond. Ce dernier permet également d'inférer une représentation de haut niveau des observations et donc d'automatiser le processus d'extraction des caractéristiques. Il en résulte un système complet, générique et industrialisable, répondant à des besoins émergents dans le domaine de la lecture automatique de documents manuscrits : l'extraction d'informations complexes dans des documents non-contraints.
14

Modélisation et analyse des systèmes à paramètres distribués non linéaires par la méthode de Boltzmann sur réseau : application aux écoulements à surface libre

Anda Ondo, Diemer 09 July 2013 (has links) (PDF)
Nous étudions dans cette thèse, composée de deux parties, la modélisation des écoulements en eaux peu profondes par la méthode de Boltzmann sur réseau et l'analyse des propriétés de commandabilité et d'observabilité des modèles obtenus. Dans la première partie, nous nous consacrons d'abord à la modélisation par la méthode de Boltzmann sur réseau des équations de Saint-Venant. En utilisant une linéarisation autour d'un profil d'équilibre, une représentation sous forme d'état des modèles de Boltzmann sur réseau est définie. Cette représentation incorpore les termes de force, et permet une définition complète des entrées (commandes) et des sorties (mesures). Nous représentons ensuite les phénomènes de sédimentation dans les écoulements en eaux peu profondes avec la méthode de Boltzmann sur réseau. Ce modèle défini en une dimension est validé numériquement en le comparant avec un modèle de volumes finis qui résout les équations de Saint-Venant-Exner. Le modèle LB défini est moins gourmand en temps de calcul et plus facile à manipuler que les modèles traditionnels. Dans la deuxième partie, nous traitons de l'analyse des propriétés de commandabilit é et d'observabilité des modèles LB obtenus. La première analyse est faite sur les critères algébriques de Kalmann et permet d'établir la non conservation des propriétés de commandabilité et d'observabilité lorsque l'ordre de réduction du système est augmenté. Une analyse plus approfondie basée sur la détermination les grammiens de commandabilit é et d'observabilité montre également que le constat reste valide pour les méthodes de discrétisation classique. La résolution des grammiens est faite avec des méthodes particulièrement adaptées aux structures creuses et de grande dimension que sont les matrices de la dynamique, de commande et/ou d'observation des modèles LB. Enfin, nous établissons que pour une commande aux frontières classique des canaux d'irrigation en débit et hauteur, la famille de systèmes des modèles LB d'ordre réduit n'est pas uniformément commandable alors qu'avec l'utilisation des variables de scattering comme variables de commande, cette famille devient uniformément commandable.
15

Modélisation et analyse des systèmes à paramètres distribués non linéaires par la méthode de Boltzmann sur réseau : application aux écoulements à surface libre / Modelling and analysis of nonlinear distributed parameters systems using the Lattice Boltzmann method : application to free surface shallow water

Anda Ondo, Diemer 09 July 2013 (has links)
Nous étudions dans cette thèse, composée de deux parties, la modélisation des écoulements en eaux peu profondes par la méthode de Boltzmann sur réseau et l'analyse des propriétés de commandabilité et d'observabilité des modèles obtenus. Dans la première partie, nous nous consacrons d'abord à la modélisation par la méthode de Boltzmann sur réseau des équations de Saint-Venant. En utilisant une linéarisation autour d'un profil d'équilibre, une représentation sous forme d'état des modèles de Boltzmann sur réseau est définie. Cette représentation incorpore les termes de force, et permet une définition complète des entrées (commandes) et des sorties (mesures). Nous représentons ensuite les phénomènes de sédimentation dans les écoulements en eaux peu profondes avec la méthode de Boltzmann sur réseau. Ce modèle défini en une dimension est validé numériquement en le comparant avec un modèle de volumes finis qui résout les équations de Saint-Venant-Exner. Le modèle LB défini est moins gourmand en temps de calcul et plus facile à manipuler que les modèles traditionnels. Dans la deuxième partie, nous traitons de l'analyse des propriétés de commandabilit é et d'observabilité des modèles LB obtenus. La première analyse est faite sur les critères algébriques de Kalmann et permet d'établir la non conservation des propriétés de commandabilité et d'observabilité lorsque l'ordre de réduction du système est augmenté. Une analyse plus approfondie basée sur la détermination les grammiens de commandabilit é et d'observabilité montre également que le constat reste valide pour les méthodes de discrétisation classique. La résolution des grammiens est faite avec des méthodes particulièrement adaptées aux structures creuses et de grande dimension que sont les matrices de la dynamique, de commande et/ou d'observation des modèles LB. Enfin, nous établissons que pour une commande aux frontières classique des canaux d'irrigation en débit et hauteur, la famille de systèmes des modèles LB d'ordre réduit n'est pas uniformément commandable alors qu'avec l'utilisation des variables de scattering comme variables de commande, cette famille devient uniformément commandable. / We study in this thesis, subdivided into two parts, the modeling of the free surface shallow water flows with the lattice Boltzmann method and the analysis of the properties of controllability and observability of the resulting models. The first part focusses on the modeling of the shallow water flows with the lattice Boltzmann method. Using a linearization around a given equilibrium profile, we give a state space representation of the defined lattice Boltzmann models. This representation takes into account the force term, and allows a complete definition of the inputs (controls) and outputs (measures) variables. After this, we extend the model to include the phenomena of sedimentation. The defined one-dimensional model is validated numerically by comparing it with a finite volume model which solves the Saint-Venant-Exner's equations. The defined LB model is less complex (from a numerical point of view) and easier to handle. In the second part, we deal with the analysis of the properties of controllability and observability of the models obtained from the LB modeling of the shallow water flows. The first analysis, which is done with the Kalmann's algebraic criterias, leads to the establishment of the loss of controllability when the number of discretization sites increases. An extensive analysis, based on the determination of the controllability and observability gramians, allows to show that this conclusion remains with the classical methods of discretization. The determination of the gramians is done with particular methods well suited for the sparse and large matrices which are the dynamical, control and/or observation matrices of the LB models. Finally, we establish that for a classical boundary control of the irrigation canal with flow and level, the family of LB systems variables is not uniformly controllable, while using scattering variables as the control variables, the family becomes uniformly controllable.
16

Etudes mathématiques de fluides à frontières libres en dynamique incompressible / Mathematical study of free surface flows in incompressible dynamics

Kazerani, Dena 29 November 2016 (has links)
Cette thèse est consacrée à l’étude théorique ainsi qu’au traitement numérique de fluides incompressibles à surface libre. La première partie concerne un système d’équations appelé le système de Green–Naghdi. Comme le système de Saint-Venant, il s’agit d’une approximation d’eaux peu-profondes du problème de Zakharov. La différence est que le système de Green–Naghdi est d’un degré plus élevé en ordre d’approximation. C’est pourquoi il contient tous les termes du système de Saint-Venant plus de termes d’ordre trois non-linéairement dispersives. Autrement dit, le système de Green–Naghdi peut être vu comme une perturbation dispersive du système de Saint-Venant. Ce dernier système étant hyperbolique, il entre dans le cadre classique développé pour des systèmes hyperboliques. En particulier, il est entropique (au sense de Lax) et symétrique. On peut donc lui appliquer les résultats d’existence et d’unicité bien connus pour des systèmes hyperboliques. Dans la première partie de ce travail, on généralise la notion de symétrie à une classe plus générale de systèmes contenant le système de Green–Naghdi. Ceci nous permet de symétriser les équations de Green–Naghdi et d’utiliser la symétrie obtenue pour déduire un résultat d’existence globale après avoir ajouté un terme dissipative d’ordre 2 au système. Ceci est fait en adaptant l’approche utilisée dans la littérature pour des systèmes hyperboliques. La deuxième partie de ce travail concerne le traitement numérique des équations de Navier–Stokes à surface libre avec un terme de tension de surface. Ici, la surface libre est modélisée en utilisant la formulation des lignes de niveaux. C’est pourquoi la condition cinématique (condition de l’évolution de surface libre) s’écrit sous la forme d’une équation d’advection satisfaite par la fonction de ligne de niveaux. Cette équation est résolue sur une domaine de calcul contenant strictement le domaine de fluide, sur de petits sous-intervalles du temps. Chaque itération de l’algorithme global correspond donc à l’advection du domaine du fluide sur le sous-intervalle du temps associé et ensuite de résoudre le système de Navier–Stokes discrétisé en temps sur le domaine du fluide. Cette discrétisation en temps est faite par la méthode des caractéristiques. L’outil clé qui nous permet de résoudre ce système uniquement sur le domaine du fluide est l’adaptation de maillage anisotrope. Plus précisément, à chaque itération le maillage est adapté au domaine du fluide tel que l’erreur d’approximation et l’erreur géométrique soient raisonnablement petites au voisinage du domaine du fluide. La résolution du problème discrétisé en temps sur le domaine du fluide est faite par l’algorithme d’Uzawa utilisé dans la cadre de la méthode des éléments finis. Par ailleurs, la condition de glissement de Navier est traité ici en ajoutant un terme de pénalisation à la formulation variationnelle associée. / This thesis is about theoretical study and numerical treatment of some problems raised in incompressible free-surface fluid dynamics. The first part concerns a model called the Green–Naghdi (GN) equations. Similarly to the non linear shallow water system (called also Saint-Venant system), the Green–Naghdi equations is a shallow water approximation of water waves problem. Indeed, GN equation is one order higher in approximation compared to Saint-Venant system. For this reason, it contains all the terms of Saint-Venant system in addition to some non linear third order dispersive terms. In other words, the GN equations is a dispersive perturbation of the Saint-Venant system. The latter system is hyperbolic and fits the general framework developed in the literature for hyperbolic systems. Particularly, it is entropic (in the sense of Lax) and symmertizable. Therefore, we can apply the well-posedness results known for symmetric hyperbolic system. During the first part of this work, we generalize the notion of symmetry to a more general type of equations including the GN system. This lets us to symmetrize the GN equation. Then, we use the suggested symmetric structure to obtain a global existence result for the system with a second order dissipative term by adapting the approach classically used for hyperbolic systems. The second part of this thesis concerns the numerical treatment of the free surface incompressible Navier–Stokes equation with surface tension. We use the level set formulation to represent the fluid free-surface. Thanks to this formulation, the kinematic boundary condition is treated by solving an advection equation satisfied by the level set function. This equation is solved on a computational domain containing the fluid domain over small time subintervals. Each iteration of the algorithm corresponds to the adevction of the fluid domain on a small time subinterval and to solve the time-discretized Navier–Stokes equations only on the fluid domain. The time discretization of the Navier–Stokes equation is done by the characteristic method. Then, the key tool which lets us solve this equation on the fluid domain is the anisotropic mesh adaptation. Indeed, at each iteration the mesh is adapted to the fluid domain such that we get convenient approximation and geometric errors in the vicinity of the fluid domain. This resolution is done using the Uzawa algorithm for a convenient finite element method. The slip boundary conditions are considered by adding a penalization term to the variational formulation associated to the problem.
17

Identifying electrons with deep learning methods

Kahya, Emre Onur 12 1900 (has links)
Cette thèse porte sur les techniques de l’apprentissage machine et leur application à un problème important de la physique des particules expérimentale: l’identification des électrons de signal résultant des collisions proton-proton au Grand collisionneur de hadrons. Au chapitre 1, nous fournissons des informations sur le Grand collisionneur de hadrons et expliquons pourquoi il a été construit. Nous présentons ensuite plus de détails sur ATLAS, l’un des plus importants détecteurs du Grand collisionneur de hadrons. Ensuite, nous expliquons en quoi consiste la tâche d’identification des électrons ainsi que l’importance de bien la mener à terme. Enfin, nous présentons des informations détaillées sur l’ensemble de données que nous utilisons pour résoudre cette tâche d’identification des électrons. Au chapitre 2, nous donnons une brève introduction des principes fondamentaux de l’apprentissage machine. Après avoir défini et introduit les différents types de tâche d’apprentissage, nous discutons des diverses façons de représenter les données d’entrée. Ensuite, nous présentons ce qu’il faut apprendre de ces données et comment y parvenir. Enfin, nous examinons les problèmes qui pourraient se présenter en régime de “sur-apprentissage”. Au chapitres 3, nous motivons le choix de l’architecture choisie pour résoudre notre tâche, en particulier pour les sections où des images séquentielles sont utilisées comme entrées. Nous présentons ensuite les résultats de nos expériences et montrons que notre modèle fonctionne beaucoup mieux que les algorithmes présentement utilisés par la collaboration ATLAS. Enfin, nous discutons des futures orientations afin d’améliorer davantage nos résultats. Au chapitre 4, nous abordons les deux concepts que sont la généralisation hors distribution et la planéité de la surface associée à la fonction de coût. Nous prétendons que les algorithmes qui font converger la fonction coût vers minimum couvrant une région large et plate sont également ceux qui offrent le plus grand potentiel de généralisation pour les tâches hors distribution. Nous présentons les résultats de l’application de ces deux algorithmes à notre ensemble de données et montrons que cela soutient cette affirmation. Nous terminons avec nos conclusions. / This thesis is about applying the tools of Machine Learning to an important problem of experimental particle physics: identifying signal electrons after proton-proton collisions at the Large Hadron Collider. In Chapters 1, we provide some information about the Large Hadron Collider and explain why it was built. We give further details about one of the biggest detectors in the Large Hadron Collider, the ATLAS. Then we define what electron identification task is, as well as the importance of solving it. Finally, we give detailed information about our dataset that we use to solve the electron identification task. In Chapters 2, we give a brief introduction to fundamental principles of machine learning. Starting with the definition and types of different learning tasks, we discuss various ways to represent inputs. Then we present what to learn from the inputs as well as how to do it. And finally, we look at the problems that would arise if we “overdo” learning. In Chapters 3, we motivate the choice of the architecture to solve our task, especially for the parts that have sequential images as inputs. We then present the results of our experiments and show that our model performs much better than the existing algorithms that the ATLAS collaboration currently uses. Finally, we discuss future directions to further improve our results. In Chapter 4, we discuss two concepts: out of distribution generalization and flatness of loss surface. We claim that the algorithms, that brings a model into a wide flat minimum of its training loss surface, would generalize better for out of distribution tasks. We give the results of implementing two such algorithms to our dataset and show that it supports our claim. Finally, we end with our conclusions.
18

Algorithmes d’apprentissage profonds supervisés et non-supervisés: applications et résultats théoriques

Thibodeau-Laufer, Eric 09 1900 (has links)
La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs. / The list of areas affected by machine learning is growing rapidly. As the amount of available training data increases, the development of more powerful learning algorithms is crucial. This thesis consists of three parts: first an overview of the basic concepts of machine learning and the details necessary for training neural networks, models that lend themselves well to deep architectures. The second part presents an application of machine learning to online video games, and a performance measurement method when using these models as decision policies. Finally, the third section presents theoretical results for unsupervised training of deep architectures. Video games are a particularly fertile area for machine learning: it is easy to accumulate large amounts of data, and many tasks are possible. Assembling teams of equal skill is a common machine learning application for online games. The first paper compares different learning algorithms against deep neural networks applied to the prediction of match balance in online games. We then present a simulation based method to evaluate the resulting models used as decision policies for online matchmaking. Following this we present a new method to train generative models. Theoretical results indicate that it is possible to train by backpropagation unsupervised models that can generate samples following the data’s true distribution. This is a relevant result in the context of the recent literature investigating the properties of autoencoders as generative models. These results are supported with preliminary quantitative results and some qualitative experiments.
19

L'élastographie ultrasonore dynamique vasculaire : une nouvelle modalité d'imagerie non-invasive pour la caractérisation mécanique de la thrombose veineuse

Schmitt, Cédric 04 1900 (has links)
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie. / The venous thromboembolism such as the lower limb deep venous thrombosis (DVT) is a vascular pathology characterized by a blood clot formation that induces partial or total vessel lumen occlusion. Pulmonary embolism is a fatal complication of DVT where the clot detaches from the wall, circulates in the blood flow, and produces an obstruction of pulmonary arterial branches. The combination of clinical prediction rules (signs or symptoms) and blood tests (D-dimer testing) coupled to venous ultrasonography (i.e. compression ultrasonography, color Doppler) allows an accurate diagnosis of first DVT. Nevertheless, such clinical tools present poor results to detect recurrent thrombotic events. Then, in order to guide patients towards optimal therapy, the problem is no more to detect the presence of thrombus, but to evaluate its maturity and its age, which are correlated to their mechanical properties (e.g. elasticity, viscosity). The dynamic elastography (DE) has been recently proposed as a novel non-invasive imaging modality capable to characterize the quantitative mechanical properties of tissues. The DE is based on the analysis of acoustical parameters (i.e. velocity, attenuation, wave pattern) of low frequency (10-7000 Hz) shear waves propagating within the probed medium. Such shear waves generated by external vibration, or remotely using ultrasound beam focalisation (radiation force), were tracked using ultra-fast ultrasound or magnetic resonance imaging. A method based on DE and adapted to mechanical characterization of venous thrombosis may allow the quantification of diseases severity in order to improve the final diagnosis. This thesis presents the works related to the development and complete validation of a novel non-invasive elastography imaging method for the quantitative and reliable estimation of mechanical properties of venous thrombosis. In order to fulfil the main objective, it is first necessary to improve knowledge about mechanical behaviours of blood clot (coagulated blood) subjected to a dynamic solicitation similar to DE. The shear storage (elastic behaviour, G’) and loss (viscous behavior, G’’) moduli of porcine blood clots are measured by DE during the blood coagulation kinetics (at 70 Hz) and after completely coagulation (between 50 Hz and 160 Hz). These results are the first dynamic behaviour measurements of blood clots in such wide frequency range. The subsequent step consists in introducing an innovative reference instrument (« gold standard »), called RheoSpectris, dedicated to measure the hyper-frequency viscoelasticity (between 10 Hz and 1000 Hz) of materials and biomaterials. This tool is indispensable to validate new dynamic elastography techniques. A comparative study between RheoSpectris and classical rheometry is performed to validate the measurements on different materials (silicon, thermoplastic, biomaterials, gel). The excellent agreement between both technologies allows to conclude that RheoSpectris is a reliable instrument for mechanical measurements at high frequencies, which is not always possible with current tools. The theoretical basis of a novel elastographic imaging modality, labelled SWIRE (« shear wave induced resonance dynamic elastography ») is presented and validated on vascular phantoms. Such approach allows the characterization of mechanical properties of a confined inclusion (e.g. blood clot) from its resonance (displacement amplification) due to the propagation of judiciously oriented shear waves. SWIRE has also the advantage to amplify the vibration amplitude within the heterogeneity to help for its detection and segmentation. Finally, the method DVT-SWIRE ((« Deep venous thrombosis – SWIRE ») is adapted to the quantitative elasticity estimation of venous thrombosis in the context of clinical use. DVT-SWIRE exploits the first resonance frequency measured within the thrombosis during the plane (vibration of rigid plate) or cylindrical (simulating supersonic radiation force generation) shear waves propagation. The technique is applied on DVT phantoms and the results are compared to those given by the RheoSpectris reference instrument. This method is also used successfully in an ex vivo study for the elasticity assessment of explanted porcine thrombosis surgically induced in vivo.
20

Understanding deep architectures and the effect of unsupervised pre-training

Erhan, Dumitru 10 1900 (has links)
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde. / This thesis studies a class of algorithms called deep architectures. We argue that models that are based on a shallow composition of local features are not appropriate for the set of real-world functions and datasets that are of interest to us, namely data with many factors of variation. Modelling such functions and datasets is important if we are hoping to create an intelligent agent that can learn from complicated data. Deep architectures are hypothesized to be a step in the right direction, as they are compositions of nonlinearities and can learn compact distributed representations of data with many factors of variation. Training fully-connected artificial neural networks---the most common form of a deep architecture---was not possible before Hinton (2006) showed that one can use stacks of unsupervised Restricted Boltzmann Machines to initialize or pre-train a supervised multi-layer network. This breakthrough has been influential, as the basic idea of using unsupervised learning to improve generalization in deep networks has been reproduced in a multitude of other settings and models. In this thesis, we cast the deep learning ideas and techniques as defining a special kind of inductive bias. This bias is defined not only by the kind of functions that are eventually represented by such deep models, but also by the learning process that is commonly used for them. This work is a study of the reasons for why this class of functions generalizes well, the situations where they should work well, and the qualitative statements that one could make about such functions. This thesis is thus an attempt to understand why deep architectures work. In the first of the articles presented we study the question of how well our intuitions about the need for deep models correspond to functions that they can actually model well. In the second article we perform an in-depth study of why unsupervised pre-training helps deep learning and explore a variety of hypotheses that give us an intuition for the dynamics of learning in such architectures. Finally, in the third article, we want to better understand what a deep architecture models, qualitatively speaking. Our visualization approach enables us to understand the representations and invariances modelled and learned by deeper layers.

Page generated in 0.075 seconds