• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 166
  • 49
  • 12
  • Tagged with
  • 230
  • 45
  • 38
  • 37
  • 36
  • 34
  • 33
  • 31
  • 19
  • 19
  • 18
  • 17
  • 17
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Visual interpretation of hand postures for human-machine interaction / Interprétation visuelle de gestes pour l'interaction homme-machine

Nguyen, Van Toi 15 December 2015 (has links)
Aujourd'hui, les utilisateurs souhaitent interagir plus naturellement avec les systèmes numériques. L'une des modalités de communication la plus naturelle pour l'homme est le geste de la main. Parmi les différentes approches que nous pouvons trouver dans la littérature, celle basée sur la vision est étudiée par de nombreux chercheurs car elle ne demande pas de porter de dispositif complémentaire. Pour que la machine puisse comprendre les gestes à partir des images RGB, la reconnaissance automatique de ces gestes est l'un des problèmes clés. Cependant, cette approche présente encore de multiples défis tels que le changement de point de vue, les différences d'éclairage, les problèmes de complexité ou de changement d'environnement. Cette thèse propose un système de reconnaissance de gestes statiques qui se compose de deux phases : la détection et la reconnaissance du geste lui-même. Dans l'étape de détection, nous utilisons un processus de détection d'objets de Viola Jones avec une caractérisation basée sur des caractéristiques internes d'Haar-like et un classifieur en cascade AdaBoost. Pour éviter l'influence du fond, nous avons introduit de nouvelles caractéristiques internes d'Haar-like. Ceci augmente de façon significative le taux de détection de la main par rapport à l'algorithme original. Pour la reconnaissance du geste, nous avons proposé une représentation de la main basée sur un noyau descripteur KDES (Kernel Descriptor) très efficace pour la classification d'objets. Cependant, ce descripteur n'est pas robuste au changement d'échelle et n'est pas invariant à l'orientation. Nous avons alors proposé trois améliorations pour surmonter ces problèmes : i) une normalisation de caractéristiques au niveau pixel pour qu'elles soient invariantes à la rotation ; ii) une génération adaptative de caractéristiques afin qu'elles soient robustes au changement d'échelle ; iii) une construction spatiale spécifique à la structure de la main au niveau image. Sur la base de ces améliorations, la méthode proposée obtient de meilleurs résultats par rapport au KDES initial et aux descripteurs existants. L'intégration de ces deux méthodes dans une application montre en situation réelle l'efficacité, l'utilité et la faisabilité de déployer un tel système pour l'interaction homme-robot utilisant les gestes de la main. / Nowadays, people want to interact with machines more naturally. One of the powerful communication channels is hand gesture. Vision-based approach has involved many researchers because this approach does not require any extra device. One of the key problems we need to resolve is hand posture recognition on RGB images because it can be used directly or integrated into a multi-cues hand gesture recognition. The main challenges of this problem are illumination differences, cluttered background, background changes, high intra-class variation, and high inter-class similarity. This thesis proposes a hand posture recognition system consists two phases that are hand detection and hand posture recognition. In hand detection step, we employed Viola-Jones detector with proposed concept Internal Haar-like feature. The proposed hand detection works in real-time within frames captured from real complex environments and avoids unexpected effects of background. The proposed detector outperforms original Viola-Jones detector using traditional Haar-like feature. In hand posture recognition step, we proposed a new hand representation based on a good generic descriptor that is kernel descriptor (KDES). When applying KDES into hand posture recognition, we proposed three improvements to make it more robust that are adaptive patch, normalization of gradient orientation in patches, and hand pyramid structure. The improvements make KDES invariant to scale change, patch-level feature invariant to rotation, and final hand representation suitable to hand structure. Based on these improvements, the proposed method obtains better results than original KDES and a state of the art method.
222

Objective assessment of disordered connected speech / Evaluation objective des troubles de la voix dans la parole connectée

Alpan, Ali 07 February 2012 (has links)
Within the context of the assessment of laryngeal function, acoustic analysis has an important place because the speech signal may be recorded non-invasively and it forms the base on which the perceptual assessment of voice is founded. Given the limitations of perceptual ratings, one has investigated vocal cues of disordered voices that are clinically relevant, summarize properties of speech signals and report on a speaker's phonation in general and voice in particular. Ideally, the acoustic descriptors should also be correlates of auditory-perceptual ratings of voice. Generally speaking, the goal of acoustic analysis is to document quantitatively the degree of severity of a voice disorder and monitor the evolution of the voice of dysphonic speakers.<p><p><p>The first part of this thesis is devoted to the analysis of disordered connected speech. The aim is to investigate vocal cues that are clinically relevant and correlated with auditory-perceptual ratings. Two approaches are investigated. The variogram-based method in the temporal domain is addressed first. The second approach is in the cepstral domain. In particular, the first rahmonic amplitude is used as an acoustic cue to describe voice quality. A multi-dimensional approach combining temporal and spectral aspects is also investigated. The goal is to check whether acoustic cues in both domains report complementary information when predicting perceptual scores.<p><p><p>Both methods are tested first on a corpus of synthetic sound stimuli that has been obtained by means of a synthesizer of disordered voices. The purpose is to learn about the link between the signal properties (fixed by the synthesis parameters) and acoustic cues.<p>In this study, we had the opportunity to use two large natural speech corpora. One of them has been perceptually rated. <p><p><p>The final part of the text is devoted to the automatic classification of voice with regard to perceived voice quality. Many studies have proposed a binary (normal/pathological) classification of voice samples. An automatic categorization according to perceived degrees of hoarseness appears, however, to be more attractive to both clinicians and technologists and more likely to be clinically relevant. Indeed, one way to reduce inter-rater variability of an auditory-perceptual evaluation is to ask several experts to participate and then to average the perceptual scores. However, auditory-perceptual evaluation of a corpus by several judges is a very laborious, time-consuming and costly task. Making this perceptual evaluation task automatic is therefore desirable. <p>The aim of this study is to exploit the support vector machine classifier that has become, over the last years, a popular tool for classification, to carry out categorization of voices according to perceived degrees of hoarseness. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
223

Peeling et scattering conforme dans les espaces-temps de la relativité générale / Peeling and conformal scattering on the spacetimes of the general relativity

Pham, Truong Xuan 07 April 2017 (has links)
Nous étudions l’analyse asymptotique en relativité générale sous deux aspects: le peeling et le scattering (diffusion) conforme. Le peeling est construit pour les champs scalaires linéaire et non-linéaires et pour les champs de Dirac en espace-temps de Kerr (qui est non-stationnaire et à symétrie simplement axiale), généralisant les travaux de L. Mason et J-P. Nicolas (2009, 2012). La méthode des champs de vecteurs (estimations d’énergie géométriques) et la technique de compactification conforme sont développées. Elles nous permettent de formuler les définitions du peeling à tous ordres et d’obtenir les données initiales optimales qui assurent ces comportements. Une théorie de la diffusion conforme pour les équations de champs sans masse de spîn n/2 dans l’espace-temps de Minkowski est construite.En effectuant les compactifications conformes (complète et partielle), l’espace-temps est complété en ajoutant une frontière constituée de deux hypersurfaces isotropes représentant respectivement les points limites passés et futurs des géodésiques de type lumière. Le comportement asymptotique des champs s’obtient en résolvant le problème de Cauchy pour l’équation rééchelonnée et en considérant les traces des solutions sur ces bords. L’inversibilité des opérateurs de trace, qui associent le comportement asymptotique passé ou futur aux données initiales, s’obtient en résolvant le problème de Goursat sur le bord conforme. L’opérateur de diffusion conforme est alors obtenu par composition de l’opérateur de trace futur avec l’inverse de l’opérateur de trace passé. / This work explores two aspects of asymptotic analysis in general relativity: peeling and conformal scattering.On the one hand, the peeling is constructed for linear and nonlinear scalar fields as well as Dirac fields on Kerr spacetime, which is non-stationary and merely axially symmetric. This generalizes the work of L. Mason and J-P. Nicolas (2009, 2012). The vector field method (geometric energy estimates) and the conformal technique are developed. They allow us to formulate the definition of the peeling at all orders and to obtain the optimal space of initial data which guarantees these behaviours. On the other hand, a conformal scattering theory for the spin-n/2 zero rest-mass equations on Minkowski spacetime is constructed. Using the conformal compactifications (full and partial), the spacetime is completed with two null hypersurfaces representing respectively the past and future end points of null geodesics. The asymptotic behaviour of fields is then obtained by solving the Cauchy problem for the rescaled equation and considering the traces of the solutions on these hypersurfaces. The invertibility of the trace operators, that to the initial data associate the future or past asymptotic behaviours, is obtained by solving the Goursat problem on the conformal boundary. The conformal scattering operator is then obtained by composing the future trace operator with the inverse of the past trace operator.
224

Classification automatique de textes pour les revues de littérature mixtes en santé

Langlois, Alexis 12 1900 (has links)
Les revues de littérature sont couramment employées en sciences de la santé pour justifier et interpréter les résultats d’un ensemble d’études. Elles permettent également aux chercheurs, praticiens et décideurs de demeurer à jour sur les connaissances. Les revues dites systématiques mixtes produisent un bilan des meilleures études portant sur un même sujet tout en considérant l’ensemble des méthodes de recherche quantitatives et qualitatives. Leur production est ralentie par la prolifération des publications dans les bases de données bibliographiques et la présence accentuée de travaux non scientifiques comme les éditoriaux et les textes d’opinion. Notamment, l’étape d’identification des études pertinentes pour l’élaboration de telles revues s’avère laborieuse et requiert un temps considérable. Traditionnellement, le triage s’effectue en utilisant un ensemble de règles établies manuellement. Dans cette étude, nous explorons la possibilité d’utiliser la classification automatique pour exécuter cette tâche. La famille d’algorithmes ayant été considérée dans le comparatif de ce travail regroupe les arbres de décision, la classification naïve bayésienne, la méthode des k plus proches voisins, les machines à vecteurs de support ainsi que les approches par votes. Différentes méthodes de combinaison de caractéristiques exploitant les termes numériques, les symboles ainsi que les synonymes ont été comparés. La pertinence des concepts issus d’un méta-thésaurus a également été mesurée. En exploitant les résumés et les titres d’approximativement 10 000 références, les forêts d’arbres de décision admettent le plus haut taux de succès (88.76%), suivies par les machines à vecteurs de support (86.94%). L’efficacité de ces approches devance la performance des filtres booléens conçus pour les bases de données bibliographiques. Toutefois, une sélection judicieuse des entrées de la collection d’entraînement est cruciale pour pallier l’instabilité du modèle final et la disparité des méthodologies quantitatives et qualitatives des études scientifiques existantes. / The interest of health researchers and policy-makers in literature reviews has continued to increase over the years. Mixed studies reviews are highly valued since they combine results from the best available studies on various topics while considering quantitative, qualitative and mixed research methods. These reviews can be used for several purposes such as justifying, designing and interpreting results of primary studies. Due to the proliferation of published papers and the growing number of nonempirical works such as editorials and opinion letters, screening records for mixed studies reviews is time consuming. Traditionally, reviewers are required to manually identify potential relevant studies. In order to facilitate this process, a comparison of different automated text classification methods was conducted in order to determine the most effective and robust approach to facilitate systematic mixed studies reviews. The group of algorithms considered in this study combined decision trees, naive Bayes classifiers, k-nearest neighbours, support vector machines and voting approaches. Statistical techniques were applied to assess the relevancy of multiple features according to a predefined dataset. The benefits of feature combination for numerical terms, synonyms and mathematical symbols were also measured. Furthermore, concepts extracted from a metathesaurus were used as additional features in order to improve the training process. Using the titles and abstracts of approximately 10,000 entries, decision trees perform the best with an accuracy of 88.76%, followed by support vector machine (86.94%). The final model based on decision trees relies on linear interpolation and a group of concepts extracted from a metathesaurus. This approach outperforms the mixed filters commonly used with bibliographic databases like MEDLINE. However, references chosen for training must be selected judiciously in order to address the model instability and the disparity of quantitative and qualitative study designs.
225

Estimation du RUL par des approches basées sur l'expérience : de la donnée vers la connaissance / Rul estimation using experience based approached : from data to knwoledge

Khelif, Racha 14 December 2015 (has links)
Nos travaux de thèses s’intéressent au pronostic de défaillance de composant critique et à l’estimation de la durée de vie résiduelle avant défaillance (RUL). Nous avons développé des méthodes basées sur l’expérience. Cette orientation nous permet de nous affranchir de la définition d’un seuil de défaillance, point problématique lors de l’estimation du RUL. Nous avons pris appui sur le paradigme de Raisonnement à Partir de Cas (R à PC) pour assurer le suivi d’un nouveau composant critique et prédire son RUL. Une approche basée sur les instances (IBL) a été développée en proposant plusieurs formalisations de l’expérience : une supervisée tenant compte de l’ état du composant sous forme d’indicateur de santé et une non-supervisée agrégeant les données capteurs en une série temporelle mono-dimensionnelle formant une trajectoire de dégradation. Nous avons ensuite fait évoluer cette approche en intégrant de la connaissance à ces instances. La connaissance est extraite à partir de données capteurs et est de deux types : temporelle qui complète la modélisation des instances et fréquentielle qui, associée à la mesure de similarité permet d’affiner la phase de remémoration. Cette dernière prend appui sur deux types de mesures : une pondérée entre fenêtres parallèles et fixes et une pondérée avec projection temporelle. Les fenêtres sont glissantes ce qui permet d’identifier et de localiser l’état actuel de la dégradation de nouveaux composants. Une autre approche orientée donnée a été test ée. Celle-ci est se base sur des caractéristiques extraites des expériences, qui sont mono-dimensionnelles dans le premier cas et multi-dimensionnelles autrement. Ces caractéristiques seront modélisées par un algorithme de régression à vecteurs de support (SVR). Ces approches ont été évaluées sur deux types de composants : les turboréacteurs et les batteries «Li-ion». Les résultats obtenus sont intéressants mais dépendent du type de données traitées. / Our thesis work is concerned with the development of experience based approachesfor criticalcomponent prognostics and Remaining Useful Life (RUL) estimation. This choice allows us to avoidthe problematic issue of setting a failure threshold.Our work was based on Case Based Reasoning (CBR) to track the health status of a new componentand predict its RUL. An Instance Based Learning (IBL) approach was first developed offering twoexperience formalizations. The first is a supervised method that takes into account the status of thecomponent and produces health indicators. The second is an unsupervised method that fuses thesensory data into degradation trajectories.The approach was then evolved by integrating knowledge. Knowledge is extracted from the sensorydata and is of two types: temporal that completes the modeling of instances and frequential that,along with the similarity measure refine the retrieval phase. The latter is based on two similaritymeasures: a weighted one between fixed parallel windows and a weighted similarity with temporalprojection through sliding windows which allow actual health status identification.Another data-driven technique was tested. This one is developed from features extracted from theexperiences that can be either mono or multi-dimensional. These features are modeled by a SupportVector Regression (SVR) algorithm. The developed approaches were assessed on two types ofcritical components: turbofans and ”Li-ion” batteries. The obtained results are interesting but theydepend on the type of the treated data.
226

Oncopol - Vers le développement critique de vecteurs polymères pour l'oncologie / Oncopol - Towards critical development of selfassembled polymeric vectors for oncology

Till, Ugo Valentin 23 September 2016 (has links)
L’objectif de cette thèse était de mettre au point une analyse critique de vecteurs polymères utilisés pour la thérapie photodynamique (PDT) et de faire le lien avec l’efficacité thérapeutique observée. Pour cela, une analyse complète des vecteurs a été réalisée par des techniques classiques comme la diffusion dynamique de la lumière ou la microscopie électronique, mais aussi grâce au fractionnement flux-force, technique peu utilisée jusqu’à présent dans le domaine des auto-assemblages polymères. Dans un deuxième temps, les auto-assemblages ont été utilisés comme vecteurs d’un photosensibilisateur, le Phéophorbide a, et l’efficacité thérapeutique évaluée en travaillant sur culture cellulaire 2D et 3D de lignées HCT116 (cancer du colon) ou FaDu (cancer tête et cou). Différents vecteurs polymères simples ont tout d’abord été examinés, à savoir des micelles ou des polymersomes à base de copolymères diblocs amphiphiles comme le poly(oxyde d’éthylène-b--caprolactone), le poly(oxyde d’éthylène-b-lactide) ou le poly(oxyde d’éthylène-b-styrène). Ceci a permis d’obtenir des vecteurs présentant des tailles et des morphologies variables. Les résultats en PDT ont montré des comportements différents et une meilleure efficacité en 3D pour les systèmes à base de PEO-PDLLA. La technique de fractionnement flux-force asymétrique (AsFlFFF) a particulièrement été utilisée pour ces vecteurs afin de démontrer la pureté des auto-assemblages. Les connaissances acquises dans cette première partie ont permis de caractériser des vecteurs faits à base de mélanges d’auto-assemblages micelles/vésicules. Ceux-ci ont révélé des phénomènes d’antagonisme ou de synergie dans l’efficacité en PDT, démontrant l’existence de processus complexes au niveau de la réponse cellulaire.Des auto-assemblages figés par réticulation ont aussi été développés, caractérisés et examinés en PDT. Ils se sont avérés extrêmement intéressants pour la PDT sur les cultures cellulaires en 3D, démontrant une efficacité accrue comparée aux systèmes simples. La comparaison de ces résultats avec ceux obtenus en culture 2D pour les mêmes objets a de plus permis de mettre en évidence la différence entre ces deux modèles biologiques. Enfin, des auto-assemblages à base de complexes poly-ioniques ont aussi été formés et caractérisés. Le fractionnement flux-force s’est là encore avéré efficace, mais a nécessité l’utilisation d’une injection spéciale par Frit-inlet. Leur efficacité en PDT s’est avérée faible. / The objective of this study was to critically analyze different polymer self-assemblies used for photodynamic therapy (PDT) and to link this analysis to their therapeutic efficiency. To do that, a thorough characterization of the vectors has been performed by classical techniques such as Dynamic Light Scattering or electron Microscopy, but also using flow fractionation, which has been seldomly used so far for polymeric self-assemblies. In a second step, these have been used as vectors of a photosensitizer, namely Phéophorbide a, and the therapeutic efficiency assessed on both 2D and 3D cell cultures of HCT 116 (colon cancer) and FaDu (head and neck cancer) cells. Different simple polymer vectors have first been evaluated, namely micelles and polymersomes based on diblock amphiphilic copolymers such as poly(ethylene-oxide-b--caprolactone), poly(ethylene-oxide-b-lactide) or poly(ethylene-oxide-b-styrene). This enabled obtaining vectors exhibiting various sizes and morphologies. Results in PDT showed different behaviours and a better efficiency in 3D for PEO-PDLLA. The Asymmetric Flow Field Flow Fractionation was particularly used for these systems to demonstrate their purity. The acquired expertise on this part enabled us to also characterize vectors made of known mixtures of micelles and polymersomes. These revealed antagonism and synergy effects in PDT, demonstrating the presence of complex processes for the cell response. Other self-assemblies consisting of crosslinked systems have also been developed and characterized. These were observed to be particularly efficient for PDT on 3D cell cultures. The comparison of these results with those for the 2D cell culture enabled to highlight the difference between those two biological systems. Finally, self-assemblies based on Polyion Complexes were also formed and characterized. Field Flow Fractionation was once again used as a powerful technique for this, although this implied the use of a special injection device called Frit Inlet. Their PDT efficiency however proved to be low.
227

Tests d'adéquation basés sur la fonction caractéristique / Goodness of fit tests based on the characteristic function

Marchina, Bastien 12 December 2011 (has links)
Cette thèse est consacré aux tests d'adéquation basés sur la fonction caractéristique. Nous débutons en présentant et en complétant les résultats probabilistes nécessaires à la construction de statistiques de test prenant la fonction caractéristique et son pendant la fonction caractéristique empirique comme représentations respectives des lois de référence et de la loi inconnue de l'échantillon de vecteurs aléatoires à tester. Nous poursuivons le travail en faisant la revue et en classant les tests basés sur la fonction caractéristique existants. Nous élaborons ensuite une classe de statistiques de test s'appuyant sur le calcul d'une distance intégrale. Le cas de la distance L2 est étudié plus à fond, car nous avons pu établir des résultats asymptotiques dans ce dernier cas. Ceux-ci font intervenir les éléments propres inconnus d'un opérateur intégral. Nous présentons, puis utilisons, une méthode d'approximation spectrale basée sur une projection de l'opérateur sur une base orthonormée.Finalement, nous construisons une nouvelle classe de tests appartenant au paradigme des tests lisses de Neyman. L'étude précédente nous permet de simplifier considérablement la construction de ces tests, dont différentes versions sont proposées tant pour le test d'une hypothèse simple que pour le test d'une hypothèse composite. / This PhD thesis consists in building goodness-of-fit tests using the characteristic function (CF) as a prefered representation for the probability laws involved.We start with listing and improving results in probability theory necessary to build test statistics using the characteristic function and its conterpart the empirical characteristic function.We list and classify existing characteristic function based goodness-of-fit tests published by varions authors since 1977.Then, we build a class of tests based on integral metrics. We take particular attention to the case where the statistics are build using a L2 distance. More specifically, we give asymptotic results in this case. However, these results reveal the need for information on the unknown eigenelements of an integral operator. Thus, we present and implement an approximation method using a sequence of projections on orthonormal bases ofan hilbertian functional space.Finally, we will build another class of tests using the Neyman smooth test paradigm. This study is based on our previous results, that fit well into the construction of characteristic function based smooth tests. We give various applications, presenting tests for both a simple hypothesis and a composite hypothesis.
228

Les espèces exotiques envahissantes et le droit de la mer : essai de qualification / Alien invasive species and the law of the sea : an attempt of classification

Teullet, Marie 23 October 2014 (has links)
Les espèces exotiques envahissantes sont un sujet de préoccupation grandissant, mais sont-elles,pour le droit international, un objet comme un autre ? Une espèce exotique envahissante a comme particularité d’être une espèce vivante qui, par sa seule présence dans un écosystème qui lui est étranger, va engendrer des effets délétères alors qu’elle n’en aurait causé aucun dans son écosystème d’origine. Le droit de la mer est-il armé pour répondre à cette menace ? La question de la qualification de leur atteinte en droit international et plus précisément en droit de la mer est autant novatrice que capitale. Le traitement juridique des espèces exotiques envahissantes a consisté, jusqu’à maintenant, à les rattacher de facto à la lutte pour la conservation de la diversité biologique sans même que soit posée la question, en amont, de leur qualification. Et si les espèces exotiques envahissantes étaient considérées comme une pollution ? Envisager cette hypothèse implique de procéder à une étude de fond tant des instruments de droit international, et de droit de la mer en particulier, que de la pollution marine. S’il est permis de reconnaître les espèces exotiques envahissantes comme étant une source de pollution, elle n’en reste pas moins une nouvelle forme de pollution encore jamais reconnue par les instruments de droit international : une pollution biologique. Cette pollution, autonome de celles déjà existant en droit international,impliquant la nécessité de repenser la définition de la pollution marine. / Alien invasive species are a growing concern, but are they an object as any other in international law ? An invasive alien species is a living species which, by its mere presence in an ecosystem outside its natural range, causes deleterious effects which is not the case in its native ecosystem. Is the law of the sea equipped to meet this new threat ? The classification of its effects in international law, and more specifically the law of the sea, is as innovative as capital. The legal treatment of invasive alien species so far has been tied to the struggle for the conservation of biological diversity without wondering, in advance, what its classification is. What if alien invasive species are considered pollution ? Considering this hypothesis means studying instruments of international law, and more precisely those of the law of the sea, as well as marine pollution. If one can allow to identify invasive alien species as a source of pollution, it remains a new form of pollution that has never been recognized before by the instruments of international law : a biological pollution. This pollution, independent of those already existing in international law, implies the need to rethink the definition of marine pollution.
229

Multi-player games in the era of machine learning

Gidel, Gauthier 07 1900 (has links)
Parmi tous les jeux de société joués par les humains au cours de l’histoire, le jeu de go était considéré comme l’un des plus difficiles à maîtriser par un programme informatique [Van Den Herik et al., 2002]; Jusqu’à ce que ce ne soit plus le cas [Silveret al., 2016]. Cette percée révolutionnaire [Müller, 2002, Van Den Herik et al., 2002] fût le fruit d’une combinaison sophistiquée de Recherche arborescente Monte-Carlo et de techniques d’apprentissage automatique pour évaluer les positions du jeu, mettant en lumière le grand potentiel de l’apprentissage automatique pour résoudre des jeux. L’apprentissage antagoniste, un cas particulier de l’optimisation multiobjective, est un outil de plus en plus utile dans l’apprentissage automatique. Par exemple, les jeux à deux joueurs et à somme nulle sont importants dans le domain des réseaux génératifs antagonistes [Goodfellow et al., 2014] ainsi que pour maîtriser des jeux comme le Go ou le Poker en s’entraînant contre lui-même [Silver et al., 2017, Brown andSandholm, 2017]. Un résultat classique de la théorie des jeux indique que les jeux convexes-concaves ont toujours un équilibre [Neumann, 1928]. Étonnamment, les praticiens en apprentissage automatique entrainent avec succès une seule paire de réseaux de neurones dont l’objectif est un problème de minimax non-convexe et non-concave alors que pour une telle fonction de gain, l’existence d’un équilibre de Nash n’est pas garantie en général. Ce travail est une tentative d'établir une solide base théorique pour l’apprentissage dans les jeux. La première contribution explore le théorème minimax pour une classe particulière de jeux non-convexes et non-concaves qui englobe les réseaux génératifs antagonistes. Cette classe correspond à un ensemble de jeux à deux joueurs et a somme nulle joués avec des réseaux de neurones. Les deuxième et troisième contributions étudient l’optimisation des problèmes minimax, et plus généralement, les inégalités variationnelles dans le cadre de l’apprentissage automatique. Bien que la méthode standard de descente de gradient ne parvienne pas à converger vers l’équilibre de Nash de jeux convexes-concaves simples, il existe des moyens d’utiliser des gradients pour obtenir des méthodes qui convergent. Nous étudierons plusieurs techniques telles que l’extrapolation, la moyenne et la quantité de mouvement à paramètre négatif. La quatrième contribution fournit une étude empirique du comportement pratique des réseaux génératifs antagonistes. Dans les deuxième et troisième contributions, nous diagnostiquons que la méthode du gradient échoue lorsque le champ de vecteur du jeu est fortement rotatif. Cependant, une telle situation peut décrire un pire des cas qui ne se produit pas dans la pratique. Nous fournissons de nouveaux outils de visualisation afin d’évaluer si nous pouvons détecter des rotations dans comportement pratique des réseaux génératifs antagonistes. / Among all the historical board games played by humans, the game of go was considered one of the most difficult to master by a computer program [Van Den Heriket al., 2002]; Until it was not [Silver et al., 2016]. This odds-breaking break-through [Müller, 2002, Van Den Herik et al., 2002] came from a sophisticated combination of Monte Carlo tree search and machine learning techniques to evaluate positions, shedding light upon the high potential of machine learning to solve games. Adversarial training, a special case of multiobjective optimization, is an increasingly useful tool in machine learning. For example, two-player zero-sum games are important for generative modeling (GANs) [Goodfellow et al., 2014] and mastering games like Go or Poker via self-play [Silver et al., 2017, Brown and Sandholm,2017]. A classic result in Game Theory states that convex-concave games always have an equilibrium [Neumann, 1928]. Surprisingly, machine learning practitioners successfully train a single pair of neural networks whose objective is a nonconvex-nonconcave minimax problem while for such a payoff function, the existence of a Nash equilibrium is not guaranteed in general. This work is an attempt to put learning in games on a firm theoretical foundation. The first contribution explores minimax theorems for a particular class of nonconvex-nonconcave games that encompasses generative adversarial networks. The proposed result is an approximate minimax theorem for two-player zero-sum games played with neural networks, including WGAN, StarCrat II, and Blotto game. Our findings rely on the fact that despite being nonconcave-nonconvex with respect to the neural networks parameters, the payoff of these games are concave-convex with respect to the actual functions (or distributions) parametrized by these neural networks. The second and third contributions study the optimization of minimax problems, and more generally, variational inequalities in the context of machine learning. While the standard gradient descent-ascent method fails to converge to the Nash equilibrium of simple convex-concave games, there exist ways to use gradients to obtain methods that converge. We investigate several techniques such as extrapolation, averaging and negative momentum. We explore these techniques experimentally by proposing a state-of-the-art (at the time of publication) optimizer for GANs called ExtraAdam. We also prove new convergence results for Extrapolation from the past, originally proposed by Popov [1980], as well as for gradient method with negative momentum. The fourth contribution provides an empirical study of the practical landscape of GANs. In the second and third contributions, we diagnose that the gradient method breaks when the game’s vector field is highly rotational. However, such a situation may describe a worst-case that does not occur in practice. We provide new visualization tools in order to exhibit rotations in practical GAN landscapes. In this contribution, we show empirically that the training of GANs exhibits significant rotations around Local Stable Stationary Points (LSSP), and we provide empirical evidence that GAN training converges to a stable stationary point, which is a saddle point for the generator loss, not a minimum, while still achieving excellent performance.
230

Interpolation des données en imagerie cardiaque par résonance magnétique du tenseur de diffusion / Interpolation of data in cardiac DT-MRI

Yang, Feng 15 January 2011 (has links)
L'un des problèmes fondamentaux de l'imagerie cardiaque par résonance magnétique du tenseur de diffusion (IRM-TD) est sa faible résolution spatiale, à cause des limitations matérielles des scanners IRM actuels. L'objectif principal de ce travail de thèse est de développer de nouvelles approches pour améliorer la résolution des données d'IRM-TD afin de mieux représenter l'architecture myocardique du coeur humain et de la comparer avec des résultats issus d'autres techniques d'investigation telles que l'imagerie par lumière polarisée. Dans ce cadre, le travail porte sur trois parties principales. La première concerne le développement d'une nouvelle approche pour l'interpolation des champs de vecteurs propres principaux issus de l'IRM-TD cardiaque humaine. Cette approche consiste d'abord à supprimer les vecteurs corrompus par le bruit au lieu de débruiter de manière uniforme le champ entier de vecteurs, et ensuite à interpoler le champ de vecteurs en utilisant la modèle Thin-Plate-Spline (TPS) afin d'exploiter la corrélation entre les composantes du vecteur. La deuxième partie concerne une nouvelle famille de méthodes d'interpolation pour les champs de tenseurs, basée soit sur les angles d'Euler soit sur le quaternion. Ces méthodes exploitent les caractéristiques du tenseur et préservent les paramètres de tenseurs, tels que le déterminant du tenseur, l'anisotropie fractionnelle (FA) et la diffusivité moyenne (MD). En outre, cette partie compare les principales approches d'interpolation au niveau des images pondérées en diffusion et des champs de tenseurs, et les résultats montrent qu'il serait préférable d'effectuer l'interpolation des données d'IRM-TD au niveau des champs de tenseurs. La troisième partie étudie le changement des paramètres MD et FA après un infarctus du myocarde chez les cochons, et l'influence des méthodes d'interpolation sur ces paramètres dans la zone infarctus et la zone distante. Les résultats montrent que la zone infarctus présente une diminution significative de FA et une augmentation significative de MD, comparée avec la zone distante, et que les méthodes d'interpolations du tenseur ont plus d'influence sur FA que sur MD, ce qui suggère que l'interprétation de ces paramètres cliniques après l'interpolation doive être prise avec précaution. / One of fundamental problems in human cardiac diffusion tensor magnetic resonance imaging (DT-MRI) is its poor spatial resolution, due to the hardware limitations of MRI scanners. The main purpose of this PhD work is to develop new approaches to improving the resolution of cardiac DT-MRI data in order to better understand the myocardial architecture of the heart and compare it with results issues from other investigation techniques such as polarized light imaging. Within this framework, the present work is composed of three main parts. The first part concerns a new approach to interpolating primary eigenvector fields from human cardiac DT-MRI using Thin Plate Spline (TPS) model. This approach removes the noise-corrupted vectors rather than denoising the whole vector field in a uniform manner, and uses TPS model in order to exploit the correlation between vector components during interpolation. The second part is dealt with a new category of feature-based methods for diffusion tensor field interpolation using either Euler angles or quaternion. These feature-based methods well preserve tensor parameters, such as tensor determinant, fractional anisotropy (FA) and mean diffusivity (MD) values. In this part are also compared the main interpolation approaches at the level of diffusion weighted images and tensor fields. The results show that the interpolation of DT-MRI data should be performed at the level of tensor fields. The last part investigates changes in MD and FA after myocardial infarction in porcine hearts, and the influence of diffusion tensor interpolation methods on FA and MD in both infarction and remote region. It is found that the infarction region showed significantly decreased FA and increased MD than the remote region, and that diffusion tensor interpolations have more significant influence on FA than on MD, which suggests that precaution should be taken when performing the clinical analysis based on the parameters after diffusion tensor interpolations.

Page generated in 0.0857 seconds