• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 14
  • 2
  • 2
  • Tagged with
  • 43
  • 20
  • 9
  • 7
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

L'importance du geste dans l'évaluation de la cinématique tridimensionnelle du genou

Lavoie, Frédéric January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Marqueurs non-invasifs de stéatose et fibrose hépatique / Non-invasive markers of steatosis and liver fibrosis.

Perazzo Pedroso Barbosa, Hugo 14 March 2014 (has links)
Les méthodes non invasives d'évaluation des lésions tissulaires hépatiques les plus utilisées et les mieux validées sont l'élastométrie et le FibroTest. La stéatopathie non-alcoolique (NAFLD) est devenue la forme la plus fréquente de maladie hépatique. Différentes études suggèrent que la NAFLD est associée à un risque accru de mortalité, en particulier d'origine cardiovasculaire. Les objectifs de cette thèse étaient 1) de mieux définir certaines limites des méthodes non invasives d'évaluation de la fibrose hépatique; 2) d'évaluer la valeur pronostique du FibroTest et d'un biomarqueur de stéatose, le SteatoTest chez les patients ayant un diabète et/ou une dyslipidémie. Le travail réalisé a permis de montrer une variabilité interobservateur notable de l'élastométrie entre deux opérateurs expérimentés dans l'hépatite chronique virale C. La stéatose du foie, estimée par le SteatoTest, a été identifiée comme un facteur indépendant associé à la surestimation de la fibrose du foie par l'élastométrie chez les sujets ayant un diabète de type 2. Nous avons également mis en évidence une variabilité du test APRI et l'impact de l'activité nécrotico-inflammatoire sur ce test dont la formule comprend l'aspartate transaminase exprimée en multiple de la normale dans l'hépatite chronique virale C. Chez des patients à haut risque de NAFLD, nous avons pu démontrer la valeur pronostique à 10 ans du FibroTest et du SteatoTest, pour prédire la mortalité globale indépendamment des facteurs métaboliques. Le FibroTest était également prédictif de la mortalité d'origine hépatique et de l'incidence des complications cardiovasculaires et le SteatoTest de la mortalité d'origine cardiovasculaire / Several non-invasive methods have been proposed to replace liver biopsy. Transient elastography and FibroTest are the most widely used and best validated non-invasive methods to assess liver fibrosis. Subjects with metabolic disorders such as type-2 diabetes or dyslipidemia, have a high risk of non-alcoholic fatty liver disease (NAFLD). Evidence was previously provided to indicate that NAFLD is associated with an increased risk of cardiovascular disease and overall mortality. The aims of this thesis were. 1) to evaluate the main limitations of non-invasive methods to assess liver fibrosis. 2) to evaluate the prognostic value of liver biomarkers, such as FibroTest and SteatoTest, in patients with type-2 diabetes and/or dyslipidemia. We demonstrated a marked interobserver variability of transient elastography between two experienced operators in chronic hepatitis C. Hepatic steatosis, estimated by SteatoTest, was identified as an independent factor associated with an overestimation of liver fibrosis by transient elastography in patients with type-2 diabetes. We could also show the variability of the APRI test, based on the expression of aspartate aminotransferase relative to the upper limit of normal and the risk of overestimating fibrosis stage by this test due to necro-inflammatory activity in chronic hepatitis C. We reported that FibroTest and SteatoTest had a 10-year prognostic value for prediction of overall mortality independently of metabolic factors in patients at high risk of NAFLD. FibroTest was also predictive of liver-related death and incidence of cardiovascular events. In addition, SteatoTest had a prognostic value for cardiovascular-related death.
3

Towards reproducible, accurately rounded and efficient BLAS

Chohra, Chemseddine 10 March 2017 (has links)
Le problème de non-reproductibilté numérique surgit dans les calculs parallèles principalement à cause de la non-associativité de l’addition flottante. Les environnements parallèles changent dynamiquement l’ordre des opérations. Par conséquent, les résultats numériques peuvent changer d’une exécution à une autre. Nous garantissons la reproductibilité en étendant autantque possible l’arrondi correct à des séquences de calculs plus importantes que les opérations arithmétique exigées par le standard IEEE-754. Nous introduisons RARE-BLAS une implémentation des BLAS qui est reproductible et précise en utilisant les transformations sans erreur et les algorithmes de sommation appropriés. Nous présentons dans cette thèsedes solutions pour le premier (asum, dot and nrm2) et le deuxième (gemv and trsv) niveaux des BLAS. Nous développons une implémentation de ces solutions qui utilise les interfaces de programmation parallèles (OpenMP et MPI) et les jeu d’instructions vectorielles. Nous comparons l’efficacité de RARE-BLAS à une bibliothèque optimisé (Intel MKL) et à des solutionsreproductibles existantes. / Numerical reproducibility failures rise in parallel computation because floating-point summation is non-associative. Massively parallel systems dynamically modify the order of floating-point operations. Hence, numerical results might change from one run to another. We propose to ensure reproducibility by extending as far as possible the IEEE-754 correct rounding property to larger computing sequences. We introduce RARE-BLAS a reproducible and accurate BLAS library that benefits from recent accurate and efficient summation algorithms. Solutions for level 1 (asum, dot and nrm2) and level 2 (gemv and trsv) routines are designed. Implementations relying on parallel programming API (OpenMP, MPI) and SIMD extensions areproposed. Their efficiency is studied compared to optimized library (Intel MKL) and other existing reproducible algorithms.
4

Simulations parallèles de Monte Carlo appliquées à la Physique des Hautes Energies pour plates-formes manycore et multicore : mise au point, optimisation, reproductibilité / Monte Carlo parallel simulations applied to the High Energy Physics for manycore and multicore platforms : development, optimisation, reproducibility

Schweitzer, Pierre 19 October 2015 (has links)
Lors de cette thèse, nous nous sommes focalisés sur le calcul à haute performance, dans le domaine très précis des simulations de Monte Carlo appliquées à la physique des hautes énergies, et plus particulièrement, aux simulations pour la propagation de particules dans un milieu. Les simulations de Monte Carlo sont des simulations particulièrement consommatrices en ressources, temps de calcul, capacité mémoire. Dans le cas précis sur lequel nous nous sommes penchés, la première simulation de Monte Carlo existante prenait plus de temps à simuler le phénomène physique que le phénomène lui-même n’en prenait pour se dérouler dans les conditions expérimentales. Cela posait donc un sévère problème de performance. L’objectif technique minimal était d’avoir une simulation prenant autant de temps que le phénomène réel observé, l’objectif maximal était d’avoir une simulation bien plus rapide. En effet, ces simulations sont importantes pour vérifier la bonne compréhension de ce qui est observé dans les conditions expérimentales. Plus nous disposons d’échantillons statistiques simulés, meilleurs sont les résultats. Cet état initial des simulations ouvrait donc de nombreuses perspectives d’un point de vue optimisation et calcul à haute performance. Par ailleurs, dans notre cas, le gain de performance étant proprement inutile s’il n’est pas accompagné d’une reproductibilité des résultats, la reproductibilité numérique de la simulation est de ce fait un aspect que nous devons prendre en compte.C’est ainsi que dans le cadre de cette thèse, après un état de l’art sur le profilage, l’optimisation et la reproductibilité, nous avons proposé plusieurs stratégies visant à obtenir plus de performances pour nos simulations. Dans tous les cas, les optimisations proposées étaient précédées d’un profilage. On n’optimise jamais sans avoir profilé. Par la suite, nous nous intéressés à la création d’un profileur parallèle en programmation orientée aspect pour nos besoins très spécifiques, enfin, nous avons considéré la problématique de nos simulations sous un angle nouveau : plutôt que d’optimiser une simulation existante, nous avons proposé des méthodes permettant d’en créer une nouvelle, très spécifique à notre domaine, qui soit d’emblée reproductible, statistiquement correcte et qui puisse passer à l’échelle. Dans toutes les propositions, de façon transverse, nous nous sommes intéressés aux architectures multicore et manycore d’Intel pour évaluer les performances à travers une architecture orientée serveur et une architecture orientée calcul à haute performance. Ainsi, grâce à la mise en application de nos propositions, nous avons pu optimiser une des simulations de Monte Carlo, nous permettant d’obtenir un gain de performance de l’ordre de 400X, une fois optimisée et parallélisée sur un nœud de calcul avec 32 cœurs physiques. De même, nous avons pu proposer l’implémentation d’un profileur, programmé à l’aide d’aspects et capable de gérer le parallélisme à la fois de la machine sur laquelle il est exécuté mais aussi de l’application qu’il profile. De plus, parce qu’il emploi les aspects, il est portable et n’est pas fixé à une architecture matérielle en particulier. Enfin, nous avons implémenté la simulation prévue pour être reproductible, performante et ayant des résultats statistiquement viables. Nous avons pu constater que ces objectifs étaient atteints quelle que soit l’architecture cible pour l’exécution. Cela nous a permis de valider notamment notre méthode de vérification de la reproductibilité numérique d’une simulation. / During this thesis, we focused on High Performance Computing, specifically on Monte Carlo simulations applied to High Energy Physics. We worked on simulations dedicated to the propagation of particles through matter. Monte Carlo simulations require significant CPU time and memory footprint. Our first Monte Carlo simulation was taking more time to simulate the physical phenomenon than the said phenomenon required to happen in the experimental conditions. It raised a real performance issue. The minimal technical aim of the thesis was to have a simulation requiring as much time as the real observed phenomenon. Our maximal target was to have a much faster simulation. Indeed, these simulations are critical to asses our correct understanding of what is observed during experimentation. The more we have simulated statistics samples, the better are our results. This initial state of our simulation was allowing numerous perspectives regarding optimisation, and high performance computing. Furthermore, in our case, increasing the performance of the simulation was pointless if it was at the cost of losing results reproducibility. The numerical reproducibility of the simulation was then an aspect we had to take into account. In this manuscript, after a state of the art about profiling, optimisation and reproducibility, we proposed several strategies to gain more performance in our simulations. In each case, all the proposed optimisations followed a profiling step. One never optimises without having profiled first. Then, we looked at the design of a parallel profiler using aspect-oriented programming for our specific needs. Finally, we took a new look at the issues raised by our Monte Carlo simulations: instead of optimising existing simulations, we proposed methods for developing a new simulation from scratch, having in mind it is for High Performance Computing and it has to be statistically sound, reproducible and scalable. In all our proposals, we looked at both multicore and manycore architectures from Intel to benchmark the performance on server-oriented architecture and High Performance Computing oriented architecture. Through the implementation of our proposals, we were able to optimise one of the Monte Carlo simulations, permitting us to achieve a 400X speedup, once optimised and parallelised on a computing node with 32 physical cores. We were also able to implement a profiler with aspects, able to deal with the parallelism of its computer and of the application it profiles. Moreover, because it relies on aspects, it is portable and not tied to any specific architecture. Finally, we implemented the simulation designed to be reproducible, scalable and to have statistically sound results. We observed that these goals could be achieved, whatever the target architecture for execution. This enabled us to assess our method for validating the numerical reproducibility of a simulation.
5

Computation naturelle, beaucoup de bruit pour rien

Baudot, Pierre 29 September 2006 (has links) (PDF)
Le codage de l'information environnementale par le cerveau est sujet à d'intenses débats tant au niveau de son implémentation biologique (propriété fonctionnelles) qu'au niveau de sa variabilité et de sa précision. Cette étude se base sur des enregistrements intracellulaires in-vivo des réponses des neurones du cortex visuel primaire à des stimuli de complexité variable incluant des images naturelles animées par des mouvements oculaires. Nous montrons que les propriétés fonctionnelles sont générées par la récurrence corticale, notamment par la balance excitation/inhibition exprimée au travers d'une grande diversité de combinatoire de sélectivité fonctionnelle des entrées synaptiques. En condition naturelle avec mouvement des yeux, nous montrons que le code est reproductible, binaire/temporel et que l'analyse corticale se traduit par une réduction des redondances présentes dans les entrées. Les interactions ou contrôles de gain corticaux, dont le profile temporel biphasique sculpte temporellement les réponses corticales, augmentent la précision temporelle et la reproductibilité du code. Nous proposons (en discussion) une ébauche de modèle statistique général d'adaptation et d'auto-organisation consistant en la maximisation de l'information mutuelle entre le système et son environnement. Ce modèle, basé sur une décomposition microscopique de l'entropie en ordre de redondance, est suffisant pour rendre compte des propriétés singulières de l'organisation du vivant (incluant la cognition) tel que sa reproductibilité, sa diversité, et son optimalité (en terme de codage).
6

Étude expérimentale de la ségrégation en transport solide par charriage / Experimental study of segregation mechanisms in bedload sediment transport

Dudill, Ashley 28 September 2016 (has links)
Cette recherche porte sur les mécanismes de ségrégation dans le transport de sédiments par charriage. Des expériences simplifiées consistant à introduire un débit de particules fines sur un lit plus grossier, mobile, en équilibre, ont été entreprises dans un canal particulaire étroit en utilisant des billes de verre sphériques. Les expériences montrent des réponses différenciées en fonction du rapport de taille entre les particules grossières du lit (Dc) et les fines (Df). Des rapports de taille (Dc/Df) entre 7,14 et 1,25 ont été testés, pour différents débits solides de particules fines, tout en maintenant le débit solide des particules grossières constant. Des travaux antérieurs ont mis en évidence une augmentation des débits solides suite à l’introduction de grains fins. Les expériences présentées ici identifient les frontières au sein de ce comportement.Le tamisage cinétique a lieu à la surface du lit mobile, avec des sédiments plus fins se déplaçant vers le bas de la couche de charriage à l'interface du lit grossier quasi-statique. Le comportement à cette interface dicte comment le système répond à l’introduction de sédiments fins. Si, par percolation spontanée, le sédiment fin est capable de s’infiltrer dans le lit quasi-statique sous-jacent, le débit solide total augmente et le lit s’incise (diminution de pente). Toutefois, si les fines ne peuvent géométriquement s’infiltrer ou dépassent la capacité de transport, elles forment une couche quasi-statique sous la couche de charriage, qui empêche l'entraînement du lit sous-jacent, résultant en un exhaussement (augmentation de pente).Un essai formel de la reproductibilité des résultats ci-dessus a été effectué dans un autre laboratoire avec le même mode opératoire expérimental. La comparaison des résultats qualitatifs révèle les mêmes processus dominants. Cependant, des différences sont notées dans les résultats quantitatifs, du fait de la quasi-impossibilité de reproduire exactement la même expérience.Une dernière série d'expériences évalue les différences et les similitudes entre les expériences menées avec des billes de verre sphériques et des matériaux naturels ce qui permet d’étudier l’influence de la forme. Alors que les expériences avec des matériaux idéaux révèlent des mécanismes fondamentaux associés au transport granulaire et à la ségrégation, plusieurs nouveaux phénomènes sont observés avec des matériaux naturels, notamment une modification du potentiel d’infiltration et l’émergence de formes du lit. / This research focuses upon size segregation mechanisms in bedload sediment transport. Simplified experiments with fine grain inputs to a mobile coarse bed in equilibrium were undertaken in a small, narrow flume using spherical glass beads. The experiments demonstrate the influence of the size ratio between the bed (Dc) and the input (Df) upon the channel response. Size ratios (Dc/Df) between 7.14 and 1.25 were tested, with a constant coarse feed rate, and a variety of fine feed rates. Previous work has documented an increase in sediment transport rates as a result of a fine grain input; the experiments presented herein identify boundaries within this behaviour.Kinetic sieving takes place in the mobile bed surface, with the finer sediment moving to the bottom of the bedload transport layer at the interface to the underlying quasi-static coarse bed. The behavior at this interface dictates how a channel responds to a fine sediment input. If, by spontaneous percolation, the fine sediment is able to infiltrate into the underlying quasi-static bed, the total transport increases and the bed degrades causing a reduction in the slope. However, if the fine sediment input rate exceeds the transport capacity or is geometrically unable to infiltrate into the underlying bed, it forms a quasi-static layer underneath the transport layer that inhibits entrainment from the underlying bed, resulting in aggradation and an increase in bed slope.A formal test of the reproducibility of the aforementioned results was undertaken in a different laboratory, with the same experimental procedure. Comparison of the qualitative results reveals that the same dominant processes occur. Consistent differences, however, were present between the quantitative results; likely a result of differences in the experimental arrangement.A final set of experiments assesses the differences and similarities between experiments undertaken with spherical glass beads and natural materials to examine the complexities introduced due to particle shape. While the experiments with ideal materials reveal fundamental mechanisms associated with granular transport of mixed sizes, several key new phenomena are apparent in the experiments with natural materials, including changes in the infiltration potential and the emergence of bed structures.
7

Application de l'analyse temps-fréquence à l'évaluation de l'instabilité posturale chez le patient neurologique / Time-frequency analysis of postural sway in neurological patients

Gasq, David 11 December 2015 (has links)
Notre objectif a été d'étudier l'apport d'une analyse temps-fréquence par transformée en ondelettes dans l'évaluation stabilométrique de la stabilité posturale de sujets présentant une pathologie neurologique. A partir d'un corpus de données incluant 199 patients présentant une pathologie neurologique et 41 sujets témoins, nous avons étudié la reproductibilité et la validité des paramètres stabilométriques. Nous avons déterminé les valeurs d'erreur de mesure de paramètres issus d'une analyse temps-fréquence, d'une analyse fréquentielle par méthode FFT et d'une analyse linéaire du signal, chez des patients hémiplégiques vasculaires. Pour la moyenne de 3 acquisitions de 30 secondes, nous proposons de privilégier l'utilisation de paramètres issus d'une analyse temps-fréquence qui sont les plus reproductibles. L'évaluation stabilométrique a montré un intérêt au moins équivalent aux critères cliniques dans la prédiction du risque de chute chez le patient hémiplégique vasculaire. Le modèle de prédiction reste cependant insuffisant pour être appliqué de manière isolé en pratique clinique, où une évaluation multi-modale du patient reste nécessaire. Une étude des déterminants neurologiques et biomécaniques de la distribution du contenu fréquentiel a été réalisée avec l'analyse en ondelettes. Nous avons montré qu'en l'absence de tremblement postural caractérisé, la distribution du contenu fréquentiel était essentiellement liée au degré d'instabilité posturale. Nos perspectives sont d'approfondir l'intérêt de l'analyse temps-fréquence par transformée en ondelettes, qui permet d'étudier à la fois la stabilité posturale et les mécanismes de contrôle sous-jacents. / Our objective was to study the interest of time-frequency analysis by wavelet transform in stabilometric assessment of postural sway in neurological patients. From a corpus of data including 199 patients with neurological disease and 41 control subjects, we studied the reliability and validity of stabilometric parameters. We determined the error measurement from a time-frequency analysis, a FFT analysis and a linear analysis of the stabilogram, in stroke patients. For the average of 3 acquisitions of 30 seconds, we propose to use the time-frequency parameters that are most reliable. Stabilometric assessment showed an interest at least equivalent to clinical criteria in predicting the risk of falls in the stroke patient. The prediction model remains insufficient to be applied alone in clinical practice, where a multi-modal patient assessment is still required. A study of the neurological and biomechanical determinants of the distribution of frequency content was carried out with the wavelet analysis. We have shown that in the absence of postural tremor, the distribution of frequency content was mostly related to the degree of postural instability. Our outlook is to deepen the time-frequency analysis by wavelet transform, which allows to study both postural stability and the underlying control mechanisms.
8

Les "relecteurs d'images" : une pratique artistique contemporaine de collecte, d'association et de rediffusion d'images photographiques / The "rereaders of pictures" : a contemporary art pratice of collecting, associating and redistributing photographs

Détré, Natacha 22 September 2014 (has links)
Cette thèse propose de définir une génération d’artistes dont la spécificité consiste à collecter, associer et rediffuser des images existantes, sans en transformer le contenu iconique. Pour tenter de cerner les caractéristiques de cette pratique, des entretiens ont été menés avec des artistes français contemporains : Eric Baudelaire, Ludovic Burel, Hervé Coqueret, documentation céline duval, Pierre Leguillon, Mathieu Pernot, Régis Perray et Eric Watier. L’analyse des dispositifs plastiques qu’ils mettent en œuvre fait apparaître deux aspects susceptibles d’identifier la spécificité de leur travail : leur manière d’associer les images entre elles suscite de nouvelles interprétations entraînant leur relecture ; et leur pratique s’inscrit dans une phase transitoire entre l’ère de la reproductibilité technique des images et celle des technologies du numérique. A travers une recherche scientifique pluridisciplinaire, il sera donc question d’étudier leurs processus de création depuis le choix des images jusqu’à la diffusion de leurs projets (I), d’analyser la polysémie des images et les possibilités d’en relire les signes (II) et enfin de comprendre comment s’agence leur position artistique entre deux époques techniquement marquées concernant les images (III). Afin de les démarquer des autres générations réemployant des images, la thèse propose une nouvelle dénomination : les Relecteurs d’images. / This thesis proposes to define a generation of artists who are collecting, associating and redistributing pictures without changing or transforming the iconic contents. In order to elaborate their characteristics, several french contemporary artists were interviewed: Eric Baudelaire, Ludovic Burel, Hervé Coqueret, documentation céline duval, Pierre Leguillon, Mathieu Pernot, Régis Perray and Eric Watier. The analysis of the devices implemented by the artists shows two aspects that could identify the specificity of their work: their way of associating the pictures with each other offers new possibilities of interpretation and leads to a second reading of the pictures; and their practice is taking place during the transition between the eras of image reproduction techniques and numerical techniques. Within the scope of a multi-field scientific research, it will be necessary to study the creation processes from the choice of the representation till the distribution of the projects (I), to analyse the polysemy of the images and the possibility of rereading their signs (II), and, finally, to understand how the artistic position is located between two, with respect to pictures, technically distinguished epoches (III). To differentiate this generation of artists from others reusing images, the thesis suggests a new name: the “Rereaders of pictures”.
9

Accounting for variance and hyperparameter optimization in machine learning benchmarks

Bouthillier, Xavier 06 1900 (has links)
La récente révolution de l'apprentissage automatique s'est fortement appuyée sur l'utilisation de bancs de test standardisés. Ces derniers sont au centre de la méthodologie scientifique en apprentissage automatique, fournissant des cibles et mesures indéniables des améliorations des algorithmes d'apprentissage. Ils ne garantissent cependant pas la validité des résultats ce qui implique que certaines conclusions scientifiques sur les avancées en intelligence artificielle peuvent s'avérer erronées. Nous abordons cette question dans cette thèse en soulevant d'abord la problématique (Chapitre 5), que nous étudions ensuite plus en profondeur pour apporter des solutions (Chapitre 6) et finalement developpons un nouvel outil afin d'amélioration la méthodologie des chercheurs (Chapitre 7). Dans le premier article, chapitre 5, nous démontrons la problématique de la reproductibilité pour des bancs de test stables et consensuels, impliquant que ces problèmes sont endémiques aussi à de grands ensembles d'applications en apprentissage automatique possiblement moins stable et moins consensuels. Dans cet article, nous mettons en évidence l'impact important de la stochasticité des bancs de test, et ce même pour les plus stables tels que la classification d'images. Nous soutenons d'après ces résultats que les solutions doivent tenir compte de cette stochasticité pour améliorer la reproductibilité des bancs de test. Dans le deuxième article, chapitre 6, nous étudions les différentes sources de variation typiques aux bancs de test en apprentissage automatique, mesurons l'effet de ces variations sur les méthodes de comparaison d'algorithmes et fournissons des recommandations sur la base de nos résultats. Une contribution importante de ce travail est la mesure de la fiabilité d'estimateurs peu coûteux à calculer mais biaisés servant à estimer la performance moyenne des algorithmes. Tel qu'expliqué dans l'article, un estimateur idéal implique plusieurs exécution d'optimisation d'hyperparamètres ce qui le rend trop coûteux à calculer. La plupart des chercheurs doivent donc recourir à l'alternative biaisée, mais nous ne savions pas jusqu'à présent la magnitude de la dégradation de cet estimateur. Sur la base de nos résultats, nous fournissons des recommandations pour la comparison d'algorithmes sur des bancs de test avec des budgets de calculs limités. Premièrement, les sources de variations devraient être randomisé autant que possible. Deuxièmement, la randomization devrait inclure le partitionnement aléatoire des données pour les ensembles d'entraînement, de validation et de test, qui s'avère être la plus importante des sources de variance. Troisièmement, des tests statistiques tel que la version du Mann-Withney U-test présenté dans notre article devrait être utilisé plutôt que des comparisons sur la simple base de moyennes afin de prendre en considération l'incertitude des mesures de performance. Dans le chapitre 7, nous présentons un cadriciel d'optimisation d'hyperparamètres développé avec principal objectif de favoriser les bonnes pratiques d'optimisation des hyperparamètres. Le cadriciel est conçu de façon à privilégier une interface simple et intuitive adaptée aux habitudes de travail des chercheurs en apprentissage automatique. Il inclut un nouveau système de versionnage d'expériences afin d'aider les chercheurs à organiser leurs itérations expérimentales et tirer profit des résultats antérieurs pour augmenter l'efficacité de l'optimisation des hyperparamètres. L'optimisation des hyperparamètres joue un rôle important dans les bancs de test, les hyperparamètres étant un facteur confondant significatif. Fournir aux chercheurs un instrument afin de bien contrôler ces facteurs confondants est complémentaire aux recommandations pour tenir compte des sources de variation dans le chapitre 6. Nos recommendations et l'outil pour l'optimisation d'hyperparametre offre une base solide pour une méthodologie robuste et fiable. / The recent revolution in machine learning has been strongly based on the use of standardized benchmarks. Providing clear target metrics and undeniable measures of improvements of learning algorithms, they are at the center of the scientific methodology in machine learning. They do not ensure validity of results however, therefore some scientific conclusions based on flawed methodology may prove to be wrong. In this thesis we address this question by first raising the issue (Chapter 5), then we study it to find solutions and recommendations (Chapter 6) and build tools to help improve the methodology of researchers (Chapter 7). In first article, Chapter 5, we demonstrate the issue of reproducibility in stable and consensual benchmarks, implying that these issues are endemic to a large ensemble of machine learning applications that are possibly less stable or less consensual. We raise awareness of the important impact of stochasticity even in stable image classification tasks and contend that solutions for reproducible benchmarks should account for this stochasticity. In second article, Chapter 6, we study the different sources of variation that are typical in machine learning benchmarks, measure their effect on comparison methods to benchmark algorithms and provide recommendations based on our results. One important contribution of this work is that we measure the reliability of a cheaper but biased estimator for the average performance of algorithms. As explained in the article, an ideal estimator involving multiple rounds of hyperparameter optimization is too computationally expensive. Most researchers must resort to use the biased alternative, but it has been unknown until now how serious a degradation of the quality of estimation this leads to. Our investigations provides guidelines for benchmarks on practical budgets. First, as many sources of variations as possible should be randomized. Second, the partitioning of data in training, validation and test sets should be randomized as well, since this is the most important source of variation. Finally, statistical tests should be used instead of ad-hoc average comparisons so that the uncertainty of performance estimation can be accounted for when comparing machine learning algorithms. In Chapter 7, we present a framework for hyperparameter optimization that has been developed with the main goal of encouraging best practices for hyperparameter optimization. The framework is designed to favor a simple and intuitive interface adapted to the workflow of machine learning researchers. It includes a new version control system for experiments to help researchers organize their rounds of experimentations and leverage prior results for more efficient hyperparameter optimization. Hyperparameter optimization plays an important role in benchmarking, with the effect of hyperparameters being a serious confounding factor. Providing an instrument for researchers to properly control this confounding factor is complementary to our guidelines to account for sources of variation in Chapter 7. Our recommendations together with our tool for hyperparameter optimization provides a solid basis for a reliable methodology in machine learning benchmarks.
10

Quelques problèmes lies a l'analyse d'images numériques obtenues par un système automatique de microphotometrie a balayage

Chassery, Jean-Marc 17 December 1976 (has links) (PDF)
Présentation d'un système d'analyse d'image effectué avec les contraintes suivantes : obtenir un nombre suffisant de niveaux de différenciation permettant de traiter l'information non seulement avec des critères de forme mais également avec des critères lies au comportement du signal ; avoir la possibilité d'analyser des images de grande taille ; ne pas figer le traitement au problème posé.

Page generated in 1.0328 seconds