• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 678
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1050
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 142
  • 116
  • 100
  • 90
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Développement d’un fantôme anthropomorphique pour validation inter et intra modalités d’algorithmes de déformation d’image

D. Vincent, Sharlie 20 April 2018 (has links)
Un des défis de la radiothérapie externe est d’adapter la planification de traitement à l’anatomie du patient tout au long de son traitement. Il est possible de faire de la thérapie adaptative grâce à l’imagerie de repositionnement en utilisant des algorithmes de recalage d’image. Les contours et la planification peuvent être conformes à l’anatomie du jour des patients au moment de leur fraction quotidienne. Il faut s’assurer préalablement de l’efficacité et la constance de ces algorithmes. Il est plus simple d’isoler des déformations spécifiques avec un fantôme anthropomorphique tridimensionnel que sur des images de patients. Le fantôme construit dans cette étude a permis de construire une banque d’images montrant 7 déformations différentes en intra et intermodalité Cette étude montre l’utilité du fantôme dans la validation et ainsi que l’efficacité de deux algorithmes de recalage d’image. Cette validation permet de cerner les lacunes de cette technologie pour éventuellement l’utiliser en clinique.
202

Détection de faussetés dans les données personnelles soumises par des clients d'assurance

Sadeghpour Gildeh, Saeideh 01 March 2024 (has links)
Titre de l'écran-titre (visionné le 26 février 2024) / Dans l'ère numérique actuelle, l'apprentissage automatique, une branche de l'intelligence artificielle, est en train de révolutionner de nombreux secteurs, y compris celui de l'assurance. L'importance d'une évaluation précise des risques est cruciale dans le secteur des assurances, où la détermination de l'admissibilité d'un client à un type d'assurance spécifique est au cœur du processus de souscription. Traditionnellement, cette évaluation s'appuie sur des informations fournies par les clients, telles que leur état de santé, leur consommation de tabac ou d'alcool, et peut même inclure des examens médicaux, comme des tests d'urine pour détecter la présence de substances spécifiques. Cependant, l'intégrité des réponses fournies pose souvent problème. Par exemple, certains clients peuvent sous-déclarer leur consommation de tabac, influençant ainsi les décisions de souscription et les tarifications. Dans ce contexte, les compagnies d'assurance sont souvent contraintes de réaliser des tests médicaux coûteux pour valider les déclarations des clients. Toutefois, grâce à l'apprentissage automatique, nous pouvons potentiellement réduire ces coûts. En développant des modèles prédictifs pour détecter les fumeurs basés sur d'autres informations fournies, il est possible de réduire considérablement sur les coûts. Avec l'apprentissage automatique, nous pouvons analyser de grandes quantités de données, identifier des modèles et faire des prédictions avec une précision élevée. Cette approche ouvre la voie à des processus d'assurance plus optimisés et axés sur les données. En utilisant l'apprentissage automatique, en particulier les algorithmes de classification, nous exploitons des données d'assurance-vie pour prédire si les individus falsifient leurs réponses concernant leur statut de fumeur. Nous mettons en œuvre de nouvelles approches pour traiter les valeurs manquantes, en prenant en compte les aspects humains des données. De plus, nous introduisons une modification de l'algorithme de classification *Set Covering Machine* pour répondre aux défis associés aux coûts des erreurs lors des demandes d'assurance-vie. / In today's digital age, machine learning, a branch of artificial intelligence, is revolutionizing numerous sectors, including insurance. Accurate risk assessment is crucial in the insurance industry, where determining a client's eligibility for a specific type of insurance is central to the underwriting process. Traditionally, this assessment relies on information provided by clients, such as their health status, tobacco or alcohol consumption, and can even include medical examinations, like urine tests to detect specific substances. However, the integrity of the responses provided often poses challenges. For instance, some clients might under-report their tobacco consumption, subsequently influencing underwriting decisions and pricing. In this context, insurance companies often find themselves compelled to conduct costly medical tests to validate client statements. Nevertheless, with the aid of machine learning, we can potentially reduce these costs. By developing predictive models to identify smokers based on other provided information, there's potential for significant savings on testing costs. Thanks to machine learning, we can analyze vast amounts of data, identify patterns, and make predictions with more precision. This approach not only improves the reliability of eligibility assessments but also paves the way for more optimized, data-driven insurance processes. Using machine learning, particularly classification algorithms, we utilized life insurance data to predict whether individuals falsify their responses regarding their smoking status. We implemented new approaches to handle missing values, taking into account the human aspects of the data. Furthermore, we introduced a modification to the *Set Covering Machine* classification algorithm to address the challenges associated with the costs of errors in life insurance applications.
203

Approches évolutionnaires pour la reconstruction de réseaux de régulation génétique par apprentissage de réseaux bayésiens.

Auliac, Cédric 24 September 2008 (has links) (PDF)
De nombreuses fonctions cellulaires sont réalisées grâce à l'interaction coordonnée de plusieurs gènes. Identifier le graphe de ces interactions, appelé réseau de régulation génétique, à partir de données d'expression de gènes est l'un des objectifs majeurs de la biologie des systèmes. Dans cette thèse, nous abordons ce problème en choisissant de modéliser les relations entre gènes par un réseau bayésien. Se pose alors la question de l'apprentissage de la structure de ce type de modèle à partir de données qui sont en général peu nombreuses. Pour résoudre ce problème, nous recherchons parmi tous les modèles possibles le modèle le plus simple, expliquant le mieux les données. Pour cela, nous introduisons et étudions différents types d'algorithmes génétiques permettant d'explorer l'espace des modèles. Nous nous intéressons plus particulièrement aux méthodes de spéciation. ces dernières, en favorisant la diversité des solutions candidates considérées, empêchent l'algorithme de converger trop rapidement vers des optima locaux. Ces algorithmes génétiques sont comparés avec différentes méthodes d'apprentissage de structure de réseaux bayésiens, classiquement utilisées dans la littérature. Nous mettons ainsi en avant la pertinence des approches evolutionnaires pour l'apprentissage de ces graphes d'interactions. Enfin, nous les comparons à une classe alternative d'algorithmes évolutionnaires qui s'avère particulièrement prometteuse : les algorithmes à estimation de distribution. Tous ces algorithmes sont testés et comparés sur un modèle du réseau de régulation de l'insuline de 35 noeuds dont nous tirons des jeux de données synthétiques de taille modeste.
204

Méthodologie de conception de contrôleurs intelligents par l'approche génétique. Application à un bioprocédé

Guenounou, Ouabib 22 April 2009 (has links) (PDF)
Dans ce travail, le problème de conception de contrôleurs flous est étudié. Dans une première partie, on présente un état de l'art sur les techniques utilisées à savoir les algorithmes génétiques et ses différentes variantes, les réseaux de neurones, la logique floue et leurs hybridations. Prenant appui sur cet état de l'art nous proposons une première méthode de conception des contrôleurs flous de Mamdani par algorithmes génétiques simples. Cette méthode est en suite améliorée par l'emploi des algorithmes génétiques hiérarchisés. Ces derniers permettent par le biais de la structure de leurs chromosomes, une meilleure optimisation des paramètres du contrôleur tout en éliminant les règles incohérentes qui peuvent se présenter, comme pour la première méthode, à la fin du processus d'optimisation. La dernière méthode proposée concerne la synthèse des contrôleurs flous de Sugeno. Elle est basée sur une procédure d'apprentissage hybride qui se déroule en deux étapes. Durant la première étape, le contrôleur flou est représenté sous forme d'un réseau de neurones multicouches dont les paramètres sont optimisés par l'algorithme de rétropropagation. Dans la deuxième étape, les paramètres obtenus à l'issue de la première phase sont extraits et optimisés par le NSGA-II suivant un codage hiérarchisé. L'ensemble des ces méthodes est appliqué pour la conduite d'un procédé de fermentation alcoolique en mode continu.
205

Fouille de dynamiques multivariées, application à des données temporelles en cardiologie.

Dumont, Jerome 09 October 2008 (has links) (PDF)
Ce mémoire s'intéresse à l'analyse de dynamiques de séries temporelles observées en cardiologie. La solution proposée se décompose en deux étapes. La première consiste à extraire l'information utile en segmentant chaque battement cardiaque à l'aide d'une décomposition en ondelettes, adaptée de la littérature. Le problème difficile de l'optimisation des seuils et des fenêtres temporelles est résolu à l'aide d'algorithmes évolutionnaires. La deuxième étape s'appuie sur les modèles Semi-Markovien Cachés pour représenter les séries temporelles composées de l'ensemble des variables extraites. Un algorithme de classification non-supervisée est proposé pour retrouver les groupements naturels. Appliquée à la détection des épisodes ischémiques et à l'analyse d'ECG d'efforts de patients atteints du syndrome de Brugada (pour la distinction des patients symptomatiques et asymptomatiques), la solution proposée montre des performances supérieures aux approches plus traditionnelles.
206

Equilibrage de charge et redistribution de données sur plates-formes hétérogènes

Renard, Hélène 13 December 2005 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressée à la mise en oeuvre d'algorithmes itératifs sur des grappes hétérogènes. Ces algorithmes fonctionnent avec un volume important de données (calcul de matrices, traitement d'images, etc.), qui sera réparti sur l'ensemble des processeurs. À chaque itération, des calculs indépendants sont effectués en parallèle et certaines communications ont lieu. Il n'existe pas de raison a priori de réduire le partitionnement des données à une unique dimension et de ne l'appliquer que sur un anneau de processeurs unidimensionnel. Cependant, un tel partitionnement est très naturel et nous montrerons que trouver l'optimal est déjà très difficile. Après cette étude sur le placement et l'équilibrage de charge pour plates-formes hétérogènes, nous nous sommes intéressée à la redistribution de données sur ces mêmes plates-formes, lorsque que les caractéristiques de ces dernières changent. En ce qui concerne les anneaux de processeurs homogènes, nous avons totalement résolu le problème : nous avons obtenu des algorithmes optimaux et prouvé leur exactitude dans le cas homogène et dans le cas hétérogène. En ce qui concerne les anneaux hétérogènes, le cas unidirectionnel a été totalement résolu, alors que le cas bidirectionnel reste ouvert. Cependant, sous l'hypothèse de redistribution légère, nous sommes capable de résoudre le problème de manière optimale.
207

Gestion de la production décentralisée dans les réseaux de distribution

Caire, Raphael 02 April 2004 (has links) (PDF)
Les dérégulations du marché de l'énergie, suivies de nombreuses privatisations, et les désintégrations verticales ont amené une restructuration complète du secteur électrique avec de nouvelles formes d'organisation. L'ouverture des marchés de l'énergie ainsi que les développements technologiques des moyens de production de petite et moyenne puissance encouragent fortement cette évolution. Une méthodologie d'étude systématique de transmission d'impact entre la basse et moyenne tension est d'abord proposée, après un rapide état de l'art des différents impacts possibles. Le plan de tension est alors identifié comme l'impact le plus critique. Cette criticité est appuyée par des études quantitatives sur des réseaux typiques français, et confirmée par la littérature associée. Afin de solutionner cet impact, une recherche des moyens d'action sur le plan de tension du réseau de distribution ainsi que leur modélisation est réalisée. Les grandeurs de consigne des moyens de réglage disponibles étant discrètes ou continues, des outils spécifiques sont développées pour les coordonner. Cette coordination s'appuie sur des algorithmes d'optimisation développés en tenant compte de la spécificité inhérente aux grandeurs de réglage. Une méthodologie de choix ou de localisation optimale des moyens de réglage associés à une gestion du plan de tension est présentée. Enfin, des stratégies « décentralisées » de coordination des moyens de réglage et une proposition pour la validation expérimentale sont présentés, grâce à un simulateur temps réel, permettant de tester les stratégies de coordination et les moyens de communication nécessaires.
208

Approche pénalisée en tomographie hélicoïdale en vue de l'application à la conception d'une prothèse personnalisée du genou

Allain, Marc 17 December 2002 (has links) (PDF)
Dans le but de concevoir un implant personnalisé du genou, nous présentons une approche originale permettant la reconstruction d'images de précision en tomographie hélicoïdale. La méthodologie standard à base d'interpolation et de rétroprojection convoluée est remplacée par une approche pénalisée ; dans ce cadre, l'image tomographique 3D correspond au minimiseur d'un problème des moindres carrés pnalisés de très grande taille. Une régularisation pertinente du problème tomographique est en particulier permise par une pénalisation convexe : celle-ci permet de localiser précisment les interfaces dans le volume sans hypothéquer les aspects de coût d'implantation. Testée sur données synthtiques, cette démarche permet un gain significatif de précision sur l'image 3D obtenue. Le problème de reconstruction étant de très grande taille, l'implantation de cette méthode reste néanmoins délicate. Afin de garder la maîtrise du coût informatique, nous proposons d'adopter une invariance du modèle d'observation et de minimiser le critère des moindres carrés pénalisés par un algorithme de type successive over relaxation. Une seconde démarche basée sur une approximation du modèle d'observation a également été proposée : elle rend le problème séparable et permet d'aborder la reconstruction du volume en une succession de problèmes 2D d'une taille sensiblement réduite. Enfin, ces travaux ont donné lieu une étude approfondie des algorithmes semi quadratiques (SQ) dont l'emploi est répandu en traitement d'image ou de donnes. Ces algorithmes SQ ont été rattachs à des formes préexistantes, des conditions de convergence globale moins restrictives ont été obtenues et des variantes plus rapides ont été déduites.
209

Conception d'un modèle et de frameworks de distribution d'applications sur grappes de PCs avec tolérance aux pannes à faible coût

Makassikis, Constantinos 02 February 2011 (has links) (PDF)
Les grappes de PCs constituent des architectures distribuées dont l'adoption se répand à cause de leur faible coût mais aussi de leur extensibilité en termes de noeuds. Notamment, l'augmentation du nombre des noeuds est à l'origine d'un nombre croissant de pannes par arrêt qui mettent en péril l'exécution d'applications distribuées. L'absence de solutions efficaces et portables confine leur utilisation à des applications non critiques ou sans contraintes de temps. MoLOToF est un modèle de tolérance aux pannes de niveau applicatif et fondée sur la réalisation de sauvegardes. Pour faciliter l'ajout de la tolérance aux pannes, il propose une structuration de l'application selon des squelettes tolérants aux pannes, ainsi que des collaborations entre le programmeur et le système de tolérance des pannes pour gagner en efficacité. L'application de MoLOToF à des familles d'algorithmes parallèles SPMD et Maître-Travailleur a mené aux frameworks FT-GReLoSSS et ToMaWork respectivement. Chaque framework fournit des squelettes tolérants aux pannes adaptés aux familles d'algorithmes visées et une mise en oeuvre originale. FT-GReLoSSS est implanté en C++ au-dessus de MPI alors que ToMaWork est implanté en Java au-dessus d'un système de mémoire partagée virtuelle fourni par la technologie JavaSpaces. L'évaluation des frameworks montre un surcoût en temps de développement raisonnable et des surcoûts en temps d'exécution négligeables en l'absence de tolérance aux pannes. Les expériences menées jusqu'à 256 noeuds sur une grappe de PCs bi-coeurs, démontrent une meilleure efficacité de la solution de tolérance aux pannes de FT-GReLoSSS par rapport à des solutions existantes de niveau système (LAM/MPI et DMTCP).
210

Vers des algorithmes dynamiques randomisés en géométrie algorithmique

Teillaud, Monique 10 December 1991 (has links) (PDF)
La géométrie algorithmique a pour but de concevoir et d'analyser des algorithmes pour résoudre des problèmes géométriques. C'est un domaine récent de l'informatique théorique, qui s'est très rapidement développé depuis son apparition dans la thèse de M. I. Shamos en 1978. La randomisation permet d'éviter le recours à des structures compliquées, et s'avère très efficace, tant du point de vue de la complexité théorique, que des résultats pratiques. Nous nous sommes intéressés plus particulièrement à la conception d'algorithmes dynamiques : en pratique, il est fréquent que l'acquisition des données d'un problème soit progressive. Il n'est évidemment pas question de recalculer le résultat à chaque nouvelle donnée, d'où la nécéssité d'utiliser des schémas (semi-)dynamiques. Nous introduisons une structure très générale, le graphe d'influence, qui permet de construire de nombreuses structures géométriques : diagrammes de Voronoï, arrangements de segments... Nous étudions les algorithmes, à la fois du point de vue de la complexité théorique, de leur mise en oeuvre pratique et de l'efficacité des programmes.

Page generated in 0.0804 seconds