• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 6
  • 6
  • 5
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Parallélisation de problèmes d'apprentissage par des réseaux neuronaux artificiels. Application en radiothérapie externe

Sauget, Marc 07 December 2007 (has links) (PDF)
Les travaux présentés dans cette thèse s'inscrivent dans un projet lié à la radiothérapie externe. L'objectif de ceux-ci est de mettre au point un moteur de calcul permettant une évaluation précise et concise d'un dépôt de dose lors d'une irradiation. Pour remplir cet objectif, nous avons construit un moteur de calcul reposant sur l'utilisation des réseaux de neurones. Dans un premier temps, nous avons développé un algorithme L'apprentissage pour les réseaux de neurones spécifiquement conçu pour la prise en charge des données liées à la radiothérapie externe. Dans un second temps, nos travaux ont consisté en la réalisation d'algorithmes permettant l'évaluation des doses.<br />La première partie a donc porté sur la mise au point de l'algorithme d'apprentissage des réseaux de neurones. Un des problèmes majeurs lors de la préparation de l'apprentissage concerne la détermination de la structure optimale permettant l'apprentissage le plus efficace possible. Pour construire un réseau proche de l'optimal, nous nous sommes basés sur une construction incrémentale du réseau. Ensuite, pour permettre une prise en charge des nombreux paramètres liés à notre domaine d'application, et du volume des données nécessaires à un apprentissage rigoureux, nous nous sommes attachés à paralléliser notre algorithme. Nous avons obtenu, à la fin de cette première phase de nos travaux, un algorithme d'apprentissage incrémental et parallèle pouvant être déployé de manière efficace sur une grappe de calcul non-fiable. Ce déploiement est possible grâce à l'ajout d'un mécanisme de tolérance aux pannes. La deuxième partie, quant à elle, a consisté en la mise au point d'algorithmes permettant l'évaluation des doses déposées lors d'une irradiation. Ces algorithmes utilisent les réseaux de neurones comme référence pour la valeur des doses ainsi que le principe de continuité de la dose en tout point du milieu. Ils ont été construits à partir d'une fine observation du comportement de la courbe de dépôt de dose à chaque changement de milieu.<br />En aboutissement, nous présentons des expérimentations montrant les performances de notre algorithme d'apprentissage, ainsi que de nos algorithmes d'évaluation de doses dans différentes configurations.
2

Construction Incrémentale de Spécifications de Systèmes Critiques intégrant des Procédures de Vérification

Luong, Hong-Viet 01 October 2010 (has links) (PDF)
Cette thèse porte sur l'aide à la construction de machines d'états UML de systèmes réactifs. Elle vise à définir un cadre théorique et pragmatique pour mettre en oeuvre une approche incrémentale caractérisée par une succession de phases de construction, évaluation et correction de modèles. Ce cadre offre des moyens de vérifier si un nouveau modèle est conforme à ceux définis durant les étapes précédentes sans avoir à demander une description explicite des propriétés à vérifier. Afin de pouvoir analyser les machines d'états, nous leur associons une sémantique LTS ce qui nous a conduit à définir une procédure de transformation automatique de machines d'états en LTS. Dans un premier temps, nous avons défini et implanté des techniques de vérification de relations de conformité de LTS (red, ext, conf, et confrestr). Dans un second temps, nous nous sommes intéressés à la définition d'un cadre de construction incrémentale dans lequel plusieurs stratégies de développement peuvent être mises en \oe uvre en s'assurant que le modèle final élaboré sera une implantation conforme à la spécification initiale. Ces stratégies reposent sur des combinaisons de raffinements qui peuvent être de deux types : le raffinement vertical pour éliminer l'indéterminisme et ajouter des détails ; le raffinement horizontal pour ajouter de nouvelles fonctionnalités sans ajouter d'indéterminisme. Enfin, nous transposons la problématique de construction incrémentale d'une machine d'états à la construction d'architectures dont les composants sont des machines d'états. Des conditions sont définies pour assurer la conformité entre des architectures dans le cas de la substitution de composants.
3

Gestion des versions pour la construction incrémentale et partagée de bases de connaissances

Tayar, Nina 21 September 1995 (has links) (PDF)
Dans de nombreux domaines scientifiques ou techniques, la quantité et la complexité croissantes des connaissances manipulées rendent inadéquate l'utilisation de supports classiques tels que le papier. L'informatique peut apporter une réponse en proposant un cadre pour modéliser, gérer et exploiter ces connaissances : on parle alors de bases de connaissances. Pour la plupart des domaines, la connaissance n'est pas statique et immédiatement disponible mais est au contraire en constante évolution au fur et à mesure des découvertes. Dés lors, une base de connaissances est construite de manière incrémentale. Incrémentale veut dire que l'on commence par construire une petite base qui est enrichie petit à petit par l'acquisition de nouvelles connaissances. Cette construction est partagée puisque plusieurs personnes doivent pouvoir travailler simultanément sur cette base afin de la bâtir. Cette thèse aborde la problématique de la gestion des versions pour les bases de connaissances. Ses apports sont de deux ordres. Nous avons tout d'abord conçu et réalisé un système de gestion de versions de bases de connaissances. Par définition, une version reflète un état de l'évolution de la base, c'est-à-dire de l'ensemble des structures et des valeurs des connaissances contenues dans celle-ci (à un moment donné). Les versions aident ainsi à contrôler l'historique des changements effectués au cours de la construction de la base. Elles permettent également un éventuel retour en arrière. Finalement, les versions permettent la formulation de différentes hypothèses de recherche et la gestion de leur évolution parallèle au cours du temps. Nous avons également contribué à la conception de l'environnement de construction incrémentale et partagée de bases de connaissances et montré comment notre système de versions s'intègre au sein de cet environnement.
4

SELECTA : une approche de construction d'applications par composition de services.

Dieng, Idrissa Abdoulaye 31 May 2010 (has links) (PDF)
On appelle composition le mécanisme permettant la réalisation d'applications logicielles par intégration de services. Les applications à service exigeant souvent des propriétés telles que la sélection dynamique ou non déterministe des services, le concept d'application doit être défini différemment, et le processus de composition est très difficile à réaliser manuellement. Le processus de composition devrait être automatisé par des outils et des environnements logiciels. Ces outils devraient permettre d'une part la construction d'applications flexibles et d'autre part garantir la cohérence et la complétude de la composition. Cette thèse s'intéresse à la construction d'applications depuis leur conception jusqu'à leur exécution. Dans cette thèse, nous proposons une approche de composition de services et un prototype nommé SELECTA permettant de répondre aux besoins et aux défis de la composition de services, tels que l'augmentation du niveau d'abstraction de la spécification de la composition, la construction incrémentale de composites, la gestion de la cohérence et de la complétude de composites, la définition de langages de contraintes de services ou d'algorithmes de sélection de services.
5

Une approche incrémentale à base de processus coopératifs et adaptatifs pour la segmentation des images en niveaux de gris

Bellet, Fabrice 19 June 1998 (has links) (PDF)
Un des objectifs de la vision par ordinateur consiste à extraire à partir d'un important volume de données brutes issues des images, celles qui s'avéreront pertinentes pour une exploitation ultérieure. Les primitives extraites de l'image sont communément de type contour, correspondant à des zones de transition objectivement visibles, et de type région, correspondant à des regroupements de pixels de l'image avec des caractéristiques d'homogénéité communes. Une nécessaire gestion de l'information est obtenue par la répartition de la tâche de segmentation au sein d'entités indépendantes, localisées de façon précise dans l'image, possédant chacune une primitive particulière à segmenter de type contour ou région, et construisant ces objets de manière incrémentale, c'est-à-dire pixel par pixel. L'originalité de l'approche réside dans la coopération instaurée entre la construction des contours et des régions. Les deux types de segmenteurs fonctionnent conjointement à l'étiquetage des pixels de l'image, sous une forme pseudo-parallèle, en tirant avantage de leurs atouts réciproques. Un détecteur de contour instancie de nouveaux détecteurs de régions de part et d'autre de son extrémité en construction, afin de valider son existence, tandis qu'un détecteur de régions instancie des détecteurs de contours à sa frontière, afin de borner son expansion. L'ensemble constitue un arbre d'entités de segmentation coopérantes, dépendant chacune les unes des autres, par filiation. Une telle approche permet une forte adaptation locale, puisque chaque primitive est détectée par une instance d'un détecteur générique, pouvant modifier ses paramètres internes indépendamment des autres instances. La coopération est réelle, puisqu'elle est intégrée au mécanisme de décision. L'implantation d'un séquenceur de tâches anonymes, permet enfin de simuler le pseudo-parallélisme, et repose grandement sur des mécanismes classiques réservés généralement au domaine des systèmes d'exploitation.
6

Vers plus d'automatisation dans la construction de systèmes mediateurs pour le web semantique : une application des logiques de description / Towards more automation in building mediator systems in the semantic web context : a description logic application

Niang, Cheikh Ahmed Tidiane 05 July 2013 (has links)
Les travaux que nous présentons dans cette thèse concernent l’automatisation de la construction de systèmes médiateurs pour le web sémantique. L’intégration de données de manière générale et la médiation en particulier sont des processus qui visent à exploiter conjointement des sources d’information indépendantes, hétérogènes et distribuées. L’objectif final est de permettre à un utilisateur d’interroger ces données comme si elles provenaient d’un système unique et centralisé grâce à une interface d’interrogation uniforme basée sur un modèle du domaine d’application, appelé schéma global. Durant ces dernières années, beaucoup de projets de recherche se sont intéressés à cette problématique et de nombreux systèmes d’intégration ont été proposés. Cependant, la quantité d’intervention humaine nécessaire pour construire ces systèmes est beaucoup trop importante pour qu’il soit envisageable de les mettre en place dans bien des situations. De plus, face à la diversité et à l’évolution croissante des sources d’information apparaissent de nouveaux chalenges relatifs notamment à la flexibilité et à la rapidité d’accès à l’information. Nos propositions s’appuient sur les modèles et technologies du web sémantique. Cette généralisation du web qui est un vaste espace d’échange de ressources, non seulement entre êtres humains, mais également entre machines, offre par essence les moyens d’une automatisation des processus d’intégration. Ils reposent d’une part sur des langages et une infrastructure dont l’objectif est d’enrichir le web d’informations "sémantiques", et d’autre part sur des usages collaboratifs qui produisent des ressources ontologiques pertinentes et réutilisables. / This thesis is set in a research effort that aims to bring more automation in building mediator-based data integration systems in the semantic Web context. The mediator approach is a conceptual architecture of data integration that involves combining data residing in different sources and providing users with a unified view of these data. The problem of designing effective data integration solutions has been addressed by several researches, and well-known data integration projects have been developed during the 90’s. However, the building process of these systems rely heavily on human intervention so that it is difficult to implement them in many situations. Moreover, faced with the diversity and the increase of available information sources, the easiness and fastness of information access are new challenges. Our proposals are based on models and technologies of semantic web. The semantic web is recognized as a generalization of the current web which enables to find, combine and share resources, not only between humans but also between machines. It provides a good track for automating the integration process. Possibilities offered by the semantic web are based, on the one hand, on languages and an infrastructure aiming to enrich the web with "semantic" information and, on the other hand, on collaborative practices that allow the production of relevant and reusable ontological resources.

Page generated in 0.1556 seconds