• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
461

Contribution à la détection de changements dans des séquences IRM 3D multimodales

Bosc, Marcel 17 December 2003 (has links) (PDF)
L'imagerie médicale a profondément influencé à la fois la recherche médicale et la pratique clinique. Elle est aujourd'hui incontournable aussi bien pour l'établissement du diagnostic que pour la mise en place et le suivi d'un traitement thérapeutique. Elle fournit un volume croissant de données tridimensionnelles provenant de modalités d'acquisition différentes (IRM, scanner-X, médecine nucléaire, échographie). Ce volume croissant de données rend délicate et laborieuse la tâche d'interprétation par un expert. Le traitement d'images est un outil permettant une automatisation des tâches et va assister l'expert aussi bien dans l'analyse qualitative que quantitative des images. Dans ce mémoire, nous proposons des techniques automatiques de détection de changements dans des séquences d'images IRM cérébrales. Nous nous intéressons plus particulièrement aux changements d'intensité localisés survenant lors d'évolutions pathologiques telles que les évolutions de lésions en sclérose en plaques (SEP). Les applications médicales des techniques développées ici sont nombreuses: aide au diagnostic, suivi à long terme de l'évolution d'une pathologie, évaluation de l'efficacité thérapeutique d'un médicament, aide à la prise de décision en vue d'une intervention chirurgicale. Ce travail de recherche a été mené en étroite collaboration entre le LSIIT (ULP/UMR CNRS 7005) et l'Institut de Physique Biologique (ULP-Hôpitaux Universitaires / UMR CNRS 7004), au sein de l'équipe-projet multi-laboratoires "Imagerie et Robotique Médicale et Chirurgicale" (EPML IRMC). Il a été soutenu par la Ligue Française Contre la Sclérose En Plaques (LFSEP), la société SERONO et la région Alsace. La détection automatique et fiable de changements interimages rencontre d'importantes difficultés rendant impossible la comparaison directe d'images acquises successivement. La position des patients dans l'imageur n'est jamais identique et les paramètres d'acquisition peuvent varier sensiblement entre chaque examen, entraînant, entre autres, des modifications de contraste. La définition même de ce qui doit être détecté est souvent subjective. Dans le cadre spécifique de la détection de changements d'intensité de lésions, des déformations globales de structures anatomiques, telle que l'atrophie cérébrale, peuvent également perturber la comparaison directe des images. Le travail présenté dans cette thèse est centré sur le développement d'outils de traitement d'images permettant de décider quels changements sont statistiquement significatifs ou non. Lorsque l'expert détermine visuellement des changements, il utilise des connaissances a priori, implicites, de haut niveau qui lui permettent de corriger certaines erreurs d'acquisition. Ainsi, il peut compenser visuellement des erreurs de repositionnement et utiliser ses connaissances anatomiques propres pour identifier et rejeter certains artefacts. Nous développons donc ici, des techniques automatiques d'identification et de correction des principaux artefacts (positionnement, déformations, variations d'intensité ...) et nous proposons une technique originale de segmentation du cortex, apportant les informations anatomiques permettant l'amélioration de la détection automatique. Les techniques de traitement d'images proposées ici ont été développées pour l'IRM cérébrale. Cependant, elles sont suffisamment générales pour s'appliquer à d'autres domaines. Notre système de détection de changements a été évalué dans le cadre de l'étude de l'évolution de lésions de sclérose en plaques. Ses performances ont été déterminées sur une grande base d'images multimodales (plus de 200 images FLAIR, RARE et GE3D) de taille $128^3$. L'évaluation a été faite à l'aide d'un protocole impliquant deux experts (neurologues) et utilisant une analyse statistique de type COR Le système automatique a été jugé plus performant que l'expert humain. Dans la première partie de ce manuscrit, nous présentons tout d'abord les éléments d'imagerie IRM et les aspects médicaux nécessaires à la compréhension de l'ensemble de ce travail. Nous décrivons les modalités d'acquisition IRM et les artefacts associés. Cette étape est importante pour la compréhension des imperfections pouvant apparaître et leur correction. Nous présentons ensuite des éléments sur l'anatomie cérébrale et nous décrivons l'apparence prise les différentes structures cérébrales dans les trois modalités IRM considérées. Puis, nous terminons par les pathologies cérébrales, leurs évolutions, et leur aspect en IRM. Les objectifs et les limites de notre approche sont situés par rapport à ce contexte applicatif. Dans une deuxième partie nous décrivons une approche nouvelle de segmentation sous-voxel. Pour décider de la pertinence d'un changement observé, l'expert utilise des connaissances anatomiques. Dans notre système de détection automatique, ces connaissances sont obtenues en segmentant l'image du cerveau. La méthode de segmentation proposée est basée sur l'évolution d'une image de labels de très haute résolution. L'évolution se fait sous l'influence de contraintes statistiques multiples, exprimées dans un cadre de minimisation d'énergie. L'évolution de l'image de labels n'ayant lieu qu'à la frontière entre régions, notre approche est comparable à un système d'évolution de surfaces. Afin de s'adapter aux spécificités de chaque région cérébrale, les contraintes sont paramétrées à l'aide d'un atlas. Celui-ci, composé d'une image de référence et d'images de paramètres, est plaqué sur l'image à segmenter à l'aide d'un recalage déformable multi-échelles. Les contraintes sont classées en deux catégories: les contraintes image (attache aux données) et le modèle a priori. Plusieurs contraintes image, opérant simultanément à des échelles différentes, sont employées. Elles utilisent une description rigoureuse du processus d'acquisition, permettant ainsi d'atteindre à la fois une précision sous-voxel et une convergence globale (à grande échelle). Le modèle a priori est également composé de plusieurs contraintes : une contrainte de distribution relative qui donne la probabilité d'observer un label à une distance donnée d'un autre label et une contrainte d'épaisseur. Notre approche permet d'obtenir une segmentation de haute résolution à partir d'images IRM pouvant être de résolution inférieure. La performance du système de segmentation a été évaluée sur des images simulées et testée sur des images réelles. La troisième partie présente l'ensemble de la chaîne de traitements conduisant à la détection de changements, ainsi que le protocole d'évaluation et les résultats. La chaîne de traitements est constituée d'une première étape de repositionnement et de correction des déformations. Toutes les images de la base sont alignées sur des références soigneusement choisies, d'abord à l'aide d'une méthode de recalage affine itératif robuste, puis à l'aide de recalage déformable. Au cours de la deuxième étape, les deux images à comparer subissent une correction d'intensité non-linéaire ainsi qu'une élimination d'erreurs résiduelles. La méthode de correction d'intensité que nous proposons permet d'établir une fonction de transfert d'intensité non-linéaire en optimisant un critère simple s'appuyant sur des informations de l'histogramme conjoint. Finalement, au cours de la dernière étape, une approche de détection statistique multimodale permet de décider quels changements sont significatifs. Les connaissances anatomiques fournies par la segmentation sont utilisées pour éliminer certaines détections aberrantes. L'ensemble de ces traitements est appliqué de manière entièrement automatique sur une base de plus de 200 images, de modalités différentes, démontrant ainsi la fiabilité des traitements. La validation du système a été menée à l'aide d'un protocole d'évaluation comprenant deux experts (neurologues). Le premier expert ainsi que le système automatique ont procédé indépendamment à un même travail de détection (l'expert opérant manuellement). Le second expert fait ensuite office d'arbitre pour comparer les résultats des deux procédés. L'analyse COR permet une vue synthétique de la performance du détecteur en donnant la probabilité de détection en fonction du nombre de fausses alarmes. Dans un cadre applicatif, les modifications détectées par le système automatique sont ordonnées par vraisemblance décroissante et présentées au neurologue dans un système de visualisation interactif. Ceci permet au médecin de conserver la décision finale, tout en parcourant efficacement et très rapidement les modifications détectées. En annexe nous proposons quelques réflexions sur l'importance du développement logiciel et de sa diffusion dans la recherche en traitement d'images. Nous présentons ensuite ImLib3D, une librairie C++ dédiée à la recherche en traitement d'images volumiques, que nous avons développée dans le cadre de cette recherche. ImLib3D propose à la fois un système de visualisation séparé et une librairie soigneusement conçue à l'aide d'une méthodologie orientée objet et utilisant des concepts modernes s'inspirant de la librairie standard du C++. L'objectif, dans la conception, a été de créer une librairie simple à utiliser par le chercheur, considéré comme le public cible. ImLib3D est distribuée librement (Open Source) et est placée dans un cadre de développement distribué coopératif (sourceforge.net). En conclusion, nous avons élaboré un système complet et opérationnel de détection de changements dans lequel nous avons systématiquement analysé et traité les principaux artefacts gênant la détection.
462

Evaluation ergonomique des interfaces utilisateur : un pas vers l'automatisation

Balbo, Sandrine 05 September 1994 (has links) (PDF)
L'ingenierie des Interfaces Homme-Machine s'est manifestee jusqu'ici par le developpement de modeles et d'outils d'aide a la construction d'interfaces utilisateur. Dans le processus iteratif de developpement des interfaces, l'evaluation est souvent negligee par les developpeurs ou reste le produit d'une demarche artisanale. Notre but est de fournir une aide automatique en vue d'une evaluation plus performante. Apres une revue de l'etat de l'art, nous proposons deux espaces taxonomiques qui permettent de situer les techniques d'evaluation actuelles et les modeles de taches possibles. Nous proposons ensuite EMA, un mecanisme d'analyse automatique pour l'evaluation ergonomique des interfaces utilisateur. L'analyse utilise trois sources d'information : une base de profils de comportement modelises sous forme de regles, une representation formelle de l'espace des taches realisables avec le logiciel teste, ainsi que les donnees comportementales enregistrees au cours des sessions d'utilisation du logiciel teste. EMA est aujourd'hui un detecteur d'anomalies. Il conviendra dans nos perspectives d'extension, d'en faire un critique explicatif, voire correctif.
463

Fédération de composants : une architecture logicielle pour la composition par coordination

Villalobos, Jorge 15 July 2003 (has links) (PDF)
Nous étudions le problème de la composition par coordination, dans lequel un groupe de composants de domaines distincts doivent travailler ensemble pour réaliser une application. Sachant que toute connexion directe entre deux composants de deux domaines différents engendre des problèmes d'évolution, nous avons exploré la coordination comme une façon de composer. Nous avons caractérisé le problème de la coordination entre domaines, et montré les modèles de conteneurs comme une solution rudimentaire à ce problème. Nous avons étudié le monde de la coordination, et nous avons introduit la "fédération", comme une architecture logicielle qui permet de structurer les applications comme un ensemble de composants qui coopèrent pour atteindre un but commun. Nous avons défini l'univers commun (les relations entre les composants de domaines distincts) et les contrats de coordination (la matérialisation des règles de jeu), comme les structures de base d'une fédération
464

OMAGE : Outils et Méthode pour la spécification des connaissances au sein d'un Atelier de Génie Educatif

MARQUESUZAÀ, Christophe 12 February 1998 (has links) (PDF)
Les nouvelles technologies de l'information sont entrées au cœur de notre société et provoquent de profonds changements dans notre vie quotidienne, notamment dans le monde du travail. Or le métier d'enseignant n'a pas vraiment évolué, même si les méthodes éducatives changent, car toute tentative d'introduction de l'informatique se heurte à la méfiance des enseignants qui ont peur de perdre leur liberté de choix éducatifs. De plus, les avancées technologiques n'ont d'intérêt que si elles sont intégrées dans un processus global de conception d'applications éducatives. Nos recherches ont donc pour objectif principal de faciliter la tâche de l'enseignant dans la préparation de ses séquences pédagogiques. Nous définissons ainsi le support méthodologique d'un environnement informatique d'aide à la spécification des connaissances éducatives. Nous organisons alors nos travaux autour de trois axes. Tout d'abord, nous proposons la mise en place d'enseignements axés sur la notion de situations-problèmes au sens IUFM car elle met les apprenants en situation de projet tout en répondant aux objectifs pédagogiques fixés. Nous exposons ensuite la nécessité pour les enseignants de se reposer sur un processus de spécification formelle que nous définissons et pour lequel nous proposons un cycle de vie basé sur le prototypage rapide. Nous proposons aussi une ontologie de l'enseignement s'appuyant sur une architecture orientée-objet. Nous montrons enfin que l'utilisation de méta-outils CASE permet de développer un environnement ayant une assistance adaptée et suffisamment flexible pour permettre différentes façons de spécifier et différents points de vue et-ou formalismes de représentation sur une spécification. Le prototype développé couple le méta-outil CASE HARDY, qui fournit une interface diagrammatique supportant les étapes du processus de développement, et le générateur de système expert CLIPS qui assure la cohésion globale en terme de guidage et de flexibilité.
465

Contribution au contrôle de surfaces planes et sphériques de précision nanométrique.

Picart, Pascal 15 December 1995 (has links) (PDF)
Le sujet de ce mémoire est l'étude d'un interféromètre de Fizeau a décalage de phase pour la mesure de surfaces planes et sphériques a des précisions nanométriques. Nous avons recensé et étudié les sources de limitation et recherche les conditions ou les solutions rendant leur contribution inférieure a un millième de longueur d'onde en valeur crête à crête (la longueur d'onde est égale a 632,8 nanomètres). Six sources potentielles d'erreurs ont été examinées: la source laser, la détection, l'élément qui crée le déphasage, le diffuseur mobile du système d'imagerie, les aberrations géométriques des composants optiques et la nature même des interférences. Nous avons optimise la configuration interférométrique. De nouveaux algorithmes ont été développes. Ils sont basés sur des méthodes des moindres carres non linéaires. Ces algorithmes sont auto calibrés mais demandent beaucoup de temps de calcul. Pour obtenir des resultats rapidement, nous avons complete nos techniques de depouillement par une méthode basée sur une correction a posteriori de la formule de carre. La validation a montré les performances de l'instrument. Avec les méthodes basées sur les moindres carrés, les mesures de bruit ont montre que les fluctuations aléatoires sont de l'ordre de 0,21 nanomètres rms ; les erreurs systématiques ont une contribution inférieure a 1,8 nanomètres crête à crête. La cale piézo-électrique qui réalise le déphasage, et le bruit de la détection, sont en fait les principales sources de limitation. La correction des défauts de positionnement de la cale piézo-électrique a été essayée sur l'algorithme de carre et sa post correction ; les résultats indiquent une exactitude meilleure que 1 nanomètre crête à crête. L'interféromètre de Fizeau a décalage de phase a été applique a l'étalonnage absolu de surfaces planes. Une méthode basée sur des combinaisons de translations et de rotations d'une des surfaces par rapport a l'autre, a été présentée. Cette méthode a été utilisée pour la mesure d'une surface plane en silice.
466

Analyse de stabilité globale pour un écoulement transsonique soumis au phénomène de tremblement de voilure

Benbaba, Sarah 20 October 2011 (has links) (PDF)
En configuration croisière d'un avion de transport civil, où les conditions de l'écoulement sont transsoniques, une augmentation de la vitesse ou de l'incidence, nécessaire par exemple lors d'un virage ou d'un changement d'altitude, peut générer des décollements sur l'extrados de l'aile par la recompression de l'écoulement ou par l'interaction onde de choc/couche limite plus forte. Ces décollements modifient la répartition de charge sur la voilure, donc la portance, et deviennent instables par les échappées tourbillonnaires dans le sillage lorsqu'ils sont étendus jusqu'au bord de fuite. Ces instabilités aérodynamiques, correspondent à la répartition spatiale et temporelle des décollements et de la position du choc. Elles modifient la charge de la voilure et par couplage excitent la structure sur ces modes propres, tremblement. Par conséquent, il apparaît intéressant d'approfondir l'étude des instabilités qu'on vient d'identifier à travers d'une nouvelle approche. De ce fait, ce mémoire s'orientera vers une analyse de stabilité linéaire globale d'un écoulement compressible turbulent soumis au phénomène de tremblement. En particulier, la démarche de cette thèse s'inspirera des travaux effectués par l'équipe de Crouch. Dans ce contexte, l'objectif de cette thèse est le développement d'un outil numérique permettant d'étudier la stabilité globale d'un écoulement compressible turbulent pour des géométries quelconques. Ce travail est essentiellement numérique, il mettra en oeuvre l'implémentation du code dans le logiciel elsA de l'ONERA, pour calculer le champ de base et réaliser l'extraction explicite de la jacobienne des équations RANS linéarisées. Cet objectif, a pour but de prouver qu'on est capable de retrouver les acteurs responsables du phénomène de tremblement qui apparaît à l'extrados d'une voilure bidimensionnelle. En vue de l'étude de la stabilité de l'écoulement, l'implémentation des méthodes numériques ainsi que leurs validations au sein du logiciel elsA, ont été réalisé avec succès. Une fois ce résultat est acquis, on s'intéressera, en particulier, à déterminer le spectre des modes propres, grâce aux techniques spécifiques fournies par la théorie de stabilité.
467

Composition de modèles et de métamodèles : Séparation des correspondances et des interprétations pour unifier les approches de composition existantes

Clavreul, Mickaël 07 December 2011 (has links) (PDF)
L'Ingénierie Dirigée par les Modèles (IDM) est basée sur le principe d'abstraction et de séparation des préoccupations pour gérer la complexité du développement de logiciels. Les ingénieurs s'appuient sur des modèles dédiées à la résolution d'un problème particulier. Dans le cadre de l'IDM, la composition de modèles est un domaine de recherche très actif qui vise à automatiser les tâches de recomposition des modèles. La quasi-inexistence de consensus pour comparer les techniques existantes entraîne une explosion de l'effort nécessaire pour produire de nouveaux outils spécifiques à partir de techniques existantes. La contribution principale de cette thèse est de proposer une définition originale de la composition de modèles comme étant une paire correspondance-interprétation. A partir de cette définition, nous proposons un cadre théorique qui (1) unifie les représentations des techniques de composition existantes et qui (2) automatise le développement d'outils de composition de modèles. La contribution principale s'appuie sur deux sous-contributions supplémentaires : - Nous proposons des catégories pour classer les techniques de correspondance et les interprétations existantes. - Nous proposons un langage de modélisation spécifique pour la définition de correspondances génériques entre modèles et la définition d'interprétations. Un prototype logiciel a été développé et utilisé dans le cadre du projet MOPCOM-I du pôle de compétitivité Images & Réseaux de la région Bretagne. La validation de la contribution a été démontrée sur un cas d'étude proposé par Technicolor pour l'intégration de librairies existantes dédiées à la gestion d'équipements numériques de diffusion vidéo.
468

Spécialisation de composants

Bobeff, Gustavo 14 December 2006 (has links) (PDF)
La programmation à base de composants facilite l'encapsulation de logiciel générique qui peut ainsi être réutilisé dans différents contextes d'utilisation. Un composant est spécifié à partir d'une implémentation et d'une interface. Cette interface, utilisée pour la composition, peut être adaptée par le consommateur du composant. Les modèles existants ne permettent que l'adaptation au niveau de l'interface alors que leur implémentation reste inchangée (boîte noire), les applications résultantes conservent le degré de généralité des composants constituants. Pour aller au-delà de ces modèles, nous proposons MoSCo, un modèle qui permet une forme plus profonde d'adaptation où l'implémentation est aussi modifiée. Dans ce modèle, un composant est analysé et traduit, à l'aide des techniques de spécialisation de programmes, sous la forme d'un générateur de composants. Ce générateur produit finalement un composant spécialisé selon un contexte d'utilisation en respectant la notion de boîte noire.
469

Hiérarchie de contraintes : quelques approches de résolution

Bouzoubaa, Mouhssine 21 October 1996 (has links) (PDF)
L'objectif de ce travail est de proposer quelques approches pour la résolution de hiérarchies de contraintes fonctionnelles. Dans un premier temps, le rôle et les qualités d'une hiérarchie de contraintes sont définis. Une hiérarchie de contraintes permet de résoudre des problèmes sur-contraints en répartissant les contraintes dans une hiérarchie (de niveaux) suivant leur importance. Dans un deuxième temps, un nouveau résolveur de maintien de solutions pour les hiérarchies de contraintes fonctionnelles a été conçu afin d'obtenir des solutions de meilleure qualité. Ce résolveur est basé sur l'utilisation d'un algorithme du type "meilleur d'abord" et prend en compte différents modes de combinaison des erreurs par niveau et utilise une agrégation globale de type lexicographique sur les valeurs de ces combinaisons. Les modes de combinaison globale intégrés dans ce résolveur sont : le nombre de contraintes non satisfaites, une combinaison où les poids représentent des priorités pour considérer des contraintes de remplacement et enfin la somme des poids des contraintes non satisfaites. Dans un troisième temps, nous proposons une procédure utilisant le résolveur précédent. Cette dernière est plus prometteuse qu'un algorithme du type séparation et évaluation. Elle peut être incorporée dans les langages de Programmation Logique par Hiérarchie de Contraintes afin de réaliser la comparaison inter-hiérarchies et donc de pouvoir éliminer les hiérarchies telles que leurs résolutions produiraient des solutions non désirables. Enfin, nous avons modélisé un résolveur pour la résolution de hiérarchies de contraintes où Ses modes de combinaison peuvent varier selon les niveaux. Ce dernier prend en compte des contraintes possédant des méthodes recalculant plusieurs variables à la fois et établit un plan de coopération entre des résolveurs spécifiques. Ces résolveurs spécifiques doivent être conçus selon les modes de combinaison utilisés.
470

Modélisation du mouvement des personnes lors de l'évacuation d'un bâtiment à la suite d'un sinistre

Theos, Constantin 25 January 1994 (has links) (PDF)
Ce travail a porté sur la mise au point d'un modèle et d'un logiciel de simulation du mouvement de personnes évacuant un bâtiment, lors d'un incendie ou d'une autre situation justifiant l'évacuation ou la provoquant spontanément. Un algorithme original a été développé, applicable à de fortes densités de personnes dans un environnement complexe comprenant des obstacles au mouvement. Afin de pouvoir visualiser la simulation du mouvement, un post-processeur graphique a été réalisé, destiné à la représentation du bâtiment et de ses obstacles internes et à celle des trajectoires suivies par les personnes. Un maillage sert de trame pour représenter, outre les aires offertes au déplacement, les murs et autres obstacles, qu'ils soient matériels ou qu'ils représentent des régions dangereuses. Le logiciel développé simule le déplacement des occupants évoluant en coordonnées continues dans un environnement complexe et interagissant au niveau de la vitesse de leur déplacement ainsi que de la densité maximale d'occupation qu'il est possible d'atteindre. Ce modèle a pu être réalisé au moyen d'une application locale, au niveau du micro-environnement de chaque occupant, des lois de corrélation macroscopiques vitesse-densité identifiées par plusieurs auteurs. L'utilisation du post-processeur graphique mis au point lors de ce travail, a rendu possible la mise en évidence des phénomènes inhérents au mouvement de foule (accumulation, blocage, détente).

Page generated in 0.0278 seconds