• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
351

Dispositif virtuel d'aide à la chirurgie de l'épaule

Atmani, Hakim 16 January 2008 (has links) (PDF)
L'objectif de ces travaux est la réalisation d'un dispositif à base de réalité virtuelle an d'assiter le chirurgien orthopédiste lors de la substitution de l'articulation gléno-humérale par une prothèse. Ce dispositif a pour but l'optimisation des débattements de l'articulation prothésée de l'épaule à partir d'un choix de différents scénarios de pose. Les travaux se basent sur de nombreuses thématiques telles que la chirurgie orthopédique, le traitement d'image, l'informatique graphique ainsi que la réalité virtuelle. La démarche choisie comprend une (i) phase de modélisation de la partie osseuse de l'articulation par des formes géométriques simples, ce modèle est paramétrable à partir de radios ou de coupes scanners ; (ii) une phase de simulation des débattements de l'articulation gléno-humérale saine ; ainsi que (iii) une phase de simulation des opérations de coupes et de perçages avec choix des implants prothétiques pour une optimisation des débattements de l'articulation en préopératoire (cette optimisation se fait grâce une comparaison de la cinématique de l'épaule saine avec les diérents scénarios issus de notre simulation préopératoire).
352

Systèmes d'évaluation et de classification multicritères pour l'aide à la décision : Construction de modèles et procédures d'affectation

Henriet, Laurent 25 January 2000 (has links) (PDF)
Cette thèse traite des problèmes et des méthodes de classification dans le cadre de l'aide multicritère à la décision. Un problème de classification consiste en l'affectation d'objets à des catégories prédéfinies (nous parlerons aussi de problème d'affectation). Par ailleurs, le cadre de l'aide à la décision dans lequel nous nous plaçons nous amène à tenir compte des préférences d'un décideur. L'approche que nous proposons se fonde sur l'utilisation d'une relation d'indifférence comme reflet des préférences du décideur. Le principe d'affectation consiste à évaluer l'appartenance d'un objet à une catégorie à partir de l'évaluation de l'indifférence entre l'objet à classer et des objets typiques de la catégorie (points de référence). Nous présentons tous d'abord une définition générale des méthodes de classification multicritère. Puis nous proposons deux méthodes d'affectation (PIP et k-PIP) qui vont principalement différer par la nature des points de référence à considérer (prototypes ou points exemples). Ces méthodes possèdent l'avantage de procurer au décideur, non seulement un résultat, mais aussi explication de celui-ci : c'est là un des aspects fondamentaux de l'aide à la décision. Nos méthodes considèrent des catégories décrites par des points de référence. Donner les points de référence de ces catégories n'est cependant pas toujours une tâche aisée pour un décideur. C'est pourquoi nous proposons deux procédures qui permettent de construire les prototypes des catégories à partir d'ensembles de points d'apprentissage. D'autre part, et de même que pour les points de référence, un décideur peut éprouver certaines diffcultés à fixer certains paramètres préférentiels (seuils, poids). Nous proposons à cet effet une procédure permettant de construire à partir de points exemples les coefficients d'importance relative des différents critères (poids) entrant en compte dans le processus d'aide à la décision relatif au problème de classification.
353

Vers la reconfiguration dynamique dans les systèmes embarqués: de la modélisation à l'implémentation

Meftali, Samy 06 July 2010 (has links) (PDF)
Ce manuscrit résume mes travaux de recherche depuis ma thèse soutenue en septembre 2002. Certains de mes travaux présentés sont achevés à l'heure actuelle, d'autres sont en cours d'avancement ou encore à un stade exploratoire. Tout au long de ces années, mes travaux se sont inscrit dans le contexte de la conception conjointe logicielle/matérielle de SoCs dédiés aux applications de traitement de signal intensif. La complexité des systèmes ciblant ce domaine d'application ne cesse de s'accroitre lors des dernières années. En effet, les besoins grandissants, en terme de puissance de calcul et stockage mémoire des applicatifs du traitement de signal intensif, rendent la conception des Soc les implémentant très fastidieuse et nécessitant un temps et des efforts considérables. Ainsi, la ligne directrice de mes travaux a toujours été de fournir des méthodes et outils d'aide à la conception de tels SoC, permettant un maximum d'automatisation, une augmentation de la productivité des concepteurs et une réduction des temps de mise sur le marché des systèmes conçus. Je me suis donc concentré principalement sur trois aspects : la modélisation de haut niveau en fournissant des méta-modèles et profils respectant le standard MARTE ; les plateformes de simulation distribuées, supportant l'interopérabilité entre plusieurs niveaux d'abstraction tout en permettant une bonne estimation de la consommation d'énergie ; et finalement la production d'outils de conception basés sur les transformations automatiques modèle à modèle de l'approche IDM. Etant convaincu du grand potentiel des FPGAs partiellement et dynamiquement reconfigurables, j'oriente de plus en plus mes travaux pour cibler de telles architectures. Ainsi, mes travaux futurs iront certainement dans le même sens, dans le cadre notamment du projet ANR FAMOUS que je dirige. Ainsi, les grandes orientations de mes recherches concerneront notamment : la modélisation (basée sur MARTE) de la reconfiguration dynamique sous toutes ses facettes (architecture, application, association, déploiement; et partitionnement); la simulation des FPGAs et l'estimation de leur consommation (pour piloter l'exploration d'architectures) ; et enfin l'intégration dans des outils de conception basés sur les standards (tels que MARTE et IDM).
354

Vers la reconfiguration dynamique dans les systèmes embarqués: de la modélisation à l'implémentation

Meftali, Samy 06 July 2010 (has links) (PDF)
Ce manuscrit résume mes travaux de recherche depuis ma thèse soutenue en septembre 2002. Certains de mes travaux présentés sont achevés à l'heure actuelle, d'autres sont en cours d'avancement ou encore à un stade exploratoire. Tout au long de ces années, mes travaux se sont inscrit dans le contexte de la conception conjointe logicielle/matérielle de SoCs dédiés aux applications de traitement de signal intensif. La complexité des systèmes ciblant ce domaine d'application ne cesse de s'accroitre lors des dernières années. En effet, les besoins grandissants, en terme de puissance de calcul et stockage mémoire des applicatifs du traitement de signal intensif, rendent la conception des Soc les implémentant très fastidieuse et nécessitant un temps et des efforts considérables. Ainsi, la ligne directrice de mes travaux a toujours été de fournir des méthodes et outils d'aide à la conception de tels SoC, permettant un maximum d'automatisation, une augmentation de la productivité des concepteurs et une réduction des temps de mise sur le marché des systèmes conçus. Je me suis donc concentré principalement sur trois aspects : la modélisation de haut niveau en fournissant des méta-modèles et profils respectant le standard MARTE ; les plateformes de simulation distribuées, supportant l'interopérabilité entre plusieurs niveaux d'abstraction tout en permettant une bonne estimation de la consommation d'énergie ; et finalement la production d'outils de conception basés sur les transformations automatiques modèle à modèle de l'approche IDM. Etant convaincu du grand potentiel des FPGAs partiellement et dynamiquement reconfigurables, j'oriente de plus en plus mes travaux pour cibler de telles architectures. Ainsi, mes travaux futurs iront certainement dans le même sens, dans le cadre notamment du projet ANR FAMOUS que je dirige. Ainsi, les grandes orientations de mes recherches concerneront notamment : la modélisation (basée sur MARTE) de la reconfiguration dynamique sous toutes ses facettes (architecture, application, association, déploiement; et partitionnement); la simulation des FPGAs et l'estimation de leur consommation (pour piloter l'exploration d'architectures) ; et enfin l'intégration dans des outils de conception basés sur les standards (tels que MARTE et IDM).
355

Séries génératrices et analyse automatique d'algorithmes

Zimmermann, Paul 06 March 1991 (has links) (PDF)
l'objet de cette thèse est la mise en évidence de procédés <em>systématiques</em> pour déterminer <em>automatiquement</em> le coût moyen d'un algorithme. Ces procédés s'appliquent en général aux schémas de <em>descente</em> dans des structures de données <em>décomposables</em>, ce qui permet de modéliser une vaste classe de problèmes. Cette thèse s'intéresse plus précisément à la première phase de l'analyse d'un algorithme, l'<em>analyse algébrique</em>, qui traduit le programme en objets mathématiques, tandis que la seconde phase extrait de ces objets les informations désirées sur le coût moyen. Nous définissons un langage de spécification pour définir des structures de données décomposables et des procédures de descente sur celles-ci. Lorsque l'on utilise comme objets mathématiques des séries génératrices (de dénombrement pour les données, de coût pour les procédures), nous montrons que les algorithmes décrits dans ce langage se traduisent <em>directement</em> en systèmes d'équations pour les séries génératrices associées, et de surcroît par des règles <em>simples</em>. À partir de ces équations, nous pouvons ensuite déterminer en temps polynomial le coût moyen exact pour une valeur fixée de la taille des données. On pourra aussi utiliser ces équations pour calculer par <em>analyse asymptotique</em>le coût moyen lorsque la taille des données tend vers l'infini, puisque l'on sait par ailleurs que le coût moyen asymptotique est directement lié au comportement des séries génératrices au voisinage de leurs singularités. Ainsi nous montrons qu'à une classe donnée d'algorithmes correspond une classe bien définie de séries génératrices, et par conséquent une certaine classe de formules pour le coût moyen asymptotique. Ces règles d'analyse algébrique ont été incorporées dans un système d'analyse automatique d'algorithmes, Lambda-Upsilon-Omega, qui s'est avéré être un outil très utile pour l'expérimentation et la recherche.
356

Composition automatique et adaptative de services web pour la météorologie

Gschwind, Benoît 28 September 2009 (has links) (PDF)
Les données et les observations sont des éléments fondamentaux dans les progrès de la science. Leur accès et leur partage sont cruciaux pour les chercheurs. Ces derniers se sont appuyés sur Internet et les services Web ces dernières années, mais cette solution n'est pas entièrement satisfaisante. Il y a en particulier en météorologie un décalage entre les besoins et les informations disponibles qui peut se résoudre en développant des outils permettant de composer les services Web entre eux. Cette composition permet d'accomplir des tâches qu'un service seul n'aurait pas pu réaliser. Pour répondre aux besoins exprimés, une méthode de composition doit être automatique et adaptative, signifiant qu'une composition ne doit pas nécessiter l'intervention de l'homme et qu'elle doit prendre en compte la disponibilité et le résultat de l'exécution des services Web. Pour combler ce décalage, mes objectifs sont de proposer, formaliser et développer une telle méthode. La première contribution est une formalisation des besoins spécifiques de la météorologie pour la composition de services Web. Cette thèse met en évidence les différences entre les services Web utilisés dans le domaine de la météorologie vis-à-vis des services Web habituellement rencontrés comme ceux de e-Commerce. Ma thèse propose également une nouvelle méthode de composition de services Web permettant la concaténation de données et proposant un moyen d'évaluer la qualité de ces compositions. Enfin, elle propose une méthode pour évaluer les méthodes de composition, qui répond aux besoins en météorologie.
357

DE LA MODELISATION A L'EXPLOITATION DES DOCUMENTS A STRUCTURES MULTIPLES

Djemal, Karim 03 June 2010 (has links) (PDF)
Avec l'évolution des nouvelles technologies de l'information et de la communication, les documents papier ont laissé la place aux documents numériques. On considère de plus que le document n'est plus vu comme un tout, ni comme un bloc monolithique, mais comme un ensemble organisé d'entités. Exploiter ces documents revient à identifier et retrouver ces entités. Ces dernières sont reliées par des relations permettant de donner une « forme » au document. Plusieurs types de relations peuvent apparaître, de sorte à ce que plusieurs « formes » d'un même document émergent. Ces différentes matérialisations d'un même document sont liées à des usages différents d'un même document et sont primordiales pour une gestion optimale et partagée des fonds documentaires. Les travaux présentés dans cette thèse visent à faire face aux défis de représentation des différentes matérialisations d'un document au travers de la représentation de ses entités et de leurs relations. Si ces matérialisations sont traduites par des structures, les enjeux concernent la représentation des documents à structures multiples. Nos travaux portent essentiellement sur la modélisation, l'intégration et l'exploitation des documents à structures multiples : (1) Proposition d'un modèle de documents multistructurés. Ce modèle intègre deux niveaux de description : un niveau spécifique permettant de décrire chaque document au travers des entités qui le composent et un niveau générique permettant de définir des typologies de documents au travers du regroupement de structures similaires. (2) Proposition des techniques d'extraction de structure (implicite ou explicite) d'un document (niveau spécifique) et de classification de cette structure par rapport à des structures communes (niveau générique). L'algorithme de classification proposé intègre un calcul d'une distance dite « structurelle » (comparaison d'arbres et de graphes). Cette démarche de classification est associée à une démarche de vérification de la « cohésion » des classes et de réorganisation éventuelle des classes perturbées. (3) Proposition de techniques d'exploitation des documents à partir de leurs structures et de leur contenu : (a) une recherche de documents qui permet de restituer des granules documentaires selon des critères de recherches basés sur la ou les structures et/ou le contenu ; (b) une analyse multidimensionnelle qui consiste à analyser et visualiser les informations documentaires selon plusieurs dimensions (de structures et/ou de contenu). Pour valider nos propositions, nous avons développé un outil d'aide à l'intégration et à l'analyse de documents à structures multiples, intitulé MDOCREP (Multistructured DOCument REPository). Cet outil assure d'une part, l'extraction et la classification des structures de documents, et d'autre part, l'interrogation et la restitution multidimensionnelle des documents à partir de leurs différentes structures.
358

Modélisation des systèmes temps-réel embarqués en utilisant AADL pour la génération automatique d'applications formellement vérifiées

Chkouri, Mohamed Yassin 07 April 2010 (has links) (PDF)
Le langage d'analyse et de description d'architectures (AADL) fait l'objet d'un intérêt croissant dans l'industrie des systèmes embarqués tempsréel. Il définit plusieurs catégories de composants, réparties en trois grandes familles (logiciel, matériel, système). Le travail réalisé durant cette thèse exploite les fonctionnalités offertes par AADL pour spécifier les besoins exacts d'une application et exprimer toutes les caractéristiques tant fonctionnelles que non fonctionnelles dimensions temporelle et spatiale), afin de la produire automatiquement. La méthodologie de production que nous proposons génère automatiquement, à partir d'une application décrite en AADL, une application décrite en BIP. BIP permet de mettre en place des systèmes robustes et sûrs en produisant un contrôleur d'exécution correct par construction et en fournissant un modèle formel. Les objectifs de ce processus de production sont : (1) fournir à AADL une sémantique formelle définie en termes de systèmes de transitions étiquetés ; (2) permettre l'analyse et la validation, c'est à dire, l'exploration exhaustive de l'espace des états du système, la détection des blocages potentiels et la vérification de certaines propriétés ; (3) permettre la génération d'une application exécutable pour simuler et déboguer les modèles AADL. Ces trois derniers points jouent en faveur de l'utilisation de méthodes formelles dans le cycle de développement.
359

Apprentissage : Paradigmes, Structures et abstractions

Soldano, Henry 07 December 2009 (has links) (PDF)
L'ensemble des travaux présentés relève de l'Apprentissage Artificiel, et aborde l'apprentissage supervisé, ainsi que l'aide à la découverte par la fouille de données. On se place ici dans le cas où un problème d'apprentissage passe par l'exploration d'un "Espace de Recherche", constitué de représentations formées dans un certain langage d'énoncés. La structure cachée liant "énoncés" et sous-ensembles d'"objets", représentable dans un treillis intension/extension, permet en particulier de réduire l'espace de recherche dans les problèmes d'apprentissage supervisé. Je présente ensuite une forme d'"abstraction" ordonnée faisant varier le niveau de granularité des énoncés, ou des objets considérés, et garantissant que le treillis intension/extension est ainsi lui-même réduit. Certains travaux concernant la recherche de motifs séquentiels réquents, sont également interprétés du point de vue de cette relation intension/extension. Enfin, deux "paradigmes" nouveaux en apprentissage supervisé sont présentés, l'un traitant de la notion d'ambiguïté des exemples, l'autre étendant l'apprentissage supervisé cohérent dans un cadre collectif.
360

Une double approche modulaire de l'apprentissage par renforcement pour des agents intelligents adaptatifs

Buffet, Olivier 10 September 2003 (has links) (PDF)
Cette thèse s'est intéressée à deux domaines de l'intelligence artificielle : d'une part l'apprentissage par renforcement (A/R), et d'autre part les systèmes multi-agents (SMA). Le premier permet de concevoir des agents (entités intelligentes) en se basant sur un signal de renforcement qui récompense les décisions menant au but fixé, alors que le second concerne l'intelligence qui peut venir de l'interaction d'un groupe d'entités (dans la perspective que le tout soit plus que la somme de ses parties). Chacun de ces deux outils souffre de diverses difficultés d'emploi. Le travail que nous avons mené a permis de montrer comment chacun des deux outils peut servir à l'autre pour répondre à certains de ces problèmes. On a ainsi conçu les agents d'un SMA par A/R, et organisé l'architecture d'un agent apprenant par renforcement sous la forme d'un SMA. Ces deux outils se sont avérés très complémentaires, et notre approche globale d'une conception “progressive” a prouvé son efficacité.

Page generated in 0.055 seconds