• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 463
  • 169
  • 91
  • 1
  • 1
  • Tagged with
  • 739
  • 739
  • 739
  • 152
  • 89
  • 78
  • 67
  • 66
  • 56
  • 53
  • 52
  • 48
  • 48
  • 47
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Contribution à la qualité de service dans les réseaux d'accès sans-fil

El Masri, Mohamad 09 July 2009 (has links) (PDF)
Résumé : La thèse développe une contribution à la spécification, la modélisation et l'évaluation de mécanismes destinés à la fourniture de qualité de service dans les réseaux sans fil locaux et métropolitains. La première partie du travail concerne une modélisation en chaîne de Markov du protocole d'accès EDCA de IEEE 802.11e qui, par rapport aux modèles présents dans la littérature, ajoute des mécanismes du standard qui n'avaient pas été introduits (prise en compte explicite de la collision virtuelle) et corrige des erreurs de conception (prise en compte des périodes AIFS de la procédure de Backoff). Ce modèle a été rendu synthétique pour en faciliter l'usage (réductions réalisées à l'aide des règles de Beizer). Ce modèle a ensuite été utilisé pour définir un algorithme de contrôle d'admission hybride, intégrant dans son processus de décision un modèle analytique et des mesures de l'état du réseau. L'algorithme de contrôle d'admission ainsi développé a été en premier lieu validé puis comparé à d'autres algorithmes de contrôle d'admission par simulation sous ns-2. Notons aussi que nous avons proposé, une modification du comportement de EDCA face à une collision virtuelle assurant une meilleure équité aux catégories d'accès. Cette modification a été évaluée à l'aide du modèle. Une deuxième partie du travail consiste en la proposition pour WiMAX d'une architecture de gestion de bande passante pouvant fournir des garanties de qualité de service. Cette architecture se compose de trois parties interagissantes : 1- une gestion de la bande passante sous WiMAX assimilée à une classe de serveurs dite classe des serveurs latence-débit, 2- un mécanisme de requête-réponse de bande passante agrégée simplifiant la gestion de bande passante et la rendant plus flexible, 3- un protocole de contrôle d'admission associé à l'architecture et qui en garantit le bon fonctionnement. L'architecture ainsi conçue s'inscrit dans une prospective de réseaux hétérogènes sans fil (réseaux métropolitain WiMAX connectant entre eux et à Internet des réseaux locaux WiFi). C'est dans cette optique que s'inscrira la suite de notre travail. Elle consistera en la combinaison des mécanismes que nous proposons afin de fournir une solution complète de qualité de service pour des réseaux hétérogènes sans fil.
222

Automates finis pour la fiabilité logicielle et l'analyse d'accessibilité

Heam, Pierre-Cyrille 13 November 2009 (has links) (PDF)
La fiabilité des logiciels est un facteur critique de notre société~: toute panne, tout bogue, tout dysfonctionnement, perturbe la bonne marche de nos activités avec parfois des conséquences humaines, financières ou morales importantes. Contrairement à d'autres domaines industriels plus anciens, la démarche qualité en informatique n'en est encore qu'à ses débuts. Il est couramment convenu comme normal qu'un ordinateur perde un fichier ou que l'installation d'un nouveau logiciel en rende un autre inutilisable. Cependant, dans des domaines précis (banque, systèmes embarqués, médecine, etc.), dits critiques, on ne peut se permettre d'avoir un système défaillant~: une phase importante du développement logiciel est celle de la validation durant laquelle le système est analysé afin de garantir qu'il respecte certaines exigences de fiabilité. Cette phase de validation fait appel à deux approches complémentaires, le test et la vérification. Les travaux présentés dans cette habilitation concernent majoritairement la verification par la technique dite de "model-checking". Une première partie montre des techniques originales pour la vérification de protocoles de sécurité. D'autres travaux, plus théoriques, portent sur l'accélération de relations de semi-commutation ainsi que sur la vérification de propriétés non fonctionnelles. Enfin, des résultats sur la génération aléatoire de structures complexes sont développés dans le contexte du test à partir de modèles et du test de performances.
223

Calcul d'Atteignabilité des Systèmes Hybrides à Partie Continue Linéaire

Le Guernic, Colas 28 October 2009 (has links) (PDF)
Cette thèse est consacrée au calcul des états atteignables des systèmes linéaires et hybrides. La première partie est consacrée aux systèmes linéaires. Après avoir présenté les méthodes existantes, nous introduisons notre principale contribution: un nouveau schéma algorithmique pour l'analyse d'accessibilité des systèmes linéaires invariants qui surclasse nettement les algorithmes existants. Une implémentation exacte peut produire des ensembles difficiles à manipuler, nous proposons donc une version produisant une sur-approximation non soumise à l'effet d'emballage, une accumulation incontrôlée des erreurs d'approximation, ainsi qu'une variante dédiée aux fonctions support, une représentation fonctionnelle des ensembles convexes. La deuxième partie adapte ces résultats aux systèmes hybrides. Nous montrons d'abord comment gérer les invariants, avant de nous intéresser à l'approximation de l'intersection entre l'ensemble atteignable par la dynamique continue et des gardes hyperplanaires.
224

Diagnostic pour la combinaison de systèmes de reconnaissance automatique de la parole.

Barrault, Loïc 18 July 2008 (has links) (PDF)
La Reconnaissance Automatique de la Parole (RAP) est affectée par les nombreuses variabilités présentes dans le signal de parole.<br />En dépit de l'utilisation de techniques sophistiquées, un système RAP seul n'est généralement pas en mesure de prendre en compte l'ensemble de ces variabilités. Nous proposons l'utilisation de diverses sources d'information acoustique pour augmenter la précision et la robustesse des systèmes. <br /><br />La combinaison de différents jeux de paramètres acoustiques repose sur l'idée que certaines caractéristiques du signal de parole sont davantage mises en avant par certains jeux de paramètres que par d'autres.<br />L'intérêt est donc d'exploiter les points forts de chacun.<br />Par ailleurs, les différentes partitions de l'espace acoustique opérées par les modèles acoustiques peuvent être mises à profit dans des techniques de combinaison bénéficiant de leur complémentarité.<br /><br />Le diagnostic est au coeur de ce travail. L'analyse des performances de chaque jeu de paramètres permet de dégager des contextes spécifiques dans lesquels la prédiction du résultat de reconnaissance est possible. Nous présentons une architecture de diagnostic dans laquelle le système RAP est vu comme un "canal de transmission" dont l'entrée correspond aux phonèmes et la sortie au résultat de reconnaissance. Cette architecture permet de séparer les sources d'ambiguïté au sein du système de reconnaissance. Les analyses ont permis d'intégrer des stratégies de combinaison post-décodage à un niveau segmental élevé (phonème ou mot).<br /><br />Des techniques de combinaison des probabilités a posteriori des états d'un modèle de Markov caché au niveau de la trame sont également proposées. Afin d'améliorer l'estimation de ces probabilités, les probabilités obtenues avec différents modèles acoustiques sont fusionnées. <br />Pour combiner les probabilités de manière cohérente, nous avons développé un protocole permettant d'entraîner des modèles de même topologie avec des paramètres acoustiques différents.
225

Du semi-formel au formel : une Approche Organisationnelle pour l'Ingénierie de Systèmes Multi-Agents

Hilaire, Vincent 08 December 2008 (has links) (PDF)
Les Systèmes Multi-Agents (SMA) forment un paradigme prometteur pour la conception de systèmes logiciel complexes. En effet, ce paradigme propose de nouvelles stratégies pour analyser, concevoir et implémenter de tels systèmes. Les systèmes multi-agents sont considérés comme des sociétés composées d'entités autonomes et indépendantes, appelées agents, qui interagissent en vue de résoudre un problème ou de réaliser collectivement une tâche. Nous nous plaçons dans un cadre d'ingénierie logicielle pour ce mémoire. Pour tout nouveau paradigme d'ingénierie logicielle pour pouvoir être pleinement appliqué et déployé il est nécessaire de disposer de nouveaux modèles et d'abstractions nouvelles. Ces abstractions servent de base à l'analyse et à la conception des SMA. De plus, toute méthodologie dédiée aux SMA doit prendre ces abstractions pour pouvoir développer des SMA de manière sys\-té\-ma\-ti\-que, sure, robuste et fiable. Les modèles à la base de tous les travaux dans ce mémoire sont composés de concepts organisationnels qui permettent de concevoir les SMA comme des sociétés d'individus, les agents, qui jouent des rôles dans des organisations. Ces concepts permettent également la description de structures organisationnelles complexes telles que les holarchies dans lesquelles les agents, désignés par le terme holons, peuvent être composés d'autres holons et définir une structure hiérarchique. La définition de ces concepts se fait au travers de méta-modèles exprimés avec une notation semi-formelle. Pour définir une sémantique non ambigüe et bénéficier d'outils de validation et de vérification nous proposons de spécifier des concepts au travers d'un langage formel. Aucun langage ne satisfaisant nos besoins nous avons composé deux langages existants : Object-Z et les statecharts. La syntaxe et la sémantique du langage formel OZS sont définies sur cette base. Des architectures d'agents sont étudiées en utilisant le modèle organisationnel et les outils formels. Ces études sont de deux types, définition complète d'une architecture et rétro-ingénierie afin de comprendre et analyser les éléments fondateurs d'architectures existantes pour pouvoir les réutiliser dans d'autres contextes. Deux méthodologies sont exploitant les concepts et la notation formelle sont proposées. La première est issue d'un travail initial concernant l'analyse et la conception de SMA Holoniques utilisant un cadre particulier. La deuxième est issue d'une collaboration avec Massimo Cossentino et est plus générale.
226

Étude expérimentale en vraie grandeur et étude numérique des pieux vibrofoncés : vibrations dans l'environnement et capacité portante

Rocher-Lacoste, Frédéric 12 1900 (has links) (PDF)
L'objectif de ce travail est de mieux comprendre les phénomènes liés à la technique du vibrofonçage et de la valoriser. Ce rapport comporte trois chapitres. Le premier décrit les deux principales techniques de fonçage des pieux : le battage et le vibrofonçage. Le second présente deux séries de résultats expérimentaux : - une étude en vraie grandeur de l'impact acoustique et plus particulièrement une analyse des bruits engendrés par le fonçage des pieux avec un vibrateur, un marteau ou un trépideur, - une étude en vraie grandeur des vitesses particulaires pendant le fonçage des pieux, couplée à une étude numérique par éléments finis, en 2D et 3D, avec le progiciel CESAR-LCPC. A partir également d'expérimentations en vraie grandeur, le troisième chapitre compare la capacité portante des pieux mis en œuvre par battage et par vibrofonçage et propose une prise en compte de la différence de ces techniques de mise en œuvre dans les règles de calcul françaises de portance des pieux.
227

Algorithme de Chemin de Régularisation pour l'apprentissage Statistique

Karina, Zapien 09 July 2009 (has links) (PDF)
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de "complexité". Dans ce cadre, le processus de sélection de modèle revient à trouver la "complexité" optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyperparamètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie.<br>L'approche habituelle pour déterminer ces hyperparamètres consiste à utiliser une "grille". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyperparamètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyperparamètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres.<br>La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type "réduction de dimension". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
228

Une approche organisationnelle pour la conception d'un système de gestion des connaissances fondé sur le paradigme agent.

Davy, Monticolo 26 February 2008 (has links) (PDF)
Ce travail est fondé sur une approche organisationnelle pour la gestion des connaissances lors des projets de conception mécanique. Lors de ces travaux, nous avons pris en compte les aspects sociaux et coopératifs du processus de conception où les acteurs métier travaillent ensemble, créent, utilisent et partagent leurs connaissances pour atteindre le même objectif : le développement d'un nouveau système mécanique. Quatre aspects ont été développés dans ce travail : <br />- L'élaboration d'un modèle organisationnel du processus de conception où sont représentés les rôles des acteurs métier, leurs compétences, leurs interactions ainsi que les connaissances qu'ils utilisent et partagent tout au long des activités de conception. Ce modèle est un guide pour la capitalisation et la réutilisation des connaissances lors des projets de conception ;<br />- La définition d'un modèle de mémoire organisationnelle, MemoDesign, fournissant un cadre pour la structuration et l'indexation des connaissances à archiver lors des projets de conception ;<br />- La construction d'une ontologie appelée OntoDesign permettant d'inférer et de manipuler les connaissances du domaine ;<br />- La conception et l'implantation du système multi-agents KATRAS prenant en compte les aspects sociaux et coopératifs du processus de conception et chargé de la construction de mémoires de projet au fil de l'eau des projets de conception mécaniques.
229

Vers des environnements homme-machine pour ressaisir les intentions dans la création scénique

Bonardi, Alain 10 December 2008 (has links) (PDF)
Prenant acte de la crise des représentations liées à la « graphosphère » et de la montée en puissance des représentations multimédia, constatant l'émergence de l'informatique temps réel dans les arts de la scène, nous avons mené notre recherche depuis plusieurs années sur le thème de la médiation des technologies de l'information et de la communication dans l'écriture des spectacles vivants (théâtre et opéra, principalement), et leur recréation par les spectateurs. Notre perspective est la conception d'environnements informatiques pour la création artistique scénique et sa réception, destinés à trois communautés d'utilisateurs : les créateurs d'œuvres, les performers sur scène, et le public au sens large.<br />Dans la conduite de notre recherche, nous avons exploré trois pistes, chacune adossée à une étude de cas sur un spectacle professionnel représenté sur scène :<br />− Les environnements virtuels informés, pour permettre l'émergence de nouvelles modalités de mise en scène, au-delà du déploiement classique d'ontologies de personnages et de situations.<br />− Les collections numériques, entre semblance et contiguïté, au service de créations ouvertes, que le performer comme le visiteur peut réagencer en les parcourant.<br />− Les environnements d'assistants virtuels de performer et metteur en scène, à base de collections numériques et de logique floue, qui se positionnent dans les processus de formulation d'intentions de leurs utilisateurs.<br />L'ensemble de ces travaux ouvre à un programme de recherches autour de l'assistance aux concepteurs, aux interprètes et aux spectateurs des productions artistiques, en travaillant sur les situations d'intervention : le plateau et plus seulement l'ordinateur en tant qu'environnement de prescription pour les concepteurs ; les espaces de training et plus seulement la scène pour les performers ; enfin, l'espace du spectateur n'est plus seulement la salle de concert, mais des lieux non-scéniques comme le musée, et des terminaux comme l'ordinateur individuel ou le téléphone portable.
230

Détermination automatique des volumes fonctionnels en imagerie d'émission pour les applications en oncologie

Hatt, Mathieu 03 December 2008 (has links) (PDF)
Une des principales causes d'erreur en analyse semi-quantitative en imagerie par émission de positons (TEP) est la méthode utilisée pour déterminer les volumes d'intérêt sur les images fonctionnelles. Ceci concerne le diagnostic et le suivi thérapeutique en oncologie ainsi que la nouvelle application en plein développement qu'est la radiothérapie guidée par l'image. La faible qualité des images d'émission, liée notamment au bruit et au flou induits par les effets de volume partiels et la variabilité des protocoles d'acquisition et de reconstruction des images, ainsi que le grand nombre de procédures proposées pour définir les volumes, en sont la cause. La plupart des méthodes proposées jusqu'alors sont basées sur des seuillages déterministes, peu robustes au bruit et aux variations de contraste et incapables de gérer les hétérogénéités dans la distribution d'activité des tumeurs. L'objectif de cette thèse est de proposer une approche de segmentation des images 3D, automatique, robuste, précise et reproductible pour déterminer le volume fonctionnel des tumeurs de toutes tailles dont la distribution d'activité peut être très hétérogène. L'approche proposée est fondée sur la segmentation statistique des images, couplée à une modélisation floue, permettant de prendre en compte à la fois l'aspect bruité et l'aspect flou des images de médecine nucléaire. Elle fait appel à une étape d'estimation itérative des paramètres et une modélisation locale du voxel et de son voisinage pour l'estimation et la segmentation. Les méthodes développées ont été évaluées sur de nombreuses données simulées et réelles, tant pour des images de fantômes que pour des images de tumeurs. Les résultats sur fantôme ont permis de valider les performances de l'approche proposée en terme de taille d'objet d'intérêt, jusqu'à 13 mm de diamètre (environ deux fois la résolution spatiale en TEP), ainsi que de confirmer un comportement plus robuste par rapport au bruit, aux variations de contraste ou des paramètres d'acquisition et de reconstruction, que les méthodes de référence basées sur des seuillages. Les résultats obtenus sur différents ensemble de données d'images cliniques de tumeurs, fournies par différents services de médecine nucléaire dans le cadre de multiples collaborations, ont montré la capacité de l'approche à segmenter avec précision des tumeurs complexes, tant en terme de forme que de distribution d'activité, pour lesquelles les méthodes de référence échouent à produire des segmentation cohérentes. La méthode de segmentation développée est également capable de définir des régions d'intérêt au sein même de la tumeur grâce à sa gestion de l'hétérogénéité de l'activité de la tumeur, là où les méthodes de références sont strictement binaires. Les résultats concernant la robustesse et la précision de l'approche sur tumeurs amènent à penser que son utilisation peut être envisagée tant dans le cadre du diagnostic et du suivi thérapeutique, que pour la définition des volumes cibles en radiothérapie, avec le potentiel d'augmenter les doses délivrées aux tumeurs tout en réduisant dans le même temps les doses délivrées aux tissus sains et aux organes à risque environnants, conformément au principe de "dose painting". Des travaux pour évaluer l'impact effectif de la méthodologie dans le contexte de la radiothérapie ont commencé dans le cadre d'un projet ANR, avec un dépôt de brevet associé.

Page generated in 0.0669 seconds