• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 30
  • 10
  • Tagged with
  • 130
  • 39
  • 24
  • 24
  • 23
  • 22
  • 19
  • 16
  • 15
  • 13
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Les enchaînements dialogiques avec les connecteurs : une étude de "mais", "oui", "non" / Dialogical linking with connectors a study of "mais", "oui", "non"

Razgulyaeva, Anna 09 March 2012 (has links)
Cette thèse présente une étude sémantico-pragmatique des emplois dialogiques de mais, oui, non et de leurs quatre combinaisons : mais oui, mais non, oui mais et non mais. Les enchaînements dialogiques « X – Mais Y » posent la question de l’unicité du sens du connecteur oppositif, étant donné que la relation entre les énoncés X et Y est très différente de celle qui s’établit entre les énoncés dans les configurations monologiques « X mais Y ». Dans cette thèse, les deux types d’enchaînement avec mais sont analysés dans le cadre de la sémantique dynamique, qui propose de décrire le sens des expressions linguistiques à partir de leur capacité à modifier le contexte. L’opération énonciative de mais est spécifiée à partir des contraintes imposées sur le contexte linguistique environnant, que l’examen de divers usages contextuels de mais en monologue et en dialogue a permis de révéler. Cet examen conduit à conclure que la spécificité des enchaînements dialogiques avec mais n’est pas liée à la sémantique du connecteur, mais à la progression du discours, différente en monologue et en dialogue. Les combinaisons de mais avec oui et avec non sont étudiées après une analyse détaillée du marqueur de validation et du marqueur de rejet. La façon dont ces deux marqueurs interagissent avec le contexte gauche témoigne de leur asymétrie sémantique, confirmée par la possibilité de les utiliser en tant que formes concurrentes pour valider un énoncé négatif. Dans les combinaisons de oui et de non avec mais, le second élément détermine le type de relation signalée : oui mais et non mais marquent l’opposition, tandis que mais oui et mais non traduisent la validation et le rejet. Néanmoins, le premier élément a des incidences sur l’interprétation du second. Ainsi, les réactions mais oui et mais non présentent l’information validée ou rejetée comme déjà admise dans le contexte ou, au contraire, comme exclue et donc impossible à envisager. En revanche, dans les réactions oui mais et non mais, le connecteur oppositif enchaîne sur l’information accessible à la suite de l’emploi du premier marqueur. / This dissertation presents a semantic-pragmatic study of dialogic uses of mais, oui, non and their four combinations : mais oui, mais non, oui mais et non mais. The dialogic sequences “X – Mais Y” raise the question of the uniqueness of the oppositive connector, because the relationship between the utterances X and Y is very different from that which is established between both utterances in the “X mais Y” monologic configurations. In this dissertation, the two types of linking with mais are analyzed in the framework of dynamic semantics, which aims to describe the meaning of linguistic expressions from their ability to change the context. The enunciative operation of mais is specified from the constraints on the surrounding linguistic context that the examination of various contextual uses of mais in monologue and dialogue revealed. This examination leads to the conclusion that the specificity of dialogic sequences with mais is not related to the semantics of the connector, but the progress of speech, which is different in monologue and dialogue. Combinations of mais with oui and non are considered after a previous detailed analysis of validation marker and rejection marker. The way these two markers interact with the left context reflects their semantic asymmetry, confirmed by the possibility of using them as competing forms to confirm a negative utterance. In combination of oui and non with mais, the second element determines the type of relationship: oui mais and non mais mark the opposition, while mais oui and mais non reflect validation and rejection. However, the first element has a clear implication on the interpretation of the second one. In that sense mais oui and mais non responses present the validated or rejected information as already accepted in the context or, on the contrary, excluded, and therefore impossible to consider. On the other hand, in reactions with oui mais and non mais the oppositive connector regards the information accessible next to the use of the first marker.
42

Amplification paramétrique ultra-large bande dans l’ infrarouge en régime de forte énergie et de forte puissance moyenne / High energy and high repetition rate broadband optical parametric amplification in the infrared

Nillon, Julien 15 June 2012 (has links)
Alors que la science attoseconde connaît un développement fulgurant, le besoin de nouvelles sources laser adaptées à la génération d'impulsions attosecondes uniques est apparu. Grâce à ses propriétés d'accordabilité en fréquence et d'amplification de spectres ultra-larges à même de supporter des durées d'impulsions ultracourtes, conjuguées à la possibilité de stabiliser passivement la phase sous l'enveloppe (CEP) du champ électrique associé à l'impulsion laser, l'amplification paramétrique (OPA) s'est imposée comme un des outils incontournables pour la réalisation de telles sources.De plus, un intérêt croissant se manifeste pour la montée en cadence des sources d'harmoniques d'ordre élevé (HHG), en tirant parti des avancées des laser à fibre. Récemment fut démontrée la génération d'impulsions ultracourtes à très haute cadence, stabilisées en phase, dans la partie visible du spectre. Décaler la bande d'amplification vers l'infrarouge présenterait des avantages certains du point de vue de la génération d'harmoniques. En effet, travailler avec une source laser infrarouge permet d'étendre le spectre d'harmoniques et donc de réduire la durée des impulsions attosecondes générées. Jusqu'à présent, l'amplification paramétrique large bande dans l'infrarouge à haute cadence était rendue impossible par la difficulté à générer un signal à ces longueurs d'onde directement à partir d'un laser à fibre.Les travaux exposés ici décrivent la réalisation de nouvelles sources paramétriques, spécifiquement conçues en fonction des exigences de la génération d'impulsions attosecondes uniques, aussi bien en régime de forte énergie qu'à des cadences élevées.Nous présentons tout d'abord le développement d'un OPA avec stabilisation passive de la CEP, capable d'amplifier un spectre d'une largeur de 700 nm centré à 1,75 µm et délivrant une énergie de 450 µJ à la cadence de 10 Hz. Puis, nous détaillons une architecture originale d'amplification paramétrique à haute cadence pompé par un laser à fibre, qui nous a permis de générer des impulsions stabilisées en phase d'une durée inférieure à trois cycles optiques à la longueur d'onde centrale de 2,2 µm, avec une énergie de 5 µJ à la cadence de 100 kHz.Enfin, nous explorons la possibilité d'accroître la puissance de sortie des OPA infrarouges large bande à des niveaux de plusieurs dizaines de watts, grâce à la technique de combinaison paramétrique de plusieurs faisceaux de pompe fibrés. / While attosecond science reaches new frontiers in physics, the need for innovative primary sources suited for the generation of single attosecond (as) pulses emerges. Featuring high tunability, ultra-broadband amplification bandwidth and the ability of passively stabilizing the random Carrier-Envelope Phase (CEP) of any pump laser, Optical Parametric Amplification (OPA) has proven to be one of the most effective tools to meet the stringent requirements of High-Order Harmonics (HHG) driving sources.Moreover, there is a growing interest for higher repetition rate HHG sources, pumped by Ytterbium-doped fiber lasers. High-repetition rate, CEP-stable, few cycle pulses have been successfully generated by OPAs operating in the visible part of the spectrum. Shifting the amplified bandwidth towards longer wavelengths would be clearly profitable. In fact, the shorter harmonic wavelength cut-off will allow significantly extending the harmonics spectrum and consequently shorten as pulse durations. Until know, generation of CEP-stable, few-cycle pulses in the infrared at ultra-high repetition rates was impossible due to the issue of generating a broadband infrared seed directly from a fiber laser. This thesis describes the implementation of new supercontinuum-seeded parametric sources, specifically designed for isolated attosecond pulses generation with high energy or high repetition rate.The development of a CEP-stable three-stages OPA source is reported, amplifying a 700 nm broad spectrum at a central wavelength of 1,75 µm with an energy of 450 µJ at a 10 Hz repetition rate. Then, a new architecture based on a two-stage cascaded OPA pumped by a home-made fiber laser is presented, which allowed us to generate CEP-stable 3-cycles pulses at the central wavelength of 2,2 µm, with an energy of 5 µJ at 100 kHz. Finally, we discuss the possibility of increasing the output power of parametric amplifiers to several tens of watts with broadband parametric combination of several fiber-pump beams.
43

Schematic calculi for the analysis of decision procedures / Calculs schématiques pour l'analyse de procédures de décision

Tushkanova, Elena 19 July 2013 (has links)
Dans cette thèse, on étudie des problèmes liés à la vérification de systèmes (logiciels). On s’intéresseplus particulièrement à la conception sûre de procédures de décision utilisées en vérification. De plus, onconsidère également un problème de modularité pour un langage de modélisation utilisé dans la plateformede vérification Why.De nombreux problèmes de vérification peuvent se réduire à un problème de satisfaisabilité modulodes théories (SMT). Pour construire des procédures de satisfaisabilité, Armando et al. ont proposé en2001 une approche basée sur la réécriture. Cette approche utilise un calcul général pour le raisonnementéquationnel appelé paramodulation. En général, une application équitable et exhaustive des règles ducalcul de paramodulation (PC) conduit à une procédure de semi-décision qui termine sur les entréesinsatisfaisables (la clause vide est alors engendrée), mais qui peut diverger sur les entrées satisfaisables.Mais ce calcul peut aussi terminer pour des théories intéressantes en vérification, et devient ainsi uneprocédure de décision. Pour raisonner sur ce calcul, un calcul de paramodulation schématique (SPC)a été étudié, en particulier pour prouver automatiquement la décidabilité de théories particulières etde leurs combinaisons. L’avantage de ce calcul SPC est que s’il termine sur une seule entrée abstraite,alors PC termine pour toutes les entrées concrètes correspondantes. Plus généralement, SPC est unoutil automatique pour vérifier des propriétés de PC telles que la terminaison, la stable infinité et lacomplétude de déduction.Une contribution majeure de cette thèse est un environnement de prototypage pour la conception etla vérification de procédures de décision. Cet environnement, basé sur des fondements théoriques, estla première implantation du calcul de paramodulation schématique. Il a été complètement implanté surla base solide fournie par le système Maude mettant en oeuvre la logique de réécriture. Nous montronsque ce prototype est très utile pour dériver la décidabilité et la combinabilité de théories intéressantes enpratique pour la vérification.Cet environnement est appliqué à la conception d’un calcul de paramodulation schématique dédié àune arithmétique de comptage. Cette contribution est la première extension de la notion de paramodulationschématique à une théorie prédéfinie. Cette étude a conduit à de nouvelles techniques de preuveautomatique qui sont différentes de celles utilisées manuellement dans la littérature. Les hypothèses permettantd’appliquer nos techniques de preuves sont faciles à satisfaire pour les théories équationnellesavec opérateurs de comptage. Nous illustrons notre contribution théorique sur des théories représentantdes extensions de structures de données classiques comme les listes ou les enregistrements.Nous avons également contribué au problème de la spécification modulaire pour les classes et méthodesJava génériques. Nous proposons des extensions du language de modélisation Krakatoa, faisant partiede la plateforme Why qui permet de prouver qu’un programme C ou Java est correct par rapport à saspécification. Les caractéristiques essentielles de notre apport sont l’introduction de la paramétricité à lafois pour les types et les théories, ainsi qu’une relation d’instantiation entre les théories. Les extensionsproposées sont illustrées sur deux exemples significatifs: tri de tableaux et fonctions de hachage.Les deux problèmes traités dans cette thèse ont pour point commun les solveurs SMT. Les procéduresde décision sont les moteurs des solveurs SMT, et la plateforme Why engendre des conditions devérification dérivées d’un programme source annoté, qu’elle transmet aux solveurs SMT (ou assistants depreuve) pour vérifier la correction du programme.Mots-clés: / In this thesis we address problems related to the verification of software-based systems. We aremostly interested in the (safe) design of decision procedures used in verification. In addition, we alsoconsider a modularity problem for a modeling language used in the Why verification platform.Many verification problems can be reduced to a satisfiability problem modulo theories (SMT). In orderto build satisfiability procedures Armando et al. have proposed in 2001 an approach based on rewriting.This approach uses a general calculus for equational reasoning named paramodulation. In general, afair and exhaustive application of the rules of paramodulation calculus (PC) leads to a semi-decisionprocedure that halts on unsatisfiable inputs (the empty clause is then generated) but may diverge onsatisfiable ones. Fortunately, it may also terminate for some theories of interest in verification, and thusit becomes a decision procedure. To reason on the paramodulation calculus, a schematic paramodulationcalculus (SPC) has been studied, notably to automatically prove decidability of single theories and oftheir combinations. The advantage of SPC is that if it halts for one given abstract input, then PC haltsfor all the corresponding concrete inputs. More generally, SPC is an automated tool to check propertiesof PC like termination, stable infiniteness and deduction completeness.A major contribution of this thesis is a prototyping environment for designing and verifying decisionprocedures. This environment, based on the theoretical studies, is the first implementation of theschematic paramodulation calculus. It has been implemented from scratch on the firm basis provided bythe Maude system based on rewriting logic. We show that this prototype is very useful to derive decidabilityand combinability of theories of practical interest in verification. It helps testing new saturationstrategies and experimenting new extensions of the original (schematic) paramodulation calculus.This environment has been applied for the design of a schematic paramodulation calculus dedicated tothe theory of Integer Offsets. This contribution is the first extension of the notion of schematic paramodulationto a built-in theory. This study has led to new automatic proof techniques that are different fromthose performed manually in the literature. The assumptions to apply our proof techniques are easyto satisfy for equational theories with counting operators. We illustrate our theoretical contribution ontheories representing extensions of classical data structures such as lists and records.We have also addressed the problem of modular specification of generic Java classes and methods.We propose extensions to the Krakatoa Modeling Language, a part of the Why platform for provingthat a Java or C program is a correct implementation of some specification. The key features arethe introduction of parametricity both for types and for theories and an instantiation relation betweentheories. The proposed extensions are illustrated on two significant examples: the specification of thegeneric method for sorting arrays and for generic hash map.Both problems considered in this thesis are related to SMT solvers. Firstly, decision procedures areat the core of SMT solvers. Secondly, the Why platform extracts verification conditions from a sourceprogram annotated by specifications, and then transmits them to SMT solvers or proof assistants to checkthe program correctness.
44

Conception et réalisation d'amplificateur de puissance MMIC large-bande haut rendement en technologie GaN / Design and realizations of wideband and high efficiency GaN MMIC high power amplifiers

Dupuy, Victor 22 October 2014 (has links)
Ces travaux de thèse se concentrent sur la conception d'amplificateur de puissance MMIC large-bande haut rendement en technologie GaN pour des applications militaires de type radar et guerre électronique. Les objectifs principaux sont de proposer des structures innovantes de combinaison de puissance notamment pour réduire la taille des amplificateurs actuels tout en essayant d'améliorer leur rendement dans le même temps. Pour cela, une partie importante de ces travaux consiste au développement de combineurs de puissance ultra compactes et faibles pertes. Une fois ces combineurs réalisés et mesurés, ils sont intégrés dans des amplificateurs de puissance afin de prouver leur fonctionnalité et les avantages qu'ils apportent. Différents types d'amplificateur tant au niveau de l'architecture que desperformances sont réalisés au cours de ces travaux. / This work focus on the design of wideband and high efficiency GaN MMIC high power amplifiers for military applications such as radar and electronic warfare. The main objectives consist in finding innovative power combining structures in order to decrease the overall size of amplifiers and increasing their efficiency at the same time. For these matters, an important part of this work consisted in the design and realization of ultra compact and low loss power combiners. Once the combiners realized and measured, they are integrated into power amplifiers to prove their functionality and the advantages they bring. Several kind of amplifiers have been realized whether regrind their architecture or their performances.
45

Résultats de théorie abstraite des modèles dans le cadre des institutions : vers la combinaison de logiques.

Barbier, Fabrice 05 December 2005 (has links) (PDF)
De nombreux travaux ont montré l'importance de l'interpolation de Craig pour la structuration et la modularité des spécifications de type axiomatique. En vue d'en donner des conditions suffisantes dans un cadre théorique adapté à l'informatique, nous nous sommes intéressé à une propriété équivalente à l'interpolation de Craig dans le cadre de la théorie standard des modèles : la consistance de Robinson. L'étude de cette dernière propriété nous a amené à généraliser dans une spécialisation des institutions les notions classiques de diagrammes complets et de morphismes élémentaires. Ceci nous a alors permis de généraliser quelques résultats classiques de théorie des modèles tels que les théorèmes de Löwenheim-Skolem ou l'union de chaînes de Tarski. En fin, les constructeurs de formules étant explicites dans notre cadre théorique, nous nous sommes naturellemant intéressés à la combinaison de logiques et à la préservation de l'interpolation de Craig et de la consistance de Robinson.
46

Télémétrie laser sur satellites et combinaison de techniques géodésiques. Contributions aux systèmes de référence terrestres et applications.

Coulot, David 07 July 2005 (has links) (PDF)
La qualité actuelle des techniques de Géodésie Spatiale permet d'estimer des séries temporelles de produits géodésiques tels que les paramètres de rotation et les positions de stations terrestres. Ces nouveaux produits doivent être utilisés dans la matérialisation des Systèmes de Référence Terrestres, en constantes évolution et amélioration. Ils doivent aussi mettre en évidence les phénomènes, globaux ou locaux, régissant la rotation terrestre et les mouvements de la croûte. C'est dans ce contexte riche d'enjeux divers que s'inscrivent ces travaux. Leur but premier a été l'élaboration et l'application d'une méthode d'estimation de séries temporelles de positions de stations et de paramètres de rotation de la Terre par l'analyse de données de télémétrie laser sur satellites. Cette technique est en effet une des clefs de voûte du Repère de Référence Terrestre International (ITRF). En guise de validation de cette méthode, douze ans de données (1993-2004) sur les deux satellites LAGEOS ont été traités et analysés. Si les techniques géodésiques présentent certes des forces individuellement, c'est dans leur combinaison qu'elles montrent réellement toutes leurs potentialités. À ce titre, le Groupe de Recherche en Géodésie Spatiale (GRGS) a mené une expérience de combinaison de cinq techniques géodésiques (SLR/LLR/GPS/DORIS/VLBI) au niveau des observations sur l'année 2002. J'ai activement participé à cette expérience dont le but principal était de démontrer la force d'une telle approche pour la détermination de séries temporelles de coordonnées du pôle et du Temps Universel.
47

Spécification et conception de services d'analyse de l'utilisation d'un environnement informatique pour l'apprentissage humain

Pham Thi Ngoc, Diem 25 November 2011 (has links) (PDF)
Notre travail de recherche s'inscrit dans le cadre du projet de recherche REDiM (Réingénierie des EIAH Dirigée par les Modèles) qui porte sur la réingénierie d'un scénario pédagogique. Il se focalise plus précisément sur l'analyse de traces collectées en session par un EIAH pour fournir à l'enseignant des indicateurs calculés.Dans notre contexte de travail, UTL (Usage Tracking Language) permet de définir des indicateurs sous une forme proche des patrons de conception. Il a été conçu pour répondre aux questions de capitalisation et de réutilisation. Par contre, UTL ne disposait initialement pas de moyens pour spécifier formellement la façon de calculer l'indicateur à partir des traces collectées. De plus, les approches par développement ad hoc d'indicateurs ne permettent pas de modéliser de façon formelle la méthode de calcul. En général, les patrons de conception se limitent à la description, ils ne peuvent donc pas être automatisés. Des descriptions textuelles dans UTL pour produire un indicateur à partir des traces ne permettent pas de générer automatiquement les valeurs d'un indicateur.Notre principal objectif de recherche a donc été de définir des modèles, des méthodes et des outils pour la formalisation et l'automatisation du calcul d'indicateurs. Pour cela, nous avons élaboré une nouvelle version d'UTL qui intègre un langage de combinaison de données nommé DCL4UTL, qui permet de modéliser des indicateurs sous une forme capitalisable, automatisable et réutilisable afin de fournir des indicateurs signifiants à l'enseignant/concepteur. Ces indicateurs peuvent être calculés en temps réel ou après une session, respectivement dans un contexte de tutorat ou de réingénierie du scénario pédagogique.L'originalité de notre approche réside dans le fait que cette version permet non seulement de capitaliser des savoir-faire sur les techniques d'analyse d'usage d'un EIAH, mais aussi, avec le langage DCL4UTL (1) de décrire formellement dans une forme générique des méthodes de modélisation et de calcul d'indicateurs à partir des traces collectées par un EIAH, (2) d'intégrer des fonctions externes (qui proviennent d'autres outils d'analyse), et (3) de créer des données intermédiaires paramétrées facilitant la modélisation et la réutilisation de la méthode de calcul d'indicateurs. Nous avons également développé un outil d'analyse pour calculer les indicateurs modélisés.Cette version est le résultat d'une étude théorique et d'une analyse de l'état de l'art, mais aussi de travaux exploratoires sur la modélisation d'indicateurs et l'analyse de traces. L'approche et le langage ont été validés par plusieurs expérimentations avec plusieurs EIAH existants.
48

Modèles graphiques probabilistes pour la reconnaissance de formes

Barrat, Sabine 04 December 2009 (has links) (PDF)
La croissance rapide d'Internet et de l'information multimédia a suscité un besoin en développement de techniques de recherche d'information multimédia, et en particulier de recherche d'images. On peut distinguer deux tendances. La première, appelée recherche d'images à base de texte, consiste à appliquer des techniques de recherche d'information textuelle à partir d'images annotées. Le texte constitue une caractéristique de haut-niveau, mais cette technique présente plusieurs inconvénients : elle nécessite un travail d'annotation fastidieux. De plus, les annotations peuvent être ambiguës car deux utilisateurs peuvent utiliser deux mots-clés différents pour décrire la même image. Par conséquent, plusieurs approches ont proposé d'utiliser l'ontologie Wordnet, afin de réduire ces ambiguïtés potentielles. La seconde approche, appelée recherche d'images par le contenu, est plus récente. Ces techniques de recherche d'images par le contenu sont basées sur des caractéristiques visuelles (couleur, texture ou forme), calculées automatiquement, et utilisent une mesure de similarité afin de retrouver des images. Cependant, les performances obtenues ne sont pas vraiment acceptables, excepté dans le cas de corpus spécialisés. De façon à améliorer la reconnaissance, une solution consiste à combiner différentes sources d'information : par exemple, différentes caractéristiques visuelles et/ou de l'information sémantique. Or, dans de nombreux problèmes de vision, on dispose rarement d'échantillons d'apprentissage entièrement annotés. Par contre, il est plus facile d'obtenir seulement un sous-ensemble de données annotées, car l'annotation d'un sous-ensemble est moins contraignante pour l'utilisateur. Dans cette direction, cette thèse traite des problèmes de modélisation, classification et annotation d'images. Nous présentons une méthode pour l'optimisation de la classification d'images naturelles, en utilisant une approche de classification d'images basée à la fois sur le contenu des images et le texte associé aux images, et en annotant automatiquement les images non annotées. De plus, nous proposons une méthode de reconnaissance de symboles, en combinant différentes caractéristiques visuelles. L'approche proposée est dérivée de la théorie des modèles graphiques probabilistes et dédiée aux deux tâches de classification d'images naturelles partiellement annotées, et d'annotation. Nous considérons une image comme partiellement annotée si son nombre de mots-clés est inférieur au maximum de mots-clés observés dans la vérité-terrain. Grâce à leur capacité à gérer les données manquantes et à représenter d'éventuelles relations entre mots-clés, les modèles graphiques probabilistes ont été proposés pour représenter des images partiellement annotées. Par conséquent, le modèle que nous proposons ne requiert pas que toutes les images soient annotées : quand une image est partiellement annotée, les mots-clés manquants sont considérés comme des données manquantes. De plus, notre modèle peut étendre automatiquement des annotations existantes à d'autres images partiellement annotées, sans intervention de l'utilisateur. L'incertitude autour de l'association entre un ensemble de mots-clés et une image est représentée par une distribution de probabilité jointe sur le vocabulaire des mots-clés et les caractéristiques visuelles extraites de nos bases d'images. Notre modèle est aussi utilisé pour reconnaître des symboles en combinant différents types de caractéristiques visuelles (caractéristiques discrètes et continues). De plus, de façon à résoudre le problème de dimensionnalité dû à la grande dimension des caractéristiques visuelles, nous avons adapté une méthode de sélection de variables. Enfin, nous avons proposé un modèle de recherche d'images permettant à l'utilisateur de formuler des requêtes sous forme de mots-clés et/ou d'images. Ce modèle intègre un processus de retour de pertinence. Les résultats expérimentaux, obtenus sur de grandes bases d'images complexes, généralistes ou spécialisées, montrent l'intérêt de notre approche. Enfin, notre méthode s'est montrée compétitive avec des modèles de l'état de l'art.
49

Améliorer la recherche par similarité dans une grande base d'images fixes par des techniques de fouilles de données

Kouomou-Choupo, Anicet 23 February 2006 (has links) (PDF)
Les images fixes peuvent, entre autres, être décrites au niveau du pixel par des descripteurs visuels globaux de couleur, de texture ou de forme. La recherche par le contenu exploite et combine alors ces descripteurs dont le coût de calcul est d'autant plus important que la taille de la base d'images est grande. Les résultats de la recherche sont ensuite classés en fonction de leur similarité à la requête soumise et présentés à l'utilisateur sous forme de liste ordonnée. Un sous-ensemble de descripteurs pourrait cependant suffire à répondre à une recherche par similarité beaucoup plus rapidement, tout en gardant une qualité acceptable des résultats de recherche. Nous proposons pour cela une méthode de sélection automatique des descripteurs visuels qui exploite les règles d'association pour élaborer des stratégies d'exécution réduisant le temps de la recherche par le contenu dans de grandes bases d'images fixes. Dans cette thèse, nous présentons également comment une recherche par le contenu peut être adaptée pour proposer des résultats intermédiaires qui sont fusionnés de façon progressive avec l'avantage pour l'utilisateur, d'une part, de ne pas attendre que toute la base ait été parcourue avant de fournir un résultat et, d'autre part, de lui permettre de stopper la requête en cours d'exécution. Les expérimentations conduites sur des bases d'images réelles montrent que notre méthode améliore notablement les temps de réponse. Elles confirment aussi l'intérêt de la combinaison des descripteurs globaux pour la recherche d'images par le contenu.
50

Quatre problemes geometriques, dynamiques ou algebriques autour de la suspension.

Gautero, François 04 December 2006 (has links) (PDF)
Les trois chapitres de ce texte traitent quatre problemes de nature geometrique, dynamique ou algebrique, ayant un lien avec le procede de suspension (ou mapping-torus). Le premier chapitre presente un theoreme de combinaison general pour les graphes de groupes relativement hyperboliques (Gromov, Farb). Le deuxieme chapitre aborde deux questions de dynamique topologique : d'une part la generalisation, aux applications continues de graphes, de la notion de type d'orbite (Sharkovskii, Boyland) ; d'autre part la caracterisation de l'existence d'une structure de suspension pour certaines surfaces branchees (Williams). Le troisiµeme chapitre traite de la recherche de caracterisations, combinatoires ou dynamiques, des automorphismes geometriques parmi les automorphismes du groupe libre.

Page generated in 0.0564 seconds