• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 273
  • 114
  • 22
  • 8
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 456
  • 107
  • 92
  • 81
  • 78
  • 73
  • 57
  • 55
  • 55
  • 47
  • 45
  • 44
  • 44
  • 37
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

I consumatori di fronte ai paradossi dell’offerta di prodotti alimentari sostenibili. Uno studio comparativo tra Francia e Italia / LES CONSOMMATEURS FACE AUX PARADOXES DE L'OFFRE DE PRODUITS ALIMENTAIRES DURABLES. Une étude comparative entre France etItalie / Consumers faced with the paradoxes of sustainable food products offer. A comparative study between France and Italy

MORUZZI, ROMINA 21 February 2013 (has links)
Questo studio si propone di esplorare i paradossi esistenti nell’offerta di prodotti alimentari sostenibili e, di conseguenza, i comportamenti (strategie di coping) (Lazarus e Folkman, 1984) adottati dai consumatori al momento di tale percezione. A questo scopo abbiamo adattato il modello concettuale di Mick e Fournier (1998), sviluppato inizialmente per i paradossi delle tecnologie moderne, al contesto dell’Alimentazione sostenibile. A livello metodologico, è stata realizzata un’inchiesta qualitativa presso 84 individui “ordinari” (non militanti) in Francia e Italia. In più, sono stati interrogati 18 soggetti (individui militanti) che fanno abitualmente i loro acquisti presso la rete dell’AMAP, in Francia, e dei GAS in Italia. Le interviste semi-strutturate hanno permesso di mettere in luce delle differenze tra i consumatori “ordinari” dei due Paesi da un punto di vista delle strategie di coping evocate per superare i paradossi percepiti. Così abbiamo proposto tre profili di consumatori “ordinari”. Al contrario gli individui militanti si avverano come un gruppo più omogeneo tra i due contesti d’indagine, sia a livello di percezione di paradossi sia nell’adozione di pratiche sostenibili. La ricerca ha, altresì, evidenziato delle caratteristiche più specifiche alle due nazioni, per esempio a livello della struttura di mercato, della comunicazione sui prodotti sostenibili, nonché nell’ottica delle caratteristiche socioculturali. Pertanto questo studio ha avuto tre obiettivi: teorico al fine di verificare i paradossi elencati e le strategie di coping adottate dai consumatori francesi e italiani; metodologico adattando gli “ingranaggi” del modello concettuale di Mick e Fournier (1998) al contesto specifico di ricerca; e poi pratici allo scopo di distinguere degli elementi frenanti la diffusione dell’offerta sostenibile e altri che possano favorire lo sviluppo di un consumo sostenibile in ciascun Paese, come attraverso un’offerta più mirata agli aspetti ambientali in Francia ("filière nord/nord" di agricoltori francesi equo-solidali, biologici e locali) e delle produzioni più legate agli aspetti etici in Italia (ex. prodotti di economie solidali). / This study aims to explore existing paradoxes in the offer of food sustainable products and consequently consumers’ behaviours (coping strategies) (Lazarus and Folkman, 1984) at the time of this perception. For this purpose, the theoretical model of Mick and Fournier (1998), built initially for studying the paradoxes of modern technologies, were adapted to sustainable food consumption. At methodological level, a qualitative survey was conducted among 84 “ordinary” consumers in France and Italy. Later other 18 subjects, usually involved into sustainable purchases (participants of AMAP, GAS), were interviewed. The semi-structured interviews shed light on some differences between “ordinary” consumers of the two countries when they adopted coping strategies to go beyond perceived paradoxes. Thus we proposed three ordinary consumers’ profiles. On the contrary engaged individuals are like a more homogeny group going over national boundaries. They agree with paradoxes and sustainable practices. In addition, the research pointed out some divergent aspects connected with specific context, for instance market of sustainable food products, communication over this offer and social cultural characteristics. Finally, this work had three objectives: theoretical to verify the paradoxes listed and evocated consumers’ strategies by French and Italian consumers; methodological regarding the adaptation of the conceptual model “gears” of Mick et Fournier (1998) to the context of sustainable consumption; and then practical ones such as identification of barriers for developing sustainable consumption and specific possible ways of growth: more attention to environmental aspects in France (“filière nord/nord” of organic, fairly, local French peasants) and ethics products in Italy (products issued from social economies).
432

Indexation et recherche de contenus par objet visuel

Bursuc, Andrei 21 December 2012 (has links) (PDF)
La question de recherche des objets vidéo basés sur le contenu lui-même, est de plus en plus difficile et devient un élément obligatoire pour les moteurs de recherche vidéo. Cette thèse présente un cadre pour la recherche des objets vidéo définis par l'utilisateur et apporte deux grandes contributions. La première contribution, intitulée DOOR (Dynamic Object Oriented Retrieval), est un cadre méthodologique pour la recherche et récupération des instances d'objets vidéo sélectionnés par un utilisateur, tandis que la seconde contribution concerne le support offert pour la recherche des vidéos, à savoir la navigation dans les vidéo, le système de récupération de vidéos et l'interface avec son architecture sous-jacente.Dans le cadre DOOR, l'objet comporte une représentation hybride obtenues par une sur-segmentation des images, consolidé avec la construction des graphs d'adjacence et avec l'agrégation des points d'intérêt. L'identification des instances d'objets à travers plusieurs vidéos est formulée comme un problème d'optimisation de l'énergie qui peut approximer un tache NP-difficile. Les objets candidats sont des sous-graphes qui rendent une énergie optimale vers la requête définie par l'utilisateur. Quatre stratégies d'optimisation sont proposées: Greedy, Greedy relâché, recuit simulé et GraphCut. La représentation de l'objet est encore améliorée par l'agrégation des points d'intérêt dans la représentation hybride, où la mesure de similarité repose sur une technique spectrale intégrant plusieurs types des descripteurs. Le cadre DOOR est capable de s'adapter à des archives vidéo a grande échelle grâce à l'utilisation de représentation sac-de-mots, enrichi avec un algorithme de définition et d'expansion de la requête basée sur une approche multimodale, texte, image et vidéo. Les techniques proposées sont évaluées sur plusieurs corpora de test TRECVID et qui prouvent leur efficacité.La deuxième contribution, OVIDIUS (On-line VIDeo Indexing Universal System) est une plate-forme en ligne pour la navigation et récupération des vidéos, intégrant le cadre DOOR. Les contributions de cette plat-forme portent sur le support assuré aux utilisateurs pour la recherche vidéo - navigation et récupération des vidéos, interface graphique. La plate-forme OVIDIUS dispose des fonctionnalités de navigation hiérarchique qui exploite la norme MPEG-7 pour la description structurelle du contenu vidéo. L'avantage majeur de l'architecture propose c'est sa structure modulaire qui permet de déployer le système sur terminaux différents (fixes et mobiles), indépendamment des systèmes d'exploitation impliqués. Le choix des technologies employées pour chacun des modules composant de la plate-forme est argumentée par rapport aux d'autres options technologiques.
433

Désambiguisation de sens par modèles de contextes et son application à la Recherche d’Information

Brosseau-Villeneuve, Bernard 12 1900 (has links)
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard. / It is known that the ambiguity present in natural language has a negative effect on Information Retrieval (IR) systems effectiveness. However, up to now, the efforts made to integrate Word Sense Disambiguation (WSD) techniques in IR systems have not been successful. Past studies end up with either poor or unconvincing results. Furthermore, investigations based on the addition of artificial ambiguity shows that a very high disambiguation accuracy would be needed in order to observe gains. This thesis has for objective to develop efficient and effective approaches for WSD, using co-occurrence statistics in order to build context models. Such models could then be used in order to do a word sense discrimination between a query and documents of a collection. In this two-part thesis, we will start by investigating the principle of strength of relation between a word and the words present in its context, proposing an approach to learn a function mapping word distance to count weights. This method is based on the idea that context models made from random samples of word in context should be similar. Experiments in English and Japanese shows that the strength of relation roughly follows a negative power law. The weights resulting from the experiments are then used in the construction of Naïve Bayes WSD systems. Evaluations of these systems in English with the Semeval-2007 English Lexical Sample (ELS), and then in Japanese with the Semeval-2010 Japanese WSD (JWSD) tasks shows that the systems have state-of-the-art accuracy even though they are much lighter and don't rely on linguistic tools or resources. The second part of this thesis aims to adapt the new methods to IR applications. Such applications put heavy constraints on performance and available resources. We thus propose the use of corpus-based latent context models based on Latent Dirichlet Allocation (LDA). The models are combined with the query likelihood Language Model (LM) approach for IR. Evaluating the systems on three collections from the Text REtrieval Conference (TREC), we observe average proportional improvement in the range of 12% in MAP and 23% in GMAP. We then observe that the gains are mostly made on hard queries, augmenting the robustness of the results. To our knowledge, these experiments are the first positive application of WSD techniques on standard IR tasks.
434

Analyse et interprétation de scènes visuelles par approches collaboratives

Strat, Sabin Tiberius 04 December 2013 (has links) (PDF)
Les dernières années, la taille des collections vidéo a connu une forte augmentation. La recherche et la navigation efficaces dans des telles collections demande une indexation avec des termes pertinents, ce qui nous amène au sujet de cette thèse, l'indexation sémantique des vidéos. Dans ce contexte, le modèle Sac de Mots (BoW), utilisant souvent des caractéristiques SIFT ou SURF, donne de bons résultats sur les images statiques. Notre première contribution est d'améliorer les résultats des descripteurs SIFT/SURF BoW sur les vidéos en pré-traitant les vidéos avec un modèle de rétine humaine, ce qui rend les descripteurs SIFT/SURF BoW plus robustes aux dégradations vidéo et qui leurs donne une sensitivité à l'information spatio-temporelle. Notre deuxième contribution est un ensemble de descripteurs BoW basés sur les trajectoires. Ceux-ci apportent une information de mouvement et contribuent vers une description plus riche des vidéos. Notre troisième contribution, motivée par la disponibilité de descripteurs complémentaires, est une fusion tardive qui détermine automatiquement comment combiner un grand ensemble de descripteurs et améliore significativement la précision moyenne des concepts détectés. Toutes ces approches sont validées sur les bases vidéo du challenge TRECVid, dont le but est la détection de concepts sémantiques visuels dans un contenu multimédia très riche et non contrôlé.
435

Contributions aux méthodes de détection visuelle de fermeture de boucle et de segmentation topologique de l'environnement.

Alexandre, Chapoulie 10 December 2012 (has links) (PDF)
Dans le contexte de la localisation globale et, plus largement, dans celui de la Localisation et Cartographie Simultanées, il est nécessaire de pouvoir déterminer si un robot revient dans un endroit déjà visité. Il s'agit du problème de la détection de fermeture de boucle. Dans un cadre de reconnaissance visuelle des lieux, les algorithmes existants permettent une détection en temps-réel, une robustesse face à l'aliasing perceptuel ou encore face à la présence d'objets dynamiques. Ces algorithmes sont souvent sensibles à l'orientation du robot rendant impossible la fermeture de boucle à partir d'un point de vue différent. Pour palier ce problème, des caméras panoramiques ou omnidirectionnelles sont employées. Nous présentons ici une méthode plus générale de représentation de l'environnement sous forme d'une vue sphérique ego-centrée. En utilisant les propriétés de cette représentation, nous proposons une méthode de détection de fermeture de boucle satisfaisant, en plus des autres propriétés, une indépendance à l'orientation du robot. Le modèle de l'environnement est souvent un ensemble d'images prises à des instants différents, chaque image représentant un lieu. Afin de grouper ces images en lieux significatifs de l'environnement, des lieux topologiques, les méthodes existantes emploient une notion de covisibilité de l'information entre les lieux. Notre approche repose sur l'exploitation de la structure de l'environnement. Nous définissons ainsi un lieu topologique comme ayant une structure qui ne varie pas, la variation engendrant le changement de lieu. Les variations de structure sont détectées à l'aide d'un algorithme efficace de détection de rupture de modèle.
436

Contributions to 3D-shape matching, retrieval and classification

Tabia, Hedi 27 September 2011 (has links) (PDF)
Une nouvelle approche pour la mise en correspondance des objets 3D en présence des transformations non-rigides et des modèles partiellement similaires est proposée dans le cadre de cette thèse. L'approche est composée de deux phases. Une première phase pour la description d'objets et une deuxième phase de mesure de similarité. Pour décrire un objet 3D, nous avons choisi une méthode basée sur des descripteurs locaux. La méthode consiste à extraire d'un objet 3D un ensemble de points caractéristiques pour lesquels deux descripteurs locaux sont calculés. Le premier descripteur Geodesic cord descriptor représente la distribution des distances géodésiques entre un point caractéristique et l'ensemble des points de la surface de l'objet 3D. Le deuxième descripteur Curve based descriptor permet de représenter la surface 3D de l'objet par un ensemble de courbes. La forme de ces courbes est analysée à l'aide d'outils issus de la géométrie Riemannienne. Pour mesurer la similarité entre les objets 3D, nous avons utilisé deux techniques différentes dont l'une est basée sur les fonctions de croyance et l'autre est basée sur les sac-de-mots. Afin de valider notre approche nous l'avons adaptée à deux applications différentes à savoir la recherche et la classification d'objets 3D. Les résultats obtenus sur différent benchmarks montrent une efficacité et une pertinence comparés avec les autres méthodes de l'état-de-l'art.
437

TRACAGE DES ECHANGES COTE-LARGE, DE LA CIRCULATION ET DU MELANGE DANS L'OCEAN PAR LES ISOTOPES DU RADIUM

Van Beek, Pieter 25 October 2012 (has links) (PDF)
Les plateaux continentaux et les marges océaniques, à l'interface entre les continents et les océans, constituent une zone clé d'échange d'éléments chimiques et de matière. Ces éléments chimiques sont apportés par les fleuves, potentiellement relâchés par les sédiments déposés sur les marges ou apportés par les résurgences sous-marines (ou plus globalement par les SGD, " Submarine Groundwater Discharge "), puis sont transmis à l'océan ouvert. De nombreuses transformations chimiques ont également lieu au-niveau de cet interface (précipitation, adsorption, désorption, floculation, diffusion depuis les sédiments etc...) qui font que l'interface continent-océan constitue une source et/ou un puits pour les éléments chimiques. Les flux d'éléments chimiques (sels nutritifs, éléments limitants, contaminants) échangés entre la côte et le large ont un impact sur la composition chimique de l'océan ainsi que sur les écosystèmes (planctoniques et benthiques). Ces échanges ont notamment un impact sur le développement du phytoplancton qui constitue une pompe biologique du carbone. Ces flux exercent donc un contrôle sur le cycle du carbone et par conséquent sur le climat. Pour étudier ces zones d'échanges clés, nous utilisons des traceurs géochimiques tels que les isotopes du radium (223Ra, 224Ra, 226Ra, 228Ra) et l'actinium-227 (227Ac). Ces isotopes portent de nombreuses informations essentielles et difficiles à obtenir par d'autres biais. Au contact des sédiments peu profonds, les masses d'eau s'enrichissent en ces isotopes au niveau des marges. Ces radioéléments permettent donc de tracer l'advection de masses d'eau qui sont entrées en contact avec les marges (où elles se sont enrichies en de nombreux éléments chimiques). Une fois que la masse d'eau se détache des sédiments, l'activité radium décroit, ce qui fournit un chronomètre destiné à estimer le temps de transit des masses d'eau ou encore l'âge des masses d'eau. Le radium permet donc également de tracer l'enrichissement potentiel d'une masse d'eau en certains éléments essentiels qui - comme le radium - diffusent depuis les sédiments (ex : fer, élément limitant pour la biomasse phytoplanctonique). Tandis que ces éléments (ex : fer) disparaissent souvent rapidement de la colonne d'eau (réactions chimiques, absorption par le phytoplancton), le radium reste dans la colonne d'eau et se comporte comme un traceur conservatif. Le mélange diffusif (horizontal ou vertical) redistribue également ces radioéléments - ainsi que d'autres éléments chimiques - au sein de l'océan qui permettent ainsi de quantifier les coefficients de mélange diffusifs Kh et Kz, paramètres essentiels pour contraindre les flux d'énergie et d'éléments chimiques dans l'océan. Les isotopes du radium et l'227Ac présentant des périodes radioactives variées (224Ra : 3.7 jours ; 223Ra : 11.4 jours ; 228Ra : 5.8 ans ; 226Ra : 1600 ans ; 227Ac : 21.8 ans), ils permettent d'étudier les processus d'advection et de mélange sur différentes échelles de temps (quelques jours à quelques années) et donc d'espace (depuis la côte jusqu'à l'océan ouvert). Enfin, les décharges d'eau souterraine étant enrichies en radium, ce radioélément a été largement utilisé pour détecter les sites de résurgences sous-marines ou les SGD et pour quantifier les flux d'eau associés à ces systèmes. Depuis 2002, j'ai conduit des études dans différents océans du globe pour fournir au niveau de régions clés - notamment au moyen des isotopes du radium et de l'227Ac - ces informations essentielles qui permettent de contraindre aussi bien les échanges côte-large que le transfert de matière au sein de la colonne d'eau. Dans ce manuscrit, j'ai choisi de présenter avec plus de détails les résultats obtenus au-niveau de régions où les échanges entre la côte et le large se faisaient par des voies différentes : nous avons travaillé dans des régions où les éléments chimiques étaient transmis à l'océan via (i) la libération par les sédiments des marges (ex : Plateau de Kerguelen, projet KEOPS), (ii) l'apport par les fleuves et réactions chimiques dans l'estuaire (ex : estuaire de l'Amazone, projet AMANDES) ou encore via (iii) l'apport par les décharges d'eau souterraine (ex : littoral français méditerranéen, projet CYMENT). Au large des îles Kerguelen, le projet KEOPS a montré que le développement du phytoplancton en pleine région HNLC (" High Nutrient Low Chlorophyll ") pouvait s'expliquer par la fertilisation en fer apporté par les sédiments du Plateau de Kerguelen (Blain et al., 2007). Nous avons contribué à montrer par une approche multitraceur que le fer, élément limitant dans cette région, était transmis dans les eaux de surface du Plateau de Kerguelen par le mélange vertical associé aux ondes de marée et par l'advection d'eau entrée en contact avec les sédiments des marges de l'île Heard, au sud du plateau. Grâce au projet AMANDES mené au large du Brésil et de la Guyane française, nous avons pu chronométrer au moyen des quatre isotopes du radium le temps de transit du panache de l'Amazone depuis l'estuaire jusque dans l'Océan Atlantique et ainsi estimer le temps de résidence de ces eaux sur le plateau continental brésilien (collaboration avec J. De Oliveira, IPEN Sao Paulo, Brésil, financement de l'AIEA). Nous avons également étudié les échanges de radium entre les phases particulaire et dissoute le long du gradient de salinité. Les isotopes du radium étant largement utilisés pour étudier les décharges d'eau souterraine en mer, nous avons travaillé au niveau de plusieurs résurgences d'eau douce le long du littoral Méditerranéen français (étang de La Palme, étang de Salses-Leucate, étang de Thau, Calanques de Marseille) et utilisé nos outils géochimiques pour détecter les résurgences sous-marines, étudier le devenir de ces eaux une fois dispersées en mer ou dans les étangs, quantifier les flux d'eau associés à ces systèmes et tenter d'estimer le temps de résidence des eaux des étangs (collaboration avec T. Stieglitz, JCU Australie, Poste Rouge OMP). Ces études ont pu être menées à bien grâce à des développements analytiques que nous avons conduits en amont. Nous avons notamment créé en 2007 le laboratoire souterrain de mesure des faibles radioactivités LAFARA, localisé à Ferrières dans l'Ariège (Pyrénées). Ce laboratoire est désormais reconnu comme une plateforme d'analyses de l'OMP et fait partie du réseau européen de laboratoires souterrains CELLAR. Le bruit de fond obtenu par les deux spectromètres gamma en fonctionnement dans ce laboratoire est particulièrement bas, ce qui nous permet d'analyser la très faible radioactivité présente dans nos échantillons. De plus, nous nous sommes équipés d'un RaDeCC (Radium Delayed Coincidence Counter) qui nous permet d'analyser les activités 223Ra, 224Ra et 227Ac de nos échantillons. Les analyses de l'227Ac, élément particulièrement rare dans l'océan, ont été conduites en collaboration avec W. Geibert (Université d'Edimbourg, projet d'échange ALLIANCE). Grâce à ces développements, nous avons pu participer aux exercices internationaux d'intercalibration GEOTRACES pour les isotopes 223Ra, 224Ra, 226Ra et 228Ra. Cette capacité analytique nous a également permis d'effectuer des comparaisons entre des analyses réalisées au moyen de différents instruments (226Ra : MC-ICP-MS versus spectrométrie gamma ; 223Ra et 224Ra : RaDeCC versus spectrométrie gamma). Ces différents exercices ont permis de valider les mesures que nous effectuons. Enfin, bien que le radium soit largement utilisé pour tracer les masses d'eau, étudier le mélange et les SGD, ou encore comme outil de datation, le cycle du radium n'est pas encore totalement compris. En particulier, très peu d'études ont été menées jusqu'à présent sur la phase particulaire susceptible d'incorporer du radium dans l'océan. Nous avons donc cherché à étudier le radium porté par cette phase particulaire, en analysant à la fois les particules en suspension et les particules collectées par les pièges à particules. Nous avons ainsi pu apporter des informations nouvelles sur les échanges de radium entre la phase dissoute et les particules dans l'océan. Dans les différents bassins océaniques que nous avons étudiés, nous avons notamment caractérisé le rôle potentiel des Acanthaires dans le cycle du radium. Enfin, les informations que nous avons obtenues dans l'océan actuel - notamment en ce qui concerne le rapport 226Ra/Ba - sont importantes car elles permettent de mieux contraindre les outils que nous utilisons pour étudier l'océan actuel et l'océan passé (ex : datation par le rapport 226Ra/Ba).
438

Wordspotting from multilingual and stylistic documents / Repérage de mots dans les images de documents multilingues et graphiques

Tarafdar, Arundhati 12 July 2017 (has links)
Les outils et méthodes d’analyse d’images de documents (DIA) donnent aujourd’hui la possibilité de faire des recherches par mots-clés dans des bases d’images de documents alors même qu’aucune transcription n’est disponible. Dans ce contexte, beaucoup de travaux ont déjà été réalisés sur les OCR ainsi que sur des systèmes de repérage de mots (spotting) dédiés à des documents textuels avec une mise en page simple. En revanche, très peu d’approches ont été étudiées pour faire de la recherche dans des documents contenant du texte multi-orienté et multi-échelle, comme dans les documents graphiques. Par exemple, les images de cartes géographiques peuvent contenir des symboles, des graphiques et du texte ayant des orientations et des tailles différentes. Dans ces documents, les caractères peuvent aussi être connectés entre eux ou bien à des éléments graphiques. Par conséquent, le repérage de mots dans ces documents se révèle être une tâche difficile. Dans cette thèse nous proposons un ensemble d’outils et méthodes dédiés au repérage de mots écrits en caractères bengali ou anglais (script Roman) dans des images de documents géographiques. L’approche proposée repose sur plusieurs originalités. / Word spotting in graphical documents is a very challenging task. To address such scenarios this thesis deals with developing a word spotting system dedicated to geographical documents with Bangla and English (Roman) scripts. In the proposed system, at first, text-graphics layers are separated using filtering, clustering and self-reinforcement through classifier. Additionally, instead of using binary decision we have used probabilistic measurement to represent the text components. Subsequently, in the text layer, character segmentation approach is applied using water-reservoir based method to extract individual character from the document. Then recognition of these isolated characters is done using rotation invariant feature, coupled with SVM classifier. Well recognized characters are then grouped based on their sizes. Initial spotting is started to find a query word among those groups of characters. In case if the system could spot a word partially due to any noise, SIFT is applied to identify missing portion of that partial spotting. Experimental results on Roman and Bangla scripts document images show that the method is feasible to spot a location in text labeled graphical documents. Experiments are done on an annotated dataset which was developed for this work. We have made this annotated dataset available publicly for other researchers.
439

Contributions à la commande prédictive des systèmes de lois de conservation / Contribution to predictive control for systems of conservation laws

Pham, Van Thang 06 September 2012 (has links)
La Commande prédictive ou Commande Optimale à Horizon Glissant (COHG) devient de plus en plus populaire dans de nombreuses applications pratiques en raison de ses avantages importants tels que la stabilisation et la prise en compte des contraintes. Elle a été bien étudiée pour des systèmes en dimension finie même dans le cas non linéaire. Cependant, son extension aux systèmes en dimension infinie n'a pas retenu beaucoup d'attention de la part des chercheurs. Ce travail de thèse apporte des contributions à l'application de cette approche aux systèmes de lois de conservation. Nous présentons tout d'abord une preuve de stabilité complète de la COHG pour certaines classes de systèmes en dimension infinie. Ce résultat est ensuite utilisé pour les systèmes hyperboliques 2x2 commandés aux frontières et appliqué à un problème de contrôle de canal d'irrigation. Nous proposons aussi l'extension de cette stratégie au cas de réseaux de systèmes hyperboliques 2x2 en cascade avec une application à un ensemble de canaux d'irrigation connectés. Nous étudions également les avantages de la COHG dans le contexte des systèmes non linéaires et semi-linéaires notamment vis-à-vis des chocs. Toutes les analyses théoriques sont validées par simulation afin d'illustrer l'efficacité de l'approche proposée. / The predictive control or Receding Horizon Optimal Control (RHOC) is becoming increasingly popular in many practical applications due to its significant advantages such as the stabilization and constraints handling. It has been well studied for finite dimensional systems even in the nonlinear case. However, its extension to infinite dimensional systems has not received much attention from researchers. This thesis proposes contributions on the application of this approach to systems of conservation laws. We present a complete proof of stability of RHOC for some classes of infinite dimensional systems. This result is then used for 2x2 hyperbolic systems with boundary control, and applied to an irrigation canal. We also propose the extension of this strategy to networks of cascaded 2x2 hyperbolic systems with an application to a set of connected irrigation canals. Furthermore, we study the benefits of RHOC in the context of nonlinear and semi-linear systems in particular with respect to the problem of shocks. All theoretical analyzes are validated by simulation in order to illustrate the effectiveness of the proposed approach.
440

SIMD-aware word length optimization for floating-point to fixed-point conversion targeting embedded processors / Optimisation SIMD de la largeur des mots pour la conversion de virgule flottante en virgule fixe pour des processeurs embarqués

El Moussawi, Ali Hassan 16 December 2016 (has links)
Afin de limiter leur coût et/ou leur consommation électrique, certains processeurs embarqués sacrifient le support matériel de l'arithmétique à virgule flottante. Pourtant, pour des raisons de simplicité, les applications sont généralement spécifiées en utilisant l'arithmétique à virgule flottante. Porter ces applications sur des processeurs embarqués de ce genre nécessite une émulation logicielle de l'arithmétique à virgule flottante, qui peut sévèrement dégrader la performance. Pour éviter cela, l'application est converti pour utiliser l'arithmétique à virgule fixe, qui a l'avantage d'être plus efficace à implémenter sur des unités de calcul entier. La conversion de virgule flottante en virgule fixe est une procédure délicate qui implique des compromis subtils entre performance et précision de calcul. Elle permet, entre autre, de réduire la taille des données pour le coût de dégrader la précision de calcul. Par ailleurs, la plupart de ces processeurs fournissent un support pour le calcul vectoriel de type SIMD (Single Instruction Multiple Data) afin d'améliorer la performance. En effet, cela permet l'exécution d'une opération sur plusieurs données en parallèle, réduisant ainsi le temps d'exécution. Cependant, il est généralement nécessaire de transformer l'application pour exploiter les unités de calcul vectoriel. Cette transformation de vectorisation est sensible à la taille des données ; plus leurs tailles diminuent, plus le taux de vectorisation augmente. Il apparaît donc un compromis entre vectorisation et précision de calcul. Plusieurs travaux ont proposé des méthodologies permettant, d'une part la conversion automatique de virgule flottante en virgule fixe, et d'autre part la vectorisation automatique. Dans l'état de l'art, ces deux transformations sont considérées indépendamment, pourtant elles sont fortement liées. Dans ce contexte, nous étudions la relation entre ces deux transformations, dans le but d'exploiter efficacement le compromis entre performance et précision de calcul. Ainsi, nous proposons d'abord un algorithme amélioré pour l'extraction de parallélisme SLP (Superword Level Parallelism ; une technique de vectorisation). Puis, nous proposons une nouvelle méthodologie permettant l'application conjointe de la conversion de virgule flottante en virgule fixe et de l'exploitation du SLP. Enfin, nous implémentons cette approche sous forme d'un flot de compilation source-à-source complètement automatisé, afin de valider ces travaux. Les résultats montrent l'efficacité de cette approche, dans l'exploitation du compromis entre performance et précision, vis-à-vis d'une approche classique considérant ces deux transformations indépendamment. / In order to cut-down their cost and/or their power consumption, many embedded processors do not provide hardware support for floating-point arithmetic. However, applications in many domains, such as signal processing, are generally specified using floating-point arithmetic for the sake of simplicity. Porting these applications on such embedded processors requires a software emulation of floating-point arithmetic, which can greatly degrade performance. To avoid this, the application is converted to use fixed-point arithmetic instead. Floating-point to fixed-point conversion involves a subtle tradeoff between performance and precision ; it enables the use of narrower data word lengths at the cost of degrading the computation accuracy. Besides, most embedded processors provide support for SIMD (Single Instruction Multiple Data) as a mean to improve performance. In fact, this allows the execution of one operation on multiple data in parallel, thus ultimately reducing the execution time. However, the application should usually be transformed in order to take advantage of the SIMD instruction set. This transformation, known as Simdization, is affected by the data word lengths ; narrower word lengths enable a higher SIMD parallelism rate. Hence the tradeoff between precision and Simdization. Many existing work aimed at provide/improving methodologies for automatic floating-point to fixed-point conversion on the one side, and Simdization on the other. In the state-of-the-art, both transformations are considered separately even though they are strongly related. In this context, we study the interactions between these transformations in order to better exploit the performance/accuracy tradeoff. First, we propose an improved SLP (Superword Level Parallelism) extraction (an Simdization technique) algorithm. Then, we propose a new methodology to jointly perform floating-point to fixed-point conversion and SLP extraction. Finally, we implement this work as a fully automated source-to-source compiler flow. Experimental results, targeting four different embedded processors, show the validity of our approach in efficiently exploiting the performance/accuracy tradeoff compared to a typical approach, which considers both transformations independently.

Page generated in 0.0651 seconds