• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 71
  • 20
  • 19
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 323
  • 94
  • 94
  • 67
  • 66
  • 55
  • 47
  • 41
  • 40
  • 38
  • 37
  • 35
  • 33
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Publication de données qui préserve la vie privée pour des données continues et dynamiques: Les approches d'indexation spatiales et de bucketization

Anjum, Adeel 16 May 2013 (has links) (PDF)
La publication de données soucieuse du respect de la vie privée est au coeur des préoccupations des organisations qui souhaitent publier leurs données. Un nombre croissant d'entreprises et d'organismes collectent et publient des données à caractère personnel pour diverses raisons (études démographiques, recherche médicale,...). Selon ces cas, celui qui publie les données fait face au dilemme suivant : comment permettre à un tiers l'analyse de ces données tout en évitant de divulguer des informations trop sensibles, relatives aux individus concernés? L'enjeu est donc la capacité à publier des jeux de données en maîtrisant ce risque de divulgation, c.a.d. de traiter l'opposition entre deux critères : d'un côté, on souhaite garantir la préservation de la confidentialité sur des données personnelles et, d'autre part, on souhaite préserver au maximum l'utilité du jeu de données pour ceux qui l'exploiteraient (notamment, des chercheurs). Dans ce travail, nous cherchons d'abord à élaborer plusieurs notions d'anonymisation des données selon plusieurs contextes. Nous montrons que les index spatiaux sont extrêmement efficaces dans le cadre de la publication de données, en raison de leur capacité à passer à l'échelle. Une évaluation empirique approfondie révèle qu'il est possible de diffuser des données de grande qualité et préservant un certain niveau de confidentialité dans les données. Il est de plus possible de traiter efficacement de très grands jeux de données en grandes dimensions et cette méthode peut être étendue à un niveau de confidentialité plus fort (differential privacy). Par ailleurs, la publication séquentielle de données (mise à jour du jeu de données) est cruciale dans un grand nombre d'applications. Nous proposons une technique menant à bien cette tâche, garantissant à la fois une forte confidentialité des données et une très bonne préservation de leur utilité.
242

Offline Approximate String Matching forInformation Retrieval : An experiment on technical documentation

Dubois, Simon January 2013 (has links)
Approximate string matching consists in identifying strings as similar even ifthere is a number of mismatch between them. This technique is one of thesolutions to reduce the exact matching strictness in data comparison. In manycases it is useful to identify stream variation (e.g. audio) or word declension (e.g.prefix, suffix, plural). Approximate string matching can be used to score terms in InformationRetrieval (IR) systems. The benefit is to return results even if query terms doesnot exactly match indexed terms. However, as approximate string matchingalgorithms only consider characters (nor context neither meaning), there is noguarantee that additional matches are relevant matches. This paper presents the effects of some approximate string matchingalgorithms on search results in IR systems. An experimental research design hasbeen conducting to evaluate such effects from two perspectives. First, resultrelevance is analysed with precision and recall. Second, performance is measuredthanks to the execution time required to compute matches. Six approximate string matching algorithms are studied. Levenshtein andDamerau-Levenshtein computes edit distance between two terms. Soundex andMetaphone index terms based on their pronunciation. Jaccard similarity calculatesthe overlap coefficient between two strings. Tests are performed through IR scenarios regarding to different context,information need and search query designed to query on a technicaldocumentation related to software development (man pages from Ubuntu). Apurposive sample is selected to assess document relevance to IR scenarios andcompute IR metrics (precision, recall, F-Measure). Experiments reveal that all tested approximate matching methods increaserecall on average, but, except Metaphone, they also decrease precision. Soundexand Jaccard Similarity are not advised because they fail on too many IR scenarios.Highest recall is obtained by edit distance algorithms that are also the most timeconsuming. Because Levenshtein-Damerau has no significant improvementcompared to Levenshtein but costs much more time, the last one is recommendedfor use with a specialised documentation. Finally some other related recommendations are given to practitioners toimplement IR systems on technical documentation.
243

Analyse automatique de film - Des séquences d'images aux séquences d'actions.

Ronfard, Remi 02 December 2009 (has links) (PDF)
Je présente mes activités de recherche en indexation video et en reconnaissance d'actions, et je propose un programme de recherche permettant d'aborder ensemble ces deux questions au cours des prochaines années. Je décris d'abord une série de travaux réalisés dans le cadre du groupe MPEG et des projets DIVAN à l'INA (1998-2000), puis VIBES à l'INRIA (2001-2004), et qui visent à aborder l'indexation video à travers la reconnaissance des styles et conventions de la prise de vues et du montage. Cette première partie est illustrée par deux applications - le découpage d'un journal télévisé en sujets, et l'indexation d'un film de cinéma par son script. Je présente ensuite des travaux réalisés à l'INRIA en 2005-2008 au sein de l'équipe MOVI. Je montre comment nous avons utilisé l'infrastructure GRIMAGE pour (1) apprendre des modèles statistiques 3D d'un petit répertoire d'actions humaines permettant de les reconnaitre lorsqu'elles sont exécutées par d'autres acteurs, sous d'autres points de vue ; (2) découper une séquence d'images 3D en actions primitives reconnaissables; et (3) reconnaître ces mêmes actions selon le point de vue d'une seule caméra. Enfin, je propose quelques pistes pour étendre les résultats précédents afin d'aborder simultanément les deux problèmes de la reconnaissance des actions et des styles de mise en scène dans les films. Je présente les avantages et les difficultés d'une approche unifiée de ces deux problèmes, ainsi que des applications possibles dans les domaines de la fiction interactive, du jeu vidéo et du machinima.
244

Algorithmes pour la segmentation et l'amélioration de la qualité des images et des vidéos

Bertolino, Pascal 24 February 2012 (has links) (PDF)
Travaux sur la segmentation des images et des vidéos en vue de leur codage, indexation et interprétation ainsi que sur l'amélioration de la qualité de la restitution de ces images sur les écrans plats.
245

Contributions à la recherche et à l'analyse de modèles 3D

Vandeborre, Jean-Philippe 15 June 2012 (has links) (PDF)
L'utilisation de modèles tridimensionnels dans les applications multimédia, prend de l'ampleur de jour en jour. Le développement des outils de modélisation, des scanners 3D, des cartes graphiques accélérées, du Web3D, etc. ouvre l'accès à des données tridimensionnelles de grande qualité. Les besoins, sans cesse croissants, concernant ce type de données, changent rapidement. S'il devient de plus en plus facile de créer de nouveaux modèles 3D, qu'en est-il du traitement et de l'analyse de ces modèles après leur création ? De nos jours, le concepteur d'objets 3D ne pose plus la question : " Comment créer un nouvel objet 3D ? ", mais plus vrai- semblablement " Comment retrouver un modèle 3D similaire à ceux en ma possession pour le réutiliser ? " et " Comment retrouver la structure d'un modèle 3D maillé sans connaissance a priori sur celui-ci ? " Cette habilitation a pour but d'apporter des éléments de réponse à ces deux questions. En réponse à la première question, nous avons développé un nouveau système bayésien pour retrouver des modèles 3D à partir d'une requête constituée d'une ou plusieurs vues 2D, ou d'un modèle 3D entier. Ce système a été testé dans un contexte applicatif industriel ainsi qu'avec un benchmark international. Chaque expérience a mis en évidence les excellents résultats de notre approche. La seconde question a été abordée sous l'angle de l'analyse topologique des maillages 3D grâce aux graphes de Reeb. Ce travail théorique a été appliqué à différents domaines comme la déformation automatique, l'indexation et la segmentation de maillages 3D. L'approche a toujours montré des résultats remarquables dans ces domaines. Finalement, la segmentation de maillages 3D, qui est une étape de pré-traitement fréquente avant d'autres analyses du maillage, a attiré notre attention. Nous avons proposé une métrique fiable et robuste pour la comparaison de segmentations et l'évaluation des performances des méthodes de segmentation de maillages 3D, ainsi qu'une approche de la segmentation par apprentissage qui surpasse les méthodes existantes. Pour terminer, de nouvelles pistes de recherche sur les maillages 3D sont ouvertes.
246

Indexation de textes médicaux par extraction de concepts, et ses utilisations

Pouliquen, Bruno 07 June 2002 (has links) (PDF)
Nous nous intéressons à l'accès à l'information médicale. Nous avons utilisé un lexique de flexions, dérivations et synonymes de mots spécifiquement créé pour le domaine médical, issu de la base de connaissances "Aide au Diagnostic Médical". Nous avons exploité les mots composés et les associations de mots de ce lexique pour optimiser l'indexation d'une phrase en mots de référence. Nous avons créé un outil d'indexation permettant de reconnaître un concept d'un thésaurus médical dans une phrase en langage naturel. Nous avons ainsi pu indexer des documents médicaux par un ensemble de concepts, ensuite nous avons démontré l'utilité d'une telle indexation en développant un système de recherche d'information et divers outils: extraction de mots-clés, similarité de documents et synthèse automatique de documents. Cette indexation diminue considérablement la complexité de la représentation des connaissances contenues dans les documents en langage naturel. Les résultats des évaluations montrent que cette indexation conserve néanmoins la majeure partie de l'information sémantique.
247

Recherche d'images par le contenu application à la proposition de mots clés / Image search by content and keyword proposal

Zhou, Zhyiong 08 February 2018 (has links)
La recherche d'information dans des masses de données multimédia et l'indexation de ces grandes bases d'images par le contenu sont des problématiques très actuelles. Elles s'inscrivent dans un type de gestion de données qu'on appelle le Digital Asset Management (ou DAM) ; Le DAM fait appel à des techniques de segmentation d'images et de classification de données. Nos principales contributions dans cette thèse peuvent se résumer en trois points :- Analyse des utilisations possibles des différentes méthodes d'extraction des caractéristiques locales en exploitant la technique de VLAD.- Proposition d'une nouvelle méthode d'extraction de l'information relative à la couleur dominante dans une image.- Comparaison des Machine à Supports de Vecteur (SVM - Support Vector Machine) à différents classifieurs pour la proposition de mots clés d'indexation. Ces contributions ont été testées et validées sur des données de synthèse et sur des données réelles. Nos méthodes ont alors été largement utilisées dans le système DAM ePhoto développé par la société EINDEN, qui a financé la thèse CIFRE dans le cadre de laquelle ce travail a été effectué. Les résultats sont encourageants et ouvrent de nouvelles perspectives de recherche. / The search for information in masses of multimedia data and the indexing of these large databases by the content are very current problems. They are part of a type of data management called Digital Asset Management (or DAM) ; The DAM uses image segmentation and data classification techniques.Our main contributions in this thesis can be summarized in three points : - Analysis of the possible uses of different methods of extraction of local characteristics using the VLAD technique.- Proposed a new method for extracting dominant color information in an image.- Comparison of Support Vector Machines (SVM) to different classifiers for the proposed indexing keywords. These contributions have been tested and validated on summary data and on actual data. Our methods were then widely used in the DAM ePhoto system developed by the company EINDEN, which financed the CIFRE thesis in which this work was carried out. The results are encouraging and open new perspectives for research.
248

[en] HIGH INTEREST RATES IN BRAZIL: A THEORETICAL APPROACH / [pt] JUROS ALTOS NO BRASIL: UMA ABORDAGEM TEÓRICA

RICARDO FIBE GAMBIRASIO 11 October 2006 (has links)
[pt] Esta dissertação visa propor e analisar, no contexto de modelos dinâmicos estocásticos de equilíbrio geral com rigidez de preços, possíveis explicações para o fato estilizado de que o juro no Brasil é excessivamente alto. As implicações de diferentes hipóteses aplicadas aos modelos serão analisadas através de funções de resposta a impulso (FRIs). Será analisada, quando possível, a evidência empírica disponível na literatura a favor ou contra cada hipótese, e as FRIs mostrarão o comportamento dinâmico da economia calibrada sob cada hipótese. São compatíveis com um juro real básico mais alto por um período prolongado as seguintes hipóteses: alta taxa subjetiva de desconto intertemporal, alta indexação de preços, baixa potência da política monetária, e diminuição da credibilidade do Banco Central frente o crescimento da dívida pública (um caso de dominância fiscal). / [en] This work proposes and analyses, in the context of dynamic stochastic general equilibrium models with price rigidities, possible explanations for the stylized fact that interest rates in Brazil are exceedingly high. The implications of different hypothesis applied to the model are analyzed through impulse response functions (IRFs). Whenever possible, empirical evidence available in the literature for or against each hypothesis is analyzed, and the IRFs show the dynamical behavior of the economy calibrated accordingly. The following are consistent with a higher basic interest rate for an extended period: high subjective intertemporal discount rate, high price indexation, low monetary policy power, and decreasing Central Bank s credibility caused by public debt growth (an example of fiscal dominance).
249

Analyse et interprétation de scènes visuelles par approches collaboratives / Analysis and interpretation of visual scenes through collaborative approaches / Analiza si interpretarea scenelor vizuale prin abordari colaborative

Strat, Sabin Tiberius 04 December 2013 (has links)
Les dernières années, la taille des collections vidéo a connu une forte augmentation. La recherche et la navigation efficaces dans des telles collections demande une indexation avec des termes pertinents, ce qui nous amène au sujet de cette thèse, l’indexation sémantique des vidéos. Dans ce contexte, le modèle Sac de Mots (BoW), utilisant souvent des caractéristiques SIFT ou SURF, donne de bons résultats sur les images statiques. Notre première contribution est d’améliorer les résultats des descripteurs SIFT/SURF BoW sur les vidéos en pré-traitant les vidéos avec un modèle de rétine humaine, ce qui rend les descripteurs SIFT/SURF BoW plus robustes aux dégradations vidéo et qui leurs donne une sensitivité à l’information spatio-temporelle. Notre deuxième contribution est un ensemble de descripteurs BoW basés sur les trajectoires. Ceux-ci apportent une information de mouvement et contribuent vers une description plus riche des vidéos. Notre troisième contribution, motivée par la disponibilité de descripteurs complémentaires, est une fusion tardive qui détermine automatiquement comment combiner un grand ensemble de descripteurs et améliore significativement la précision moyenne des concepts détectés. Toutes ces approches sont validées sur les bases vidéo du challenge TRECVid, dont le but est la détection de concepts sémantiques visuels dans un contenu multimédia très riche et non contrôlé. / During the last years, we have witnessed a great increase in the size of digital video collections. Efficient searching and browsing through such collections requires an indexing according to various meaningful terms, bringing us to the focus of this thesis, the automatic semantic indexing of videos. Within this topic, the Bag of Words (BoW) model, often employing SIFT or SURF features, has shown good performance especially on static images. As our first contribution, we propose to improve the results of SIFT/SURF BoW descriptors on videos by pre-processing the videos with a model of the human retina, thereby making these descriptors more robust to video degradations and sensitivite to spatio-temporal information. Our second contribution is a set of BoW descriptors based on trajectories. These give additional motion information, leading to a richer description of the video. Our third contribution, motivated by the availability of complementary descriptors, is a late fusion approach that automatically determines how to combine a large set of descriptors, giving a high increase in the average precision of detected concepts. All the proposed approaches are validated on the TRECVid challenge datasets which focus on visual concept detection in very large and uncontrolled multimedia content.
250

A matemática do financiamento habitacional

Santos, Keila Maria Borges dos 29 June 2015 (has links)
Este trabalho apresenta um estudo matemático detalhado dos sistemas de financiamento habitacional atualmente praticados no Brasil, estando alinhado com a Estratégia Nacional de Educação Financeira (ENEF), política de Estado de caráter permanente, instituída pelo Decreto Federal 7.397/2010, que tem como objetivo contribuir para o fortalecimento da cidadania através de ações que ajudem a população a tomar decisões financeiras mais autônomas e conscientes. A inserção da Educação Financeira no Ensino Fundamental e Médio, como conteúdo obrigatório da disciplina de Matemática, foi objeto de projeto de Lei que tramitou na Câmara e no Senado entre 2009 e 2013, tendo sido, por fim, rejeitado. Não obstante, centenas de escolas em todo o Brasil, públicas e particulares, já vêm ministrando o assunto, de forma obrigatória ou mesmo como tema extracurricular. Neste contexto, posto que a Matemática é uma ferramenta indispensável na compreensão de diversos problemas ligados a Educação Financeira, o presente trabalho também é voltado para o ensino, principalmente como fonte de consulta daqueles profissionais que atuam na divulgação da cultura da Educação Financeira no País. Ao contratar um financiamento habitacional, o cidadão precisa optar entre o Sistema de Amortização Constante (SAC) e o Sistema Francês de Amortização (Tabela Price). Porém, muitas vezes, não dispõe de informações suficientes para realizar a escolha mais adequada ao seu perfil financeiro. Este trabalho objetiva também preencher esta lacuna, apresentando ao cidadão orientações uteis para sua tomada de decisão, podendo ser visto, desta forma, como uma contribuição social. Isto se consegue, por um lado, através da obtenção de uma série de resultados Matemáticos para os dois sistemas de amortização vigentes, e, por outro, fornecendo respostas a d ́ vidas frequentes sobre o contrato de financiamento, tais como amortização do saldo devedor, alteração da data de vencimento e pagamento de prestações em atraso. / This work presents a detailed mathematical study of housing finance systems currently practiced in Brazil and is aligned with the National Strategy for Financial Education, a State policy established by Federal Decree 7.397/2010, which aims to contribute to the strengthening of citizenship through actions that help the population to take more autonomous financial decisions and aware. A law to include financial education in primary and secondary schools as an obligatory subject of mathematic, was analysed in the House of Representatives and Senate, between 2009 and 2013, and was finally rejected. Nevertheless, hundreds of schools throughout Brazil, public and private, are already teaching this subject, as a basic subject or even as an extracurricular subject. In this context, since mathematics is an indispensable tool in understanding various problems related to financial education, this work is also for teaching, mainly as a source of consultation of those professionals who work in spreading the culture of financial education in the country. By hiring a loan to buy a propriety, citizens need to choose between the Constant Amortization System and the French Amortization System (Price Table). However, often there are not sufficient informations to make the best choice to a specific financial profile. This work aims to also fill this gap, presenting to the citizen useful guidance for its decision making, can be seen, therefore, as a social contribution. This is achieved, on the one hand, by obtaining a series of theoretical mathematical results for the two existing amortization systems, and on the other, providing answers to frequently asked questions about the financing agreement, such as amortization of the debt, change the due date and payment of installments in arrears.

Page generated in 0.1182 seconds