• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 442
  • 201
  • 23
  • 21
  • 16
  • 9
  • 8
  • 8
  • 4
  • 2
  • 1
  • Tagged with
  • 765
  • 312
  • 279
  • 279
  • 228
  • 151
  • 100
  • 79
  • 79
  • 78
  • 70
  • 62
  • 61
  • 56
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Détection et classification de décors gravés sur des céramiques anciennes par analyse d’images / Extraction and classification of engraved ceramic sherds by image analysis

Debroutelle, Teddy 19 February 2018 (has links)
Le projet ARCADIA vise à développer une méthode automatique d’analyse des décors sur des tessons de céramique réalisés à la molette pour faciliter l’interprétation de ce patrimoine archéologique. Cette automatisation doit remplacer la procédure manuelle effectuée par l’archéologue, devenue trop fastidieuse avec l’augmentation du corpus (38000 tessons). L’objectif in fine est de réussir à associer automatiquement les décors à la molette du potier qui les a créés. Dans ce contexte, nous avons développé une chaine complète depuis la numérisation des tessons jusqu’à la classification automatique des décors selon leur style de motifs(carré, losange, chevrons, oves, etc). Les travaux présentés proposent plusieurs contributions mettant en oeuvre des méthodes d’analyse d’images et d’apprentissage automatique. A partir du nuage de points 3D, une carte des profondeurs est obtenue. Une méthode originale de détection automatique de la région saillante focalisée sur le décor est proposée. Ensuite les décors sont caractérisés pour effectuer leur classification. Un nouveau descripteur, appelé Blob-SIFT, est proposé pour collecter les signatures seulement dans les zones pertinentes du décor. Cette approche adaptée à chaque décor, permet à la fois de réduire considérablement la masse de données et d’améliorer les performances de classification. Nous proposons également une approche apprentissage profond, puis, une approche hybride combinant les vecteurs de caractéristiques locales extraites par Blob-SIFT et la caractérisation globale du décor fournie par l’apprentissage profond qui améliore encore les performances de classification. / The ARCADIA project aims to develop an automatic method for analyzing engraved decorations on ceramic sherds to facilitate the interpretation of this archaeological heritage. It is to replace the manual and tedious procedure carried out by the archaeologist since the corpus increased to more 38000 sherds. The ultimate goal is to grouping all the decorations created with the same wheel by a poter. We developped a complete chain from the 3Dscanning of the sherd to the automatic classification of the decorations according to their style (diamonds, square, chevrons, oves, etc). In this context, several contributions are proposed implementing methods of image analysis and machine learning. From the 3Dpoint cloud, a depth map is extracted and an original method is applied to automatically detect the salient region centered onto the decoration. Then, a new descriptor, called Blob-SIFT, is proposed to collect signatures only in the relevant areas and characterize the decoration to perform the classification. This approach adapted to each sherd, allows both to reduce significantly the mass of data and improve classification rates. We also use deep learning, and propose an hybrid approach combining local features extracted by Blob-SIFT with global features provided by deep learning to increase the classification performance.
292

Un système de types pour la programmation par réécriture embarquée / A type system for embedded rewriting programming

Oliveira Kiermes Tavares, Claudia Fernanda 02 March 2012 (has links)
Dans le domaine de l'ingénierie du logiciel, les systèmes de types sont souvent considérés pour la prévention de l'occurrence de termes dénués de sens par rapport à une spécification des types. Dans le cadre de l'extension d'un langage de programmation avec des caractéristiques dédiées, le typage de ces dernières doit être compatible avec les caractéristiques du langage hôte. Cette thèse se situe dans le contexte de la réécriture de termes embarquée dans la programmation orientée objet. Elle vise à développer un système de types avec sous-typage pour le support du filtrage de motifs associatif sur des termes algébriques construits sur des opérateurs variadiques. Ce travail s'appuie sur le langage de réécriture Tom qui fournit des constructions de filtrage de motifs et des stratégies de réécriture à des langages généralistes comme Java. Nous décrivons l'évaluation de code Tom à travers la définition de la sémantique opérationnelle de ce langage en tant qu'élément essentiel de la preuve de la sûreté du système de types. Celui-ci inclut la vérification de types ainsi que l'inférence de types à base de contraintes. Le langage de contraintes est composé d'une part, de contraintes d'égalité, résolues par unification, d'autre part, de contraintes de sous-typage, résolues par la combinaison de phases de simplification, de génération d'une solution et de ramassage de miettes. Le système de types a été intégré au langage Tom, ce qui permet une plus forte expressivité et plus de sûreté a fin d'assurer que les transformations décrites par des règles de réécriture préservent le type des termes / In software engineering, type systems are often considered in order to prevent the occurrence of meaningless terms in regard to a type specification. When extending a given programming language with new dedicated features, the typing of these features must be compatible with the ones in the host language. This thesis is situated in the context of term rewriting embedded in object-oriented programming and aims to develop a safe type system featuring subtyping for the support of associative pattern matching on algebraic terms built from variadic operators. In this work we consider the Tom rewriting language that provides associative pattern matching constructs and rewrite strategies for Java. We describe Tom code evaluation through the definition of the operational semantics of the Tom language as an essential element to show that the type system is safe. The type system includes type checking and constraint-based type inference. The constraint language is composed of equality constraints solved by unification and subtyping constraints solved by a combination of simplification, generation of solution and garbage collecting. The type system was integrated in Tom which provides both stronger expressiveness and more safety able to ensure that the transformations described by rewrite rules preserve the type of terms
293

Extraction de motifs séquentiels dans des données séquentielles multidimensionnelles et hétérogènes : une application à l'analyse de trajectoires de patients / Mining heterogeneous multidimensional sequential data : An application to the analysis of patient healthcare trajectories

Egho, Elias 02 July 2014 (has links)
Tous les domaines de la science et de la technologie produisent de gros volume de données hétérogènes. L'exploration de tels volumes de données reste toujours un défi. Peu de travaux ciblent l'exploration et l'analyse de données séquentielles multidimensionnelles et hétérogènes. Dans ce travail, nous proposons une contribution à la découverte de connaissances dans les données séquentielles hétérogènes. Nous étudions trois axes de recherche différents: (i) l'extraction de motifs séquentiels, (ii) la classification et (iii) le clustering des données séquentielles. Tout d'abord, nous généralisons la notion de séquence multidimensionnelle en considérant la structure complexe et hétérogène. Nous présentons une nouvelle approche MMISP pour extraire des motifs séquentiels à partir de données séquentielles multidimensionnelles et hétérogènes. MMISP génère un grand nombre de motifs séquentiels comme cela est généralement le cas pour toues les algorithmes d'énumération des motifs. Pour surmonter ce problème, nous proposons une nouvelle façon de considérer les séquences multidimensionnelles hétérogènes en les associant à des structures de patrons. Nous développons une méthode pour énumérer seulement les motifs qui respectent certaines contraintes. La deuxième direction de recherche est la classification de séquences multidimensionnelles et hétérogènes. Nous utilisons l'analyse formelle de concept (AFC) comme une méthode de classification. Nous montrons l'intérêt des treillis de concepts et de l'indice de stabilité pour classer les séquences et pour choisir quelques groupes intéressants de séquences. La troisième direction de recherche dans cette thèse est préoccupé par le regroupement des données séquentielles multidimensionnelles et hétérogènes. Nous nous basons sur la notion de sous-séquences communes pour définir une mesure de similarité permettant d'évaluer la proximité entre deux séquences formées d'une liste d'ensemble d'items. Nous utilisons cette mesure de similarité pour construire une matrice de similarité entre les séquences et pour les segmenter en plusieurs groupes. Dans ce travail, nous présentons les résultats théoriques et un algorithme de programmation dynamique permettant de compter efficacement toutes les sous-séquences communes à deux séquences sans énumérer toutes les séquences. Le système résultant de cette recherches a été appliqué pour analyser et extraire les trajectoires de soins de santé des patients en cancérologie. Les données sont issues d' une base de données médico-administrative incluant des informations sur des patients hospitalisent en France. Le système permet d'identifier et de caractériser des épisodes de soins pour des ensembles spécifiques de patients. Les résultats ont été discutés et interprétés avec les experts du domaine / All domains of science and technology produce large and heterogeneous data. Although a lot of work was done in this area, mining such data is still a challenge. No previous research work targets the mining of heterogeneous multidimensional sequential data. This thesis proposes a contribution to knowledge discovery in heterogeneous sequential data. We study three different research directions: (i) Extraction of sequential patterns, (ii) Classification and (iii) Clustering of sequential data. Firstly we generalize the notion of a multidimensional sequence by considering complex and heterogeneous sequential structure. We present a new approach called MMISP to extract sequential patterns from heterogeneous sequential data. MMISP generates a large number of sequential patterns as this is usually the case for pattern enumeration algorithms. To overcome this problem, we propose a novel way of considering heterogeneous multidimensional sequences by mapping them into pattern structures. We develop a framework for enumerating only patterns satisfying given constraints. The second research direction is in concern with the classification of heterogeneous multidimensional sequences. We use Formal Concept Analysis (FCA) as a classification method. We show interesting properties of concept lattices and of stability index to classify sequences into a concept lattice and to select some interesting groups of sequences. The third research direction in this thesis is in concern with the clustering of heterogeneous multidimensional sequential data. We focus on the notion of common subsequences to define similarity between a pair of sequences composed of a list of itemsets. We use this similarity measure to build a similarity matrix between sequences and to separate them in different groups. In this work, we present theoretical results and an efficient dynamic programming algorithm to count the number of common subsequences between two sequences without enumerating all subsequences. The system resulting from this research work was applied to analyze and mine patient healthcare trajectories in oncology. Data are taken from a medico-administrative database including all information about the hospitalizations of patients in Lorraine Region (France). The system allows to identify and characterize episodes of care for specific sets of patients. Results were discussed and validated with domain experts
294

Exctraction de chroniques discriminantes / Discriminant chronicle mining

Dauxais, Yann 13 April 2018 (has links)
De nombreuses données sont enregistrées dans le cadre d'applications variées et leur analyse est un challenge abordé par de nombreuses études. Parmi ces différentes applications, cette thèse est motivée par l'analyse de parcours patients pour mener des études de pharmaco-épidémiologie. La pharmaco-épidémiologie est l'étude des usages et effets de produits de santé au sein de populations définies. Le but est donc d'automatiser ce type d'étude en analysant des données. Parmi les méthodes d'analyses de données, les approches d'extraction de motifs extraient des descriptions de comportements, appelées motifs, caractérisant ces données. L'intérêt principal de telles approches est de donner un aperçu des comportements décrivant les données. Dans cette thèse, nous nous intéressons à l'extraction de motifs temporels discriminants au sein de séquences temporelles, c'est-à-dire une liste d'évènements datés. Les motifs temporels sont des motifs représentant des comportements par leur dimension temporelle. Les motifs discriminants sont des motifs représentant les comportements apparaissant uniquement pour une sous-population bien définie. Alors que les motifs temporels sont essentiels pour décrire des données temporelles et que les motifs discriminants le sont pour décrire des différences de comportement, les motifs temporels discriminants ne sont que peu étudiés. Dans cette thèse, le modèle de chronique discriminante est proposé pour combler le manque d'approches d'extraction de motifs temporels discriminants. Une chronique est un motif temporelle représentable sous forme de graphe dont les nœuds sont des évènements et les arêtes sont des contraintes temporelles numériques. Le modèle de chronique a été choisi pour son expressivité concernant la dimension temporelle. Les chroniques discriminantes sont, de ce fait, les seuls motifs temporels discriminants représentant numériquement l'information temporelle. Les contributions de cette thèse sont : (i) un algorithme d'extraction de chroniques discriminantes (DCM), (ii) l'étude de l'interprétabilité du modèle de chronique au travers de sa généralisation et (iii) l'application de DCM sur des données de pharmaco-épidémiologie. L'algorithme DCM est dédié à l'extraction de chroniques discriminantes et basé sur l'algorithme d'extraction de règles numériques Ripperk . Utiliser Ripperk permet de tirer avantage de son efficacité et de son heuristique incomplète évitant la génération de motifs redondants. La généralisation de cet algorithme permet de remplacer Ripperk par n'importe quel algorithme de machine learning. Les motifs extraits ne sont donc plus forcément des chroniques mais une forme généralisée de celles-ci. Un algorithme de machine learning plus expressif extrait des chroniques généralisées plus expressives mais impacte négativement leur interprétabilité. Le compromis entre ce gain en expressivité, évalué au travers de la précision de classification, et cette perte d'interprétabilité, est comparé pour plusieurs types de chroniques généralisées. L'intérêt des chroniques discriminantes à représenter des comportements et l'efficacité de DCM est validée sur des données réelles et synthétiques dans le contexte de classification à base de motifs. Des chroniques ont finalement été extraites à partir des données de pharmaco-épidémiologie et présentées aux cliniciens. Ces derniers ont validés l'intérêt de celles-ci pour décrire des comportements d'épidémiologie discriminants. / Data are recorded for a wide range of application and their analysis is a great challenge addressed by many studies. Among these applications, this thesis was motivated by analyzing care pathway data to conduct pharmaco-epidemiological studies. Pharmaco-epidemiology is the study of the uses and effects of healthcare products in well defined populations. The goal is then to automate this study by analyzing data. Within the data analysis approaches, pattern mining approaches extract behavior descriptions, called patterns, characterizing the data. Patterns are often easily interpretable and give insights about hidden behaviors described by the data. In this thesis, we are interested in mining discriminant temporal patterns from temporal sequences, i.e. a list of timestamped events. Temporal patterns represent expressively behaviors through their temporal dimension. Discriminant patterns are suitable adapted for representing behaviors occurring specifically in small subsets of a whole population. Surprisingly, if temporal patterns are essential to describe timestamped data and discriminant patterns are crucial to identify alternative behaviors that differ from mainstream, discriminant temporal patterns received little attention up to now. In this thesis, the model of discriminant chronicles is proposed to address the lack of interest in discriminant temporal pattern mining approaches. A chronicle is a temporal pattern representable as a graph whose nodes are events and vertices are numerical temporal constraints. The chronicle model was choosen because of its high expressiveness when dealing with temporal sequences and also by its unique ability to describe numerically the temporal dimension among other discriminant pattern models. The contribution of this thesis, centered on the discriminant chronicle model, is threefold: (i) a discriminant chronicle model mining algorithm (DCM), (ii) the study of the discriminant chronicle model interpretability through its generalization and (iii) the DCM application on a pharmaco-epidemiology case study. The DCM algorithm is an efficient algorithm dedicated to extract discriminant chronicles and based on the Ripperk numerical rule learning algorithm. Using Ripperk allows to take advantage to its efficiency and its incomplete heuristic dedicated to avoid redundant patterns. The DCM generalization allows to swap Ripperk with alternative machine learning algorithms. The extracted patterns are not chronicles but a generalized form of chronicles. More expressive machine learning algorithms extract more expressive generalized chronicles but impact negatively their interpretability. The trade-off between this expressiveness gain, evaluated by classification accuracy, and this interpretability loss, is compared for several types of generalized chronicles. The interest of the discriminant chronicle model and the DCM efficiency is validated on synthetic and real datasets in pattern-based classification context. Finally, chronicles are extracted from a pharmaco-epidemiology dataset and presented to clinicians who validated them to be interesting to describe epidemiological behaviors.
295

Un algorithme de fouille de données générique et parallèle pour architecture multi-coeurs / A generic and parallel pattern mining algorithm for multi-core architectures.

Negrevergne, Benjamin 29 November 2011 (has links)
Dans le domaine de l'extraction de motifs, il existe un grand nombre d'algorithmes pour résoudre une large variété de sous problèmes sensiblement identiques. Cette variété d'algorithmes freine l'adoption des techniques d'extraction de motifs pour l'analyse de données. Dans cette thèse, nous proposons un formalisme qui permet de capturer une large gamme de problèmes d'extraction de motifs. Pour démontrer la généralité de ce formalisme, nous l'utilisons pour décrire trois problèmes d'extraction de motifs : le problème d'extraction d'itemsets fréquents fermés, le problème d'extraction de graphes relationnels fermés ou le problème d'extraction d'itemsets graduels fermés. Ce formalisme nous permet de construire ParaMiner qui est un algorithme générique et parallèle pour les problèmes d'extraction de motifs. ParaMiner est capable de résoudre tous les problèmes d'extraction de motifs qui peuvent ˆtre décrit dans notre formalisme. Pour obtenir de bonne performances, nous avons généralisé plusieurs optimisations proposées par la communauté dans le cadre de problèmes spécifique d'extraction de motifs. Nous avons également exploité la puissance de calcul parallèle disponible dans les archi- tectures parallèles. Nos expériences démontrent qu'en dépit de la généricité de ParaMiner ses performances sont comparables avec celles obtenues par les algorithmes les plus rapides de l'état de l'art. Ces algorithmes bénéficient pourtant d'un avantage important, puisqu'ils incorporent de nombreuses optimisations spécifiques au sous problème d'extraction de motifs qu'ils résolvent. / In the pattern mining field, there exist a large number of algorithms that can solve a large variety of distinct but similar pattern mining problems. This variety prevent broad adoption of data analysis with pattern mining algorithms. In this thesis we propose a formal framework that is able to capture a broad range of pattern mining problems. We illustrate the generality of our framework by formalizing three different pattern mining problems: the problem of closed frequent itemset mining, the problem of closed relational graph mining and the problem of closed gradual itemset mining. Building on this framework, we have designed ParaMiner, a generic and parallel algorithm for pattern mining. ParaMiner is able to solve any pattern mining problem that can be formalized within our framework. In order to achieve practical efficiency we have generalized important optimizations from state of the art algorithms and we have made ParaMiner able to exploit parallel computing platforms. We have conducted thorough experiments that demonstrate that despite being a generic algorithm, ParaMiner can compete with the fastest ad-hoc algorithms.
296

Une approche de fouille de données pour le débogage temporel des applications embarquées de streaming / Data Mining Approach to Temporal Debugging of Embedded Streaming Applications

Iegorov, Oleg 08 April 2016 (has links)
Le déboggage des applications de streaming qui s'exécutent sur les systèmes embarqués multimédia est l'un des domaines les plus exigeants dans le développement de logiciel embarqué. Les nouvelles générations de materiel embarqué introduisent de nouvelles systèmes sur une puce, qui fait que les développeurs du logiciel doivent adapter leurs logiciels aux nouvelles platformes. Le logiciel embarqué doit non seulement fournir des résultats corrects mais aussi le faire en temps réel afin de respecter les propriétés de qualité de service (Quality-of-Service, QoS) du système. Lorsque les propriétés QoS ne sont pas respectées, des bugs temporels font leur apparition. Ces bugs se manifestent comme, par exemple, des glitches dans le flux vidéo ou des craquements dans le flux audio. Le déboggage temporel est en général difficile à effectuer car les bugs temporels n'ont pas souvent de rapport avec l'exactitude fonctionnelle du code des applications, ce qui rend les outils de débogage traditionels, comme GDB, peu utiles. Le non-respect des propriétés QoS peut provenir des interactions entre les applications, ou entre les applications et les processus systèmes. Par conséquent, le contexte d'exécution entier doit être pris en compte pour le déboggage temporel. Les avancements récents en collecte des traces d'exécution permettent aux développeurs de recueillir des traces et de les analyser après la fin d'exécution pour comprendre quelle activité système est responsable des bugs temporels. Cependant, les traces d'exécution ont une taille conséquente, ce qui demande aux devéloppeurs des connaissainces en analyse de données qu'ils n’ont souvent pas.Dans cette thèse, nous proposons SATM - une approche novatrice pour le déboggage temporel des applications de streaming. SATM repose sur la prémisse que les applications sont conçues avec le modèle dataflow, i.e. peuvent être représentées comme un graphe orienté où les données sont transmises entre des unités de calcul (fontions, modules, etc.) appelées "acteurs". Les acteurs doivent être exécutés de manière périodique afin de respecter les propriétés QoS représentées par les contraintes de temps-réél. Nous montrons qu'un acteur qui ne respecte pas de façon répétée sa période pendant l'exécution de l'application cause la violation des contraintes temps-reel de l'application. En pratique, SATM est un workflow d'analyse de données venant des traces d'exécution qui combine des mesures statistiques avec des algorithmes de fouille de données. SATM fournit une méthode automatique du débogage temporel des applications de streaming. Notre approche prend en entrée une trace d'exécution d'une application ayant une QoS basse ainsi qu'une liste de ses acteurs, et tout d'abord détecte des invocations des acteurs dans la trace. SATM découvre ensuite les périodes des acteurs ainsi que les séctions de la trace où la période n'a pas été respectée. Enfin, ces séctions sont analysées afin d'extraire des motifs de l'activité système qui différencient ces sections des autres séctions de la trace. De tels motifs peuvent donner des indices sur l'origine du problème temporel dans le systeme et sont rendus au devéloppeur. Plus précisément, nous représentons ces motifs comme des séquences contrastes minimales et nous étudions des différentes solutions pour fouiller ce type de motifs à partir des traces d'exécution.Enfin, nous montrons la capacité de SATM de détecter une perturbation temporelle injectée artificiellement dans un framework multimedia GStreamer, ainsi que des bugs temporels dans deux cas d'utilisation des applications de streaming industrielles provenant de la société STMicroelectronics. Nous fournissons également une analyse détaillée des algorithmes de fouille de motifs séquentiels appliqués sur les données venant des traces d'exécution, et nous expliquons pour quelle est la raison les algorithmes de pointe n'arrivent pas à fouiller les motifs séquentiels à partir des traces d'exécution de façon efficace. / Debugging streaming applications run on multimedia embedded systems found in modern consumer electronics (e.g. in set-top boxes, smartphones, etc) is one of the most challenging areas of embedded software development. With each generation of hardware, more powerful and complex Systems-on-Chip (SoC) are released, and developers constantly strive to adapt their applications to these new platforms. Embedded software must not only return correct results but also deliver these results on time in order to respect the Quality-of-Service (QoS) properties of the entire system. The non-respect of QoS properties lead to the appearance of temporal bugs which manifest themselves in multimedia embedded systems as, for example, glitches in the video or cracks in the sound. Temporal debugging proves to be tricky as temporal bugs are not related to the functional correctness of the code, thus making traditional GDB-like debuggers essentially useless. Violations of QoS properties can stem from complex interactions between a particular application and the system or other applications; the complete execution context must be, therefore, taken into account in order to perform temporal debugging. Recent advances in tracing technology allow software developers to capture a trace of the system's execution and to analyze it afterwards to understand which particular system activity is responsible for the violations of QoS properties. However, such traces have a large volume, and understanding them requires data analysis skills that are currently out of the scope of the developers' education.In this thesis, we propose SATM (Streaming Application Trace Miner) - a novel temporal debugging approach for embedded streaming applications. SATM is based on the premise that such applications are designed under the dataflow model of computation, i.e. as a directed graph where data flows between computational units called actors. In such setting, actors must be scheduled in a periodic way in order to meet QoS properties expressed as real-time constraints, e.g. displaying 30 video frames per second. We show that an actor which does not eventually respect its period at runtime causes the violation of the application’s real-time constraints. In practice, SATM is a data analysis workflow combining statistical measures and data mining algorithms. It provides an automatic solution to the problem of temporal debugging of streaming applications. Given an execution trace of a streaming application exhibiting low QoS as well as a list of its actors, SATM firstly determines exact actors’ invocations found in the trace. It then discovers the actors’ periods, as well as parts of the trace in which the periods are not respected. Those parts are further analyzed to extract patterns of system activity that differentiate them from other parts of the trace. Such patterns can give strong hints on the origin of the problem and are returned to the developer. More specifically, we represent those patterns as minimal contrast sequences and investigate various solutions to mine such sequences from execution trace data.Finally, we demonstrate SATM’s ability to detect both an artificial perturbation injected in an open source multimedia framework, as well as temporal bugs from two industrial use cases coming from STMicroelectronics. We also provide an extensive analysis of sequential pattern mining algorithms applied on execution trace data and explain why state-of-the-art algorithms fail to efficiently mine sequential patterns from real-world traces.
297

Modelo integrado de mineração de dados para análise de séries temporais de preços de indicadores agroeconômicos. / Data mining model for analysis of prices indices Agroeconomic time series.

Fernando Elias Corrêa 27 November 2014 (has links)
Um dos principais setores da economia brasileira, o agronegócio envolve uma série de negociações dentro de toda a cadeia produtiva. Instituições de pesquisa como o CEPEA (Centro de Estudos Avançados em Economia Aplicada), da ESALQ/USP, coletam diariamente dados sobre diversos produtos agropecuários, gerando informações para agentes de diferentes categorias interessados no acompanhamento desses mercados, entre eles pesquisadores, produtores e formuladores de políticas públicas. O uso desses dados para realização de análises históricas integradas com análises atuais de mercado, porém, ainda é um desafio, dada a falta de uma padronização e a necessidade de identificação de técnicas computacionais adequadas. O objetivo desta tese é organizar as informações agroeconômicas consolidadas por meio de modelos de Data Mining e estatísticos para gerar análises integradas de relações entre as séries temporais, compreendendo produtos, mercados e o tempo, baseando-se nos dados obtidos pelo CEPEA em 7 anos de coleta diária de preços. As técnicas propostas para o modelo de análise integrada compreendem séries temporais para a projeção de trajetórias temporais e reconhecimento de padrões temporais. Especificamente para as trajetórias temporais, as técnicas utilizadas são de Matrizes de Correlações e Decomposição de Tucker e trajetórias, as quais permitem uma redução das matrizes e identificação de pontos relevantes no conjunto de dados. Já o reconhecimento de padrões nas séries temporais de grande volume de dados é obtido por meio de duas fases. Inicialmente, os dados são preparados utilizando-se as técnicas de redução de dimensionalidade e discretização. Posteriormente, é realizada a busca por motifs, que se utiliza de métricas de distâncias para encontrar similaridades entre as séries temporais ou entre sub partes de uma mesma série temporal para estas, destaca-se a aplicação do MINDIST e das distâncias euclidianas. Os resultados obtidos do modelo integrado são reportados em dois estudos de casos, sendo o primeiro sobre trajetórias temporais e o segundo, sobre identificação de padrões temporais. O conjunto de dados utilizado para ambos os casos foram preços comercialização de grãos no mercado interno do Brasil e valores negociados em Bolsa de valores de Chicago-EUA. / One of the main activities economy sector in Brazil is agribusiness and involves several negotiations within the entire supply chain. Researchers Centers, as example CEPEA (Center for Advanced Studies on Applied Economics) from ESALQ / USP, collect daily data of agricultural products, generating information for players and staff of several categories for these markets, including researchers, producers and governmental. These historical data of agricultural market is used to create integrated analyses. However, it is still a challenge deal with the data standard or which statistical techniques is appropriated in order to perform a data analysis. The aim of the thesis is to provide an Agrieconomics analyses by data mining and statistical models, analyzing the relationship between time series, products, markets and time, based on dataset from CEPEA over seven years of daily prices. In order to understand the behaviors and patterns of these time series, two case studies were produced. The first case study was temporal trajectories, the techniques used were Correlations Matrix, Tucker Decomposition and trajectories, which allow a reduction of the matrices and identification of relevant points in the data set. The second case study applied was the patterns identification, where the main idea was understand and highlight events that happens frequently over seven year of daily grain prices quotation in several products. In order to proceed the technique, the data are prepared using the dimensionality and discretization reduction. Next, the search for motifs is performed using metrics distance to find similarities in time series or between parts of the same time series, in special two time series was used, that are MINDIST and Euclidean distances. The results give a understanding of the dynamic of these grains time series, such as, Some important aspects were detect by applying the trajectories, first that the both products soybean and corn prices has opposites trajectories, it is possible to infer this products competes in fields for next crops. On the market analysis, the trajectory of Chicago Stock Market spread the behavior of the prices in Brazil domestic market, both trajectories are similar over the years.
298

Modelo integrado de mineração de dados para análise de séries temporais de preços de indicadores agroeconômicos. / Data mining model for analysis of prices indices Agroeconomic time series.

Corrêa, Fernando Elias 27 November 2014 (has links)
Um dos principais setores da economia brasileira, o agronegócio envolve uma série de negociações dentro de toda a cadeia produtiva. Instituições de pesquisa como o CEPEA (Centro de Estudos Avançados em Economia Aplicada), da ESALQ/USP, coletam diariamente dados sobre diversos produtos agropecuários, gerando informações para agentes de diferentes categorias interessados no acompanhamento desses mercados, entre eles pesquisadores, produtores e formuladores de políticas públicas. O uso desses dados para realização de análises históricas integradas com análises atuais de mercado, porém, ainda é um desafio, dada a falta de uma padronização e a necessidade de identificação de técnicas computacionais adequadas. O objetivo desta tese é organizar as informações agroeconômicas consolidadas por meio de modelos de Data Mining e estatísticos para gerar análises integradas de relações entre as séries temporais, compreendendo produtos, mercados e o tempo, baseando-se nos dados obtidos pelo CEPEA em 7 anos de coleta diária de preços. As técnicas propostas para o modelo de análise integrada compreendem séries temporais para a projeção de trajetórias temporais e reconhecimento de padrões temporais. Especificamente para as trajetórias temporais, as técnicas utilizadas são de Matrizes de Correlações e Decomposição de Tucker e trajetórias, as quais permitem uma redução das matrizes e identificação de pontos relevantes no conjunto de dados. Já o reconhecimento de padrões nas séries temporais de grande volume de dados é obtido por meio de duas fases. Inicialmente, os dados são preparados utilizando-se as técnicas de redução de dimensionalidade e discretização. Posteriormente, é realizada a busca por motifs, que se utiliza de métricas de distâncias para encontrar similaridades entre as séries temporais ou entre sub partes de uma mesma série temporal para estas, destaca-se a aplicação do MINDIST e das distâncias euclidianas. Os resultados obtidos do modelo integrado são reportados em dois estudos de casos, sendo o primeiro sobre trajetórias temporais e o segundo, sobre identificação de padrões temporais. O conjunto de dados utilizado para ambos os casos foram preços comercialização de grãos no mercado interno do Brasil e valores negociados em Bolsa de valores de Chicago-EUA. / One of the main activities economy sector in Brazil is agribusiness and involves several negotiations within the entire supply chain. Researchers Centers, as example CEPEA (Center for Advanced Studies on Applied Economics) from ESALQ / USP, collect daily data of agricultural products, generating information for players and staff of several categories for these markets, including researchers, producers and governmental. These historical data of agricultural market is used to create integrated analyses. However, it is still a challenge deal with the data standard or which statistical techniques is appropriated in order to perform a data analysis. The aim of the thesis is to provide an Agrieconomics analyses by data mining and statistical models, analyzing the relationship between time series, products, markets and time, based on dataset from CEPEA over seven years of daily prices. In order to understand the behaviors and patterns of these time series, two case studies were produced. The first case study was temporal trajectories, the techniques used were Correlations Matrix, Tucker Decomposition and trajectories, which allow a reduction of the matrices and identification of relevant points in the data set. The second case study applied was the patterns identification, where the main idea was understand and highlight events that happens frequently over seven year of daily grain prices quotation in several products. In order to proceed the technique, the data are prepared using the dimensionality and discretization reduction. Next, the search for motifs is performed using metrics distance to find similarities in time series or between parts of the same time series, in special two time series was used, that are MINDIST and Euclidean distances. The results give a understanding of the dynamic of these grains time series, such as, Some important aspects were detect by applying the trajectories, first that the both products soybean and corn prices has opposites trajectories, it is possible to infer this products competes in fields for next crops. On the market analysis, the trajectory of Chicago Stock Market spread the behavior of the prices in Brazil domestic market, both trajectories are similar over the years.
299

Contribution au développement d'outils d'aide à la conception assistée par la réalité virtuelle et augmentée : Application au domaine du textile/habillement

Naud, Mickaël 30 September 2008 (has links) (PDF)
La génération de motifs esthétiques assistée par ordinateur est un domaine prometteur pour la conception de vêtements (personnalisation de masse, etc.). Dans ce contexte, les techniques de réalité virtuelle (RV) et de réalité mixte (RM) sont très pertinentes pour la visualisation de vêtements sur lesquels sont appliqués les motifs générés. Ces techniques offrent aussi de nouvelles opportunités pour l'interaction 3D avec les mannequins virtuels en situation statique ou dynamique (défilé virtuel). La contribution du travail présenté dans ce mémoire est multiple et implique trois étapes complémentaires : (1) l'identification et le développement de modèles mathématiques exhibant des potentialités pour la génération automatique de motifs complexes ayant des propriétés esthétiques; (2) l'implémentation de ces modèles mathématiques et l'exploration assistée par ordinateur de leur potentialités; (3) l'intégration de ces modèles dans une plate-forme logicielle offrant de multiples possibilités d'interaction avec les mannequins virtuels. En outre, nous proposons de nouvelles techniques d'interaction 3D pour la conception en RV et RM.
300

Dynamique interne du noyau d'une cellule vivante : étude par diffusion dynamique de la lumière.

Suissa, Michaël 13 July 2006 (has links) (PDF)
De récents progrès en biologie cellulaire ont montré que le noyau d'une cellule vivante est un ensemble bien organisé de différents domaines ayant chacun une fonction propre. Cette organisation est hautement dynamique. En effet, elle est la clé de l'adaptation de la cellule à son environnement. La dynamique du noyau est ainsi le reflet de l'état de la cellule. <br />Bien que l'étude de cette dynamique soit devenue l'un des enjeux majeurs de la recherche en biologie cellulaire, la dynamique globale du noyau est encore peu comprise. Pour étudier cette dynamique nous avons mis au point un montage expérimental original de diffusion dynamique de la lumière. Il est à noter que si la diffusion dynamique de la lumière est une technique « classique » pour l'étude des propriétés dynamiques des systèmes moléculaires organisés (i.e. systèmes colloïdaux, surfactants, polymères en solution, gels, cristaux liquides), elle n'avait, encore, jamais été utilisée pour étudier les propriétés dynamiques du noyau d'une cellule vivante. Grâce à ce montage, nous avons étudié la dynamique globale du noyau de cellules neuroblastomes de la lignée SHEP, au cours du cycle cellulaire. Nous avons ainsi pu observer que la dynamique interne du noyau est très riche et très complexe, avec un très grand nombre de temps caractéristiques s'étalant de quelques millisecondes à quelques dizaines de secondes. Par l'analyse des fonctions d'autocorrélation de l'intensité diffusée, < I(0)I(t) >, nous avons, plus particulièrement, sondé la dynamique interne du noyau entre la milliseconde et la seconde. Nous avons mis en évidence deux distributions indépendantes de temps caractéristiques. La première est une distribution de temps rapides compris entre 5 et 70 ms. La deuxième est une distribution de temps plus lent compris entre 0,5 et 2 s. Nous avons montré que ces distributions étaient dépendantes de la phase du cycle dans laquelle se trouvaient les cellules.<br />Le montage expérimental que nous avons construit nous a également permis de mettre en évidence et d'étudier un processus de transmission de la mort par apoptose d'une cellule vers ses plus proches voisines.

Page generated in 0.0307 seconds