• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 415
  • 41
  • Tagged with
  • 456
  • 456
  • 426
  • 372
  • 371
  • 371
  • 369
  • 368
  • 278
  • 116
  • 104
  • 82
  • 71
  • 68
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Mapeamento din?mico de tarefas em MPSoCs heterog?neos baseados em NoC

Carvalho, Ewerson Luiz de Souza 10 March 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:13Z (GMT). No. of bitstreams: 1 418219.pdf: 4033858 bytes, checksum: 2661cfd90512a0fe826582c0489e6ce1 (MD5) Previous issue date: 2009-03-10 / MPSoCs s?o sistemas multiprocessados integrados na forma de um SoC. Eles s?o tend?ncia no projeto de circuitos VLSI, pois minimizam a crise de produtividade de projeto, representada pelo descompasso entre a capacidade da tecnologia do sil?cio e a capacidade atual de projeto de SoCs. Cita-se como exemplo de MPSoCs os propostos pela Intel e pela Tilera, compostos respectivamente por 80 e 64 n?cleos de processa-mento. MPSoCs podem empregar NoCs para integrar diversos processadores, mem?rias, bem como n?cleos de hardware espec?ficos. O uso de NoCs deve-se a suas vantagens em rela??o a barramentos, entre as quais maior escalabilidade e paralelismo na comunica??o. A arquitetura alvo do presente trabalho consiste em um MPSoC heterog?neo, com utiliza??o de NoC como meio interconex?o entre os elementos de processamento, suportando a execu??o de tarefas de hardware via l?gica reconfigur?vel, e a execu??o de tarefas de software via processadores. Um dos processadores da arquitetura alvo, denominado processador gerente, ? respons?vel por: ger?ncia da ocupa??o dos recursos do sistema, escalonamento, mapeamento, e configura??o de tarefas. O mapeamento de tarefas define a posi??o de uma dada tarefa no sistema. A maioria dos trabalhos encontrados na literatura prop?e t?cnicas de mapeamento est?tico, definido em tempo de projeto, no qual todas as tarefas de uma dada aplica??o s?o mapeadas simultaneamente. Este mapeamento est?tico n?o ? adequado para cen?rios com carga din?mica de tarefas. Dado que aplica??es executando em um MPSoC podem possuir um n?mero vari?vel de tarefas, e que tal n?mero pode exceder os recursos dispon?veis, ? necess?rio realizar o mapeamento de tarefas em tempo de execu??o, mapeamento este denominado de mapeamento din?mico. O presente trabalho investiga o desempenho de heur?sticas para mapeamento din?mico de tarefas, com o objetivo de minimizar congestionamentos em NoCs. As tarefas s?o mapeadas sob demanda, de acordo com as requisi??es de comunica??o e com a ocupa??o dos canais da NoC. Os algoritmos implementados aplicam estrat?gias gulosas, onde as tarefas s?o mapeadas uma por vez. Para isso, a decis?o ? baseada na informa??o local da aplica??o, apenas relacionada ? tarefa requisitada. O algoritmo utilizado como refer?ncia nos experimentos mapeia uma dada tarefa no primeiro recurso livre encontrado. Quatro heur?sticas congestion-aware s?o propostas. Atrav?s de experimentos realizados com base na modelagem do sistema no n?vel RTL, pode-se observar redu??o de 31% na carga nos canais da NoC, de 15% na lat?ncia m?dia, e de at? 87% no n?vel m?dio de congestionamento. Tais resultados demonstram a efici?ncia das heur?sticas propostas.
12

Implementa??o e avalia??o de desempenho de um MPSoC homog?neo interconectado por NoC

Moreira, Odair 23 October 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:20Z (GMT). No. of bitstreams: 1 422345.pdf: 5665717 bytes, checksum: 5cf597a5b5d81b97f33438b9e1b499e0 (MD5) Previous issue date: 2009-10-23 / O aumento do n?mero de transistores em um ?nico chip trouxe novos desafios de projeto, entre eles como aproveitar efetivamente este elevado n?mero de componentes. Uma das formas encontradas ? atrav?s do reuso de m?dulos de hardware. Quando estes m?dulos de hardware s?o processadores, temos multiprocessamento em chip, resultando nos MPSoCs (Multiprocessor System on Chip). Os MPSoCs est?o se tornando elementos comuns em sistemas embarcados, devido ao alto desempenho e ? flexibilidade que eles trazem ao projeto. Nos ?ltimos anos universidades e empresas vem desenvolvendo grandes projetos em multiprocessamento. O presente trabalho tem por objetivo desenvolver um MPSoC homog?neo, com interconex?o por NoC. A motiva??o para a ado??o de NoCs reside no maior paralelismo e escalabilidade desta infraestrutura de comunica??o, quando comparado a barramentos. O desempenho do MPSoC desenvolvido ? avaliado, demonstrando-se os benef?cios em se utilizar este tipo de arquitetura no projeto de sistemas embarcados.
13

Evolutionary model tree induction

Barros, Rodrigo Coelho 10 December 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:20Z (GMT). No. of bitstreams: 1 422461.pdf: 1656872 bytes, checksum: 4520cf1ef2435e86327deed3e89baed9 (MD5) Previous issue date: 2009-12-10 / ?rvores-modelo s?o um caso particular de ?rvores de decis?o aplicadas na solu??o de problemas de regress?o, onde a vari?vel a ser predita ? cont?nua. Possuem a vantagem de apresentar uma sa?da interpret?vel, auxiliando o usu?rio do sistema a ter mais confian?a na predi??o e proporcionando a base para o usu?rio ter novos insights sobre os dados, confirmando ou rejeitando hip?teses previamente formadas. Al?m disso, ?rvores-modelo apresentam um n?vel aceit?vel de desempenho preditivo quando comparadas ? maioria das t?cnicas utilizadas na solu??o de problemas de regress?o. Uma vez que gerar a ?rvore-modelo ?tima ? um problema NP-Completo, algoritmos tradicionais de indu??o de ?rvores-modelo fazem uso da estrat?gia gulosa, top-down e de divis?o e conquista, que pode n?o convergir ? solu??o ?tima-global. Neste trabalho ? proposta a utiliza??o do paradigma de algoritmos evolutivos como uma heur?stica alternativa para gera??o de ?rvores-modelo. Esta nova abordagem ? testada por meio de bases de dados de regress?o p?blicas da UCI, e os resultados s?o comparados ?queles gerados por algoritmos gulosos tradicionais de indu??o de ?rvores-modelo. Os resultados mostram que esta nova abordagem apresenta uma boa rela??o custo-benef?cio entre desempenho preditivo e gera??o de modelos de f?cil interpreta??o, proporcionando um diferencial muitas vezes crucial em diversas aplica??es de minera??o de dados.
14

Toler?ncia a falhas com um modelo de agentes

Antunes, Juliana Fonseca 17 December 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:29Z (GMT). No. of bitstreams: 1 430145.pdf: 1689253 bytes, checksum: 95ce19fe718b20a4573cd392edd2c72a (MD5) Previous issue date: 2009-12-17 / Anualmente, os computadores s?o utilizados nas mais diversas ?reas do conhecimento humano e s?o imprescind?veis em v?rias atividades fundamentais na sociedade. Particularmente em aplica??es industriais, o sistema computacional t?m que ser confi?vel e tolerante ? falhas, ou seja permitir que o sistema permane?a operando mesmo na presen?a de falhas. Desta forma, esta disserta??o tem como objetivo descrever um modelo de agentes tolerantes a falhas. A fim de atingir tal objetivo foi feito um estudo de conceitos fundamentais de arquiteturas de agentes deliberativos baseados em estados mentais, esses descritos por cren?as, desejos e inten??es (modeio Belief Desire Intention), que podem ser implemenados utilizando a linguagem de programa??o orientada a agentes AgentSpeak e o mecanismo de toler?ncia a falhas de intera??o multiparticipante confi?vel (Dependable Multiparty Interaction). Atrav?s destes conceitos ? implementado um sistema composto por v?rios elementos computacionais interativos, denominados agentes, que interagem com outros agentes, formando um sistema multiagentes que s?o implementadas util?zando o interpretador Jason de linguagem AgentSpeak. Esse interpretador se comunica com o simulador da C?lula de Produ??o FZI, escalonando o trabalho da c?lula de produ??o atrav?s das cren?as e desejos, re-escalonando o trabalho se ocorrer alguma mudan?a do estado do sistema. A implementa??o de um agente tolerante a falhas permite que o sistema execute a??es concorrentemente mesmo na presen?a de falhas, pois o mecanismo DMI gera uma intera??o multiparticipante entre diversos dispositivos que permite o tratamento de falhas concorrentes. A intera??o multiparticipante ? criada pelos agentes conforme as percep??es adquiridas no simulador da c?lula de produ??o, gerando a??es que s?o enviadas ao simulador, conseq?entemente, alterando o estado dos dispositivos.
15

Uma abordagem paralela para o algoritmo Split

Franciosi, Felipe Mainieri 28 February 2008 (has links)
Made available in DSpace on 2015-04-14T14:49:31Z (GMT). No. of bitstreams: 1 431851.pdf: 926379 bytes, checksum: 41dde88f7d4f933186ff71b29831c0c2 (MD5) Previous issue date: 2008-02-28 / A an?lise comportamental de um processo permite a detec??o de defici?ncias, assim como avaliar o impacto no desempenho do mesmo causado por mudan?as no ambiente. O uso de modelos anal?ticos para descrever o processo em observa??o fornece estes dados atrav?s da resolu??o de sistemas de equa??es. No caso de modelagens feitas com a utiliza??o de formalismos como Rede de Aut?matos Estoc?sticos, a resolu??o destes sistemas depende da multiplica??o de vetores por estruturas definidas atrav?s da ?lgebra tensorial. Por ter um alto custo computacional, diversos algoritmos foram propostos para resolver esta multiplica??o. Recentemente a solu??o iterativa Split foi proposta, e o objetivo deste trabalho ? apresentar alternativas paralelas e otimiza??es para a mesma, buscando um melhor desempenho da solu??o
16

Um estudo sobre a predi??o da estrutura 3D aproximada de prote?nas utilizando o m?todo CReF com refinamento

Dall"agno, Karina Cristina da Motta 22 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:45Z (GMT). No. of bitstreams: 1 438289.pdf: 4232980 bytes, checksum: 881bd64c55df7a95a458dac98379df88 (MD5) Previous issue date: 2012-03-22 / One of the most important problems in Structural Bioinformatics is to understand how the information coded in linear sequence amino acids, or primary structure, is translated into the three-dimensional structure of a protein. Many algorithms proposed solutions to this complex problem of NP-complete class. One of them is the CReF method (Central Residue Fragment-based) which makes prediction of approximate 3-D structure of proteins and polypeptides. The method uses data mining techniques to group data structures, showing good secondary structure prediction, good performance at low machine cost, but has problems in the prediction of turns and loops regions and usability. Valuing the different characteristics of CReF and seeking to evolve it, this work proposes improvements to CReF. After the initial stage of understanding the tool and making changes to turn it executable on the current state of data banks and support tools, two categories of improvements to make were identified. The technical improvements aimed to automate CReF, adapting it to the environment and emphasizing usability. In the method‟s improvements variations on the amount of groups were tested for data mining with the Expectation Maximization algorithm in Weka. Tests indicated that the best results for the initial conformation were for four and six groups, hence we decided to allow the user to select the amount of groups. A new mapping of the data in the Ramachandran plot indicated some problems that had to be fixed. In the analysis of data mining results, we decided that groups in regions not allowed would be discarded. The new version of CReF generated by the implementation of these improvements standardized the method of secondary structure prediction to use Porter. As a consequence, the rules of selection of data mining groups to represent each amino acids have been changed and extended. The new version has the same initial performance of CReF in prediction and execution, however, the problem of correct predictions of turns and loops remained. This problem was addressed through a refinement protocol, based on simulations by the molecular dynamics method, which presented a significant result for the target protein 1ZDD. / Um dos principais desafios da Bioinform?tica Estrutural ? entender como a informa??o decodificada em uma sequ?ncia linear de amino?cidos, ou estrutura prim?ria de uma prote?na, possibilita a forma??o de sua estrutura tridimensional. Muitos algoritmos buscam propor solu??es para o problema complexo da classe NP-completo. Dentre eles, est? o m?todo CReF (Central Residue Fragment-based method) que realiza a predi??o da estrutura 3D aproximada de prote?nas ou polipept?dios. O m?todo usa t?cnicas de minera??o de dados para agrupar dados de estruturas, apresentando boa predi??o de estruturas secund?rias, bom desempenho em m?quina de baixo custo, mas enfrenta problemas na predi??o das regi?es de voltas e al?as e na usabilidade. Valorizando as caracter?sticas diferenciadas do m?todo e buscando sua evolu??o, este trabalho prop?s-se a realizar melhorias no CReF. Ap?s uma etapa inicial de entendimento e adapta??es para tornar a ferramenta execut?vel na situa??o atual dos bancos de dados e ferramentas de apoio, foram identificadas duas categorias de melhorias. As melhorias t?cnicas tiveram por objetivo automatizar a ferramenta, adapt?-la ao ambiente e ao usu?rio enfatizando usabilidade. Para melhorias no m?todo realizaram-se testes com varia??o na quantidade de grupos identificados na etapa de minera??o de dados com o algoritmo Expectation Maximization (EM) no Weka. Os testes indicaram que as melhores conforma??es iniciais eram obtidas com quatro e seis grupos, assim, optou-se por permitir ao usu?rio a escolha dos grupos a considerar. Um novo mapeamento do mapa de Ramachandran indicou ajustes que foram corrigidos e decidiu-se descartar grupos identificados nas regi?es n?o permitidas na an?lise do resultado da minera??o de dados. A nova vers?o do CReF, gerada pela implementa??o dessas melhorias, tamb?m padronizou o m?todo de predi??o de estrutura secund?ria, passando a utilizar o m?todo Porter. Como consequ?ncia, as regras para escolha do grupo resultante da minera??o a representar cada amino?cido foram adaptadas e ampliadas para atender novas situa??es. A nova vers?o manteve o desempenho de predi??o e execu??o iniciais do CReF, entretanto, manteve o problema das voltas e al?as. Este problema de otimiza??o das regi?es de voltas e al?as foi endere?ado por meio do desenho e aplica??o de um protocolo de refinamento, baseado em simula??es pelo m?todo da din?mica molecular, o qual apresentou um resultado expressivo para a prote?na alvo de c?digo PDB 1ZDD.
17

Um processo de aquisi??o e mapeamento de dados para as bacias sedimentares marginais brasileiras

Assun??o, Joaquim Vinicius Carvalho 27 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:46Z (GMT). No. of bitstreams: 1 438673.pdf: 13692914 bytes, checksum: 3eac0c3d5df974b8965fd601f06ddf20 (MD5) Previous issue date: 2012-03-27 / Finding oil is a hard task that requires large amounts of information and resources. Along decades of research, geoscientists from Petrobras have accumulated great amout of data. Therefore, in petroleum geology other sources of important data are generally dispersed and have many forms of representation. This Master Thesis reports the creation of a database that stored various geophysical, paleogeographic and paleoclimatic data from the South Atlantic. Great part of these data were extracted from stratigraphic charts, converted, and stored as a numeric model. This model is the result of an aggregation of data from the Brazilian Sedimentary Basins and the creation of an algorithm solution able to map collected data at the designated geographical area. These data cover the past 140 millions years. The 140 millions of years correspond to a drift period of the South American Plate from the African west coast to the present location. During this drift several natural changes happened in the Ocean Sedimentary Basins until they reached the actual state. The grouping of these data enhances the potential to knowledge discovery on the factors necessary for the deposit of organic matter and oil generation, in consequence, these new factors may improve the chances of finding oil. / Encontrar petr?leo ? uma tarefa dif?cil que requer grandes quantidades de informa??es e recursos. Ao longo de d?cadas de pesquisa, os ge?logos da Petrobras acumularam grandes quantidades de dados. Al?m disso, na geologia do petr?leo outras fontes de dados s?o importantes, fontes estas, que em geral est?o dispersas e possuem v?rias formas de represen??o. Esta disserta??o relata a cria??o de um banco de dados que agrega diversos dados de origem paleoclim?tica e paleogeogr?fica provenientes do Atl?ntico Sul. Grande parte destes dados foram extra?dos de cartas estratigr?ficas, convertidos e armazenados em forma de um modelo num?rico. Modelo este, que ? resultado de agrega??es de dados provenientes das bacias sedimentares brasileiras e da cria??o de uma solu??o algor?tmica capaz de mapear os dados coletados ao longo da ?rea designada. Estes dados s?o relativos a um per?odo de tempo entre a idade geol?gica atual at? 140 milh?es de anos atr?s. Os 140 milh?es de anos correspondem ao per?odo de deslocamento do continente Sul-Americano desde a costa da ?frica at? a posi??o atual. Durante esse deslocamento houveram diversas mudan?as naturais nas bacias sedimentares oce?nicas at? chegarem ao estado atual. O grupamento destes dados potencializa a descoberta de conhecimento relativo aos fatores necess?rios para a deposi??o de mat?ria org?nica e gera??o de petr?leo no fundo do mar, assim, estes novos fatores podem vir a melhorar as probabilidades de descoberta de petr?leo.
18

Uma abordagem para minera??o de dados e visualiza??o de resultados em imagens batim?tricas

Gonzalez, Luis Fernando Planella 27 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:49Z (GMT). No. of bitstreams: 1 439096.pdf: 7558590 bytes, checksum: 4fb2b1caf2e02f0f7ee3d5ffb4741bb7 (MD5) Previous issue date: 2012-03-27 / Bathymetry is the measurement of the depth at various places in a body of water, as well as information derived from such measurements. It has several important applications, and has been attracting increasing interest over the last years. Bathymetry maps may cover the entire extent of the Earth globe. However, the analysis of such maps by visual inspection solely is difficult, due to subtle variations on the seafloor conformation. Thus, it would be interesting to have available computational tools capable of assisting a domain expert in problems related to bathymetry images, by analyzing them automatically or semi-automatically. The contribution of this work is an approach to use data mining for such analysis, and an iconography for results visualization, as well as map characteristics. We propose techniques to process input images, in order to extract records and their features, which can be processed by classic data mining algorithms. We also propose an iconography for visualization of knowledge discovery process results, as well as characteristics of areas in the processed map. Finally, the proposed approach is tested by applying it on a real database, under a domain expert supervision. / A batimetria ? a medida da profundidade em distintos lugares de uma massa de ?gua, e tamb?m a informa??o derivada de tais medi??es. Possui diversas aplica??es importantes e tem atra?do cada vez mais interesse nos ?ltimos anos. Mapas batim?tricos podem cobrir toda a extens?o do globo terrestre. Entretanto, a an?lise apenas por inspe??o visual destes mapas pode ser dif?cil, devido a varia??es sutis na conforma??o do solo oce?nico. Assim, seria interessante a disponibiliza??o de ferramentas computacionais capazes de auxiliar ao especialista de dom?nio nos mais diversos problemas relativos a imagens batim?tricas, analisando-as de forma autom?tica ou semi-autom?tica. A contribui??o deste trabalho ? uma abordagem para a utiliza??o da minera??o de dados para tal an?lise, e de uma iconografia para a visualiza??o dos resultados da minera??o e de caracter?sticas do pr?prio mapa. S?o propostas t?cnicas para o processamento da imagem de entrada, a fim de extrair da mesma registros e atributos que possam ser processados por algoritmos cl?ssicos da minera??o de dados. Tamb?m ? proposta uma iconografia para a visualiza??o dos resultados do processo de descoberta de conhecimento e das caracter?sticas de ?reas processadas do mapa. Finalmente a abordagem proposta ? testada, aplicando-a sobre uma base de dados real, com supervis?o de um especialista de dom?nio.
19

Proposta de integra??o RUP + PMBOK na ger?ncia de escopo no processo de desenvolvimento de software

Gomes, Andr? Lu?s Sanson 18 December 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:56Z (GMT). No. of bitstreams: 1 444180.pdf: 9406851 bytes, checksum: a31a0ed68333730c028c25e41a222310 (MD5) Previous issue date: 2009-12-18 / Software organizations of development are always searching to increase the product quality of software, for that is necessary that the processes well are defined and can be controlled. However, some difficulties are found as: processes directed total toward the productive activity and with little or no management activity, bad the management of projects or absence of management, not attendance the expectation of the involved ones. These processes must allow a methodology of management of projects that describes the activities important to all to assure the quality of the project with one, including the product and the process. In this context, this research considers an integrated process using a methodology of management of projects and a process of development of software in the area of target management. Contributing so that management and productive activities are executed of integrated form and using the area of target management to determine correctly as these activities they must be developed in the project in order to produce the foreseen deliveries. Like this, the process is presented and a use example, so that it can assist the managers in the taking of decision and planning, execution and control of the projects / As organiza??es de desenvolvimento de software est?o sempre buscando aumentar a qualidade dos produtos de software, para isto ? necess?rio que os processos sejam bem definidos e possam ser controlados. Entretanto, algumas dificuldades s?o encontradas como: processos voltados totalmente para a atividade produtiva e com pouco ou nenhuma atividade gerencial, m? ger?ncia de projetos ou aus?ncia de ger?ncia, n?o atendimento a expectativa dos envolvidos. Estes processos devem permitir uma metodologia de ger?ncia de projetos, que descreva as atividades importantes para garantir a qualidade do projeto com um todo, incluindo o produto e o processo. Neste contexto, esta pesquisa prop?e um processo integrado utilizando uma metodologia de ger?ncia de projetos e um processo de desenvolvimento de software na ?rea de gerenciamento de escopo. Contribuindo para que atividades gerenciais e produtivas sejam executadas de forma integrada e utilizando a ?rea de gerenciamento de escopo para determinar corretamente como estas atividades devem ser desenvolvidas no projeto de modo a se produzir as entregas previstas. Assim, apresenta-se o processo e um exemplo de uso, para que possa auxiliar os gestores na tomada de decis?o e planejamento, execu??o e controle dos projetos
20

Extra??o de contextos definit?rios a partir de textos em l?ngua portuguesa

Wendt, Igor da Silveira 15 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:58Z (GMT). No. of bitstreams: 1 445541.pdf: 1627180 bytes, checksum: 184a4b2054d700b987b074f0fcdf3122 (MD5) Previous issue date: 2011-03-15 / The definitory context is part of a text or utterance that provides information about a concept based on its use. The extraction of definitions from texts is an important task in various applications. Several papers present this feature as an aid in the construction of ontologies, in the development of material for aid in translation, in question answering systems, in creation of glossaries, dictionaries, among others. Thus, this study proposes set of heuristics to make the automatic extraction of potentially definitory contexts contained in Portuguese texts. The results of these heuristics were evaluated by terminologists and obtained 35.1 % F-measure when applied in a General Geology corpus and 51.7 % F-measure when applied in a General Chemistry corpus, reducing in both more than 50%of the amount of contexts to be examined by a specialist compared with the contexts extraction through a concordancer / O contexto definit?rio ? a parte de um texto ou de um enunciado que fornece informa??o sobre um conceito, com base em seu uso. A extra??o de contextos definit?rios a partir de textos ? uma tarefa importante em v?rias aplica??es. Diversos trabalhos usam este recurso como aux?lio na constru??o de ontologias, no desenvolvimento de material de aux?lio ? tradu??o, na elabora??o de sistemas de perguntas e respostas, na cria??o de gloss?rios, dicion?rios, entre outros. Nesse sentido, este trabalho prop?e um conjunto de heur?sticas para fazer a extra??o autom?tica de contextos potencialmente definit?rios em textos de l?ngua portuguesa. Os resultados dessas heur?sticas foram avaliados por termin?logos. Os resultados mostram 35,1% de F-measure quando o conjunto de heuristicas foi aplicado a um corpus de Geologia Geral e 51,7% de F-measure quando aplicado a um corpus de Qu?mica Geral. Isso proporcionou uma redu??o, em ambos os corpus, de mais de 50% da quantidade de contextos para serem analisados pelo especialista, comparando-se com a extra??o de contextos em um concordanciador

Page generated in 0.1202 seconds