• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 16
  • 5
  • 5
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 68
  • 16
  • 11
  • 9
  • 9
  • 9
  • 9
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Métodos de apoio a decisão médica para análise em diabetes mellitus gestacional utilizando a probabilidade pragmática na lógica paraconsistente anotada de dois valores para melhor precisão de resposta. / Methods of support the medical decision for analysis in gestacional diabetes mellitus using the pragmatic probability in paraconsistent logic annotated of two values for better precision of answer.

Souza, Paulo Roberto Schroeder de 16 April 2009 (has links)
Vários métodos estatísticos aplicados à medicina diagnóstica sofreram, nas últimas décadas, enormes avanços. Grande parte destes métodos está voltada ao problema de classificar indivíduos em grupos, sendo que os testes diagnósticos ligados a técnicas de Inteligência Artificial compõem nossa principal aplicação desse trabalho. Estes testes estatísticos são descritos como métodos teoricamente capazes de indicar a presença ou a ausência de uma determinada doença, com certa chance de erro. A quantificação destas chances de erro que é, basicamente, o objetivo destes métodos tem servido a inúmeras aplicações e nesse trabalho é utilizada como fonte de evidências para os procedimentos de análises estruturados em Lógica Paraconsistente. Como a Lógica Paraconsistente é uma lógica não-clássica que aceita contradição em sua estrutura sem invalidar as conclusões, e utiliza em suas análises valores evidenciais, aplicamos aqui os conceitos fundamentais de um tipo de Lógica Paraconsistente denominada de Lógica Paraconsistente Anotada com anotação de dois valores LPA2v. Através dos procedimentos estatísticos e os fundamentos da LPA2v o presente estudo objetiva descrever a situação em que o teste produz uma resposta que não é descrita simplesmente como positivo ou negativo, mas por um resultado que pode ser expresso por uma variável categórica ordinal ou por uma variável contínua que pode ser considerada como grau de evidência. Esse processo é realizado utilizando uma dedução lógica que usa os conceitos da Probabilidade Pragmática na qual se pode efetuar uma ligação entre a teoria probabilística de Bayes e os métodos de aplicação da Lógica Paraconsistente Anotada com dois valores LPA2v. Dessa junção surgiram neste trabalho algoritmos Paraconsistentes que descrevem esse processo. Denominamos o processo de adaptação da Teoria de Bayes para a Lógica Paraconsistente de ParaBayes. Para demonstrar os procedimentos que utilizam os conceitos fundamentais da LPA2v em dados probabilísticos foram extraídos valores evidenciais de um banco de dados que se refere à submissão de um conjunto de casos, contendo uma série de evidências e o diagnóstico de Diabetes, em uma comunidade de índias PIMA. São utilizadas no banco de dados índias PIMA as técnicas dos métodos estatísticos e de raciocínio probabilístico de Bayes para levantamento de dados que foram interpretados e modelados como Graus de Evidência capazes de serem analisados pelos Algoritmos da LPA2v. Neste estudo verifica-se que a extração dos Graus de Evidência não invalida as técnicas estatísticas já estabelecidas, mas confere através da LPA2v novas formas de interpretação baseadas nos resultados e produzindo meios que facilitam o tratamento dos dados por ferramentas computacionais elevando o grau de confiança dos diagnósticos. Uma das observações importantes é que o método LPA2v/Bayes proposto utilizado para extrair evidências é capaz de evitar possíveis distorções no formato da curva que possam advir da seleção inadequada de casos de teste. Os resultados obtidos sugerem que em situações nas quais se tenha uma grande quantidade de casos em que as incertezas exijam métodos estatísticos para formar diagnóstico, esta seja uma boa técnica para se adotar em sistemas de apoio a decisão médica. / Several statistical methods applied to the medicine diagnostic suffered, in the last decades, enormous progresses. Great part of these methods come back to the problem from classifying individuals in groups. Tests that use techniques of Artificial Intelligence compose our main main focus. Statistical tests are described as methods capable to indicate the presence or the absence of a certain disease, with a certain chance of error. The quantification of these error chances that is, basically, the objective of these methods has served to countless applications. In this work it is used as source of evidence for the procedures of analysis structured through Paraconsistent Logic. As Paraconsistent Logic is a non-classic logic that accepts contradiction in its structure without invalidating the conclusions and uses in its analysis values attributed to evidences, we applied the fundamental concepts of a type of Logic denominated Paraconsistent Logic Annotated with two values LPA2v. Through the statistical procedures and the foundations of LPA2v the present study aims at describing the situation where the test produces an answer that is not simply described as \"positive\" or \"negative\", but can be expressed by an ordinal variable or by a continuous variable that can be considered as an evidence degree. That process is obtained using a logical deduction that uses the concepts of the Pragmatic Probability where it can make a connection between the probabilistic theory of Bayes and the methods of Paraconsistent Logic, Annotated with two values, LPA2v. Out of that junction Paraconsistent algorithms appeared in this work that describe the whole process. We denominated the process of adaptation of the Theory of Bayes to Paraconsistent Logic of ParaBayes. To demonstrate the procedures that use the fundamental concepts of LPA2v evidence values were extracted from a database comprising a series of evidences and the diagnosis of Diabetes, in a community of PIMA Indians. The PIMA Indian database was a test-bed field for the techniques of the statistical methods and of reasoning probabilistic of Bayes for rising of data that were interpreted and modeled as Degrees of Evidence capable of being analyzed by the Algorithms of LPA2v. In this study it is verified that the extraction of the Degrees of Evidence doesn\'t invalidate the statistical techniques established, but it allows for new forms of interpretations based on the results and producing means that facilitate the treatment of the data, elevating the trust in the diagnostic. One of the important observations is that the proposed method LPA2v/Bayes used to extract evidence is capable to avoid possible distortions in the format of the curve that is usually the result of inadequate selection of test cases. Results suggest that in situations where a great amount of cases have uncertainties this is a good technique to adopt in medical decision support systems.
42

eDictor: da plataforma para a nuvem / eDictor: from platform to the cloud

Veronesi, Luiz Henrique Lima 04 February 2015 (has links)
Neste trabalho, apresentamos uma nova proposta para edição de textos que fazem parte de um corpus eletrônico. Partindo do histórico de desenvolvimento do corpus Tycho Brahe e da ferramenta eDictor, propõe-se a análise de todo o processo de trabalho de criação de um corpus para obter uma forma de organização da informação mais concisa e sem redundâncias, através do uso de um único repositório de informações contendo os dados textuais e morfossintáticos do texto. Esta forma foi atingida através da criação de uma estrutura de dados baseada em unidades mínimas chamadas tokens e blocos de unidades chamados chunks. A relação entre os tokens e os chunks, da forma como considerada neste trabalho, é capaz de guardar a informação de como o texto é estruturado em sua visualização (página, parágrafos, sentenças) e na sua estrutura sintática em árvores. A base de análise é composta por todos os arquivos pertencentes ao catálogo de textos do corpus Tycho Brahe. Através desta análise, foi possível chegar a elementos genéricos que se relacionam, desconstruindo o texto e criando uma relação de pontos de início e fim relativos às palavras (tokens) e não seguindo sua forma linear. A introdução do conceito de orientação a objetos possibilitou a criação de uma relação entre unidades ainda menores que o token, os split tokens que também são tokens, pois herdam as características do elemento mais significativo, o token. O intuito neste trabalho foi buscar uma forma com o menor número possível de atributos buscando diminuir a necessidade de se criar atributos específicos demais ou genéricos de menos. Na busca deste equilíbrio, foi verificada a necessidade de se criar um atributo específico para o chunk sintático, um atributo de nível que indica a distância de um nó da árvore para o nó raiz. Organizada a informação, o acesso a ela se torna mais simples e parte-se para definição da interface do usuário. A tecnologia web disponível permite que elementos sejam posicionados na tela reproduzindo a visualização que ocorre no livro e também permite que haja uma independência entre um e outro elemento. Esta independência é o que permite que a informação trafegue entre o computador do usuário e a central de processamento na nuvem sem que o usuário perceba. O processamento ocorre em background, utilizando tecnologias assíncronas. A semelhança entre as tecnologias html e xml introduziu uma necessidade de adaptação da informação para apresentação ao usuário. A solução apresentada neste trabalho é pensada de forma a atribuir aos tokens informações que indiquem que eles fazem parte de um chunk. Assim, não seriam as palavras que pertencem a uma sentença, mas cada palavra que possuiria um pedaço de informação que a faz pertencente à sentença. Esta forma de se pensar muda a maneira como a informação é exibida. / In this work, we present a new proposal for text edition organized under an electronic corpus. Starting from Tycho Brahe corpus development history and the eDictor tool, we propose to analyze the whole work process of corpus creation in order to obtain a more concise and less redudant way of organizing information by using a single source repository for textual and morphosyntactic data. This single source repository was achieved by the creation of a data structure based on minimal significative units called tokens and grouping units named chunks. The relationship between tokens and chunks, in the way considered on this work, allows storage of information about how the text is organized visually (pages, paragraphs, sentences) and on how they are organized syntactically as represented by syntactic trees. All files referred to the Tycho Brahe corpus catalog were used as base for analysis. That way, it was possible to achieve generic elements that relate to each other in a manner that the text is deconstructed by using relative pointers to each token in the text instead of following the usual linear form. The introduction of oriented-object conception made the creation of relationship among even smaller units possible, they are the split tokens, but split tokens are also tokens, as they inherit characteristics from the most significative element (the token). The aim here was being attributeless avoiding the necessity of too specific or too vague attributes. Looking for that balance, it was verified the necessity of creating a level attribute for syntactic data that indicates the distance of a tree node to its root node. After information is organized, access to it become simpler and then focus is turned to user-interface definition. Available web technology allows the use of elements that may be positioned on the screen reproducing the way the text is viewed within a book and it also allows each element to be indepedent of each other. This independence is what allows information to travel between user computer and central processing unit at the cloud without user perception. Processing occurs in background using asynchronous technology. Resemblance between html and xml introduced a necessity of adaption to present the information to the user. The adopted solution in this work realizes that tokens must contain the information about the chunk to which they belong. So this is not a point of view where words belong to sentences, but that each word have a piece of information that make them belong to the sentence. This subtile change of behavioring changes the way information is displayed.
43

Métodos de apoio a decisão médica para análise em diabetes mellitus gestacional utilizando a probabilidade pragmática na lógica paraconsistente anotada de dois valores para melhor precisão de resposta. / Methods of support the medical decision for analysis in gestacional diabetes mellitus using the pragmatic probability in paraconsistent logic annotated of two values for better precision of answer.

Paulo Roberto Schroeder de Souza 16 April 2009 (has links)
Vários métodos estatísticos aplicados à medicina diagnóstica sofreram, nas últimas décadas, enormes avanços. Grande parte destes métodos está voltada ao problema de classificar indivíduos em grupos, sendo que os testes diagnósticos ligados a técnicas de Inteligência Artificial compõem nossa principal aplicação desse trabalho. Estes testes estatísticos são descritos como métodos teoricamente capazes de indicar a presença ou a ausência de uma determinada doença, com certa chance de erro. A quantificação destas chances de erro que é, basicamente, o objetivo destes métodos tem servido a inúmeras aplicações e nesse trabalho é utilizada como fonte de evidências para os procedimentos de análises estruturados em Lógica Paraconsistente. Como a Lógica Paraconsistente é uma lógica não-clássica que aceita contradição em sua estrutura sem invalidar as conclusões, e utiliza em suas análises valores evidenciais, aplicamos aqui os conceitos fundamentais de um tipo de Lógica Paraconsistente denominada de Lógica Paraconsistente Anotada com anotação de dois valores LPA2v. Através dos procedimentos estatísticos e os fundamentos da LPA2v o presente estudo objetiva descrever a situação em que o teste produz uma resposta que não é descrita simplesmente como positivo ou negativo, mas por um resultado que pode ser expresso por uma variável categórica ordinal ou por uma variável contínua que pode ser considerada como grau de evidência. Esse processo é realizado utilizando uma dedução lógica que usa os conceitos da Probabilidade Pragmática na qual se pode efetuar uma ligação entre a teoria probabilística de Bayes e os métodos de aplicação da Lógica Paraconsistente Anotada com dois valores LPA2v. Dessa junção surgiram neste trabalho algoritmos Paraconsistentes que descrevem esse processo. Denominamos o processo de adaptação da Teoria de Bayes para a Lógica Paraconsistente de ParaBayes. Para demonstrar os procedimentos que utilizam os conceitos fundamentais da LPA2v em dados probabilísticos foram extraídos valores evidenciais de um banco de dados que se refere à submissão de um conjunto de casos, contendo uma série de evidências e o diagnóstico de Diabetes, em uma comunidade de índias PIMA. São utilizadas no banco de dados índias PIMA as técnicas dos métodos estatísticos e de raciocínio probabilístico de Bayes para levantamento de dados que foram interpretados e modelados como Graus de Evidência capazes de serem analisados pelos Algoritmos da LPA2v. Neste estudo verifica-se que a extração dos Graus de Evidência não invalida as técnicas estatísticas já estabelecidas, mas confere através da LPA2v novas formas de interpretação baseadas nos resultados e produzindo meios que facilitam o tratamento dos dados por ferramentas computacionais elevando o grau de confiança dos diagnósticos. Uma das observações importantes é que o método LPA2v/Bayes proposto utilizado para extrair evidências é capaz de evitar possíveis distorções no formato da curva que possam advir da seleção inadequada de casos de teste. Os resultados obtidos sugerem que em situações nas quais se tenha uma grande quantidade de casos em que as incertezas exijam métodos estatísticos para formar diagnóstico, esta seja uma boa técnica para se adotar em sistemas de apoio a decisão médica. / Several statistical methods applied to the medicine diagnostic suffered, in the last decades, enormous progresses. Great part of these methods come back to the problem from classifying individuals in groups. Tests that use techniques of Artificial Intelligence compose our main main focus. Statistical tests are described as methods capable to indicate the presence or the absence of a certain disease, with a certain chance of error. The quantification of these error chances that is, basically, the objective of these methods has served to countless applications. In this work it is used as source of evidence for the procedures of analysis structured through Paraconsistent Logic. As Paraconsistent Logic is a non-classic logic that accepts contradiction in its structure without invalidating the conclusions and uses in its analysis values attributed to evidences, we applied the fundamental concepts of a type of Logic denominated Paraconsistent Logic Annotated with two values LPA2v. Through the statistical procedures and the foundations of LPA2v the present study aims at describing the situation where the test produces an answer that is not simply described as \"positive\" or \"negative\", but can be expressed by an ordinal variable or by a continuous variable that can be considered as an evidence degree. That process is obtained using a logical deduction that uses the concepts of the Pragmatic Probability where it can make a connection between the probabilistic theory of Bayes and the methods of Paraconsistent Logic, Annotated with two values, LPA2v. Out of that junction Paraconsistent algorithms appeared in this work that describe the whole process. We denominated the process of adaptation of the Theory of Bayes to Paraconsistent Logic of ParaBayes. To demonstrate the procedures that use the fundamental concepts of LPA2v evidence values were extracted from a database comprising a series of evidences and the diagnosis of Diabetes, in a community of PIMA Indians. The PIMA Indian database was a test-bed field for the techniques of the statistical methods and of reasoning probabilistic of Bayes for rising of data that were interpreted and modeled as Degrees of Evidence capable of being analyzed by the Algorithms of LPA2v. In this study it is verified that the extraction of the Degrees of Evidence doesn\'t invalidate the statistical techniques established, but it allows for new forms of interpretations based on the results and producing means that facilitate the treatment of the data, elevating the trust in the diagnostic. One of the important observations is that the proposed method LPA2v/Bayes used to extract evidence is capable to avoid possible distortions in the format of the curve that is usually the result of inadequate selection of test cases. Results suggest that in situations where a great amount of cases have uncertainties this is a good technique to adopt in medical decision support systems.
44

eDictor: da plataforma para a nuvem / eDictor: from platform to the cloud

Luiz Henrique Lima Veronesi 04 February 2015 (has links)
Neste trabalho, apresentamos uma nova proposta para edição de textos que fazem parte de um corpus eletrônico. Partindo do histórico de desenvolvimento do corpus Tycho Brahe e da ferramenta eDictor, propõe-se a análise de todo o processo de trabalho de criação de um corpus para obter uma forma de organização da informação mais concisa e sem redundâncias, através do uso de um único repositório de informações contendo os dados textuais e morfossintáticos do texto. Esta forma foi atingida através da criação de uma estrutura de dados baseada em unidades mínimas chamadas tokens e blocos de unidades chamados chunks. A relação entre os tokens e os chunks, da forma como considerada neste trabalho, é capaz de guardar a informação de como o texto é estruturado em sua visualização (página, parágrafos, sentenças) e na sua estrutura sintática em árvores. A base de análise é composta por todos os arquivos pertencentes ao catálogo de textos do corpus Tycho Brahe. Através desta análise, foi possível chegar a elementos genéricos que se relacionam, desconstruindo o texto e criando uma relação de pontos de início e fim relativos às palavras (tokens) e não seguindo sua forma linear. A introdução do conceito de orientação a objetos possibilitou a criação de uma relação entre unidades ainda menores que o token, os split tokens que também são tokens, pois herdam as características do elemento mais significativo, o token. O intuito neste trabalho foi buscar uma forma com o menor número possível de atributos buscando diminuir a necessidade de se criar atributos específicos demais ou genéricos de menos. Na busca deste equilíbrio, foi verificada a necessidade de se criar um atributo específico para o chunk sintático, um atributo de nível que indica a distância de um nó da árvore para o nó raiz. Organizada a informação, o acesso a ela se torna mais simples e parte-se para definição da interface do usuário. A tecnologia web disponível permite que elementos sejam posicionados na tela reproduzindo a visualização que ocorre no livro e também permite que haja uma independência entre um e outro elemento. Esta independência é o que permite que a informação trafegue entre o computador do usuário e a central de processamento na nuvem sem que o usuário perceba. O processamento ocorre em background, utilizando tecnologias assíncronas. A semelhança entre as tecnologias html e xml introduziu uma necessidade de adaptação da informação para apresentação ao usuário. A solução apresentada neste trabalho é pensada de forma a atribuir aos tokens informações que indiquem que eles fazem parte de um chunk. Assim, não seriam as palavras que pertencem a uma sentença, mas cada palavra que possuiria um pedaço de informação que a faz pertencente à sentença. Esta forma de se pensar muda a maneira como a informação é exibida. / In this work, we present a new proposal for text edition organized under an electronic corpus. Starting from Tycho Brahe corpus development history and the eDictor tool, we propose to analyze the whole work process of corpus creation in order to obtain a more concise and less redudant way of organizing information by using a single source repository for textual and morphosyntactic data. This single source repository was achieved by the creation of a data structure based on minimal significative units called tokens and grouping units named chunks. The relationship between tokens and chunks, in the way considered on this work, allows storage of information about how the text is organized visually (pages, paragraphs, sentences) and on how they are organized syntactically as represented by syntactic trees. All files referred to the Tycho Brahe corpus catalog were used as base for analysis. That way, it was possible to achieve generic elements that relate to each other in a manner that the text is deconstructed by using relative pointers to each token in the text instead of following the usual linear form. The introduction of oriented-object conception made the creation of relationship among even smaller units possible, they are the split tokens, but split tokens are also tokens, as they inherit characteristics from the most significative element (the token). The aim here was being attributeless avoiding the necessity of too specific or too vague attributes. Looking for that balance, it was verified the necessity of creating a level attribute for syntactic data that indicates the distance of a tree node to its root node. After information is organized, access to it become simpler and then focus is turned to user-interface definition. Available web technology allows the use of elements that may be positioned on the screen reproducing the way the text is viewed within a book and it also allows each element to be indepedent of each other. This independence is what allows information to travel between user computer and central processing unit at the cloud without user perception. Processing occurs in background using asynchronous technology. Resemblance between html and xml introduced a necessity of adaption to present the information to the user. The adopted solution in this work realizes that tokens must contain the information about the chunk to which they belong. So this is not a point of view where words belong to sentences, but that each word have a piece of information that make them belong to the sentence. This subtile change of behavioring changes the way information is displayed.
45

UK pension providers´compliance with corporate governance codes, 2007-2009

Rashed, Chra, Larsson, Georgiana January 2011 (has links)
The United Kingdom Combined Code is today the most fundamental corporate governance code applicable in United Kingdom. The nation of United Kingdom encourages governance practices by implementing the Directive 2006/46/EC on a voluntary basis before being mandatory. While corporate governance is applicable to many corporations, pension providers may be seen as one of the ideal market sector for governing, since they act as institutional investors representing a major shareholder group. Institutional investors may even improve corporate governance practices as they represent a major part of public sector capital. Owning large amount of shares, their function is to supervise in the firms’ corporate governance activities in order to monitor the transparency and disclosure procedures. To be able to monitor other companies' activities, pension providers must set up an example for enforcing corporate governance practices themselves and follow them respectively.   This descriptive case study observes the corporate governance structures represented in annual reports of five large chosen pension providers during the years 2007 to 2009 capturing the financial crisis occurring in 2008, in United Kingdom. The purpose of the study is to examine if strong corporate governance is incorporated in the following pension providers, Aberdeen Asset Management plc, Aviva plc, Prudential plc, Royal London Mutual Insurance Society Limited and Standard Life plc. The focus is on board composition and established committees. The scope of this study answers the following research question: How do the five pension providers, Aberdeen, Prudential, Royal London, Standard Life and Aviva, comply with or explain deviations found in their respectively annual reports from 2007-2009 in accordance with the Combined Code 2008 and the Annotated Combined Code 2005?   Fundamental for pension providers is to work on a long-term basis with value creation as goal. Still the core focus of corporate governance remains, to create a system offering protection for all stakeholders. As the result shows, all of the five chosen corporations strongly implement national corporate governance practices throughout 2007-2009 on both board composition and established committees. Still, they suffered short-term negative fluctuations from the United Kingdom financial crises in 2008, but recovered shortly afterwards. Even though these fluctuations occurred, all of the corporations have long-term value as one of their main objectives. The long-term value can partly be sustained by strong corporate governance practices as it a main objective in corporate governance.
46

Élaboration d'un corpus étalon pour l'évaluation d'extracteurs de termes

Bernier-Colborne, Gabriel 05 1900 (has links)
Ce travail porte sur la construction d’un corpus étalon pour l’évaluation automatisée des extracteurs de termes. Ces programmes informatiques, conçus pour extraire automatiquement les termes contenus dans un corpus, sont utilisés dans différentes applications, telles que la terminographie, la traduction, la recherche d’information, l’indexation, etc. Ainsi, leur évaluation doit être faite en fonction d’une application précise. Une façon d’évaluer les extracteurs consiste à annoter toutes les occurrences des termes dans un corpus, ce qui nécessite un protocole de repérage et de découpage des unités terminologiques. À notre connaissance, il n’existe pas de corpus annoté bien documenté pour l’évaluation des extracteurs. Ce travail vise à construire un tel corpus et à décrire les problèmes qui doivent être abordés pour y parvenir. Le corpus étalon que nous proposons est un corpus entièrement annoté, construit en fonction d’une application précise, à savoir la compilation d’un dictionnaire spécialisé de la mécanique automobile. Ce corpus rend compte de la variété des réalisations des termes en contexte. Les termes sont sélectionnés en fonction de critères précis liés à l’application, ainsi qu’à certaines propriétés formelles, linguistiques et conceptuelles des termes et des variantes terminologiques. Pour évaluer un extracteur au moyen de ce corpus, il suffit d’extraire toutes les unités terminologiques du corpus et de comparer, au moyen de métriques, cette liste à la sortie de l’extracteur. On peut aussi créer une liste de référence sur mesure en extrayant des sous-ensembles de termes en fonction de différents critères. Ce travail permet une évaluation automatique des extracteurs qui tient compte du rôle de l’application. Cette évaluation étant reproductible, elle peut servir non seulement à mesurer la qualité d’un extracteur, mais à comparer différents extracteurs et à améliorer les techniques d’extraction. / We describe a methodology for constructing a gold standard for the automatic evaluation of term extractors. These programs, designed to automatically extract specialized terms from a corpus, are used in various settings, including terminology work, translation, information retrieval, indexing, etc. Thus, the evaluation of term extractors must be carried out in accordance with a specific application. One way of evaluating term extractors is to construct a corpus in which all term occurrences have been annotated. This involves establishing a protocol for term selection and term boundary identification. To our knowledge, no well-documented annotated corpus is available for the evaluation of term extractors. This contribution aims to build such a corpus and describe what issues must be dealt with in the process. The gold standard we propose is a fully annotated corpus, constructed in accordance with a specific terminological setting, namely the compilation of a specialized dictionary of automotive mechanics. This annotated corpus accounts for the wide variety of realizations of terms in context. Terms are selected in accordance with specific criteria pertaining to the terminological setting as well as formal, linguistic and conceptual properties of terms and term variations. To evaluate a term extractor, a list of all the terminological units in the corpus is extracted and compared to the output of the term extractor, using a set of metrics to assess its performance. Subsets of terminological units may also be extracted, providing a level of customization. This allows an automatic and application-driven evaluation of term extractors. Due to its reusability, it can serve not only to assess the performance of a particular extractor, but also to compare different extractors and fine-tune extraction techniques.
47

Vilniaus miesto Karoliniškių mikrorajono Pasakų parko floristiniai tyrimai ir jų panaudojimas moksleivių ugdymo procese / Vilnius city Karoliniskes district Pasaku park's floristic research and its apply in puples educational process

Pajėdienė, Angelė 16 August 2007 (has links)
Tyrimas vykdytas 2004 – 2007 metais, Vilniaus miesto Karoliniškių mikrorajono Pasakų parke. Anotuotas augalų rūšių sąrašas sudarytas remiantis Tachtadžiano sistema (Tachtadjan A.1978), atlikta ekologinė floros analizė pagal Ellenbergą (Ellenberg H.1991), chorologinė − pagal Natkevičaitės-Ivanauskienės sistemą, biomorfinė − pagal atsinaujinimo pumpurų išsidėstymą (Raunkiar CH.), nustatyta parko augalų bendrijų sintaksonominė struktūra. Pasakų parke identifikuotos 210 augalų rūšys, priklausančios 155 gentims ir 55 šeimoms. Išanalizavus augalų spektrą nustatyta, kad didžiausią dalį sudaro astrinių (19,8%), pupinių (16,5%) bei erškėtinių šeimų augalai (14,1%). Pasakų parke aptiktos dvi į Raudonąją knygą įrašytos augalų rūšys – Epipactis atrorubens (tamsialapis skiautalūpis) ir Pulsatilla patens (vėjalandė šilagėlė). Nustatyta, kad 45,1 % augalų vidutiniškai reiklūs šviesai, 51,6 % vidutinio šiltumo augaviečių augalai, 29 % augalų priklauso centrinei Vidurio Europos daliai, 38,7 % vidutinio dirvožemio drėgnumo augalų. Pagal augalų gyvenimo formas didžiausią dalį sudaro hemikriptofitai (42,8 % ), kriptofitai – 18,1 %, fanerofitai – 14,3 %, chamefitai ir terofitai po 10 % nuo visų augalų rūšių.Parke išskirtos augalų bendrijų klasės: Borealiniai Šiaurės pusrutulio spygliuočių miškas ir Pamiškių, miško aikštelių ir šlaitų pieva. Parengtas parko pažintinio tako projektas: tako ilgis 2 km, jame numatyta 10 stotelių. Išsiaiškintos moksleivių nuostatos, poreikiai, pažintiniai... [toliau žr. visą tekstą] / The research was made in Pasakų Park, Karoliniškiai district, Vilnius city, in 2004 – 2007. Annotated plant species list was formed on the basis of Tachtadjan system, (Tachtadjan A.1978), ecological flora analysis was made according to Ellenberg (Ellenberg H.1991), chloric analysis, according to Natkevičaitė−Ivanauskienė‘s system, biomorphic – according to renewed buds‘ position (Raunkiar CH.); park plants communities‘ syntaxonomic structure was determined. 210 plant species, which belong to 155 plant genus and to 55 plant families were identified in Pasakų Park. Plant spectrum analysis revealed that the biggest part of plants belong to aster family (19,8%) bud family- (16,5%), eglantine family (14,1%). Two plant species that are included into The Red Book of Endangered Species were found in the Park¬ − Epipactis atrorubens (The Dark Red Helleborine) and Pulsatilla patens (wild crocus). It is determined that 45,1 % of the plants need the average light, 51,6 % - need the average heat to grow, 29 % belong to Middle Europe plants; 38,7 % of the plants grow in the soil with average wetness. According to plant life forms categories, the biggest part of the plants in the Park belong to (42,8 % ) Hemicryptophyte, cryptophyte-18,1 %, Phanerophyte – 14,3 %, chamaephyte and therophyte 10%. The following plant communities’ classes were determined in the Park: Boreal zone’s Northern hemisphere’s coniferous forest and the outer wood ground’s and slopes’ field. Park’s Cognitive... [to full text]
48

The Larger Pelagic Crustacea of the Gully Submarine Canyon

MacIsaac, Kevin Gregory 22 August 2011 (has links)
The larger pelagic crustacean fauna of the Gully submarine canyon is described for the first time, based on three annual summer surveys. The larger Crustacea are a significant part of the Gully fauna, and are dominated by cold temperate species, in particular the northern krill Meganyctiphanes norvegica and the decapod Sergestes arcticus. In all, at least 69 species were collected from the surface to bathypelagic depths, with seventeen being new Canadian records. With the exception of M. norvegica, inter-annual variation in the dominant species was minor. The species assemblage varied primarily with depth surveyed and diel cycle, and not year. Comparing the larger pelagic crustaceans in the Gully and over the adjacent continental slope showed that overall species number, biomass, and abundance were all greater in the canyon, the biomass of S. arcticus particularly showing a positive “Gully effect”.
49

Analysing the behaviour of neural networks

Breutel, Stephan Werner January 2004 (has links)
A new method is developed to determine a set of informative and refined interface assertions satisfied by functions that are represented by feed-forward neural networks. Neural networks have often been criticized for their low degree of comprehensibility.It is difficult to have confidence in software components if they have no clear and valid interface description. Precise and understandable interface assertions for a neural network based software component are required for safety critical applications and for theintegration into larger software systems. The interface assertions we are considering are of the form &quote if the input x of the neural network is in a region (alpha symbol) of the input space then the output f(x) of the neural network will be in the region (beta symbol) of the output space &quote and vice versa. We are interested in computing refined interface assertions, which can be viewed as the computation of the strongest pre- and postconditions a feed-forward neural network fulfills. Unions ofpolyhedra (polyhedra are the generalization of convex polygons in higher dimensional spaces) are well suited for describing arbitrary regions of higher dimensional vector spaces. Additionally, polyhedra are closed under affine transformations. Given a feed-forward neural network, our method produces an annotated neural network, where each layer is annotated with a set of valid linear inequality predicates. The main challenges for the computation of these assertions is to compute the solution of a non-linear optimization problem and the projection of a polyhedron onto a lower-dimensional subspace.
50

An annotated translation of Narayan's novel The Guide

Rohde, Larissa January 2011 (has links)
Esta tese consiste em uma tradução anotada do romance O Guia (1958), de R. K. Narayan. A tese apresenta uma discussão crítica de aspectos práticos e suposições teóricas subjacentes ao processo de tradução. Nas últimas décadas, a área de estudos da tradução expandiu-se e apropriou-se de vários significados, e atualmente vai muito além da dimensão textual. O conceito de tradução hoje engloba não só aspectos linguísticos como também questões culturais e históricas. As notas, portanto, dividem-se em duas categorias distintas: a) notas em português sobre expressões e palavras culturalmente específicas, que tem por objetivo fazer uma ponte entre barreiras culturais em relação ao leitor brasileiro, suplementando o texto traduzido; e b) notas sobre o processo de tradução como tal, discutidas em relação ao processo de análise e tomada de decisões do tradutor. Obras traduzidas desempenham um papel fundamental na propagação de tendências literárias no mundo todo, como demonstra o recente influxo de obras dos chamados escritores da diáspora a partir de regiões antigamente sob domínio colonial europeu. R. K. Narayan foi o primeiro escritor de língua inglesa profissional bem sucedido na Índia moderna, e abriu caminho para a literatura Indiana de língua inglesa contemporânea. O objetivo da tese se desdobra em dois eixos. Em um nível pragmático, o propósito principal é oferecer uma tradução informativa de O Guia para o meio acadêmico brasileiro. As notas explicam as escolhas feitas pelo tradutor e esclarecem as diversas questões culturais envolvidas na tradução. Em um nível analítico, o objetivo é pesquisar a dinâmica do processo tradutório, bem como os elementos que interagem nas tomadas de decisão e subsequente re-estruturação do texto na língua de chegada. bloco tem dois capítulos: A Cena Literária, um estudo introdutório sobre a vida do autor e contexto de sua obra, e A Cena nos Estudos de Tradução, que aborda alguns pressupostos teóricos, privilegiando a tradução orientada para o texto de partida. O segundo bloco, O Processo, apresenta a análise da tradução e o conjunto de estratégias empregadas. Este bloco tem dois capítulos: Notas sobre Aspectos Culturais, que traz a análise dos dois tipos de notas e Notas sobre o Processo de Tradução, o qual se compõe das seguintes seções: O Nivel Textual apresenta uma leitura crítica do romance, com ênfase na análise literária do processo de tradução, e também discute a presença da ironia e o papel do narrador. As seções O Nivel Sintático e O Nível Lexical complementam a discussão. O resultado final da pesquisa, a tradução anotada para fins acadêmicos, compõe o terceiro bloco. A tese é uma contribuição aos estudos de tradução no meio acadêmico brasileiro. / This dissertation consists of an informative annotated translation of R. K. Narayan’s novel The Guide (1958). The dissertation provides a critical discussion of practical aspects and underlying theoretical assumptions to the translating process. The field of translation studies has in the last decades taken on many meanings and now encompasses realms beyond the textual dimension. Translation today is as much about the translation of cultural and historical contexts and concepts as it is about language itself. The notes therefore fall into two distinct categories: a) notes in Portuguese about culturally specific phrases and words, which aim at bridging cross cultural barriers to the Brazilian reader and supplement the text translated; b) notes about the translation process itself discussed in the light of the process of analysis and decision making. Translations have played a critical role in spurring literary trends all over the world, as the recent influx of the so called "diaspora writers" from European colonial backgrounds attest. R. K. Narayan was modern India's first successful professional writer in English and cleared the path for contemporary Indian fiction in English. The objective of the dissertation is twofold. On a pragmatic level, the main objective is to provide the Brazilian academy with an informative translation of The Guide. The annotations are used to explain the choices made by the translator, and to clarify the manifold cultural issues involved in the translation. On an analytical level, the objective is to research the dynamics of the translation process, observing the nature of the elements that interact in the moment of the translator's decision and in the subsequent restructuring of the translated text. The dissertation is divided into three major blocks, The Premises, the Process and the Product. The first block contains two chapters: The Literary Scene, an introductory study of Narayan’s life and context of writing and The Translation Studies Scene, which deals with selected theoretical points and states the preference for a source text oriented approach. The second block, The Process, is the analysis of the translation of the novel itself and the set of strategies employed. This block has two chapters: Notes on Cultural Aspects presents an analysis of the two kinds of notes and Notes on the Translation Process, which is divided into the following sections. The Textual Level presents a close reading of the novel, points out to the importance of the literary analysis to the translation process, as well as discusses instances of irony and the role of the narrator. The sections Syntactic Level and Lexical Level complement the discussion. The final result of the work, the annotated translation itself, which is intended for academic research purposes only, is presented in the third block. The dissertation aims at contributing to the ongoing Brazilian studies of translation.

Page generated in 0.0689 seconds