Spelling suggestions: "subject:"referència"" "subject:"diferència""
1 |
La gramaticalització dels connectors de contrast: estudi de corpus i aproximació segons la Teoria de la Inferència Invitada del Canvi SemànticMartínez, Caterina 12 July 2018 (has links)
El present estudi és una mostra d'aplicació de les teories lingüístiques de base cognitiva i la Lingüística de Corpus a l'estudi de l'evolució diacrònica d'uns elements essencials en situacions contraargumentatives: els connectors de contrast. Es fa una anàlisi diacrònica de la gènesi, específicament, dels connectors parentètics que expressen contrast. Aquesta anàlisi fa servir com a eines fonamentals la Pragmàtica del Discurs, la Teoria de la Inferència Invitada del Canvi Semàntic d'Elizabeth Traugott i les darreres aportacions sobre el paper dels usuaris -tant emissor com receptor- en el procés de negociació del significat i, doncs, de canvi semàntic. Parem una atenció especial sobre els fenòmens de la Subjectivació i de la Intersubjectivació (Traugott, 2010; Nuyts, 2005; Narrog, 2012) per entendre l'evolució diacrònica lingüística -morfològica, sintàctica i semàntica- i pragmàtica dels valors de noresmenys, nogensmenys i tanmateix: des de la seva font originària de [CÀLCUL] fins als valors actuals com a connectors parentètics de contrast amb matisos adversatius i concessius. Combinem, doncs, d'una banda, la reflexió teórica sobre el paper de la Inferència Invitada i la Pragmaticalització en el canvi semàntic amb, de l'altra banda, l'aplicació d'aquesta reflexió en gènesi dels valors de contrast. L'estudi es fonamenta en les dades d'ús extretes dels corpus textuals digitalitzats, fonamentalment, el CIMTAC, el CICA i el CTILC. Aquests corpus han permès de reconstruir el procés seguit per aquests connectors desde l'edat mitjana fins a l'actualitat: han fet possible una anàlisi qualitativa detallada dels contextos específics que van afavorir la seva gènesi i el canvi semàntic i la gramaticalització que han anat experimentant al llarg d'un període de temps i d'una diversitat de textos i de varietats territorials considerables. La tria d'aquests connectors en concret ha servit també per a mostrar la influència que va tenir el procés de codificació del català del segle XX en la recuperació de material lingüístic pretèrit i en l'adaptació d'aquest material als usos comunicatius de la llengua estàndard.
|
2 |
L'evidencialitat en català antic: estudi de corpus i acostament segons la gramàtica cognitivaAntolí Martínez, Jordi M. 02 October 2015 (has links)
En aquest estudi volem aportar arguments a favor de la hipòtesi que, en una llengua com el català, existeix una categoria semàntica referida al marcatge, en el discurs, de la font de la informació enunciada pel locutor. Aquesta categoria la denominem evidencialitat, d’acord amb una línia de recerca sobre el tema (desenvolupada especialment des dels anys 80 del segle XX), i considerem que es realitza amb mitjans diversos i no sols amb sistemes gramaticals. Es tracta d’una aportació, doncs, que contribueix a ampliar el debat sostingut per investigadors com Cornillie, Dendale o Squartini (entre molts altres) que defensen una concepció àmplia de l’evidencialitat com a categoria semàntica, i d’altres com Aikhenvald que argumenten a favor d’una definició més restrictiva del concepte. Amb aquest estudi aportem una visió nova al debat; en primer lloc, perquè es tracta d’un estudi diacrònic i, doncs, no només volem identificar uns marcadors evidencials en sincronia, sinó també les tendències que els generen en diacronia. En segon lloc, perquè es tracta d’un acostament al fet lingüístic basat en l’ús, ja que fonamentem la nostra anàlisi en les dades que obtenim d’un corpus informatitzat (el CIMTAC, amb textos del català antic, modern i contemporani). I, en tercer lloc, perquè a l’hora d’explicar el canvi lingüístic, adoptem un marc teòric pres de la Lingüística Cognitiva i de la Gramàtica de Construccions basada en l’ús; en concret, ens referim a la Teoria de la Inferència Invitada (Traugott 2012) i al concepte de construccionalització (Traugott i Trousdale 2013). Més en específicament, per aconseguir aquest objectiu, hem dissenyat un estudi en el qual combinem la reflexió teòrica sobre el concepte d’evidencialitat amb l’anàlisi de construccions concretes amb valor evidencial. Les construccions estudiades deriven de l’anàlisi d’un catàleg de verbs de percepció, coneixement i dicció –i locucions derivades– que són bons candidats per a codificar l’evidencialitat; aquests verbs són dir, entendre, oir, parèixer, semblar, sentir, témer, veure i la perífrasi [voler Vinf].
|
3 |
Symbolic and connectionist learning techniques for grammatical inferenceAlquézar Mancho, René 12 May 1997 (has links)
This thesis is structured in four parts for a total of ten chapters. The first part, introduction and review (Chapters 1 to 4), presents an extensive state-of-the-art review of both symbolic and connectionist GI methods, that serves also to state most of the basic material needed to describe later the contributions of the thesis. These contributions constitute the contents of the rest of parts (Chapters 5 to 10). The second part, contributions on symbolic and connectionist techniques for regular grammatical inference (Chapters 5 to 7), describes the contributions related to the theory and methods for regular GI, which include other lateral subjects such as the representation oí. finite-state machines (FSMs) in recurrent neural networks (RNNs).The third part of the thesis, augmented regular expressions and their inductive inference, comprises Chapters 8 and 9. The augmented regular expressions (or AREs) are defined and proposed as a new representation for a subclass of CSLs that does not contain all the context-free languages but a large class of languages capable of describing patterns with symmetries and other (context-sensitive) structures of interest in pattern recognition problems.The fourth part of the thesis just includes Chapter 10: conclusions and future research. Chapter 10 summarizes the main results obtained and points out the lines of further research that should be followed both to deepen in some of the theoretical aspects raised and to facilitate the application of the developed GI tools to real-world problems in the area of computer vision.
|
4 |
Definició d'una metodologia experimental per a l'estudi de resultats en sistemes d'aprenentatge artificialMartorell Rodon, Josep Maria 23 November 2007 (has links)
El treball presentat s'emmarca dins del camp d'actuació propi del Grup de Recerca en Sistemes Intel·ligents: l'aprenentatge artificial. Les grans àrees són la computació evolutiva i el raonament basat en casos, tot dirigint la recerca a problemes de classificació, diagnosi i predicció. En tots aquests camps són objecte d'estudi grans conjunts de dades, pels quals es treballen diferents tècniques que en permeten l'extracció de coneixement i l'aplicació als problemes citats. Els grans avenços en aquestes àrees (sovint en forma de nous algorismes) conviuen amb treballs molt parcials sobre les metodologies adequades per a l'avaluació d'aquestes noves propostes. En front d'aquesta situació, la tesi que aquí es presenta proposa un nou marc general per a l'avaluació del comportament d'un conjunt d'M algorismes que, per tal de ser analitzats, són assajats sobre N problemes de prova. La tesi sosté que l'anàlisi habitual que es fa d'aquests resultats és clarament insuficient, i que degut a això les conclusions que s'exposen en els treballs publicats són sovint parcials, i en alguns casos fins i tot errònies.El treball s'inicia amb un estudi introductori sobre les mesures que permeten expressar la bondat d'un algorisme, a través de l'assaig sobre una col·lecció de problemes de prova. En aquest punt, es demostra la necessitat d'un estudi previ de les propietats inherents d'aquests problemes (a partir, per exemple, de les mètriques de complexitat) si es vol assegurar la fiabilitat de les conclusions que s'obtindran.A continuació, es defineix el marc d'aplicació de tot un conjunt de tècniques d'inferència estadística per les quals, essent aquestes prou ben conegudes, s'analitzen els factors a tenir en compte en la determinació del seu domini d'ús. La tesi proposa un protocol general per a l'estudi, des d'un punt de vista estadístic, del comportament d'un conjunt d'algorismes, incloent uns nous models gràfics que en faciliten l'anàlisi, i l'estudi detallat de les propietats inherents als problemes de prova utilitzats. Aquest protocol determina el domini d'ús de les metodologies per a la comparació dels resultats obtinguts en cada problema. La tesi demostra, a més, com aquest domini està directament relacionat amb la capacitat d'aquesta metodologia per a determinar diferències significatives, i també amb la seva replicabilitat.Finalment, es proposen un conjunt de casos sobre resultats ja publicats amb anterioritat, fruit de nous algorismes desenvolupats pel nostre Grup de Recerca, molt en especial en l'aplicació del raonament basat en casos. En tots ells es mostra la correcta aplicació de les metodologies desenvolupades en els capítols anteriors, i es destaquen els errors comesos habitualment, que duen a conclusions no fiables. / El trabajo presentado se enmarca dentro del campo de actuación propio del Grupo de Investigación en Sistemas Inteligentes: el aprendizaje artificial. Las grandes áreas son la computación evolutiva y el razonamiento basado en casos, dirigiendo la investigación a problemas de clasificación, diagnóstico y predicción. En todos estos campos son objeto de estudio grandes conjuntos de datos, para los cuales se trabajan diferentes técnicas que permiten la extracción de conocimiento y la aplicación a los citados problemas. Los grandes avances en estas áreas (muchas veces en forma de nuevos algoritmos) conviven con trabajos muy parciales sobre las metodologías adecuadas para la evaluación de estas nuevas propuestas.Frente a esta situación, la tesis que aquí se presenta propone un nuevo marco general para la evaluación del comportamiento de un conjunto de M algoritmos que, para poder ser analizados, son ensayados sobre N problemas de prueba. La tesis sostiene que el análisis habitual que se hace de estos resultados es claramente insuficiente, i que debido a esto las conclusiones que se exponen en los trabajos publicados son muchas veces parciales, y en algunos casos hasta erróneas.El trabajo se inicia con un estudio introductoria sobre las medidas que permiten expresar la bondad de un algoritmo, a través del ensayo sobre una colección de problemas de prueba. En este punto, se demuestra la necesidad de un estudio previo de las propiedades inherentes de estos problemas (a partir, por ejemplo, de las métricas de complejidad) si se quiere asegurar la fiabilidad de las conclusiones que se obtendrán.A continuación, se define el marco de aplicación de todo un conjunto de técnicas de inferencia estadística para las cuales, siendo éstas bien conocidas, se analizan los factores a tener en cuenta en la determinación de su dominio de uso. La tesis propone un protocolo general para el estudio, desde un punto de vista estadístico, del comportamiento de un conjunto de algoritmos, incluyendo unos nuevos modelos gráficos que facilitan su análisis, y el estudio detallado de las propiedades inherentes a los problemas de prueba utilizados.Este protocolo determina el dominio de uso de las metodologías para la comparación de resultados obtenidos en cada problema. La tesis demuestra, además, como este dominio está directamente relacionado con la capacidad de esta metodología para determinar diferencias significativas, y también con su replicabilidad.Finalmente, se proponen un conjunto de casos sobre resultados ya publicados con anterioridad, fruto de nuevos algoritmos desarrollados por nuestro Grupo de Investigación, muy en especial en la aplicación del razonamiento basado en casos. En todos ellos se muestra la correcta aplicación de las metodologías desarrolladas en los capítulos anteriores, y se destacan los errores cometidos habitualmente, que llevan a conclusiones no fiables. / The present work is all part of the work field of the Research Group in Intelligent Systems: the machine learning. The main areas are the evolutive computation and the case based reasoning, the investigation being focused on the classification, diagnosis and prediction issues. In all of these fields, great groups of data are studied, for which different techniques are applied, enabling the knowledge extraction and the application of the aforementioned problems. The big breakthroughs in these areas (many times in ways of algorithms) coexist with very partial works on suitable methodologies for the evaluation of these new proposals. Before this situation, the thesis herein presented proposes a new general approach for the assessment of a set of M algorithms behaviour which, in order to be analysed, are tested over N datasets. The thesis maintains that the analysis made for these results is clearly insufficient and consequently the conclusions put forward in the works published are very often partial and in some cases even erroneous.This work begins with an introductory study on the measures allowing to express the performance of an algorithm, through the test over a collection of datasets. At this point it is evidenced that a prior study of the inherent properties of these problems (for instance, based on complexity metrics) is needed, in order to assure the reliability of the conclusions that will be drawn. Next, the scope of application of a whole set of well known techniques of statistical inference is defined, for which the factors to be taken into account in the determination of their application analysed. The thesis proposes a general protocol for the study, from a statistical point of view, of the behaviour of a set of algorithms, including new graphic patterns which facilitate its analysis, as well as the detailed study of the inherent properties of the test problems used.This protocol determines the application domains of the methodologies for the comparison of the results obtained in each problem. The thesis demonstrates furthermore how this domain is directly related to the capability of this methodology to determine significant differences, as well as to its replicability.Finally, a set of cases on results already published are proposed, resulting from new algorithms developed by our Research Group, very specially in the application of the case-based reasoning. In all these cases the application of the methodologies developed in the previous chapters is proved to be correct, and the errors incurred in repeatedly, leading to unreliable conclusions, are highlighted.
|
5 |
Pathway-centric approaches to the analysis of high-throughput genomics dataHänzelmann, Sonja, 1981- 11 October 2012 (has links)
In the last decade, molecular biology has expanded from a reductionist view to a systems-wide view that tries to unravel the complex interactions of cellular components. Owing to the emergence of high-throughput technology it is now possible to interrogate entire genomes at an unprecedented resolution. The dimension and unstructured nature of these data made it evident that new methodologies and tools are needed to turn data into biological knowledge. To contribute to this challenge we exploited the wealth of publicly available high-throughput genomics data and developed bioinformatics methodologies focused on extracting information at the pathway rather than the single gene level. First, we developed Gene Set Variation Analysis (GSVA), a method that facilitates the organization and condensation of gene expression profiles into gene sets. GSVA enables pathway-centric downstream analyses of microarray and RNA-seq gene expression data. The method estimates sample-wise pathway variation over a population and allows for the integration of heterogeneous biological data sources with pathway-level expression measurements. To illustrate the features of GSVA, we applied it to several use-cases employing different data types and addressing biological questions. GSVA is made available as an R package within the Bioconductor project.
Secondly, we developed a pathway-centric genome-based strategy to reposition drugs in type 2 diabetes (T2D). This strategy consists of two steps, first a regulatory network is constructed that is used to identify disease driving modules and then these modules are searched for compounds that might target them. Our strategy is motivated by the observation that disease genes tend to group together in the same neighborhood forming disease modules and that multiple genes might have to be targeted simultaneously to attain an effect on the pathophenotype. To find potential compounds, we used compound exposed genomics data deposited in public databases. We collected about 20,000 samples that have been exposed to about 1,800 compounds. Gene expression can be seen as an intermediate phenotype reflecting underlying dysregulatory pathways in a disease. Hence, genes contained in the disease modules that elicit similar transcriptional responses upon compound exposure are assumed to have a potential therapeutic effect. We applied the strategy to gene expression data of human islets from diabetic and healthy individuals and identified four potential compounds, methimazole, pantoprazole, bitter orange extract and torcetrapib that might have a positive effect on insulin secretion. This is the first time a regulatory network of human islets has been used to reposition compounds for T2D.
In conclusion, this thesis contributes with two pathway-centric approaches to important bioinformatic problems, such as the assessment of biological function and in silico drug repositioning. These contributions demonstrate the central role of pathway-based analyses in interpreting high-throughput genomics data. / En l'última dècada, la biologia molecular ha evolucionat des d'una perspectiva reduccionista cap a una perspectiva a nivell de sistemes que intenta desxifrar les complexes interaccions entre els components cel•lulars. Amb l'aparició de les tecnologies d'alt rendiment actualment és possible interrogar genomes sencers amb una resolució sense precedents. La dimensió i la naturalesa desestructurada d'aquestes dades ha posat de manifest la necessitat de desenvolupar noves eines i metodologies per a convertir aquestes dades en coneixement biològic. Per contribuir a aquest repte hem explotat l'abundància de dades genòmiques procedents d'instruments d'alt rendiment i disponibles públicament, i hem desenvolupat mètodes bioinformàtics focalitzats en l'extracció d'informació a nivell de via molecular en comptes de fer-ho al nivell individual de cada gen. En primer lloc, hem desenvolupat GSVA (Gene Set Variation Analysis), un mètode que facilita l'organització i la condensació de perfils d'expressió dels gens en conjunts. GSVA possibilita anàlisis posteriors en termes de vies moleculars amb dades d'expressió gènica provinents de microarrays i RNA-seq. Aquest mètode estima la variació de les vies moleculars a través d'una població de mostres i permet la integració de fonts heterogènies de dades biològiques amb mesures d'expressió a nivell de via molecular. Per il•lustrar les característiques de GSVA, l'hem aplicat a diversos casos usant diferents tipus de dades i adreçant qüestions biològiques. GSVA està disponible com a paquet de programari lliure per R dins el projecte Bioconductor.
En segon lloc, hem desenvolupat una estratègia centrada en vies moleculars basada en el
genoma per reposicionar fàrmacs per la diabetis tipus 2 (T2D). Aquesta estratègia consisteix
en dues fases: primer es construeix una xarxa reguladora que s'utilitza per identificar mòduls
de regulació gènica que condueixen a la malaltia; després, a partir d'aquests mòduls es busquen compostos que els podrien afectar. La nostra estratègia ve motivada per l'observació que els gens que provoquen una malaltia tendeixen a agrupar-se, formant mòduls patogènics, i pel fet que podria caldre una actuació simultània sobre múltiples gens per assolir un efecte en el fenotipus de la malaltia. Per trobar compostos potencials, hem usat dades genòmiques exposades a compostos dipositades en bases de dades públiques. Hem recollit unes 20.000 mostres que han estat exposades a uns 1.800 compostos. L'expressió gènica es pot interpretar com un fenotip intermedi que reflecteix les vies moleculars desregulades subjacents a una malaltia. Per tant, considerem que els gens d'un mòdul patològic que responen, a nivell transcripcional, d'una manera similar a l'exposició del medicament tenen potencialment un efecte terapèutic. Hem aplicat aquesta estratègia a dades d'expressió gènica en illots pancreàtics humans corresponents a individus sans i diabètics, i hem identificat quatre compostos potencials (methimazole, pantoprazole, extracte de taronja amarga i torcetrapib) que podrien tenir un efecte positiu sobre la secreció de la insulina. Aquest és el primer cop que una xarxa reguladora d'illots pancreàtics humans s'ha utilitzat per reposicionar compostos per a T2D.
En conclusió, aquesta tesi aporta dos enfocaments diferents en termes de vies moleculars
a problemes bioinformàtics importants, com ho son el contrast de la funció biològica i el
reposicionament de fàrmacs "in silico". Aquestes contribucions demostren el paper central
de les anàlisis basades en vies moleculars a l'hora d'interpretar dades genòmiques procedents
d'instruments d'alt rendiment.
|
6 |
El producte com a fenòmen de comunicació socialVinyets Rejon, Joan 04 December 2008 (has links)
El propòsit d'aquesta tesi es fonamenta en demostrar que el producte és un mitjà de comunicació social del que les persones es serveixen comunicativament -en funció del seu caràcter simbòlic- que permet a l'ésser humà interactuar amb el seu món social, cultural i personal. Aquest treball explica el paper que els productes juguen com a mitjans de comunicació social. La tesi parteix del fet que les pràctiques socials produeixen significat i sentit en la cultura material, partint de la proposició pragmàtica de que cada interpretació necessitat un determinat context que aporti significat i sentit als productes. Mitjançant la definició d'un model d'anàlisi "pragmàtico-etnogràfic" i la seva aplicació al estudi del producte telèfon mòbil, aquest treball mostra com per comprendre el significat d'un producte, cal valorar les pràctiques i accions socials que els signifiquen: posar l'atenció en l'anàlisi de la significació generada per les relacions establertes pel binomi producte i usuari. / The intention of this thesis is to demonstrate that the product is a medium of social communications which people use to communicate -as a function of its symbolic character- which allows human interaction between social, cultural and personal realms. The thesis explains the role that products play in social communication. The thesis shows the fact that social practices provide meaning and sense in the materialistic culture, from the pragmatic proposition that each interpretation needs a certain context which contributes significance and sense to the products. By means of the definition of the analytical model "pragmatic-ethnography" and its application to the study of the mobile telephone, this work confirms that in order to realize the significance of a product one has to evaluate the actions and social practices in which they matter: put the attention of the analysis to the significance generated by the relations established by the binominal product and user.
|
Page generated in 0.0291 seconds