• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 98
  • 71
  • 63
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 238
  • 137
  • 102
  • 75
  • 75
  • 75
  • 75
  • 65
  • 61
  • 47
  • 46
  • 34
  • 25
  • 20
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Development and application of computational methdologies for Integrated Molecular Systems Biology

Karathia, Hiren Mahendrabhai 30 November 2012 (has links)
L'objectiu del treball presentat en aquesta tesi va ser el desenvolupament i l'aplicació de metodologies computacionals que integren l’anàlisis de informació sobre seqüències proteiques, informació funcional i genòmica per a la reconstrucció, anotació i organització de proteomes complets, de manera que els resultats es poden comparar entre qualsevol nombre d'organismes amb genomes completament seqüenciats. Metodològicament, m'he centrat en la identificació de l'organització molecular dins d'un proteoma complet d'un organisme de referència i comparació amb proteomes d'altres organismes, en espacial, estructural i funcional, el teixit cel • lular de desenvolupament, o els nivells de la fisiologia. La metodologia es va aplicar per abordar la qüestió de la identificació de organismes model adequats per a estudiar diferents fenòmens biològics. Això es va fer mitjançant la comparació d’un conjunt de proteines involucrades en diferents fenòmens biològics en Saccharomyces cerevisiae i Homo sapiens amb els conjunts corresponents d'altres organismes amb genomes. La tesi conclou amb la presentació d'un servidor web, Homol-MetReS, en què s'implementa la metodologia. Homol-MetReS proporciona un entorn de codi obert a la comunitat científica en què es poden realitzar múltiples nivells de comparació i anàlisi de proteomes. / El objetivo del trabajo presentado en esta tesis fue el desarrollo y la aplicación de metodologías computacionales que integran el análisis de la secuencia y de la información funcional y genómica, con el objetivo de reconstruir, anotar y organizar proteomas completos, de tal manera que estos proteomas se puedan comparar entre cualquier número de organismos con genomas completamente secuenciados. Metodológicamente, I centrado en la identificación de organización molecular dentro de un proteoma completo de un organismo de referencia, vinculando cada proteína en que proteoma a las proteínas de otros organismos, de tal manera que cualquiera puede comparar los dos proteomas en espacial, estructural, funcional tejido, celular, el desarrollo o los niveles de la fisiología. La metodología se aplicó para abordar la cuestión de la identificación de organismos modelo adecuados para estudiar diferentes fenómenos biológicos. Esto se hizo comparando conjuntos de proteínas involucradas en diferentes fenómenos biológicos en Saccharomyces cerevisiae y Homo sapiens con los conjuntos correspondientes de otros organismos con genomas completamente secuenciados. La tesis concluye con la presentación de un servidor web, Homol-MetReS, en el que se implementa la metodología. Homol-MetReS proporciona un entorno de código abierto a la comunidad científica en la que se pueden realizar múltiples niveles de comparación y análisis de proteomas. / The aim of the work presented in this thesis was the development and application of computational methodologies that integrate sequence, functional, and genomic information to provide tools for the reconstruction, annotation and organization of complete proteomes in such a way that the results can be compared between any number of organisms with fully sequenced genomes. Methodologically, I focused on identifying molecular organization within a complete proteome of a reference organism and comparing with proteomes of other organisms at spatial, structural, functional, cellular tissue, development or physiology levels. The methodology was applied to address the issue of identifying appropriate model organisms to study different biological phenomena. This was done by comparing the protein sets involved in different biological phenomena in Saccharomyces cerevisiae and Homo sapiens. This thesis concludes by presenting a web server, Homol-MetReS, on which the methodology is implemented. It provides an open source environment to the scientific community on which they can perform multi-level comparison and analysis of proteomes.
202

Integración de la Bioinformática en la Investigación Genómica Cardiovascular: Aplicaciones en el Framingham Heart Study

Coltell Simón, Oscar 08 October 2004 (has links)
El objetivo principal de esta tesis es la aplicación integrada de enfoques metodológicos de las disciplinas Ingeniería del Software y Auditoría de Sistemas de Información a la Bioinformática, en función de la identificación y caracterización de las aportaciones de esta disciplina a los trabajos de investigación en el área de la Epidemiología Genómica de las Enfermedades Cardiovasculares. Dado que el ámbito de aplicación así definido es demasiado amplio, se ha establecido un tema específico, el cálculo del riesgo cardiovascular a escala individual, sobre el cual giran los trabajos de investigación y se describen las aportaciones concretas de esta tesis.El ámbito de la Epidemiología Genómica de las Enfermedades Cardiovasculares está caracterizado por el Framingham Heart Study (Massachusetts, EE.UU., 1948 ) y los factores de riesgo cardiovascular son de tipo genético y ambiental. Dado que la lista actual de factores genéticos implicados en las enfermedades cardiovasculares contiene casi 3.000 genes, de la misma se han elegido un reducido subconjunto de los cuales se tiene información sobre sus polimorfismos y fenotipos patológicos: CETP, APOE, APOA1, LIPC, SR-BI y PLIN. Este último gen también se ha estudiado comparativamente en población general de la Comunidad Valenciana. Se ha desarrollado un estudio completo de cada uno de los genes relacionados. Los resultados obtenidos permiten descubrir unas interesantes interacciones gen*ambiente, gen*sexo, gen*dieta, gen*diabetes 2 y gen*obesidad, asociados a los polimorfismos de los genes estudiados y que se identifican en cada estudio. En resumen, se ofrecen datos concretos de asociaciones reales observadas entre variaciones genéticas y fenotipos cardiovasculares, así como de interacciones gen*ambiente.En el ámbito de la Bioinformática, se ha desarrollado un modelo para el cálculo del riesgo cardiovascular a escala individual y un modelo para la aplicación de la Auditoría Bioinformática en el análisis y control de las funciones bioinformáticas. También se han desarrollado soluciones específicas para la resolución de problemas planteados en el protocolo científico del laboratorio genómico.En conclusión, la Bioinformática, entendida como una disciplina científico-técnica, es indispensable como instrumento de integración en la investigación genómica cardiovascular en los distintos niveles de adquisición, tratamiento, análisis, almacenamiento y salvaguarda de datos. Sin embargo, debido a su reciente desarrollo, tropieza todavía con las dificultades derivadas de la ausencia de un cuerpo teórico común y consistente, que permita dar respuesta rápida a las grandes demandas de proceso de información ómica que se están detectando en la actualidad.
203

Adaptive Communications for Next Generation Broadband Wireless Access Systems

Gutiérrez González, Ismael 19 June 2009 (has links)
Un dels aspectes claus en el disseny i gestió de les xarxes sense fils d'accés de banda ampla és l'ús eficient dels recursos radio. Des del punt de vista de l'operador, l'ample de banda és un bé escàs i preuat que s´ha d'explotar i gestionar de la forma més eficient possible tot garantint la qualitat del servei que es vol proporcionar. Per altra banda, des del punt de vista del usuari, la qualitat del servei ofert ha de ser comparable al de les xarxes fixes, requerint així un baix retard i una baixa pèrdua de paquets per cadascun dels fluxos de dades entre la xarxa i l'usuari. Durant els darrers anys s´han desenvolupat nombroses tècniques i algoritmes amb l'objectiu d'incrementar l'eficiència espectral. Entre aquestes tècniques destaca l'ús de múltiples antenes al transmissor i al receptor amb l'objectiu de transmetre diferents fluxos de dades simultaneament sense necessitat d'augmentar l'ample de banda. Per altra banda, la optimizació conjunta de la capa d'accés al medi i la capa física (fent ús de l'estat del canal per tal de gestionar de manera optima els recursos) també permet incrementar sensiblement l'eficiència espectral del sistema.L'objectiu d'aquesta tesi és l'estudi i desenvolupament de noves tècniques d'adaptació de l'enllaç i gestió dels recursos ràdio aplicades sobre sistemes d'accés ràdio de propera generació (Beyond 3G). Els estudis realitzats parteixen de la premissa que el transmisor coneix (parcialment) l'estat del canal i que la transmissió es realitza fent servir un esquema multiportadora amb múltiples antenes al transmisor i al receptor. En aquesta tesi es presenten dues línies d'investigació, la primera per casos d'una sola antenna a cada banda de l'enllaç, i la segona en cas de múltiples antenes. En el cas d'una sola antena al transmissor i al receptor, un nou esquema d'assignació de recursos ràdio i priorització dels paquets (scheduling) és proposat i analitzat integrant totes dues funcions sobre una mateixa entitat (cross-layer). L'esquema proposat té com a principal característica la seva baixa complexitat i que permet operar amb transmissions multimedia. Alhora, posteriors millores realitzades per l'autor sobre l'esquema proposat han permès també reduir els requeriments de senyalització i combinar de forma óptima usuaris d'alta i baixa mobilitat sobre el mateix accés ràdio, millorant encara més l'eficiència espectral del sistema. En cas d'enllaços amb múltiples antenes es proposa un nou esquema que combina la selecció del conjunt optim d'antenes transmissores amb la selecció de la codificació espai- (frequència-) temps. Finalment es donen una sèrie de recomanacions per tal de combinar totes dues línies d'investigació, així con un estat de l'art de les tècniques proposades per altres autors que combinen en part la gestió dels recursos ràdio i els esquemes de transmissió amb múltiples antenes. / Uno de los aspectos claves en el diseño y gestión de las redes inalámbricas de banda ancha es el uso eficiente de los recursos radio. Desde el punto de vista del operador, el ancho de banda es un bien escaso y valioso que se debe explotar y gestionar de la forma más eficiente posible sin afectar a la calidad del servicio ofrecido. Por otro lado, desde el punto de vista del usuario, la calidad del servicio ha de ser comparable al ofrecido por las redes fijas, requiriendo así un bajo retardo y una baja tasa de perdida de paquetes para cada uno de los flujos de datos entre la red y el usuario. Durante los últimos años el número de técnicas y algoritmos que tratan de incrementar la eficiencia espectral en dichas redes es bastante amplio. Entre estas técnicas destaca el uso de múltiples antenas en el transmisor y en el receptor con el objetivo de poder transmitir simultáneamente diferentes flujos de datos sin necesidad de incrementar el ancho de banda. Por otro lado, la optimización conjunta de la capa de acceso al medio y la capa física (utilizando información de estado del canal para gestionar de manera óptima los recursos) también permite incrementar sensiblemente la eficiencia espectral del sistema.El objetivo de esta tesis es el estudio y desarrollo de nuevas técnicas de adaptación del enlace y la gestión de los recursos radio, y su posterior aplicación sobre los sistemas de acceso radio de próxima generación (Beyond 3G). Los estudios realizados parten de la premisa de que el transmisor conoce (parcialmente) el estado del canal a la vez que se considera que la transmisión se realiza sobre un sistema de transmisión multiportadora con múltiple antenas en el transmisor y el receptor. La tesis se centra sobre dos líneas de investigación, la primera para casos de una única antena en cada lado del enlace, y la segunda en caso de múltiples antenas en cada lado. Para el caso de una única antena en el transmisor y en el receptor, se ha desarrollado un nuevo esquema de asignación de los recursos radio así como de priorización de los paquetes de datos (scheduling) integrando ambas funciones sobre una misma entidad (cross-layer). El esquema propuesto tiene como principal característica su bajo coste computacional a la vez que se puede aplicar en caso de transmisiones multimedia. Posteriores mejoras realizadas por el autor sobre el esquema propuesto han permitido también reducir los requisitos de señalización así como combinar de forma óptima usuarios de alta y baja movilidad. Por otro lado, en caso de enlaces con múltiples antenas en transmisión y recepción, se presenta un nuevo esquema de adaptación en el cual se combina la selección de la(s) antena(s) transmisora(s) con la selección del esquema de codificación espacio-(frecuencia-) tiempo. Para finalizar, se dan una serie de recomendaciones con el objetivo de combinar ambas líneas de investigación, así como un estado del arte de las técnicas propuestas por otros autores que combinan en parte la gestión de los recursos radio y los esquemas de transmisión con múltiples antenas. / In Broadband Wireless Access systems the efficient use of the resources is crucial from many points of views. From the operator point of view, the bandwidth is a scarce, valuable, and expensive resource which must be exploited in an efficient manner while the Quality of Service (QoS) provided to the users is guaranteed. On the other hand, a tight delay and link quality constraints are imposed on each data flow hence the user experiences the same quality as in fixed networks. During the last few years many techniques have been developed in order to increase the spectral efficiency and the throughput. Among them, the use of multiple antennas at the transmitter and the receiver (exploiting spatial multiplexing) with the joint optimization of the medium access control layer and the physical layer parameters.In this Ph.D. thesis, different adaptive techniques for B3G multicarrier wireless systems are developed and proposed focusing on the SS-MC-MA and the OFDM(A) (IEEE 802.16a/e/m standards) communication schemes. The research lines emphasize into the adaptation of the transmission having (Partial) knowledge of the Channel State Information for both; single antenna and multiple antenna links. For single antenna links, the implementation of a joint resource allocation and scheduling strategy by including adaptive modulation and coding is investigated. A low complexity resource allocation and scheduling algorithm is proposed with the objective to cope with real- and/or non-real- time requirements and constraints. A special attention is also devoted in reducing the required signalling. However, for multiple antenna links, the performance of a proposed adaptive transmit antenna selection scheme jointly with space-time block coding selection is investigated and compared with conventional structures. In this research line, mainly two optimizations criteria are proposed for spatial link adaptation, one based on the minimum error rate for fixed throughput, and the second focused on the maximisation of the rate for fixed error rate. Finally, some indications are given on how to include the spatial adaptation into the investigated and proposed resource allocation and scheduling process developed for single antenna transmission.
204

Marc integrador de les capacitats de Soft-Computing i de Knowledge Discovery dels Mapes Autoorganitzatius en el Raonament Basat en Casos

Fornells Herrera, Albert 14 December 2007 (has links)
El Raonament Basat en Casos (CBR) és un paradigma d'aprenentatge basat en establir analogies amb problemes prèviament resolts per resoldre'n de nous. Per tant, l'organització, l'accés i la utilització del coneixement previ són aspectes claus per tenir èxit en aquest procés. No obstant, la majoria dels problemes reals presenten grans volums de dades complexes, incertes i amb coneixement aproximat i, conseqüentment, el rendiment del CBR pot veure's minvat degut a la complexitat de gestionar aquest tipus de coneixement. Això ha fet que en els últims anys hagi sorgit una nova línia de recerca anomenada Soft-Computing and Intelligent Information Retrieval enfocada en mitigar aquests efectes. D'aquí neix el context d'aquesta tesi.Dins de l'ampli ventall de tècniques Soft-Computing per tractar coneixement complex, els Mapes Autoorganitzatius (SOM) destaquen sobre la resta per la seva capacitat en agrupar les dades en patrons, els quals permeten detectar relacions ocultes entre les dades. Aquesta capacitat ha estat explotada en treballs previs d'altres investigadors, on s'ha organitzat la memòria de casos del CBR amb SOM per tal de millorar la recuperació dels casos.La finalitat de la present tesi és donar un pas més enllà en la simple combinació del CBR i de SOM, de tal manera que aquí s'introdueixen les capacitats de Soft-Computing i de Knowledge Discovery de SOM en totes les fases del CBR per nodrir-les del nou coneixement descobert. A més a més, les mètriques de complexitat apareixen en aquest context com un instrument precís per modelar el funcionament de SOM segons la tipologia de les dades. L'assoliment d'aquesta integració es pot dividir principalment en quatre fites: (1) la definició d'una metodologia per determinar la millor manera de recuperar els casos tenint en compte la complexitat de les dades i els requeriments de l'usuari; (2) la millora de la fiabilitat de la proposta de solucions gràcies a les relacions entre els clústers i els casos; (3) la potenciació de les capacitats explicatives mitjançant la generació d'explicacions simbòliques; (4) el manteniment incremental i semi-supervisat de la memòria de casos organitzada per SOM.Tots aquests punts s'integren sota la plataforma SOMCBR, la qual és extensament avaluada sobre datasets provinents de l'UCI Repository i de dominis mèdics i telemàtics.Addicionalment, la tesi aborda de manera secundària dues línies de recerca fruït dels requeriments dels projectes on ha estat ubicada. D'una banda, s'aborda la definició de funcions de similitud específiques per definir com comparar un cas resolt amb un de nou mitjançant una variant de la Computació Evolutiva anomenada Evolució de Gramàtiques (GE). D'altra banda, s'estudia com definir esquemes de cooperació entre sistemes heterogenis per millorar la fiabilitat de la seva resposta conjunta mitjançant GE. Ambdues línies són integrades en dues plataformes, BRAIN i MGE respectivament, i són també avaluades amb els datasets anteriors. / El Razonamiento Basado en Casos (CBR) es un paradigma de aprendizaje basado en establecer analogías con problemas previamente resueltos para resolver otros nuevos. Por tanto, la organización, el acceso y la utilización del conocimiento previo son aspectos clave para tener éxito. No obstante, la mayoría de los problemas presentan grandes volúmenes de datos complejos, inciertos y con conocimiento aproximado y, por tanto, el rendimiento del CBR puede verse afectado debido a la complejidad de gestionarlos. Esto ha hecho que en los últimos años haya surgido una nueva línea de investigación llamada Soft-Computing and Intelligent Information Retrieval focalizada en mitigar estos efectos. Es aquí donde nace el contexto de esta tesis.Dentro del amplio abanico de técnicas Soft-Computing para tratar conocimiento complejo, los Mapas Autoorganizativos (SOM) destacan por encima del resto por su capacidad de agrupar los datos en patrones, los cuales permiten detectar relaciones ocultas entre los datos. Esta capacidad ha sido aprovechada en trabajos previos de otros investigadores, donde se ha organizado la memoria de casos del CBR con SOM para mejorar la recuperación de los casos.La finalidad de la presente tesis es dar un paso más en la simple combinación del CBR y de SOM, de tal manera que aquí se introducen las capacidades de Soft-Computing y de Knowledge Discovery de SOM en todas las fases del CBR para alimentarlas del conocimiento nuevo descubierto. Además, las métricas de complejidad aparecen en este contexto como un instrumento preciso para modelar el funcionamiento de SOM en función de la tipología de los datos. La consecución de esta integración se puede dividir principalmente en cuatro hitos: (1) la definición de una metodología para determinar la mejor manera de recuperar los casos teniendo en cuenta la complejidad de los datos y los requerimientos del usuario; (2) la mejora de la fiabilidad en la propuesta de soluciones gracias a las relaciones entre los clusters y los casos; (3) la potenciación de las capacidades explicativas mediante la generación de explicaciones simbólicas; (4) el mantenimiento incremental y semi-supervisado de la memoria de casos organizada por SOM. Todos estos puntos se integran en la plataforma SOMCBR, la cual es ampliamente evaluada sobre datasets procedentes del UCI Repository y de dominios médicos y telemáticos.Adicionalmente, la tesis aborda secundariamente dos líneas de investigación fruto de los requeri-mientos de los proyectos donde ha estado ubicada la tesis. Por un lado, se aborda la definición de funciones de similitud específicas para definir como comparar un caso resuelto con otro nuevo mediante una variante de la Computación Evolutiva denominada Evolución de Gramáticas (GE). Por otro lado, se estudia como definir esquemas de cooperación entre sistemas heterogéneos para mejorar la fiabilidad de su respuesta conjunta mediante GE. Ambas líneas son integradas en dos plataformas, BRAIN y MGE, las cuales también son evaluadas sobre los datasets anteriores. / Case-Based Reasoning (CBR) is an approach of machine learning based on solving new problems by identifying analogies with other previous solved problems. Thus, organization, access and management of this knowledge are crucial issues for achieving successful results. Nevertheless, the major part of real problems presents a huge amount of complex data, which also presents uncertain and partial knowledge. Therefore, CBR performance is influenced by the complex management of this knowledge. For this reason, a new research topic has appeared in the last years for tackling this problem: Soft-Computing and Intelligent Information Retrieval. This is the point where this thesis was born.Inside the wide variety of Soft-Computing techniques for managing complex data, the Self-Organizing Maps (SOM) highlight from the rest due to their capability for grouping data according to certain patterns using the relations hidden in data. This capability has been used in a wide range of works, where the CBR case memory has been organized with SOM for improving the case retrieval.The goal of this thesis is to take a step up in the simple combination of CBR and SOM. This thesis presents how to introduce the Soft-Computing and Knowledge Discovery capabilities of SOM inside all the steps of CBR to promote them with the discovered knowledge. Furthermore, complexity measures appear in this context as a mechanism to model the performance of SOM according to data topology. The achievement of this goal can be split in the next four points: (1) the definition of a methodology for setting up the best way of retrieving cases taking into account the data complexity and user requirements; (2) the improvement of the classification reliability through the relations between cases and clusters; (3) the promotion of the explaining capabilities by means of the generation of symbolic explanations; (4) the incremental and semi-supervised case-based maintenance. All these points are integrated in the SOMCBR framework, which has been widely tested in datasets from UCI Repository and from medical and telematic domains. Additionally, this thesis secondly tackles two additional research lines due to the requirements of a project in which it has been developed. First, the definition of similarity functions ad hoc a domain is analyzed using a variant of the Evolutionary Computation called Grammar Evolution (GE). Second, the definition of cooperation schemes between heterogeneous systems is also analyzed for improving the reliability from the point of view of GE. Both lines are developed in two frameworks, BRAIN and MGE respectively, which are also evaluated over the last explained datasets.
205

Técnicas de Sistemas Automáticos de Soporte Vectorial en la Réplica del Rating Crediticio

Campos Espinoza, Ricardo Álex 10 July 2012 (has links)
La correcta qualificació de risc de crèdit d'un emissor és un factor crític en l’economia actual. Aquest és un punt d’acord entre professionals i acadèmics. Actualment, des dels mitjans de comunicació s’han difós sovint notícies d'impacte provocades per agències de ràting. És per aquest motiu que treball d'anàlisi realitzat per experts financers aporta importants recursos a les empreses de consultoria d'inversió i agències qualificadores. Avui en dia, hi ha molts avenços metodològics i tècnics que permeten donar suport a la tasca que fan els professionals de la qualificació de la qualitat de crèdit dels emissors. Tanmateix encara queden molts buits per completar i àrees a desenvolupar per tal què aquesta tasca sigui tan precisa com cal. D'altra banda, els sistemes d'aprenentatge automàtic basats en funcions nucli, particularment les Support Vector Machines (SVM), han donat bons resultats en problemes de classificació quan les dades no són linealment separables o quan hi ha patrons amb soroll. A més, al usar estructures basades en funcions nucli és possible tractar qualsevol espai de dades, ampliant les possibilitats per trobar relacions entre els patrons, tasca que no resulta fàcil amb tècniques estadístiques convencionals. L’objectiu d'aquesta tesi és examinar les aportacions que s'han fet en la rèplica de ràting, i alhora, examinar diferents alternatives que permetin millorar l'acompliment de la rèplica amb SVM. Per a això, primer s'ha revisat la literatura financera amb la idea d'obtenir una visió general i panoràmica dels models usats per al mesurament del risc de crèdit. S'han revisat les aproximacions de mesurament de risc de crèdit individuals, utilitzades principalment per a la concessió de crèdits bancaris i per l'avaluació individual d'inversions en títols de renda fixa. També s'han revisat models de carteres d'actius, tant aquells proposats des del món acadèmic com els patrocinats per institucions financeres. A més, s'han revisat les aportacions dutes a terme per avaluar el risc de crèdit usant tècniques estadístiques i sistemes d'aprenentatge automàtic. S'ha fet especial èmfasi en aquest últim conjunt de mètodes d'aprenentatge i en el conjunt de metodologies usades per realitzar adequadament la rèplica de ràting. Per millorar l'acompliment de la rèplica, s'ha triat una tècnica de discretització de les variables sota la suposició que, per emetre l'opinió tècnica del ràting de les companyies, els experts financers en forma intuïtiva avaluen les característiques de les empreses en termes intervalars. En aquesta tesi, per fer la rèplica de ràting, s'ha fet servir una mostra de dades de companyies de països desenvolupats. S'han usat diferents tipus de SVM per replicar i s'ha exposat la bondat dels resultats d'aquesta rèplica, comparant-la amb altres dues tècniques estadístiques àmpliament usades en la literatura financera. S'ha concentrat l'atenció de la mesura de la bondat de l'ajust dels models en les taxes d'encert i en la forma en què es distribueixen els errors. D'acord amb els resultats obtinguts es pot sostenir que l'acompliment de les SVM és millor que el de les tècniques estadístiques usades en aquesta tesi, i després de la discretització de les dades d'entrada s'ha mostrat que no es perd informació rellevant en aquest procés. Això contribueix a la idea que els experts financers instintivament realitzen un procés similar de discretització de la informació financera per lliurar la seva opinió creditícia de les companyies qualificades. / La correcta calificación de riesgo crediticio de un emisor es un factor crítico en nuestra actual economía. Profesionales y académicos están de acuerdo en esto, y los medios de comunicación han difundido mediáticamente eventos de impacto provocados por agencias de rating. Por ello, el trabajo de análisis del deudor realizado por expertos financieros conlleva importantes recursos en las empresas de consultoría de inversión y agencias calificadoras. Hoy en día, muchos avances metodológicos y técnicos permiten el apoyo a la labor que hacen los profesionales en de calificación de la calidad crediticia de los emisores. No obstante aún quedan muchos vacíos por completar y áreas que desarrollar para que esta tarea sea todo lo precisa que necesita. Por otra parte, los sistemas de aprendizaje automático basados en funciones núcleo, particularmente las Support Vector Machines (SVM), han dado buenos resultados en problemas de clasificación cuando los datos no son linealmente separables o cuando hay patrones ruidosos. Además, al usar estructuras basadas en funciones núcleo resulta posible tratar cualquier espacio de datos, expandiendo las posibilidades para encontrar relaciones entre los patrones, tarea que no resulta fácil con técnicas estadísticas convencionales. El propósito de esta tesis es examinar los aportes que se han hecho en la réplica de rating, y a la vez, examinar diferentes alternativas que permitan mejorar el desempeño de la réplica con SVM. Para ello, primero se ha revisado la literatura financiera con la idea de obtener una visión general y panorámica de los modelos usados para la medición del riesgo crediticio. Se han revisado las aproximaciones de medición de riesgo crediticio individuales, utilizadas principalmente para la concesión de créditos bancarios y para la evaluación individual de inversiones en títulos de renta fija. También se han revisado modelos de carteras de activos, tanto aquellos propuestos desde el mundo académico como los patrocinados por instituciones financieras. Además, se han revisado los aportes llevados a cabo para evaluar el riesgo crediticio usando técnicas estadísticas y sistemas de aprendizaje automático. Se ha hecho especial énfasis en este último conjunto de métodos de aprendizaje y en el conjunto de metodologías usadas para realizar adecuadamente la réplica de rating. Para mejorar el desempeño de la réplica, se ha elegido una técnica de discretización de las variables bajo la suposición de que, para emitir la opinión técnica del rating de las compañías, los expertos financieros en forma intuitiva evalúan las características de las empresas en términos intervalares. En esta tesis, para realizar la réplica de rating, se ha usado una muestra de datos de compañías de países desarrollados. Se han usado diferentes tipos de SVM para replicar y se ha expuesto la bondad de los resultados de dicha réplica, comparándola con otras dos técnicas estadísticas ampliamente usadas en la literatura financiera. Se ha concentrado la atención de la medición de la bondad del ajuste de los modelos en las tasas de acierto y en la forma en que se distribuyen los errores. De acuerdo con los resultados obtenidos se puede sostener que el desempeño de las SVM es mejor que el de las técnicas estadísticas usadas en esta tesis; y luego de la discretización de los datos de entrada se ha mostrado que no se pierde información relevante en dicho proceso. Esto contribuye a la idea de que los expertos financieros instintivamente realizan un proceso similar de discretización de la información financiera para entregar su opinión crediticia de las compañías calificadas. / Proper credit rating of an issuer is a critical factor in our current economy. Professionals and academics agree on this, and the media have spread impact events caused by rating agencies. Therefore, the analysis performed by the debtor's financial experts has significant resources on investment consulting firms and rating agencies. Nowadays, many methodological and technical exist to support the professional qualification of the credit quality of issuers. However there are still many gaps to complete and areas to develop for this task to be as precise as needed. Moreover, machine learning systems based on core functions, particularly Support Vector Machines (SVM) have been successful in classification problems when the data are not linearly separable or when noisy patterns are used. In addition, by using structures based on kernel functions is possible to treat any data space, expanding the possibilities to find relationships between patterns, a task that is not easy with conventional statistical techniques. The purpose of this thesis is to examine the contributions made in the replica of rating, and, to look at different alternatives to improve the performance of prediction with SVM. To do this, we first reviewed the financial literature and overview the models used to measure credit risk. We reviewed the approaches of individual credit risk measurement, used principally for the lending bank and the individual assessment of investments in fixed income securities. Models based on portfolio of assets have also been revised, both those proposed from academia such as those used by financial institutions. In addition, we have reviewed the contributions carried out to assess credit risk using statistical techniques and machine learning systems. Particular emphasis has been placed on learning methods methodologies used to perform adequately replicate rating. To improve the performance of replication, a discretization technique has been chosen for the variables under the assumption that, for the opinion of the technical rating companies, financial experts intuitively evaluate the performances of companies in intervalar terms. In this thesis, for rating replication, we used a data sample of companies in developed countries. Different types of SVM have been used to replicate and discussed the goodness of the results of the replica, compared with two other statistical techniques widely used in the financial literature. Special attention has been given to measure the goodness of fit of the models in terms of rates of success and how they errors are distributed. According to the results it can be argued that the performance of SVM is better than the statistical techniques used in this thesis. In addition, it has been shown that in the process of discretization of the input data no-relevant information is lost. This contributes to the idea that financial experts instinctively made a similar process of discretization of financial information to deliver their credit opinion of the qualified companies.
206

El sistema d'informació de campus per a estudiants en les universitats espanyoles: caracterització i anàlisi

Cobarsí Morales, Josep 11 January 2005 (has links)
La disponibilitat de caracteritzacions àmplies dels sistemes d'informació dels campus per a estudiants pot ser tan útil per als responsables de la gestió estratègica dels centres d'educació superior com per a l'orientació d'estudiants universitaris potencials. Primer descrivim i contextualitzem un model de caracterització per als sistemes d'informació dels campus en línia per a estudiants. Això serveix com a marc de referència conceptual per al treball en l'àmbit de les universitats espanyoles. La informació es va reunir amb visites estructurades als llocs web institucionals i en entrevistes estructurades amb estudiants de llicenciatura. Analitzar la informació obtinguda ens permet situar les institucions individualment i comparar-les, a més d'obtenir una visió descriptiva de tot el conjunt de les universitats espanyoles amb una perspectiva informacional. Les universitats també es van classificar en grups amb característiques homogènies, en el sentit dels aspectes organitzatius i informacionals. Finalment, tractem investigacions futures en la matèria. / The availability of broad characterisations of campus information systems for students may be as useful for those responsible for the strategic management of higher education centres as for the orientation of potential university students. First we describe and contextualise a characterisation model for on-line campus information systems for students. This serves as a framework of conceptual reference for fieldwork on Spanish universities. Information was gathered by means of structured visits to institutional websites and structured interviews with undergraduate students. Analysing the information collected enables us to position the institutions individually and to compare them, as well as obtain a descriptive view of the whole group of Spanish universities from an informational point of view. The universities were also classified into groups with homogeneous characteristics, in the sense of their informational and organisational aspects. Finally, we discuss future research on this subject.
207

Development of chemical separation processes for the treatment and monitoring of metallic cations and oxoanions in polluted waters

Güell Martí, Raquel 07 October 2011 (has links)
The chemical contamination of natural waters is a global problem with a worldwide impact. Considering the relevance of this problem, this thesis is intended, on one hand, to develop different separation/preconcentration techniques based on membranes ability to permeate anions for the transport of toxic oxyanions of chromium(VI) and arsenic contained in aqueous matrices. In particular, we have investigated supported liquid membranes and polymer inclusion membranes, both of which contain the commercial quaternary ammonium salt Aliquat 336 as a carrier, as well as commercial anion exchange membranes. On the other hand, we have focused on the development of chemical sensors to facilitate the monitoring of several metals from different aqueous matrices. Thus, a selective optical sensor for Cr(VI) based on polymeric membranes containing Aliquat 336 as an ionophore has been designed. Additionally, mercury-based screen-printed electrodes have been evaluated for for cadmium, lead, copper and zinc detection. / La contaminació química de les aigües naturals és un problema global amb repercussió a nivell mundial. Donada la rellevància que té aquesta problemàtica, en la present tesi s’han desenvolupat d’una banda tècniques de separació/preconcentració basades en diferents sistemes de membrana en què el mecanisme de transport proposat és un bescanvi aniònic per als oxoanions tòxics de crom(VI) i arsènic presents en matrius aquoses. Concretament, s’ha treballat amb membranes líquides suportades que contenien el portador comercial Aliquat 336, membranes d’inclusió polimèriques amb el mateix portador i membranes de bescanvi aniònic comercials. D’altra banda, s’ha treballat en el desenvolupament de diferents sensors químics per monitoritzar diversos metalls presents en matrius aquoses. Així, s’ha dissenyat un sistema de sensor òptic selectiu a Cr(VI) basat en membranes polimèriques utilitzant també el portador Aliquat 336 i s’ha desenvolupat un sistema de monitorització per plom, coure, cadmi i zinc basat en microelèctrodes serigrafiats modificats amb mercuri.
208

Contribución a la selección de cadenas de procesos de fabricación

Blanch Font, Robert 01 March 2012 (has links)
During the design phase, it creates and transforms ideas into products. It needs to know the manufacturing aspects for ensuring success and calculating the product cost while developing of designs. However, the choice one or another way of manufacturing, it will get slightly different results to the proposed design. The design teams require knowing some manufacturing alternatives for evaluate. This thesis has been proposed a select manufacturing process chain tool. The system modeled the design and manufacturing process data by select attributes and the process relationship. Moreover, the system uses “transformation concept” that represents the capability of each manufacturing process to modify a determinate design attribute. Finally, the system is developed as algorithm and build as part of a CAD platform. / Al llarg de la fase de disseny és on es creen les idees i es transformen en productes. La incorporació d’aspectes de fabricació en el desenvolupament dels dissenys permetrà assegurar-ne l’èxit i calcular-ne el cost. Tanmateix, l’elecció d’un o un altre camí de fabricació farà obtenir resultats lleugerament diferents al del disseny proposat. Fent que els equips de disseny precisin obtenir alternatives de fabricació durant la fase de disseny per a valorar les possibilitats. S’ha proposat, amb aquest tesis, una eina que estableix cadenes de processos de fabricació per a cada disseny. Per a desenvolupar-la s’ha modelitzat per mitja dels atributs la informació de disseny i la dels processos de fabricació, enriquit amb les relacions entre processos. S’ha completat l’obtenció de les cadenes amb l’ús del “concepte de transformada” que indica com pot alterar un procés un determinat atribut. Finalment s’ha desenvolupat un algoritme que combina ambdós parts i s’ha implementat com a part d’una plataforma CAD.
209

A geometric study of abnormality in optimal control problems for control and mechanical control systems

Barbero Liñán, María 19 December 2008 (has links)
Durant els darrers quaranta anys la geometria diferencial ha estat una eina fonamental per entendre la teoria de control òptim. Habitualment la millor estratègia per resoldre un problema és transformar-lo en un altre problema que sigui més tractable. El Principi del Màxim de Pontryagin proporciona al problema de control òptim d’una estructura Hamiltoniana. Les solucions del problema Hamiltonià que satisfan unes determinades propietats són candidates a ésser solucions del problema de control òptim. Aquestes corbes candidates reben el nom d’extremals. Per tant, el Principi del Màxim de Pontryagin aixeca el problema original a l’espai cotangent. En aquesta tesi desenvolupem una demostració completa i geomètrica del Principi del Màxim de Pontryagin. Investiguem cuidadosament els punts més delicats de la demostració, que per exemple inclouen les perturbacions del controls, l’aproximació lineal del conjunt de punts accessibles i la condició de separació. Entre totes les solucions d’un problema de control òptim, existeixen les corbes anormals. Aquestes corbes no depenen de la funció de cost que es vol minimitzar, sinó que només depenen de la geometria del sistema de control. En la literatura de control òptim, existeixen estudis sobre l’anormalitat, tot i que només per a sistemes lineals o afins en el controls i sobretot amb funcions de cost quadràtiques en els controls. Nosaltres descrivim un mètode geomètric nou per caracteritzar tots els diferents tipus d’extremals (no només les anormals) de problemes de control òptim genèrics. Aquest mètode s’obté com una adaptació d’un algoritme de lligadures presimplèctic. El nostre interès en les corbes anormals es degut a les corbes òptimes estrictament anormals, les quals també queden caracteritzades mitjançant l’algoritme descrit en aquesta tesi. Com aplicació del mètode mencionat, caracteritzem les extremals d’un problema de control òptim lliure, aquell on el domini de definició no està donat. En concret, els problemes de temps mínim són problemes de control òptim lliures. A més a més, som capaços de donar una corba extremal estrictament anormal aplicant el mètode descrit per a un sistema mecànic. Un cop la noció d’anormalitat ha estat estudiada en general, ens concentrem en l’estudi de l’anormalitat per a sistemes de control mecànics, perquè no existeixen resultats sobre l’existència de corbes òptimes estrictament anormals per a problemes de control òptim associats a aquests sistemes. En aquesta tesi es donen resultats sobre les extremals anormals quan la funció de cost és quadràtica en els controls o si el funcional a minimitzar és el temps. A més a més, la caracterització d’anormals en casos particulars és descrita mitjançant elements geomètrics com les formes quadràtiques vector valorades. Aquests elements geomètrics apareixen com a resultat d’aplicar el mètode descrit en aquesta tesi. També tractem un altre enfocament de l’estudi de l’anormalitat de sistemes de control mecànics, que consisteix a aprofitar l’equivalència que existeix entre els sistemes de control noholònoms i els sistemes de control cinemàtics. Provem l’equivalència entre els problemes de control òptim associats a ambdós sistemes de control i això permet establir relacions entre les corbes extremals del problema nonholònom i del cinemàtic. Aquestes relacions permeten donar un example d’una corba òptima estrictament anormal en un problema de temps mínim per a sistemes de control mecànics. Finalment, i deixant de banda per un moment l’anormalitat, donem una formulació geomètrica dels problemes de control òptim no autònoms mitjançant la formulació unificada de Skinner-Rusk. La formulació descrita en aquesta tesis és fins i tot aplicable a sistemes de control implícits que apareixen en un gran nombre de problemes de control òptim dins de l’àmbit de l’enginyeria, com per exemple els sistemes Lagrangians controlats i els sistemes descriptors. / Durante los últimos cuarenta años la geometría diferencial ha sido una herramienta para entender la teoría de control óptimo. Habitualmente la mejor estrategia para resolver un problema es transformarlo en otro problema que sea más tratable. El Principio del Máximo de Pontryagin dota al problema de control óptimo de una estructura Hamiltoniana. Las soluciones del problema Hamiltoniano que satisfagan determinadas propiedades son candidatas a ser soluciones del problema de control óptimo. Estas curvas candidatas se llaman extremales. Por lo tanto, el Principio del Máximo de Pontryagin levanta el problema original al espacio cotangente. En esta tesis doctoral, desarrollamos una demostración completa y geométrica del Principio del Máximo de Pontryagin. Investigamos minuciosamente los puntos delicados de la demostración, como son las perturbaciones de los controles, la aproximación lineal del conjunto de puntos alcanzables y la condición de separación. Entre todas las soluciones de un problema de control óptimo, existen las curvas anormales. Estas curvas no dependen de la función de coste que se quiere minimizar, sino que sólo dependen de la geometría del sistema de control. En la literatura de control óptimo existen estudios sobre la anormalidad, aunque sólo para sistemas lineales o afines en los controles y fundamentalmente con funciones de costes cuadráticas en los controles. Nosotros presentamos un método geométrico nuevo para caracterizar todos los distintos tipos de extremales (no sólo las anormales) de problemas de control óptimo genéricos. Este método es resultado de adaptar un algoritmo de ligaduras presimpléctico. Nuestro interés en las extremales anormales es debido a las curvas óptimas estrictamente anormales, las cuales también pueden ser caracterizadas mediante el algoritmo descrito en esta tesis. Como aplicación del método mencionado en el párrafo anterior, caracterizamos las extremales de un problema de control óptimo libre, aquél donde el dominio de definición de las curvas no está dado. En particular, los problemas de tiempo óptimo son problemas de control óptimo libre. Además, somos capaces de dar un ejemplo de una curva extremal estrictamente anormal aplicando el método descrito. Una vez la noción de anormalidad en general ha sido estudiada, nos centramos en el estudio de la anormalidad para sistemas de control mecánicos, ya que no existen resultados sobre la existencia de curvas óptimales estrictamente anormales para problemas de control óptimo asociados a estos sistemas. En esta tesis, se dan resultados sobre las extremales anormales cuando la función de coste es cuadrática en los controles o el funcional a minimizar es el tiempo. Además, la caracterización de las anormales en casos particulares es descrita por medio de elementos geométricos como las formas cuadráticas vector valoradas. Dichos elementos geométricos aparecen como consecuencia del método descrito para caracterizar las extremales. También se considera otro enfoque para el estudio de la anormalidad de sistemas de control mecánicos, que consiste en aprovechar la equivalencia que existe entre sistemas de control noholónomos y sistemas de control cinemáticos. Se prueba la equivalencia entre problemas de control óptimo asociados a ambos sistemas de control, lo que permite establecer relaciones entre las extremales del problema noholónomo y las extremales del problema cinemático. Estas relaciones permiten dar un ejemplo de una curva optimal estrictamente anormal en un problema de tiempo óptimo para sistemas de control mecánicos. Por último, olvidándonos por un momento de la anormalidad, se describe una formulación geométrica de los problemas de control óptimo no autónomos aprovechando la formulación unificada de Skinner-Rusk. Esta formulación es incluso válida para sistemas de control implícitos que aparecen en numerosos problemas de control óptimo de ámbito ingenieril, como por ejemplo, los sistemas Lagrangianos controlados y los sistemas descriptores. / For the last forty years, differential geometry has provided a means of understanding optimal control theory. Usually the best strategy to solve a difficult problem is to transform it into a different problem that can be dealt with more easily. Pontryagin's Maximum Principle provides the optimal control problem with a Hamiltonian structure. The solutions to the Hamiltonian problem, satisfying particular conditions, are candidates to be solutions to the optimal control problem. These candidates are called extremals. Thus, Pontryagin's Maximum Principle lifts the original problem to the cotangent bundle. In this thesis, we develop a complete geometric proof of Pontryagin's Maximum Principle. We investigate carefully the crucial points in the proof such as the perturbations of the controls, the linear approximation of the reachable set and the separation condition. Among all the solutions to an optimal control problem, there exist the abnormal curves. These do not depend on the cost function we want to minimize, but only on the geometry of the control system. Some work has been done in the study of abnormality, although only for control-linear and control-affine systems with mainly control-quadratic cost functions. Here we present a novel geometric method to characterize all the different kinds of extremals (not only the abnormal ones) in general optimal control problems. This method is an adaptation of the presymplectic constraint algorithm. Our interest in the abnormal curves is with the strict abnormal minimizers. These last minimizers can be characterized by the geometric algorithm presented in this thesis. As an application of the above-mentioned method, we characterize the extremals for the free optimal control problems that include, in particular, the time-optimal control problem. Moreover, an example of an strict abnormal extremal for a control-affine system is found using the geometric method. Furthermore, we focus on the description of abnormality for optimal control problems for mechanical control systems, because no results about the existence of strict abnormal minimizers are known for these problems. Results about the abnormal extremals are given when the cost function is control-quadratic or the time must be minimized. In this dissertation, the abnormality is characterized in particular cases through geometric constructions such as vectorvalued quadratic forms that appear as a result of applying the previous geometric procedure. The optimal control problems for mechanical control systems are also tackled taking advantage of the equivalence between nonholonomic control systems and kinematic control systems. In this thesis, it is found an equivalence between time-optimal control problems for both control systems. The results allow us to give an example of a local strict abnormal minimizer in a time-optimal control problem for a mechanical control system. Finally, setting aside the abnormality, the non-autonomous optimal control problem is described geometrically using the Skinner-Rusk unified formalism. This approach is valid for implicit control systems that arise in optimal control problems for the controlled Lagrangian systems and for descriptor systems. Both systems are common in engineering problems.
210

El debate epistemológico en el periodismo informativo. Realidad y verdad en la información

Capilla García, Juan Pablo 19 March 2015 (has links)
Esta tesis doctoral analiza la dimensión gnoseológica del periodismo informativo, es decir, su capacidad de generar conocimiento sobre la realidad, para lo cual aplica al periodismo la reflexión epistemológica de la filosofía y de la historiografía. El objetivo es constatar las posibilidades gnoseológicas del periodismo con el fin de delimitar una definición de la profesión periodística acorde con su capacidad para conocer. Para ello, configura el objeto de estudio a partir de las alusiones epistemológicas halladas en textos que describen la actividad periodística: libros de estilo, códigos deontológicos, manuales prácticos y estudios teóricos sobre el periodismo. Con ello se busca configurar una visión panorámica de las prácticas profesionales de los periodistas, así como revisar la reflexión desarrollada desde el propio periodismo sobre las implicaciones epistemológicas de su trabajo. A ese objeto de estudio se le ha aplicado el aparato conceptual de la epistemología para plantear en el periodismo un debate epistemológico en términos conmensurables con los de la reflexión gnoseológica de la filosofía y de la historiografía. El resultado es la definición del proceso gnoseológico del periodismo, en el que se distinguen dos fases: a) la perceptiva, asociada al uso de las fuentes informativas y que permite el contacto con la realidad; y b) la atribución de significado a los resultados de la percepción, que es la fase en la que se dirime la discusión sobre la verdad de los enunciados periodísticos. En la primera fase se analizan las situaciones en las que el periodista captura hechos de la realidad, a través de las fuentes, y se llega a la conclusión de que el punto de partida del proceso gnoseológico es el relato de la percepción de un hecho, no la realidad en sí, puesto que siempre aparece un intermediario –el testigo– entre la realidad y la percepción de la realidad. En la segunda fase se analiza el paradigma gnoseológico imperante en el periodismo –el objetivismo–, para concluir que dicho paradigma relega al periodismo a la recolección de hechos, con lo que se niega la función gnoseológica del periodista al situar la atribución de significado –la interpretación– fuera del ámbito de actuación del periodista. En contraposición, se analizan propuestas epistemológicas que asumen como ineludible la intervención del sujeto a la hora de otorgar significado a los hechos, a partir de la naturaleza narrativa inherente a la noticia. En ese sentido, situar al periodista en el centro de la actividad periodística aparece como la única posibilidad de justificar la condición gnoseológica del periodismo, y con ella su capacidad de explicar hechos, sobre todo en un momento como el actual en el que las tecnologías de información están poniendo en cuestión aspectos clave del periodismo, desde la singularidad de la profesión periodística hasta su capacidad de generar enunciados gnoseológicos de la realidad. / Aquesta tesi doctoral analitza la dimensió gnoseològica del periodisme informatiu, és a dir, la seva capacitat per a generar coneixement de la realitat, aplicant al periodisme la reflexió epistemològica de la filosofia i de la historiografia. L'objectiu és constatar les possibilitats gnoseològiques del periodisme amb la finalitat de delimitar una definició de la professió periodística d'acord amb la seva capacitat per a conèixer. Per això, s'ha configurat l'objecte d'estudi de la tesi a partir de les al•lusions epistemològiques trobades en textos que descriuen l'activitat periodística: llibres d'estil, codis deontològics, manuals pràctics i estudis teòrics sobre el periodisme. Amb això es busca tenir una visió panoràmica de les pràctiques professionals dels periodistes, així com revisar la reflexió desenvolupada des del mateix periodisme sobre les implicacions epistemològiques de la seva feina. Un cop configurat l'objecte d'estudi, se li ha aplicat l'aparell conceptual de l'epistemologia per tal de plantejar en el periodisme un debat epistemològic en termes commensurables amb els de la reflexió gnoseològica de la filosofia i de la historiografia. El resultat és la definició del procés gnoseològic del periodisme, en el qual es distingeixen dues fases: a) la perceptiva, associada a l'ús de les fonts informatives i que permet el contacte amb la realitat; i b) l'atribució de significat als resultats de la percepció, que és la fase en la qual es dirimeix la discusió sobre la veritat dels enunciats periodístics. A la primera fase s'analitzen les situacions en les quals el periodista captura fets de la realitat, mitjançant les fonts, i s'arriba a la conclusió que el punt de partida del procés gnoseològic és el relat de la percepció d'un fet, no el fet en sí, ja que sempre apareix un intermediari –el testimoni– entre la realitat i la percepció de la realitat. A la segona fase es revisa el paradigma gnoseològic que impera en el periodisme –l'objetivisme– per a concloure que aquest paradigma relega el periodisme a la recol•lecció de fets, amb la qual cosa es nega la funció gnoseològica del periodista en situar l'atribució de significat –la interpretació– fora de l'àmbit d'actuació del periodista. En contraposició, s'analitzen propostes epistemològiques que assumeixen com a ineludible la intervenció del subjecte a l'hora d'atorgar significat als fets, a partir de la naturalesa narrativa inherent a la notícia. En aquest sentit, situar el periodista al centre de l'activitat periodística apareix com l'única possibilitat de justificar la condició gnoseològica del periodisme, i amb ella la seva capacitat d'explicar fets, sobretot en el moment actual, quan les tecnologies de la informació estan posant en crisi aspectes claus del periodisme, des de la singularitat de la professió periodística fins a la seva capacitat de generar enunciats gnoseològics de la realitat. / This doctoral thesis looks into the gnoseological dimension of informative journalism, that is, its capacity to produce knowledge about reality. To do so, journalism is analysed along the lines of the epistemological reflection of philosophy and historiography. The aim is to examine the gnoselogical possibilities of journalism in order to establish a definition of the profession of journalism in accordance with its capacity to get to know the real world. In order to do that, it sets the subject of study from the epistemological references as found in texts describing the activity of journalism: books of style, deontological codes, manuals and theoretical studies about journalism. It seeks to get a general view of the professional practices of journalists, as well as reviewing the reflections made from journalism itself about the epistemological implications of the discipline. An epistemological approach has been used to analyse the subject of study so as to put forward an epistemological discussion —in similar terms as those used in the gnoseological reflection on philosophy and historiography. The upshot is the definition of the epistemological process in journalism, in which we can pinpoint two stages: a) the perceptual stage, which is associated with the use of information sources and which allows contact with reality; b) the attribution of meaning to the results of perception: the stage in which one settles the discussion about the truth of journalistic statements. In the first stage, we look into situations in which the journalist captures events from sources, and we reach the conclusion that the starting point of the epistemological process is the account of the perception of an event, not reality itself, since there emerges always an intermediary —the witness— between reality and the perception of reality. In the second stage we examine the gnoseological paradigm in journalism —objectivism—, and we infer that such a paradigm degrades journalism to the mere recollection of facts, and hence the journalist is stripped of their epistemological function because the attribution of meaning —the interpretation— is beyond the scope of the journalist’s task. In contrast, we examine epistemological approaches that deem inevitable the subject’s intervention when it comes to attributing meaning to facts, based on the inherent narrative nature of a news story. In that sense, placing the journalist at the centre of the journalistic activity seems to be the only possibility to justify the epistemological condition of journalism, and therewith its capacity to report facts, particularly nowadays when information technologies are calling into question key aspects of journalism, such as the unique nature of journalism and also its capacity to produce gnoseological statements about reality.

Page generated in 0.0613 seconds