61 |
Méthodologie d'écriture de compilateurs - une expérience du langage ALGOL 68Cunin, Pierre-Yves, Simonet, Michel, Voiron, Jacques 22 April 1976 (has links) (PDF)
.
|
62 |
Function of M4 protein in vitro and in vivoWang, Xuan January 2013 (has links)
Herpesviruses are ubiquitous in both humans and animals and can cause life-threatening disease. The discovery of murine gammaherpesvirus 68 (MHV-68), which has many similarities in genome and pathogenesis as the human pathogens Epstein-Barr virus and Kaposi’s sarcoma-associated herpesvirus, provides a model for further investigation of the pathogenesis of gammaherpesviruses. The M4 gene was found to be at the left end region of MHV-68 genome. The presence of the M4 protein is required during the early establishment of MHV-68 latency. However, the function of M4 protein remains unclear. The aim of this project was to investigate the function of the M4 protein in vitro and during infection. By using an ELISA, the recombinant M4 protein was shown to bind several Cxc-chemokines and stop the interaction between Cxcl4 and GAGs. The role of M4 protein during MHV-68 lytic infection and in the early establishment of latency was studied by comparing the pathogenesis of virus which does not express M4 (M4stop) and wild type virus (WT). Compared to WT infection, this study found that M4stop was decreased in the lungs at day 8 post infection (p.i.). At the same time point, the viral loads were higher in M4stop infected spleens, which was accompanied by increased expression of the CD4+ T cell activation marker PD-1 and the macrophage activation marker CD69. However, at day 14 p.i., the M4stop infected spleens had lower viral loads, and the expression of CD69 was decreased on CD4+, CD8+ T cells, B cells and macrophages. Furthermore, gene expression PCR arrays were used to investigate how cellular activation and inflammation were transcriptionally regulated. It has been found that the transcription of several genes, which are involved in germinal centre development, was lower in the spleens of WT infected mice at day 12 and 14 p.i. compared to day 10 p.i. of WT infection, as well as day 12 and 14 p.i. of M4stop infection. In addition, the percentage of germinal centre B cells was found to be higher in spleens infected with M4stop at day 10 p.i.. However, there was no difference in percentages of TFH and plasma cells in the spleens. Finally, in order to understand the role of IFN-γ in control of infection in M4stop infected mice, IFN-γR-/- mice were infected with M4stop and WT. Although there were differences in pathogenesis between WT and M4Stop virus infected IFN-γR-/- mice, there was no clear evidence that M4 function is involved in inhibiting IFN-γ pathways. In this study, we found M4 can disturb the interaction of chemokine and GAGs and might delay virus trafficking to the spleen, which could lead to a reduction of cellular activation. M4 may also impair the development of germinal centres at the beginning of latent infection in the spleens.
|
63 |
A re-examination of the coinages of Nero, with special reference to the aes coined and current in the western provinces of the EmpireMacDowall, David William January 1959 (has links)
No description available.
|
64 |
Estudio de diferentes métodos de integración numérica. Aplicación en la caracterización de superficies mediante deflectometría óptica y un sensor de Shack-HartmannMoreno Soriano, Alfonso 31 March 2006 (has links)
Con el cambio del siglo XX al XXI, la importancia de las tecnologías ópticas, como herramientas esenciales para otras ciencias, está llamando la atención en diferentes ámbitos científicos y económicos. El desarrollo de técnicas relacionadas con la imagen óptica aparece en diferentes puntos de vista como por ejemplo, la tecnología de la información y de las comunicaciones, la salud humana y las ciencias de la vida, los sensores ópticos y nuevas lámparas para una mejora en el consumo de energía, el desarrollo de equipos destinados a procesos de fabricación en la industria, etc. Las aplicaciones en la industria han tenido un gran impacto económico: por ejemplo, todos los circuitos integrados de semiconductores que se producen en el mundo se fabrican mediante litografía óptica. El desarrollo de la industria de semiconductores ha dado un impulso a la investigación básica y al desarrollo de técnicas ópticas: la disminución de los tamaños en la fabricación implica la exigencia de nuevos materiales, nuevos componentes ópticos, nuevas fuentes de iluminación. En la actualidad, la mayoría de la población europea es usuaria de la Tecnología de la Información y de la Comunicación (del inglés, "Information Communication Technology"), por ejemplo a través de ordenadores personales, telefonía móvil, electrónica empleada en medicina, internet, control de robots inteligentes, detección de obstáculos para la guía de un vehículo,. y la calidad de este tipo de productos aumenta considerablemente cada pocos años para un mismo precio (un factor ~2 cada 3 años). La base de tal progreso se debe, en gran parte, al rápido progreso en la calidad de los componentes que se emplean en esta ICT, como por ejemplo, los circuitos integrados y su conexión con otros dispositivos. La industria semiconductora se está preparando para promover una reducción del detalle más pequeño en los circuitos integrados, por debajo de los 130 nanómetros. Tal reducción requiere una evaluación de la ausencia de gradientes ondulatorios y abruptos con una precisión de 10 nanómetros para el caso particular de obleas de 300 milímetros de diámetro. El diámetro actual standard de las obleas es de 200 milímetros aunque actualmente ya se están produciendo obleas de 300 milímetros y el objetivo es fabricar obleas todavía más grandes. Además, la velocidad de procesado aumentará hasta 100 obleas por hora. Así, el control en la producción y pulido de obleas requiere una instrumentación para la medición rápida de la topografía tridimensional que en la actualidad, no está disponible técnicamente. Otro de los problemas que aparece en la industria semiconductora concierne a los substratos que forman las obleas. La tecnología actual permite producir detalles muy pequeños mediante procesos litográficos. Esto exige mayores requerimientos en la planitud de las obleas sobre las que se depositan repetidamente circuitos integrados. El problema consiste en que la inspección de la planitud requiere mucho tiempo, varias horas para una única oblea. Otro de los problemas con los que se encuentra la industria semiconductora es el procesado de las obleas. Después de la deposición de cada substrato, se neutraliza depositando una capa muy delgada de SiO2. Antes de la siguiente deposición, la oblea se somete a procesos de pulido químicos y mecánicos para conseguir de nuevo la planitud deseada. Se trata de un proceso lento que aumenta el coste de producción. Sin embargo, en un futuro inmediato se fabricarán obleas de 450 mm de diámetro mientras que las actuales son de 200 mm; de forma que se podrán depositar más circuitos integrados ganando tiempo y reduciendo el coste de producción. La situación es similar en otros campos, como por ejemplo, los dispositivos de cristal líquido: en la línea de producción se requiere un rápido control de la topografía tridimensional de dichos cristales, que tampoco está disponible en la actualidad. En este caso las dimensiones pueden llegar a ser de 1m por 1m.
|
65 |
Organización de la información y su impacto en la usabilidad de las tecnologías interactivasCobo Romaní, Cristóbal 14 July 2005 (has links)
Dada la creciente masificación de las tecnologías de información resulta necesario avanzar en la consolidación de metodologías comunicológicas que ajusten los diseños de estos dispositivos a las necesidades y características de sus usuarios.En este trabajo se lleva a cabo una investigación experimental orientada a definir principios, instrumentos y metodologías que contribuyan a optimizar la usabilidad de estas herramientas de información.Esta investigación desarrolla pruebas experimentales, en las que participaron 163 sujetos, quienes evaluaron diferentes modelos de organización de la información en la web y luego valoraron su grado de usabilidad, según los principios de la International Organization for Standardization (ISO), a través de un cuestionario en línea.Los resultados de este trabajo demuestran que existen criterios de organización y arquitectura de la información de sitios web que permiten optimizar, de manera estadísticamente significativa, la interacción que se produce entre usuarios con diferentes niveles de alfabetización tecnológica y estos dispositivos informacionales.Palabras claves: Usabilidad, nuevas tecnologías de información, interactividad. / Considering the massive growth of information technology, it is necessary to consolidate the communication methods and adapt the design of these technologies to the necessities and characteristics of their users.The goal of the experimental investigation presented in this work is to define the principles, instruments and methodologies that contribute to optimize the usability of these tools of information.This investigation develops experimental tests in which 163 subjects participated. They sampled web sites with different models of information architecture and then assigned a degree of usability through an on-line questionnaire using the principles defined by the International Organization for Standardization (ISO).This work demonstrates, in a statistically significant manner, that a positive correlation exists between the structure of a web site's information architecture and the degree of usability. This improvement of interaction was identified among subjects of differing levels of technology savvy.Key words: Usability, Information technology, interactivity, information architecture, feedback.
|
66 |
Scratchpad-oriented address generation for low-power embedded VLIW processorsTalavera Velilla, Guillermo 15 October 2009 (has links)
Actualmente, los sistemas encastados están creciendo a un ritmo impresionante y proporcionan cada vez aplicaciones más sofisticadas. Un conjunto de creciente importancia son los sistemas multimedia portátiles de tiempo real y los sistemas de comunicación de procesado digital de señal: teléfonos móviles, PDAs, cámaras digitales, consolas portátiles de juegos, terminales multimedia, netbooks, etc. Estos sistemas requieren computación específica de alto rendimiento, generalmente con restricciones de tiempo real y calidad de servicio (Quality of Service - QoS), que han de ejecutarse con un nivel bajo de consumo para extender la vida de la batería y evitar el calentamiento del dispositivo. También se requiere una arquitectura flexible para satisfacer las restricciones del "time-to-market". En consecuencia, los sistemas encastados necesitan una solución programable, de bajo consumo y alta capacidad de computación para satisfacer todos los requerimientos.Las arquitecturas de tipo Very Long Instruction Word parecen una buena solución ya que proporcionan el suficiente rendimiento a bajo consumo con la programabilidad requerida. Estas arquitecturas se asientan sobre el esfuerzo del compilador para extraer el paralelismo disponible a nivel datos y de instrucciones para mantener las unidades computacionales ocupadas todo el rato. Con la densidad de los transistores doblando cada 18 meses, están emergiendo arquitecturas cada vez más complejas con un alto número de recursos computacionales ejecutándose en paralelo. Con esta, cada vez mayor, computación paralela, el acceso a los datos se está convirtiendo en el mayor impedimento que limita la posible extracción del paralelismo. Para aliviar este problema, en las actuales arquitecturas, una unidad especial trabaja en paralelo con los principales elementos computacionales para asegurar una eficiente transmisión de datos: la Unidad Generadora de Direcciones (Address Generator Unit), que puede implementarse de diferentes formas.El propósito de esta tesis es probar que optimizar el proceso de la generación de direcciones es una manera eficiente de solucionar el proceso de acceder a los datos al mismo tiempo que disminuye el tiempo de ejecución y el consumo de energía.Esta tesis evalúa la efectividad de los diferentes dispositivos que actualmente se usan en los sistemas encastados, argumenta el uso de procesadores de tipo "very long instruction word" y presenta la infraestructura de compilador y exploración arquitectural usada en los experimentos. Esta tesis también presenta una clasificación sistemática de los generadores de direcciones, un repaso de las diferentes técnicas de optimización actuales acorde con esta clasificación y una metodología, usando técnicas ya publicadas, sistemática y óptima que reduce gradualmente la energía necesitada. También se introduce el entorno de trabajo que permite una exploración arquitectural sistemática y los métodos usados para obtener una unidad de generación de direcciones. Los resultados de este unidad de generación de direcciones reconfigurable se muestran en diferentes aplicaciones de referencia (benchmarks) y la metodología sistemática se muestra en una aplicación completa real. / Nowadays Embedded Systems are growing at an impressive rate and provide more and more sophisticated applications. An increasingly important set of embedded systems are real-time portable multimedia and digital signal processing communication systems: cellular phones, PDAs, digital cameras, handheld gaming consoles, multimedia terminals, netbooks, etc. These systems require high performance specific computations, usually with real-time and Quality of Service (QoS) constraints, which should run at a low energy level to extend battery life and avoid heating. A flexible system architecture is also required to successfully meet short time-to-market restrictions. Hence, embedded systems need a programmable, low power and high performance solution in order to deal with these requirements.Very Long Instruction Word architectures seem a good solution for providing enough computational performance at low-power with the required programmability to speed the time-to-market. Those architectures rely on compiler effort to exploit the available instruction and data parallelism to keep the data path busy all the time. With the density of transistors doubling each 18 months, more and more complex architectures with a high number of computational resources running in parallel are emerging. With this increasing parallel computation, the access to data is becoming the main bottleneck that limits the available parallelism. To alleviate this problem, in current embedded architectures, a special unit works in parallel with the main computing elements to ensure efficient feed and storage of the data: the Address Generator Unit, which comes in many flavors. The purpose of this dissertation is to prove that optimizing the process of address generation is an effective way of solving the problem of accessing data while decreasing execution time and energy consumption.As a first step, this thesis evaluates the effectiveness of different state-of-the-art devices commonly used in the embedded domain, argues for the use of very long instruction word processors and presents the compiler and architecture framework used for our experiments. This thesis also presents a systematic classification of address generators, a review of literature according to the classification of the different optimizations on the address generation process and a step-wise methodology that gradually reduces energy reusing techniques that already have been published. The systematic architecture exploration framework and methods used to obtain a reconfigurable address generation unit are also introduced.Results of the reconfigurable address generator unit are shown on several benchmarks and applications, and the complete step-wise methodology is demonstrated on a real-life example.
|
67 |
Geometric and Structural-based Symbol Spotting. Application to Focused Retrieval in Graphic Document CollectionsRusiñol Sanabra, Marçal 18 June 2009 (has links)
No description available.
|
68 |
Cardiac workstation and dynamic model to assist in coronary tree analysisToledo Morales, Ricardo 13 July 2001 (has links)
This thesis explores the issues involved in automatic coronary vessel analysis using deformable models and estimation algorithms. The work is carried out as a consequence of a previous international research and development project on multimedia and teleworking in medicine (radiology imaging). After developing and validating a multimedia workstation from a user perspective, the experience obtained showed the convenience to incorporate new computer vision tools to assist the physicians during the image assessment in the diagnostic process. The work presented is a part of a computer assisted diagnosis system within a telemedicine system.Focusing on cardiac imaging, the first step is to adapt the workstation to such image modality, then the goal is to build a computerised coronary tree model, able to incorporate 3D static (anatomical) and dynamic (vessel movements) data. Such a model is useful to increase the knowledge necessary when dealing with a difficult image modality in computer vision, like coronary angiography. To build the model, many computer vision problems have to be addressed. From low-level tasks as vessel detection up to high level ones like image understanding are necessarily covered. Mainly, deformable models (snakes) and estimation techniques are discussed and used with innovative ideas through the model building process. Ought to the tight dependence of the deformable models on the low level image feature detectors, new methods to learn the vessels based on statistical analysis and fine tune the detector are proposed increasing the segmentation confidence. A new statistical potential map is developed within a new energy minimising scheme. Snakes are also applied in the 3D-reconstruction process. A graph is designed and used to hold the knowledge of the complete model. The novel approach for vessel analysis and the final model were validated and the results are very encouraging.
|
69 |
Un modelo sintáctico para la representación, segmentación y reconocimiento de símbolos texturados en doucmentos gráficosSánchez Albaladejo, Gemma 05 November 2001 (has links)
El análisis de documentos es una de las áreas científicas de referencia de la Visión por Computador. Se ocupa de la identificación de entidades gráficas en un documento. Dentro de este área el reconocimiento de símbolos es un problema complejo y en el que existen todavía retos importantes, y puede definirse como la extracción de aquellas entidades gráficas con un significado determinado dentro del contexto en el que se enmarque el documento. Los símbolos los podemos dividir en dos clases principalmente, los basados en prototipos y los texturados, es decir símbolos que tienen alguna de sus partes formada por una textura estructurada.Las texturas estructuradas se definen por uno o varios elementos o texels que se distribuyen en el espacio siguiendo unas reglas de emplazamiento. En nuestro modelo de textura estructurada consideraremos que estos texels son polígonos cerrados o segmentos de línea. Análogamente, un plano o documento a reconocer se modeliza por medio de un grafo de regiones de adyacencia, en el que los nodos representan los polígonos encontrados en el plano y las aristas las relaciones entre ellos.El trabajo realizado tiene dos partes bien diferenciadas, la segmentación y el reconocimiento de texturas. En la primera, segmentamos texturas por medio de un clustering jerárquico sobre el grafo que representa el plano. De esta manera obtenemos una serie de clusters de polígonos similares con reglas de emplazamiento similares. Así los clusters donde encontramos un número suficiente de elementos están formando una textura y su representante es el polígono y la vecindad medios calculados. Cuando es una textura compuesta y está formada por más de un texel encontramos clusters solapados, y cada uno de ellos nos indica uno de los texels que forman la textura. La segunda fase infiere una representación de la textura a partir de los representantes de los clusters. Esta representación es una gramática de grafo que permite producciones de error. El proceso de inferencia gramatical se realiza teniendo en cuenta los texels que forman la textura y sus reglas de emplazamiento. A partir de ellas se calculan de forma automática los ciclos cerrados que forman estas vecindades y se generan las reglas de la gramática de grafo. Al final se introducen producciones de error para tolerar texturas distorsionadas por texels partidos o fusionados. Una vez la gramática ha sido calculada se reconoce el símbolo representado por ella mediante un parser que analiza un grafo de entrada y recorre los nodos del mismo que cumplen las reglas de la gramática agrupándolos en uno o varios clusters que serán las ocurrencias del símbolo en el grafo presentado.En resumen, en este trabajo proponemos soluciones para segmentar, mediante el clustering de formas, texturas estructuradas, y modelizar y reconocer un símbolo texturado mediante una gramática de grafo y el análisis sintáctico que podemos realizar con ella sobre un grafo, respectivamente.Palabras clave: Análisis de documentos gráficos, reconocimiento de símbolos, texturas estructuradas, reconocimiento sintáctico, gramáticas de grafo. / After decades of activity, Document Analysis continues being one of the main scientific areas in Computer Vision. The aim of the graphical document analysis is to identify graphical entities in a document. Symbol recognition is a complex problem in Graphical Document Analysis, and it still have important challenges for the scientific community. Symbol Recognition can be defined as the extraction of graphical entities which have a special meaning in the context of the analyzed document. Symbolscan be mainly divided in two classes, the prototyped-based symbols and the textured symbols, that means symbols with one or more of its parts formed by a structural texture.Structural textures are defined by one or more elements or texels distributed in the space following placement rules. In our structural texture model we consider texels as closed polygonals or line segments. On the other hand a document or plan to be analyzed is modeled by means of a Region Adjacency Graph, where the nodes represent polygonals found in the original document and the edges the relations among them.This dissertation has two parts well defined, the segmentation and the recognition of textures. In the first part, textures are segmented by means of a hierarchical clustering over the graph that represents the plan. In that way a set of clusters, formed by similar polygonals placed following similar rules, are obtained. Then the clusters with a certain number of elements are considered to form a texture and their representative is presented by the mean polygonal and the mean neighbourhood, both computed. When the texture is composed of more than one kind of texels, the clusters appear overlapped, one for each kind of texel forming the texture. The second part is devoted to infer the texture representation from the representative of the clusters. This representation is a graph grammar with error productions. The grammar inference process is done bearing in mind the texels forming the texture and their placement rules. From these rules the closed loops are computed automatically and the rules of the graph grammar are generated. At the end the error productions are introduced to tolerate textures distorted by cut or merged texels. Once the grammar is computed the symbol represented by it is recognized by parsing an input graph and visiting all the nodes following the rules of the grammar, and grouping them in one orseveral clusters which are the instances of the symbol in the input graph.To summarize, in this work a solution to segment structural textures, by means of shape clustering, is proposed. Then solutions to modelize a textured symbol by means of a grammar, and to recognize it by parsing with that grammar over an input graph, are presented.Key words: Graphical Document Analysis, SymbolRecognition, Structural Textures, Syntactical Pattern Recognition, Graph Grammars.
|
70 |
Perceptual approach to a computational colour texture representation for surface inspectionBaldrich i Caselles, Ramon 13 December 2001 (has links)
El principal objectiu d'aquest treball de tesi és tractar el problema de la representació de la textura en color des del punt de vista de la visió per computador. L'extensió dels mètodes classics de processament de textura per imatges en nivells de grisos als canals d'una imatge color no assegura resultats semblants als de la percepció humana en aquesta tasca. Els mecanismes d'inducció cromàtica del sistema visual humà, estudiats en psicofísica, són fonamentals en la dependència que crea l'entorn en la percepció del color. La inducció cromàtica inclou dos efectes complementaris: l'assimilació i el contrast cromàtic. Mentre el primer ja ha estat mesurat des de la psicofísica i extés a la visió per computador, molts aspectes del segon encara queden per fer. La contribució principal d'aquesta tesi és la definició d'un operador computacional que simula el fenòmen del contrast cromàtic i que té un comportament coherent amb el del sistema visual humà en diferents problemes de la percepcció de la textura en color, ja que permet enfatitzar les diferències de color en distribucions que són quasibé unimodals i així millorar la segmentació de les regions de color. El problema que encara queda obert és la realització de mesures psicofísiques pels paràmetres de l'operador, tal com es va fer amb l's-cielab per al procés d'assimilació.La definició de representacions computacionals de textura i color perceptuals és un objectiu de gran importància en els problemes d'inspecció automàtica de superfícies en els que els dispositius de la colorimetria clàssica no permeten donar bones mesures d'aparença de color. La segona contribució de la tesi defineix una representació computacional basada en mesures globals de color incloent-hi l'assimilació de color i mesures locals de les propietats de les regions segmentades considerant el contrast cromàtic. Aquesta representació és aplicada a la classificació de gres porcelànic.Tenint en compte que s'han de realitzar mesures molt acurades de petites diferències, s'ha dedicat una part d'aquest treball a l'adquisició d'imatges en color, i en concret a aconseguir bones propietats de constància de color. En aquest sentit, la darrera contribució de la tesi és la definició d'un algorisme de contància de color en línea per a una càmera lineal d'alta precisió de color. Aquest mètode s'ha basat en el model lineal diagonal de constància de color prèviament garantit amb una transformació que canvia les propietats de la sensibilitat de la càmera. / The main goal of this thesis is to deal with the colour texture representation problem from a computer vision point of view. It is easy to demonstrate that the extension of classical grey level methods for texture processing to the three channels of the corresponding colour texture does not succeed in having a human-like behaviour on this visual task. Chromatic induction mechanisms of the human visual system, which have been widely studied in psychophysics, play an important role on the dependency of the colour perception from its surround. Chromatic induction includes two complementary effects: chromatic assimilation and chromatic contrast. While the former has been psychophysically measured and lately extended to computer vision, some aspects on the last one still remain to be measured. The main contribution of this thesis is a computational operator that simulates the contrast induction phenomena that has demonstrated a coherent behaviour on different texture colour perception problems, since it allows to emphasise colour differences on almost-unimodal colour distributions and consequently improving the segmentation of colour regions. An open problem that will remain open from this work is the psychophysical measurement of the operator parameters, in the same sense as it was done with the s-cielab for the assimilation process.A perceptually consistent colour texture computational representation is a goal of extreme importance in automatic colour-textured surface inspection problems, where the classic colorimetric tools does not succeed in given good colour appearance measurements. In this scope, a second contribution is a colour-texture representation based on global colour features considering colour assimilation and local features based on properties of colour blobs considering colour contrast. This representation is applied to an automatic tile classification problem.Since an important accuracy is needed to measure such small differences, we have devoted a great part of this work to the colour acquisition issue, and to the problem of achieving good colour constancy properties on the acquired images. In this sense, a last contribution of this work has been to define an on-line colour constancy algorithm for a high colour precision scan line camera based on a diagonal linear colour constancy model previously guaranteed by linear transform changing the camera sensitivity properties.
|
Page generated in 0.0202 seconds