Spelling suggestions: "subject:"iic"" "subject:"csic""
651 |
Síntesi basada en models ocults de Markov aplicada a l'espanyol i a l'anglès, les seves aplicacions i una proposta híbridaGonzalvo Fructuoso, Javier 16 July 2010 (has links)
Avui en dia, la Interacció Home Màquina (IHM) és una de les disciplines més estudiades amb l'objectiu de millorar les interaccions humanes amb sistemes reals actuals i futurs. Cada vegada més gent utilitza més dispositius electrònics a la vida quotidiana Aquesta incursió electrònica es deu principalment a dues raons. D'una banda, la facilitat d'accés a aquesta tecnologia però d'altra banda, unes interfícies més amigables que permeten un ús més fàcil i intuitiu. Simplement fa falta observar els ordinadors personals d'avui en dia, les computadores de butxaca i inclús els telèfons mòbils. Tots aquests nous dispositius permeten que usuaris poc experimentats puguin fer ús de les tecnologies més punteres. D'altra banda, la inclusió de les tecnologies de la parla estan arribant a ser més comunes gràcies a què els sistemes de reconeixement i de síntesi de veu han millorat considerablement el seu funcionament i fiabilitat.L'objectiu final de les tecnologies de la parla és crear sistemes tan naturals com els éssers humans per tal de fer que el seu ús es pugui extendre a qualsevol racó de la vida quotidiana Els conversors de Text-a-Parla (o sintetitzadors) són un dels mòduls que més esforç investigador han rebut amb l'objectiu de millorar la seva naturalitat i expressivitat. L'ús de sintetitzadors s'ha ampliat durant els últims temps degut a l'alta qualitat aconseguida en aplicacions de domini restringit i el bon comportament en aplicacions de propòsit general. De totes formes, encara queda un llarg camí per recòrrer pel que respecta a la qualitat en aplicacions de domini obert. A més a més, algunes de les tendències dels sistemes sintetitzadors comporten reduir el tamany de les bases de dades, sistemes flexibles per adaptar locutors i estils de locució i sistemes entrenables.Aquesta tesi doctoral presentarà un sintetizador de veu basat en l'entorn probabilístic dels Models Ocults de Makov (MOM) que tractarà amb els principals temes estudiats a l'actualitat, tal com l'adaptació de l'estil del locutor, sistemes conversors de veu entrenables i bases de dades de tamany reduit. Es descriurà el funcionament convencional dels algoritmes i es propondran millores en diferents àmbits com per exemple l'expressivitat. A la vegada, es presenta un sistema híbrid punter que combina models estadístics i de concatenació de veu. Els resultats obtinguts mostren com les propostes d'aquest treball donen un pas endavant en l'àmbit de la creació de veu sintètica utilitzant models estadístics. / Hoy en día, la Interacción Hombre-Máquina (IHM) es una de las disciplinas más estudiadas con el objetivo de mejorar las interacciones humanas con sistemas reales para el presente y para el futuro venidero. Más y más dispositivos electrónicos son usados por más gente en la vida diaria. Esta incursión electrónica se debe principalmente a dos razones. Por un lado, el indudable aumento en la accesibilidad económica a esta tecnología pero por otra parte, unos interfaces más amigables que permiten un uso más fácil e intuitivo. Simplemente hace falta observar hoy en día los ordenadores personales, las computadoras de bolsillo e incluso los teléfonos móviles. Todos estos nuevos dispositivos admiten que usuarios poco experimentados puedan hacer uso de las tecnologías más punteras. Por otra parte, la inclusión de las tecnologías del habla está llegando a ser más común gracias a que los sistemas de reconocimiento y de síntesis de voz han estado mejorando su funcionamiento y fiabilidad.El objetivo final de las tecnologías del habla es crear sistemas tan naturales como los seres humanos para que su uso se pueda extender a cualquier rincón de la vida diaria. Los conversores de Texto-a-Voz (o sintetizadores) son de los módulos que más esfuerzo investigador han recibido con el objetivo de mejorar su naturalidad y la expresividad. El uso de los sintetizadores se ha ampliado durante los últimos tiempos debido a la alta calidad alcanzada en usos de dominio restringido y el buen comportamiento en aplicaciones de propósito general. De todas formas, todavía queda un largo camino por recorrer por lo que respecta a la calidad en aplicaciones de dominio abierto. Además, algunas de las tendencias de los sistemas sintetizadores conllevan reducir el tamaño de las bases de datos, sistemas flexibles para adaptar locutores y estilos de locución y sistemas entrenables.Esta tesis doctoral presentará un sintetizador de voz basado en el entorno probabilístico de los Modelos Ocultos de Markov (MOM) que lidiará con los principales temas estudiados en la actualidad tales como adaptación del estilo de locutor, sistema conversores de voz entrenables y bases de datos de tamaño reducido. Se describirá el funcionamiento convencional de los algoritmos y se propondrán mejoras en varios ámbitos tales como la expresividad. A la vez se presenta un sistema híbrido puntero que combina modelos estadísticos y de concatenación de voz. Los resultados obtenidos muestran como las propuestas de este trabajo dan un paso adelante en el ámbito de la creación de voz sintética usando modelos estadísticos. / Nowadays, Human Computer Interaction (HCI) is one of the most studied disciplines in order to improve real human interactions with machines on the present time and for the incoming future. More and more electronic devices of the daily life are used by more people. This electronic incursion is mainly due to two reasons. On the one hand, the undoubted increasing of the economical accessibility to this technology but on the other hand, the more friendly interfaces allow an easier and more intuitive use. As a matter of fact, nowadays it is only necessary to observe the personal computer interfaces, pocket size computers and even mobile telephones. All these new interfaces let little experienced users make use of cutting edge technologies. Moreover, the inclusion of speech technologies in these systems is becoming more usual since speech recognition and synthesis systems have improved their performance and reliability.The purpose of speech technology is to provide systems with a natural human interface so the use can be extended to daily life. Text-to-Speech (TTS) systems are one of the main modules under intense research activity in order to improve their naturalness and expressiveness. The use of synthesizers has been extended during the last times due to the high-quality reached in real limited domain applications and the good performance in generic purposes applications. However, there is still a long way to go with respect to quality and open domain systems.This work will present a TTS system based on a statistical framework using Hidden Markov Models (HMMs) that will deal with the main topics under study in recent years such as voice style adaptation, trainable TTS systems and low print databases. Moreover, a cutting edge hybrid approach combining concatenative and statistical synthesis will also be presented. Ideas and results in this work show a step forward in the HMM-based TTS system field
|
652 |
Control de l'escintil·lador SPD del calorímetre d'LHCbRoselló Canal, Maria del Mar 10 December 2009 (has links)
En aquesta tesi es descriu l'electrònica i la gestió de la placa de control de l'SPD. SPD són les sigles corresponents a Scintillator Pad Detector, part del calorímetre d'LHCb de l'accelerador LHC.L'LHC és un accelerador orientat a estudiar els constituents de la matèria on LHCb n'és un dels detectors. El calorímetre és aquella part del detector destinada a mesurar l'energia de les partícules que el travessen. En el nostre cas l'SPD discrimina entre partícules carregades i no carregades contribuint així en les decisions del calorímetre.En l'electrònica de l'SPD trobareu diferenciades dues parts: l'electrònica en contacte directe amb el subdetector (Very Front End, VFE) i l'electrònica de gestió de l'SPD (la Control Board, CB). L'objectiu d'aquesta tesi és la descripció d'aquesta darrera així com la integració de l'SPD en el sistema de control del calorímetre. El VFE realitza un primer processat de les dades del detector determinant un nivell digital el qual indica si s'ha rebut una partícula carregada o no. La CB és l'encarregada en canvi de la monitorització i el control del sistema SPD: és capaç d'enviar dades de configuració als VFE i a la vegada en monitoritza el correcte funcionament.Veureu que el document es troba organitzat en 5 parts. A la primera part trobareu descrites les característiques principals del calorímetre, les seves funcions i la seva estructura. La part segona, tercera i quarta són dedicades integrament a la CB: a la part 2 tenim descrit el hardware, a la part 3 el sistema de control i a la quarta part hi trobarem comentats els diferents testos i proves realitzades tan sobre el hardware com amb el sistema de control. Finalment a la cinquena part hi trobarem resumits els objectius aconseguits amb el nostre disseny i les aportacions d'aquest en la globalitat de l'experiment. / En esta tesis se describe la electrónica y la gestión de la placa de control del SPD. SPD son las siglas correspondientes a Scintillator Pad Detector, parte del calorímetro de LHCb del acelerador LHC.LHC es un acelerador orientado al estudio de los constituyentes de la materia donde LHCb es uno de los detectores. El calorímetro es aquella parte del detector destinada a medir la energía de las partículas que lo traviesan. En nuestro caso el SPD discrimina entre partículas cargadas y neutras contribuyendo así a las decisiones del calorímetro.En la electrónica del SPD encontraréis diferenciadas dos partes: la electrónica en contacto directo con el detector (Very Front End, VFE) y la electrónica de gestión del SPD (la Control Board, CB). El objetivo de esta tesis es precisamente la descripción de esta última parte así como la integración del SPD en el sistema de control del calorímetro.El VFE realiza un primer procesado de los datos del detector determinando un nivel digital el cual indica si la partícula detectada está cargada o no. La CB es en cambio la encargada de la monitorización y el control del sistema SPD: es capaz de enviar datos de configuración a los VFE y a la vez monitorizar su correcto funcionamiento.Veréis que el documento se encuentra organizado en 5 partes. En la primera parte encontraréis descritas las características principales del calorímetro, sus funciones y su estructura. La segunda parte, la tercera y la cuarta están plenamente dedicadas a la CB: en la parte 2 tenemos descrito el hardware, en la parte 3 el sistema de control y en la cuarta encontraremos los diferentes tests y pruebas realizadas sobre el hardware y el sistema de control. Finalmente en la quinta parte tenemos resumidos los objetivos conseguidos con nuestro diseño y las aportaciones de este en la globalidad del experimento. / In this thesis you will have described the electronics and management of the SPD. SPD stands for Scintillator Pad Detector which is part of the LHCb calorimeter of the LHC accelerator.LHC is an accelerator oriented to study the matter constitution and LHCb is one of the detectors designed for this challenge. The LHCb part oriented to measure the particles energy is the calorimeter. The SPD is designed to discriminate between charged and neutral particles contributing in the calorimeter decisions.In the SPD electronics description we can distinguish between to parts: the electronics in contact with the subdetector (Very Front End, VFE) and the electronics in charge of the SPD management (the Control Board, CB). The goal of this thesis is the description of the last and also the integration of the SPD with the calorimeter control system.The VFE captures the data from the detector and makes a first digital decision depending on if the particle detected is charged or not. The CB is in charge of the monitoring and control of the SPD system: is able to send configuration data to the VFE and also monitors parameters to assure a proper behaviour.You will see that the document is divided in 5 parts. In the first, you will find described the calorimeter, its functionalities and its structure. Part 2, part 3 and part 4 are fully dedicated to the CB: in part 2 we will find the CB hardware, in part 3 the control system and finally in part 4 the different tests performed with the hardware and the control system. The document ends with part 5 where the main objectives of this work are summarized and also the contribution of the SPD design in the LHCb project.
|
653 |
A new approach to Decimation in High Order Boltzmann MachinesFarguell Matesanz, Enric 20 January 2011 (has links)
La Màquina de Boltzmann (MB) és una xarxa neuronal estocàstica amb l'habilitat tant d'aprendre com d'extrapolar distribucions de probabilitat. Malgrat això, mai ha arribat a ser tant emprada com d'altres models de xarxa neuronal, com ara el perceptró, degut a la complexitat tan del procés de simulació com d'aprenentatge: les quantitats que es necessiten al llarg del procés d'aprenentatge són normalment estimades mitjançant tècniques Monte Carlo (MC), a través de l'algorisme del Temprat Simulat (SA). Això ha portat a una situació on la MB és més ben aviat considerada o bé com una extensió de la xarxa de Hopfield o bé com una implementació paral·lela del SA. Malgrat aquesta relativa manca d'èxit, la comunitat científica de l'àmbit de les xarxes neuronals ha mantingut un cert interès amb el model. Una de les extensions més rellevants a la MB és la Màquina de Boltzmann d'Alt Ordre (HOBM), on els pesos poden connectar més de dues neurones simultàniament. Encara que les capacitats d'aprenentatge d'aquest model han estat analitzades per d'altres autors, no s'ha pogut establir una equivalència formal entre els pesos d'una MB i els pesos d'alt ordre de la HOBM. En aquest treball s'analitza l'equivalència entre una MB i una HOBM a través de l'extensió del mètode conegut com a decimació. Decimació és una eina emprada a física estadística que es pot també aplicar a cert tipus de MB, obtenint expressions analítiques per a calcular les correlacions necessàries per a dur a terme el procés d'aprenentatge. Per tant, la decimació evita l'ús del costós algorisme del SA. Malgrat això, en la seva forma original, la decimació podia tan sols ser aplicada a cert tipus de topologies molt poc densament connectades. La extensió que es defineix en aquest treball permet calcular aquests valors independentment de la topologia de la xarxa neuronal; aquest model es basa en afegir prou pesos d'alt ordre a una MB estàndard com per a assegurar que les equacions de la decimació es poden solucionar. Després, s'estableix una equivalència directa entre els pesos d'un model d'alt ordre, la distribució de probabilitat que pot aprendre i les matrius de Hadamard: les propietats d'aquestes matrius es poden emprar per a calcular fàcilment els pesos del sistema. Finalment, es defineix una MB estàndard amb una topologia específica que permet entendre millor la equivalència exacta entre unitats ocultes de la MB i els pesos d'alt ordre de la HOBM. / La Máquina de Boltzmann (MB) es una red neuronal estocástica con la habilidad de aprender y extrapolar distribuciones de probabilidad. Sin embargo, nunca ha llegado a ser tan popular como otros modelos de redes neuronals como, por ejemplo, el perceptrón. Esto es debido a la complejidad tanto del proceso de simulación como de aprendizaje: las cantidades que se necesitan a lo largo del proceso de aprendizaje se estiman mediante el uso de técnicas Monte Carlo (MC), a través del algoritmo del Temple Simulado (SA). En definitiva, la MB es generalmente considerada o bien una extensión de la red de Hopfield o bien como una implementación paralela del algoritmo del SA. Pese a esta relativa falta de éxito, la comunidad científica del ámbito de las redes neuronales ha mantenido un cierto interés en el modelo. Una importante extensión es la Màquina de Boltzmann de Alto Orden (HOBM), en la que los pesos pueden conectar más de dos neuronas a la vez. Pese a que este modelo ha sido analizado en profundidad por otros autores, todavía no se ha descrito una equivalencia formal entre los pesos de una MB i las conexiones de alto orden de una HOBM. En este trabajo se ha analizado la equivalencia entre una MB i una HOBM, a través de la extensión del método conocido como decimación. La decimación es una herramienta propia de la física estadística que también puede ser aplicada a ciertos modelos de MB, obteniendo expresiones analíticas para el cálculo de las cantidades necesarias en el algoritmo de aprendizaje. Por lo tanto, la decimación evita el alto coste computacional asociado al al uso del costoso algoritmo del SA. Pese a esto, en su forma original la decimación tan solo podía ser aplicada a ciertas topologías de MB, distinguidas por ser poco densamente conectadas. La extensión definida en este trabajo permite calcular estos valores independientemente de la topología de la red neuronal: este modelo se basa en añadir suficientes pesos de alto orden a una MB estándar como para asegurar que las ecuaciones de decimación pueden solucionarse. Más adelante, se establece una equivalencia directa entre los pesos de un modelo de alto orden, la distribución de probabilidad que puede aprender y las matrices tipo Hadamard. Las propiedades de este tipo de matrices se pueden usar para calcular fácilmente los pesos del sistema. Finalmente, se define una BM estándar con una topología específica que permite entender mejor la equivalencia exacta entre neuronas ocultas en la MB y los pesos de alto orden de la HOBM. / The Boltzmann Machine (BM) is a stochastic neural network with the ability of both learning and extrapolating probability distributions. However, it has never been as widely used as other neural networks such as the perceptron, due to the complexity of both the learning and recalling algorithms, and to the high computational cost required in the learning process: the quantities that are needed at the learning stage are usually estimated by Monte Carlo (MC) through the Simulated Annealing (SA) algorithm. This has led to a situation where the BM is rather considered as an evolution of the Hopfield Neural Network or as a parallel implementation of the Simulated Annealing algorithm. Despite this relative lack of success, the neural network community has continued to progress in the analysis of the dynamics of the model. One remarkable extension is the High Order Boltzmann Machine (HOBM), where weights can connect more than two neurons at a time. Although the learning capabilities of this model have already been discussed by other authors, a formal equivalence between the weights in a standard BM and the high order weights in a HOBM has not yet been established. We analyze this latter equivalence between a second order BM and a HOBM by proposing an extension of the method known as decimation. Decimation is a common tool in statistical physics that may be applied to some kind of BMs, that can be used to obtain analytical expressions for the n-unit correlation elements required in the learning process. In this way, decimation avoids using the time consuming Simulated Annealing algorithm. However, as it was first conceived, it could only deal with sparsely connected neural networks. The extension that we define in this thesis allows computing the same quantities irrespective of the topology of the network. This method is based on adding enough high order weights to a standard BM to guarantee that the system can be solved. Next, we establish a direct equivalence between the weights of a HOBM model, the probability distribution to be learnt and Hadamard matrices. The properties of these matrices can be used to easily calculate the value of the weights of the system. Finally, we define a standard BM with a very specific topology that helps us better understand the exact equivalence between hidden units in a BM and high order weights in a HOBM.
|
654 |
Marc integrador de les capacitats de Soft-Computing i de Knowledge Discovery dels Mapes Autoorganitzatius en el Raonament Basat en CasosFornells Herrera, Albert 14 December 2007 (has links)
El Raonament Basat en Casos (CBR) és un paradigma d'aprenentatge basat en establir analogies amb problemes prèviament resolts per resoldre'n de nous. Per tant, l'organització, l'accés i la utilització del coneixement previ són aspectes claus per tenir èxit en aquest procés. No obstant, la majoria dels problemes reals presenten grans volums de dades complexes, incertes i amb coneixement aproximat i, conseqüentment, el rendiment del CBR pot veure's minvat degut a la complexitat de gestionar aquest tipus de coneixement. Això ha fet que en els últims anys hagi sorgit una nova línia de recerca anomenada Soft-Computing and Intelligent Information Retrieval enfocada en mitigar aquests efectes. D'aquí neix el context d'aquesta tesi.Dins de l'ampli ventall de tècniques Soft-Computing per tractar coneixement complex, els Mapes Autoorganitzatius (SOM) destaquen sobre la resta per la seva capacitat en agrupar les dades en patrons, els quals permeten detectar relacions ocultes entre les dades. Aquesta capacitat ha estat explotada en treballs previs d'altres investigadors, on s'ha organitzat la memòria de casos del CBR amb SOM per tal de millorar la recuperació dels casos.La finalitat de la present tesi és donar un pas més enllà en la simple combinació del CBR i de SOM, de tal manera que aquí s'introdueixen les capacitats de Soft-Computing i de Knowledge Discovery de SOM en totes les fases del CBR per nodrir-les del nou coneixement descobert. A més a més, les mètriques de complexitat apareixen en aquest context com un instrument precís per modelar el funcionament de SOM segons la tipologia de les dades. L'assoliment d'aquesta integració es pot dividir principalment en quatre fites: (1) la definició d'una metodologia per determinar la millor manera de recuperar els casos tenint en compte la complexitat de les dades i els requeriments de l'usuari; (2) la millora de la fiabilitat de la proposta de solucions gràcies a les relacions entre els clústers i els casos; (3) la potenciació de les capacitats explicatives mitjançant la generació d'explicacions simbòliques; (4) el manteniment incremental i semi-supervisat de la memòria de casos organitzada per SOM.Tots aquests punts s'integren sota la plataforma SOMCBR, la qual és extensament avaluada sobre datasets provinents de l'UCI Repository i de dominis mèdics i telemàtics.Addicionalment, la tesi aborda de manera secundària dues línies de recerca fruït dels requeriments dels projectes on ha estat ubicada. D'una banda, s'aborda la definició de funcions de similitud específiques per definir com comparar un cas resolt amb un de nou mitjançant una variant de la Computació Evolutiva anomenada Evolució de Gramàtiques (GE). D'altra banda, s'estudia com definir esquemes de cooperació entre sistemes heterogenis per millorar la fiabilitat de la seva resposta conjunta mitjançant GE. Ambdues línies són integrades en dues plataformes, BRAIN i MGE respectivament, i són també avaluades amb els datasets anteriors. / El Razonamiento Basado en Casos (CBR) es un paradigma de aprendizaje basado en establecer analogías con problemas previamente resueltos para resolver otros nuevos. Por tanto, la organización, el acceso y la utilización del conocimiento previo son aspectos clave para tener éxito. No obstante, la mayoría de los problemas presentan grandes volúmenes de datos complejos, inciertos y con conocimiento aproximado y, por tanto, el rendimiento del CBR puede verse afectado debido a la complejidad de gestionarlos. Esto ha hecho que en los últimos años haya surgido una nueva línea de investigación llamada Soft-Computing and Intelligent Information Retrieval focalizada en mitigar estos efectos. Es aquí donde nace el contexto de esta tesis.Dentro del amplio abanico de técnicas Soft-Computing para tratar conocimiento complejo, los Mapas Autoorganizativos (SOM) destacan por encima del resto por su capacidad de agrupar los datos en patrones, los cuales permiten detectar relaciones ocultas entre los datos. Esta capacidad ha sido aprovechada en trabajos previos de otros investigadores, donde se ha organizado la memoria de casos del CBR con SOM para mejorar la recuperación de los casos.La finalidad de la presente tesis es dar un paso más en la simple combinación del CBR y de SOM, de tal manera que aquí se introducen las capacidades de Soft-Computing y de Knowledge Discovery de SOM en todas las fases del CBR para alimentarlas del conocimiento nuevo descubierto. Además, las métricas de complejidad aparecen en este contexto como un instrumento preciso para modelar el funcionamiento de SOM en función de la tipología de los datos. La consecución de esta integración se puede dividir principalmente en cuatro hitos: (1) la definición de una metodología para determinar la mejor manera de recuperar los casos teniendo en cuenta la complejidad de los datos y los requerimientos del usuario; (2) la mejora de la fiabilidad en la propuesta de soluciones gracias a las relaciones entre los clusters y los casos; (3) la potenciación de las capacidades explicativas mediante la generación de explicaciones simbólicas; (4) el mantenimiento incremental y semi-supervisado de la memoria de casos organizada por SOM. Todos estos puntos se integran en la plataforma SOMCBR, la cual es ampliamente evaluada sobre datasets procedentes del UCI Repository y de dominios médicos y telemáticos.Adicionalmente, la tesis aborda secundariamente dos líneas de investigación fruto de los requeri-mientos de los proyectos donde ha estado ubicada la tesis. Por un lado, se aborda la definición de funciones de similitud específicas para definir como comparar un caso resuelto con otro nuevo mediante una variante de la Computación Evolutiva denominada Evolución de Gramáticas (GE). Por otro lado, se estudia como definir esquemas de cooperación entre sistemas heterogéneos para mejorar la fiabilidad de su respuesta conjunta mediante GE. Ambas líneas son integradas en dos plataformas, BRAIN y MGE, las cuales también son evaluadas sobre los datasets anteriores. / Case-Based Reasoning (CBR) is an approach of machine learning based on solving new problems by identifying analogies with other previous solved problems. Thus, organization, access and management of this knowledge are crucial issues for achieving successful results. Nevertheless, the major part of real problems presents a huge amount of complex data, which also presents uncertain and partial knowledge. Therefore, CBR performance is influenced by the complex management of this knowledge. For this reason, a new research topic has appeared in the last years for tackling this problem: Soft-Computing and Intelligent Information Retrieval. This is the point where this thesis was born.Inside the wide variety of Soft-Computing techniques for managing complex data, the Self-Organizing Maps (SOM) highlight from the rest due to their capability for grouping data according to certain patterns using the relations hidden in data. This capability has been used in a wide range of works, where the CBR case memory has been organized with SOM for improving the case retrieval.The goal of this thesis is to take a step up in the simple combination of CBR and SOM. This thesis presents how to introduce the Soft-Computing and Knowledge Discovery capabilities of SOM inside all the steps of CBR to promote them with the discovered knowledge. Furthermore, complexity measures appear in this context as a mechanism to model the performance of SOM according to data topology. The achievement of this goal can be split in the next four points: (1) the definition of a methodology for setting up the best way of retrieving cases taking into account the data complexity and user requirements; (2) the improvement of the classification reliability through the relations between cases and clusters; (3) the promotion of the explaining capabilities by means of the generation of symbolic explanations; (4) the incremental and semi-supervised case-based maintenance. All these points are integrated in the SOMCBR framework, which has been widely tested in datasets from UCI Repository and from medical and telematic domains. Additionally, this thesis secondly tackles two additional research lines due to the requirements of a project in which it has been developed. First, the definition of similarity functions ad hoc a domain is analyzed using a variant of the Evolutionary Computation called Grammar Evolution (GE). Second, the definition of cooperation schemes between heterogeneous systems is also analyzed for improving the reliability from the point of view of GE. Both lines are developed in two frameworks, BRAIN and MGE respectively, which are also evaluated over the last explained datasets.
|
655 |
Facing-up Challenges of Multiobjective Clustering Based on Evolutionary Algorithms: Representations, Scalability and Retrieval SolutionsGarcía Piquer, Álvaro 13 April 2012 (has links)
Aquesta tesi es centra en algorismes de clustering multiobjectiu, que estan basats en optimitzar varis objectius simultàniament obtenint una col•lecció de solucions potencials amb diferents compromisos entre objectius. El propòsit d'aquesta tesi consisteix en dissenyar i implementar un nou algorisme de clustering multiobjectiu basat en algorismes evolutius per afrontar tres reptes actuals relacionats amb aquest tipus de tècniques. El primer repte es centra en definir adequadament l'àrea de possibles solucions que s'explora per obtenir la millor solució i que depèn de la representació del coneixement. El segon repte consisteix en escalar el sistema dividint el conjunt de dades original en varis subconjunts per treballar amb menys dades en el procés de clustering. El tercer repte es basa en recuperar la solució més adequada tenint en compte la qualitat i la forma dels clusters a partir de la regió més interessant de la col•lecció de solucions ofertes per l’algorisme. / Esta tesis se centra en los algoritmos de clustering multiobjetivo, que están basados en optimizar varios objetivos simultáneamente obteniendo una colección de soluciones potenciales con diferentes compromisos entre objetivos. El propósito de esta tesis consiste en diseñar e implementar un nuevo algoritmo de clustering multiobjetivo basado en algoritmos evolutivos para afrontar tres retos actuales relacionados con este tipo de técnicas. El primer reto se centra en definir adecuadamente el área de posibles soluciones explorada para obtener la mejor solución y que depende de la representación del conocimiento. El segundo reto consiste en escalar el sistema dividiendo el conjunto de datos original en varios subconjuntos para trabajar con menos datos en el proceso de clustering El tercer reto se basa en recuperar la solución más adecuada según la calidad y la forma de los clusters a partir de la región más interesante de la colección de soluciones ofrecidas por el algoritmo. / This thesis is focused on multiobjective clustering algorithms, which are based on optimizing several objectives simultaneously obtaining a collection of potential solutions with different trade¬offs among objectives. The goal of the thesis is to design and implement a new multiobjective clustering technique based on evolutionary algorithms for facing up three current challenges related to these techniques. The first challenge is focused on successfully defining the area of possible solutions that is explored in order to find the best solution, and this depends on the knowledge representation. The second challenge tries to scale-up the system splitting the original data set into several data subsets in order to work with less data in the clustering process. The third challenge is addressed to the retrieval of the most suitable solution according to the quality and shape of the clusters from the most interesting region of the collection of solutions returned by the algorithm.
|
656 |
Microstructure Evaluation and Wear-Resistant Properties of Ti-alloyed Hypereutectic High Chromium Cast IronLiu, Qiang January 2013 (has links)
High chromium cast iron (HCCI) is considered as one of the most useful wear resistance materials and their usage are widely spread in industry. The mechanical properties of HCCI mainly depend on type, size, number, morphology of hard carbides and the matrix structure (γ or α). The hypereutectic HCCI with large volume fractions of hard carbides is preferred to apply in wear applications. However, the coarser and larger primary M7C3 carbides will be precipitated during the solidification of the hypereutectic alloy and these will have a negative influence on the wear resistance. In this thesis, the Ti-alloyed hypereutectic HCCI with a main composition of Fe-17mass%Cr-4mass%C is studied based on the experimental results and calculation results. The type, size distribution, composition and morphology of hard carbides and martensite units are discussed quantitatively. For a as-cast condition, a 11.2μm border size is suggested to classify the primary M7C3 carbides and eutectic M7C3 carbides. Thereafter, the change of the solidification structure and especially the refinement of carbides (M7C3 and TiC) size by changing the cooling rates and Ti addition is determined and discussed. Furthermore, the mechanical properties of hypereutectic HCCI related to the solidification structure are discussed. Mechanical properties of HCCI can normally be improved by a heat treatment process. The size distribution and the volume fraction of carbides (M7C3 and TiC) as well as the matrix structure (martensite) were examined by means of scanning electron microscopy (SEM), in-situ observation by using Confocal Laser Scanning Microscope (CLSM), Transmission electron microscopy (TEM) and electron backscattered diffraction (EBSD). Especially for the matrix structure and secondary M7C3 carbides, EBSD and CLSM are useful tools to classify the fcc (γ) and bcc (α) phases and to study the dynamic behavior of secondary M7C3 carbides. In conclusion, low holding temperatures close to the eutectic temperature and long holding times are the best heat treatment strategies in order to improve wear resistance and hardness of Ti-alloyed hypereutectic HCCI. Finally, the maximum carbides size is estimated by using statistics of extreme values (SEV) method in order to complete the size distribution results. Meanwhile, the characteristic of different carbides types will be summarized and classified based on the shape factor. / <p>QC 20130913</p>
|
657 |
Formation and evolution of star clusters in interacting galaxies / Entstehung und Entwicklung von Sternhaufen in wechselwirkenden GalaxienAnders, Peter 20 February 2006 (has links)
No description available.
|
658 |
La formation continue à distance des enseignants du secondaire au Bénin : réalités et perspectivesAkouété épouse Hounsinou, madoué Florentine 11 1900 (has links)
Cette recherche porte sur la pertinence et la faisabilité d’un programme de formation continue à distance des enseignants qualifiés de l’enseignement secondaire général public du Bénin. Elle a deux objectifs spécifiques : l’identification et l’analyse des besoins de formation continue des enseignants du secondaire du Bénin et l’étude des modalités administratives, pédagogiques et techniques de mise en place d’un tel programme dans le contexte béninois. Les recherches sont effectuées sur la base de la mise en œuvre de la technique du groupe nominal (TGN) qui a permis de générer un premier questionnaire soumis à un échantillon de 278 enseignants représentatifs des 1 488 enseignants qualifiés de l’enseignement secondaire général public du Bénin et trois autres questionnaires, basés sur la technique Delphi, adressés à 13 experts du système éducatif béninois. Il apparaît qu’un futur programme de formation continue à distance des enseignants du secondaire devrait comporter, principalement, les trois thèmes ci-après, classés par ordre de priorité : «Technologies de l’information et de la communication »; «Méthodes pédagogiques» et « Matière de spécialité ». L’utilisation de la technique Delphi a permis d’établir une liste de 23 items correspondant aux modalités administratives, pédagogiques et techniques pour la mise en œuvre de la formation. L’analyse des résultats de la technique Delphi et celle des réponses au questionnaire adressé aux enseignants ont permis d’opérer un choix de médias à utiliser et/ou à intégrer pour transmettre le savoir et soutenir l’apprentissage. Il ressort des résultats de la recherche que les enseignants béninois du secondaire ont d’importants besoins de formation continue et que la conception et la mise en œuvre d’un programme de formation à distance axée sur l’utilisation des TIC sont pertinentes et faisables au Bénin. Un modèle organisationnel de formation continue à distance a été proposé. / This study focuses on the relevance and feasibility using Information and Communications Technologies (ICT) for in-service training of qualified teachers of secondary general public school in Republic of Benin through a distance education program. There were two specific objectives: the identification and analysis of in-service training needs of teachers and the study of administrative procedures, educational and technological development of such a program in the context of Republic of Benin. The population of the study was made up of 1 488 qualified teachers and a sample of 278 teachers representing them in general secondary public education of the Republic of Benin. The research was conducted on the basis of the implementation of two types of questionnaire. We used the Nominal Group Technique (NGT) to generate a data bank for designing a questionnaire to collect information from qualified teachers, and three questionnaires based on the Delphi Technique were submitted to 13 experts from the Beninese education system. It was found that a future in-service training program on distance education for secondary school teachers should include mainly the following three themes, in order of priority:
1. Information Technologies and Communications;
2. Teaching methods;
3. Specific subject areas.
Experts from the Beninese education system used the Delphi Technique and established a list of 23 items corresponding to the administrative procedures, and teaching techniques for the implementation of training. Analysis of the results of the Delphi technique and the answers of the questionnaire to teachers showed that the use/integration of a variety of media to transmit knowledge and support learning is very necessary. The results of the research also showed that teachers in general secondary education need continuing education which can be facilitated by the use of distance education with the aid of ICT. An organizational model of in-service training based on the use of ICT has been suggested.
|
659 |
Genre et société numérique colonialitaire : effets politiques des usages de l'internet par des organisation de femmes ou féministes en contexte de domination masculine et colonialitaire : les cas de l'Afrique du Sud et du SénégalPalmieri, Joelle 16 December 2011 (has links) (PDF)
Partant de la volonté de nous libérer de définitions techniques, technicistes ou produites dans la sociologie de l'appropriation sociale des usages des TIC afin de qualifier les usages de l'Internet par des organisations de femmes ou féministes en Afrique, nous avons privilégié dans cette thèse les travaux théoriques portant sur le patriarcat et sur la colonialité du pouvoir (ensemble des relations sociales caractérisées par la subalternité -hiérarchisation entre dominants et dominés - produite par l'expansion du capitalisme). Ce parti pris nous a permis de poser un cadre d'analyse opératoire ne plaquant pas des analyses théoriques occidentales, sudaméricainesou asiatiques sur l'Afrique. Il a facilité la façon dont nous avons problématisé la relation entre domination masculine et domination liée à la colonialité de pouvoir, que nous avons nommée colonialitaire, dans un contexte de mondialisation et d'hypermodernité. Les manifestations différenciées de cette relation en Afrique du Sud et au Sénégal nous ont aidé à circonscrire le terrain et le contexte à partir desquels les organisations de femmes et féministes locales utilisent ou non l'Internet. La confrontation de leurs représentations avec le cadre conceptuel est devenue informative et s'est avérée indispensable afin de qualifier la politisation de leurs usages. Il nous est ainsi apparu que l'Internet cristallise parmi les technologies de l'information et de la communication un moyen par lequel la " société de l'information " est le produit comme la production d'une mondialisation hypermoderne où la colonialité du pouvoir et le patriarcat, en tant que systèmes, s'exercent conjointement. Cette conjonction s'exprime par les biais théorique autant qu'empirique.Notamment nous avons observé que l'épistémologie utilisée dans ce cadre renoue avec des constructions traditionnalistes, nationalistes, paternalistes et masculinistes des savoirs en écho à ce que permet cet outil : l'accélération de l'appropriation du corps des femmes, la surenchère rhétorique et politique des dominants,l'institutionnalisation des concepts, l'occidentalisation des pensées, les privatisations en tous secteurs, les concurrences croisées de l'Occident, l'Extrême et le Moyen-Orient sur les terrains tant économique, politique que socioculturel, religieux. Il est alors apparu que les inégalités de genre s'aggravent en même temps que les identités sexuelles à tous les niveaux (État, institutions, population) deviennent souterraines et que les rapports différenciés de " race " et de classe se creusent. Fort de ce constat, nos analyses nous ont mené à réaliser que les femmes de " la base " se retrouvent en situation d'accentuer la prise en charge immédiate de la gestion de l'urgence (augmentation de la pauvreté, des violences, diminution de l'accès aux ressources, à la santé, à l'éducation...), parfois d'accepter leur subalternité tout en la négociant auprès des dominants.
|
660 |
Engagement affectif, comportemental et cognitif des élèves du primaire dans un contexte pédagogique d’intégration des TIC : une étude multicas en milieux défavorisésBernet, Emmanuel 04 1900 (has links)
Réalisée en milieux défavorisés, cette étude porte sur l’engagement scolaire des élèves de troisième cycle du primaire (5e et 6e années au Québec) dans un contexte d’utilisation pédagogique des technologies de l’information et de la communication (TIC). L’objectif de cette recherche est d’analyser l’engagement d’élèves utilisant les TIC. Elle vise à décrire les pratiques pédagogiques d’intégration des TIC de dix enseignants, de relater la qualité de l’engagement de leurs 230 élèves lors de tâches TIC et de mesurer l’évolution et la qualité de leur engagement scolaire selon le degré de défavorisation de leur école. Pour ce faire, cette recherche s’est inspirée d’un cadre de référence traitant l’engagement scolaire selon les dimensions affective, comportementale et cognitive. De plus, cette étude multicas essentiellement de nature interprétative et descriptive a utilisé une méthodologie mixte de collecte et d’analyse des données.
Les résultats montrent notamment que les enseignants accordent une valeur pédagogique importante aux TIC tant dans la fréquence de leur utilisation, dans les usages valorisés que dans la façon de les intégrer en classe. Les enseignants privilégient largement le traitement de texte et la recherche sur Internet, mais très peu d’autres usages pertinents sont mis de l’avant de manière soutenue. La majorité des enseignants interrogés préférerait se servir de quatre ordinateurs en classe pour utiliser les TIC plus facilement que d’avoir uniquement accès au laboratoire de leur école. De plus, ils perçoivent de manière unanime que l’utilisation des TIC exerce une influence importante sur la dimension affective de leurs élèves lors d’activités préparées, assez bonne sur la dimension comportementale et plus discutable sur la dimension cognitive.
Plus globalement, les élèves eux-mêmes affichent en général un engagement scolaire relativement élevé. En six mois, la qualité de l’engagement affectif des élèves est restée stable, leur engagement comportemental a progressé, mais leur engagement cognitif a baissé légèrement. Les résultats montrent aussi que la qualité de l’engagement des élèves de milieux défavorisés évolue différemment selon le degré de défavorisation de leur école.
Dans cette recherche, l’importance de l’utilisation des TIC sur la qualité de l’engagement est marquante et s’avère parfois meilleure que dans d’autres types de tâches. Sans pouvoir généraliser, cette étude permet aussi de saisir davantage la qualité et l’évolution de l’engagement scolaire des élèves de la fin du primaire en milieux défavorisés. Des recommandations pour le milieu et des pistes de recherches futures sont présentées en tenant compte des limites et des forces de cette thèse inédite réalisée par articles. / Conducted in low socio-economic environments, this study looks at student engagement among third cycle elementary pupils (5th and 6th grade in Québec) in the context of the pedagogical use of Information and Communication Technologies (ICT) at school. The goal of this multiple case study was to analyze the engagement of those students using ICTs at school. Thereby we have attempted to describe ten teachers’ pedagogical ICT integration practices, to report the quality of engagement of their 230 students during ICT tasks, and to measure the evolution and quality of their engagement in accordance with the school’s socio-economic status. A cross-cultural exploratory validation of a psychometric questionnaire was therefore carried out. This essentially interpretive and descriptive research employed a mixed methodology of data collection and analysis.
This research notes that the concerned teachers granted an important pedagogical value to the use of ICTs varying in the frequency of their use, those uses most valued, and in the manner in which they are integrated in class. They largely privilege word processing and Internet research, yet few other significant uses are steadily applied. The majority preferred using four in-class computers for easier use of ICTs, rather than only having access to the school laboratory. Furthermore, they unanimously perceive that the use of ICTs has an important influence on their students’ emotional dimension during planned activities, a moderate influence on their behavioral dimension, and a more disputable influence on their cognitive dimension. More globally, the students themselves display a relatively high academic engagement. In six months, the quality of their emotional engagement remained stable, the behavioral aspect was on the rise, but the cognitive engagement declined. The results also demonstrate that those students from underprivileged environments displayed a different evolution in the quality of their engagement in accordance with their school’s level of income.
This research therefore demonstrates the importance the use of ICTs has on the quality of engagement during ICT tasks, the latter often proving to be better than in other types of learning tasks. Without being able to generalize, this study also allows one to greater grasp how student engagement is qualified and evolves for pupils at the end of elementary school in underprivileged settings. Recommendations for the setting and paths for future research are presented taking into account the limits and strengths of this doctoral thesis presented by articles.
|
Page generated in 0.0617 seconds