• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2768
  • 906
  • 403
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4136
  • 1297
  • 979
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 577
  • 504
  • 393
  • 384
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
831

Outils statistiques et géométriques pour la classification des images SAR polarimétriques hautement texturées

Formont, P. 10 December 2013 (has links) (PDF)
Les radars à synthèse d'ouverture (Synthetic Aperture Radar ou SAR) permettent de fournir des images à très haute résolution de la surface de la Terre. Les algorithmes de classification traditionnels se basent sur une hypothèse de bruit gaussien comme modèle de signal, qui est rapidement mise en défaut lorsque l'environnement devient inhomogène ou impulsionnel, comme c'est particulièrement le cas dans les images SAR polarimétriques haute résolution, notamment au niveau des zones urbaines. L'utilisation d'un modèle de bruit composé, appelé modèle SIRV, permet de mieux prendre en compte ces phénomènes et de représenter la réalité de manière plus adéquate. Cette thèse s'emploie alors à étudier l'application et l'impact de ce modèle pour la classification des images SAR polarimétriques afin d'améliorer l'interprétation des classifications au sens de la polarimétrie et à proposer des outils adaptés à ce nouveau modèle. En effet, il apparaît rapidement que les techniques classiques utilisent en réalité beaucoup plus l'information relative à la puissance de chaque pixel plutôt qu'à la polarimétrie pour la classification. Par ailleurs, les techniques de classification traditionnelles font régulièrement appel à la moyenne de matrices de covariance, calculée comme une moyenne arithmétique. Cependant, étant donnée la nature riemannienne de l'espace des matrices de covariance, cette définition n'est pas applicable et il est nécessaire d'employer une définition plus adaptée à cette structure riemannienne. Nous mettons en évidence l'intérêt d'utiliser un modèle de bruit non gaussien sur des données réelles et nous proposons plusieurs approches pour tirer parti de l'information polarimétrique qu'il apporte. L'apport de la géométrie de l'information pour le calcul de la moyenne est de même étudié, sur des données simulées mais également sur des données réelles acquises par l'ONERA. Enfin, une étude préliminaire d'une extension de ces travaux au cas de l'imagerie hyperspectrale est proposée, de par la proximité de ce type de données avec les données SAR polarimétriques.
832

Caractérisation des problèmes conjoints de détection et d'estimation

Chaumette, Eric 13 January 2014 (has links) (PDF)
Le thème général de ma recherche est la caractérisation des problèmes conjoints détection-estimation les plus fréquemment rencontrés en écoute active ou passive (radar, télécoms, sonar, ...) : l'estimation des paramètres déterministes (non aléatoires) d'un signal d'intérêt intermittent en présence d'un environnement permanent. Ce problème peut être modélisé par un test d'hypothèses binaires : H0 (environnement seul) et H1 (environnement et signal d'intérêt). L'intérêt premier pour l'estimation des paramètres déterministes provient de mon domaine d'application professionnel : le radar actif où l'approche à paramètres déterministe est privilégiée. Dans le cadre de paramètres déterministes, cette recherche peut s'aborder graduellement (en terme de difficulté théorique et calculatoire) sous deux axes : * l'étude des performances en estimation non conditionnelle (sans test de détection préalable) par le biais des bornes de performance en estimation. Dans ce cas il n'y a qu'un seul modèle d'observation H1. * l'étude des performances en estimation conditionnelle (avec test de détection préalable), c'est à dire la caractérisation des problèmes conjoints détection-estimation. Cette étude est réalisée par le biais des bornes de performance conditionnelle appliquées à deux modèles d'observation particuliers (l'antenne monopulse et le modèle d'observation gaussien déterministe) pour lesquels certains calculs analytiques sont accessibles.
833

Assessment and Improvement of the Capabilities of a Window Correlator to Model GPS Multipath Phase Errors

Betaille, David 17 February 2004 (has links) (PDF)
This thesis is concerned with the modelling of Global Positioning System (GPS) phase multipath. GPS is increasingly used for very high precision (centimetre level) engineering surveying applications such as setting out on construction sites and the control of major civil engineering plant (e.g. bulldozers, graders and pavement layers). In such applications the phase of the carrier signal is the basic observable and the dominant error source is multipath (electromagnetic reflections of the carrier waves from surfaces in the surroundings of the antennas). The work contained in the thesis has been carried out in collaboration with the LCPC (Laboratoire Central des Ponts et Chaussées) in Nantes, France, which made available its test facility and Leica Geosystems, Heerbrugg, Switzerland, a GPS manufacturer, which funded the work and which made available modified equipment for testing. The specific subject of the research is the assessment and improvement of the capabilities of a Phase Multipath Mitigation Window correlator (PMMW) to model GPS multipath phase errors. The phase window correlator is a new sampling technique dedicated to the estimation of multipath errors in phase measurements. The thesis contains background material on GPS multipath mitigation and on several existing patents related to the PMMW technique. The main contribution of the work relates to : - The rigorous mathematical modelling of multipath, starting from the physics of the phenomenon, right through to the phase measurement process itself, particularly that based on the PMMW correlator ; - The design of a general testing methodology in a controlled environment to assess the efficacy of multipath mitigation techniques ; - The carrying out of full-scale experiments at the LCPC in both static and kinematic modes and the assessment of the performances and limitations of the PMMW correlator ; - Initial investigations into the design of a new real-time correction strategy for phase multipath phase errors based on a combination of multipath observables including the signal-to-noise ratio, the output from the PMMW correlator and an estimation of the code multipath errors from dual frequency phase data. A key feature of the new strategy is its ability to overcome the major limitation of the PMMW technique, i.e. its insensitivity to multipath caused by very close reflectors. It enables the multipath corrupted phase measurements to be improved by 10 % in average in this case, whereas the PMMW corrections on their own had almost no effect.
834

Disconnected operation in a distributed file system /

Kistler, James Jay, January 1900 (has links)
Based on the author's thesis (Ph.D.), 1993. / Includes bibliographical references ([239]-244) and index. Also issued online.
835

Devenir des micropolluants prioritaires et émergents dans les filières conventionnelles de traitement des eaux résiduaires urbaines (files eau et boues), et au cours du traitement tertiaire par charbon actif / Removal of priority and emerging micropollutants in the conventionnal wastewater treatments (water and sludge), and during the tertiary treatment by activated carbon

Mailler, Romain 14 September 2015 (has links)
Le premier chapitre de ce manuscrit est dédié aux traitements primaires et biologiques conventionnels. Les abattements de nombreux polluants prioritaires et émergents ont été déterminés pour la décantation, la décantation physico-chimique lamellaire, les boues activées faible charge et la biofiltration. Les composés hydrophobes et les métaux, les composés organiques volatils et les molécules biodégradables sont plutôt bien éliminés par ces filières. La normalisation des abattements à celui de l'azote a permis de démontrer que la filière décantation physico-chimique lamellaire + biofiltration a une efficacité comparable à la filière décantation + boues activées, bien que plus compacte et opérant avec un temps de séjour hydraulique plus faible. En complément, l'analyse dans trois effluents de STEP du SIAAP de 55 résidus pharmaceutiques et hormones (PPHs), et de 6 autres polluants émergents, a permis de caractériser finement la contamination de ces rejets par ces composés, et de montrer la forte fréquence de détection à des concentrations supérieures à 100 ng/L de 14 composés. Dans le second chapitre, les campagnes menées ont permis de fournir des données sur cinq types de boues, dont les boues brutes, centrifugées, digérées, séchées et les cakes de boues, et sur quatre procédés de traitement des boues communément utilisés en France (centrifugation, digestion anaérobie, séchage thermique et cuisson + filtration presse). De nombreux composés ont été détectés dans ces boues et ce à des niveaux de concentrations variant du µg/kg MS (matière sèche) au g/kg MS. Certains polluants, comme les LAS, métaux ou PCBs, ne sont pas du tout éliminés au cours des traitements des boues, entrainant une augmentation de leur teneur, alors que d'autres, tels que les alkylphénols ou les PPHs, sont abattus partiellement par digestion et séchage thermique. La digestion anaérobie est le procédé qui permet la meilleure élimination de ces composés. La présence de plusieurs composés dans les centrats et condensats indique qu'un transfert a lieu et que la biodégradation et la volatilisation ne sont pas les seuls mécanismes d'élimination. Le dernier chapitre décrit les performances d'un pilote de traitement tertiaire, fonctionnant avec du charbon actif en poudre (CAP) ou en micro-grain (CAµG), à l'échelle industrielle, au cours de 32 campagnes de mesure. Les résultats ont montré que la plupart des PPHs, alkylphénols, édulcorants, pesticides et parabènes pouvaient être abattus efficacement (> 80%) par du charbon actif en lit fluidisé, à des doses limitées de charbon (10-20 g/m3). La dose de charbon influence fortement les performances, que ce soit avec du CAP ou du CAµG. Le CAµG permet d'obtenir des abattements en PPHs comparables au CAP à une même dose (10 ou 20 gCAµG/m3), même si certains composés sont légèrement mieux abattus (5-15%) avec le CAP, probablement par l'action du FeCl3. Cependant, le CAµG a plusieurs avantages opérationnels par rapport au CAP. En particulier, le CAµG est réactivable, facile à utiliser, il fonctionne à des temps de séjour élevés favorisant le développement d'une activité biologique et sans ajout de coagulant/flocculant pour maintenir le lit de charbon. Par ailleurs, ce type de procédé permet l'affinage du traitement des paramètres globaux de qualité des eaux, notamment le CAµG qui retient les MES et élimine totalement les nitrites. La corrélation entre performances du procédé et abattement de l'absorbance UV à 254 nm a été établie, indiquant que ce paramètre pourrait être utilisé comme indicateur de performance. La mise en place d'expériences complémentaires en laboratoire a permis de mieux appréhender le processus de sorption sur le CAP. Le lien étroit entre surface spécifique, densité apparente du CAP et abattement des PPHs a été démontré, ainsi que l'importance de la dose de CAP et du temps de contact. L'impact positif du FeCl3, et l'influence négative de la quantité et de la qualité de la matière organique ont été observés / The first chapter is dedicated to the conventional primary and biological treatments. Hence, removals of a wide range of priority and emerging micropollutants were assessed for primary settling, physico-chemical lamellar settling, low load activated sludge process and biofiltration. Hydrophobic compounds and metals, as well as volatile organic compounds and biodegradable pollutants are rather well eliminated by these treatments. Moreover, considering removals normalized with nitrogen removals, the physico-chemical lamellar settling + biofiltration wastewater treatment plant (WWTP) is as efficient as the primary settling + low load activated sludge WWTP, despite its lower hydraulic retention time and its higher compactness. As a complement, the analysis in 3 WWTP effluents from SIAAP of 55 pharmaceuticals and hormones (PPHs) and 6 other emerging pollutants allowed characterizing the contamination of these discharges, and highlighting the high occurrence of 14 compounds at concentrations above 100 ng/L. In the second chapter, the contamination by micropollutants of different types of Parisian sewage sludges was assessed, as well as their fate during sludge treatments. Various compounds, such as alkylphenols, linear alkylbenzene sulfonates (LAS), metals, organotins, phthalates, polybromodiphenylethers (PBDEs), perfluorinated acids (PFAs), polychlorobiphenyls (PCBs), polycyclic aromatic hydrocarbons (PAHs) and PPHs, were quantified in raw, centrifuged, digested, thermally dried sludges and sludge cakes (cooking + press-filtering). Some of them (LAS, metals, PCBs) are not eliminated or less than dry matter by sludge treatments resulting in a content increase, while others (alkylphenols, organotins, PBDEs, PPHs, PFAs) are more removed than dry matter by anaerobic digestion and thermal drying. Overall, anaerobic digestion is the most efficient sludge process. Finally, the detection of several pollutants in the centrifuged and condensed waters from centrifugation and thermal drying indicates that a transfer is occurring and that biodegradation and volatilization are not the only mechanism to be involved in micropollutant removal from sludge. The last chapter aimed at investigating the performance of a large scale pilot operating with powdered (PAC) or micro-grain activated carbon (µGAC), during 32 campaigns. Results showed that most of PPHs, alkylphenols, artificial sweeteners, parabens and pesticides are efficiently removed (> 80%) by activated carbon in fluidized bed at moderate doses (10-20 g/m3). Furthermore, the activated carbon dose has a great influence on performances, whether with PAC or µGAC. Then, µGAC has several operational advantages (reactivability, ease of operation, high solid retention time, no need for coagulant/flocculant addition to handle the fluidized bed) over the PAC together with similar performances at a similar fresh µGAC dose (20 gµGAC/m3 ≈ 20 gPAC/m3). In addition this type of process allows an improvement of the conventional wastewater quality parameters, especially µGAC which retains total suspended solids and eliminates totally nitrites. Finally, a correlation between micropollutant and UV-254 removals has been confirmed, suggesting that this parameter could be used as a performances indicator. The complementary laboratory scale experiments performed within this chapter allowed understanding better the PAC adsorption mechanism in wastewater. The correlation between the specific surface, the bulk density of the PAC and PPHs removal has been displayed, as well as the importance of the fresh PAC dose and the contact time. Moreover, the positive effect of FeCl3 and negative influence of the quantity and quality of organic matter on micropollutant adsorption have been observed
836

Parallel algorithms and data structures for interactive applications / Algoritmos Paralelos e Estruturas de Dados para Aplicações Interativas / Algorithmes et Structures de Données Parallèles pour Applications Interactives

Toss, Julio January 2017 (has links)
La quête de performance a été une constante à travers l’histoire des systèmes informatiques. Il y a plus d’une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d’épuisement pour satisfaire les exigences de performance. Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes. Avec l’adoption généralisée d’ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s’adapter à ces nouvelles architectures. Cependant, dans des applications non conventionnelles, avec des exigences d’interactivité et de temps réel, la parallélisation efficace est encore un défi majeur. L’exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l’entrée de l’utilisateur dans une itération de calcul de la boucle de simulation. Le même type de contrainte apparaît dans les applications d’analyse de données en continu. Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d’analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache. Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l’indexation statique des données ne conduisent pas aux performances souhaitées. Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes : la première dans le domaine de la simulation physique interactive et la seconde sur l’analyse des données en continu. Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille. Pour le problème d’analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire. / A busca por desempenho tem sido uma constante na história dos sistemas computacionais. Ha mais de uma década, o modelo de processamento sequencial já mostrava seus primeiro sinais de exaustão pare suprir a crescente exigência por performance. Houveram "barreiras"para a computação sequencial que levaram a uma mudança de paradigma e estabeleceram o processamento paralelo como padrão nos sistemas computacionais modernos. Com a adoção generalizada de computadores paralelos, novos algoritmos foram desenvolvidos e aplicações reprojetadas para se adequar às características dessas novas arquiteturas. No entanto, em aplicações menos convencionais, com características de interatividade e tempo real, alcançar paralelizações eficientes ainda representa um grande desafio. O requisito por desempenho de tempo real apresenta-se, por exemplo, em simulações interativas onde o sistema deve ser capaz de reagir às entradas do usuário dentro do tempo de uma iteração da simulação. O mesmo tipo de exigência aparece em aplicações de monitoramento de fluxos contínuos de dados (streams). Por exemplo, quando dados provenientes de sensores de tráfego ou postagens em redes sociais são produzidos em fluxo contínuo, o sistema de análise on-line deve ser capaz de processar essas informações em tempo real e ao mesmo tempo manter um consumo de memória controlada A natureza dinâmica desses dados traz diversos problemas de performance, tais como a decomposição do problema para processamento em paralelo e a manutenção da localidade de dados para uma utilização eficiente da memória cache. As estratégias de otimização tradicionais, que dependem de modelos pré-computados ou de índices estáticos sobre os dados, não atendem às exigências de performance necessárias nesses cenários. Nesta tese, abordamos os problemas dependentes de dados em dois contextos diferentes: um na área de simulações baseada em física e outro em análise de dados em fluxo contínuo. Para o problema de simulação, apresentamos um algoritmo paralelo, em GPU, para computar múltiplos caminhos mínimos e diagramas de Voronoi em um grafo com topologia de grade. Para o problema de análise de fluxos de dados, apresentamos uma estrutura de dados paralelizável, baseada em Packed Memory Arrays, para indexar dados dinâmicos geo-localizados ao passo que mantém uma boa localidade de memória. / The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements. Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge. Real-time performance requirement shows up, for instance, in user-interactive simulations where the system must be able to react to the user’s input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an online analysis system. The consumer system has to keep a controlled memory budget and deliver a fast processed information about the stream Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization. In this thesis we address data-dependent problems on two different applications: one on physically based simulations and another on streaming data analysis. To deal with the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. Our contribution to the streaming data analysis problem is a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality.
837

Algorithmes et structures de données parallèles pour applications interactives / Parallel algorithms and data structures for interactive data problems

Toss, Julio 26 October 2017 (has links)
La quête de performance a été une constante à travers l'histoire des systèmes informatiques.Il y a plus d'une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d'épuisement pour satisfaire les exigences de performance.Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes.Avec l'adoption généralisée d'ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s'adapter à ces nouvelles architectures.Cependant, dans des applications non conventionnelles, avec des exigences d'interactivité et de temps réel, la parallélisation efficace est encore un défi majeur.L'exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l'entrée de l'utilisateur dans une itération de calcul de la boucle de simulation.Le même type de contrainte apparaît dans les applications d'analyse de données en continu.Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d'analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé.La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache.Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l'indexation statique des données ne conduisent pas aux performances souhaitées.Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes: la première dans le domaine de la simulation physique interactive et la seconde sur l'analyse des données en continu.Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille.Pour le problème d'analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire. / The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements.Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge.Real-time performance requirement shows-up, for instance, in user-interactive simulations where the system must be able to react to the user's input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an on-line analysis system. The consumer system has to keep a controlled memory budget and delivery fast processed information about the stream.Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization.In this thesis we address data-dependent problems on two different application: one in physics-based simulation and other on streaming data analysis. To the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. To the streaming data analysis problem we present a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality.
838

Auditory frequency processing during wakefulness and sleep

Kaiser, Ramona 12 1900 (has links)
No description available.
839

Élaboration de mousses de graphène par voie solvothermale et modification de leurs propriétés physico-chimiques / Elaboration of graphene foams by a solvothermal-based process and modification of their physico-chemical properties

Speyer, Lucie 14 October 2016 (has links)
Les matériaux de type graphène suscitent depuis une dizaine d’années un grand engouement de la part de la communauté scientifique en raison de leurs propriétés remarquables. Les mousses de graphène, notamment, offrent la restitution d’une partie des propriétés du graphène combinée à une surface accessible élevée, et sont particulièrement intéressantes dans certains domaines d’application tels que l’énergie. Ce travail de thèse s’attache à l’étude de l’élaboration de mousses graphéniques par voie solvothermale, une méthode originale qui consiste en une réaction solvothermale entre un alcool et du sodium métallique, suivie par un traitement thermique. L’étude des produits issus de la réaction solvothermale ainsi que de la pyrolyse sous azote a été menée à l’aide de techniques de caractérisation complémentaires et multi-échelles : des mécanismes de formation du composé solvothermal ainsi que des mousses graphéniques ont pu être proposés. Les conditions optimales de pyrolyse ont également été déterminées, et permettent l’obtention d’une mousse de graphène possédant une grande qualité structurale et une surface accessible élevée. Par ailleurs, plusieurs traitements post-élaboration ont été mis en place : un recuit sous vide, en particulier, améliore sensiblement la qualité structurale et la pureté des échantillons. Enfin, l’étude de la modification des propriétés physico-chimiques des mousses à travers la chimie de l’intercalation des matériaux carbonés a été effectuée. Des films de graphène ont pu être préparés à partir des mousses intercalées et leurs propriétés électriques ont été évaluées / Graphene-based materials have attracted a great interest these last years, due to their outstanding properties. In particular, graphene foams offer a part of the properties of graphene, combined with a high surface area: they show great potentiality in some application domains such as energy. This thesis work is focused on the elaboration of graphene foams by a solvothermal-based process, an original method involving a solvothermal reaction between an alcohol and sodium, followed by a thermal treatment. The study of the compounds produced by the solvothermal reaction and the pyrolysis under a nitrogen flow was lead through multi-scale and complementary characterization techniques: mechanisms of formation of the solvothermal compound and graphenic foams have been proposed. The optimal conditions of pyrolysis were also determined, and provide the obtaining of graphene foams with a high structural quality and a large specific surface area. Furthermore, some types of post-elaboration treatments were carried out: notably, a vacuum annealing significantly improves the structural quality and the purity of the samples. Lastly, the modification of the physico-chemical properties of the foams through the chemistry of carbon materials intercalation has been studied. Graphene films were prepared from the intercalated foams and their electrical properties were evaluated
840

Aural servo : towards an alternative approach to sound localization for robot motion control / Asservissement sonore : vers une alternative à la localisation de source pour la commande de robot

Magassouba, Aly 05 December 2016 (has links)
Cette thèse s'intéresse au développement de lois de commande basées sur la perception auditive. Dans le domaine de l'audition robotique, le contrôle du robot à partir d'informations auditives est généralement basé sur des approches de localisation de source sonore. Cependant, la localisation de source en conditions réelles est un tâche complexe à résoudre. En environnement intérieur, les perturbations causées par le bruit, la réverbération ou même la structure du robot peuvent altérer le processus de localisation. Cette tâche de localisation devient encore plus complexe si la source et/ou le robot sont en mouvement. Aujourd'hui, en se restreignant aux systèmes binauraux, la localisation sonore en environnement réel n'est pas encore réalisable de manière robuste. A l'opposé, nous développons dans cette thèse une commande référencée capteurs, l'asservissement sonore, qui ne nécessite pas de localiser la source. Le mouvement du robot est directement reliée à la perception auditive: une tâche de positionnement est réalisée par une boucle de commande, où le mouvement du robot est régi par la dynamique d'indices sonores de bas niveau. Les résultats expérimentaux dans différentes conditions acoustiques et sur différentes plates-formes robotiques confirment la pertinence de cette approche en condition réelle. / This thesis is concerned about the development of a control framework based on auditory perception. In general, in robot audition, the motion control of a robot using hearing sense is based on sound source localization approaches. However, sound source localization under realistic conditions is a significant challenge to solve. In indoor environment perturbations caused by noise, reverberation or even the structure of the robot may alter the localization process. When considering dynamic scenes where the robot and/or the sound source might move, the degree of complexity of source localization raises to a higher level. As a result, sound source localization considering binaural setup is not achievable yet in real-world environments. By contrast, we develop in this thesis a sensor-based control approach, aural servo, that does not require to localize the source. The motion of the robot is straightly connected to the auditory perception: a positioning task is performed through a feedback loop where the motion of the robot is governed by the dynamic of low-level auditory features. Experimental results in various acoustic conditions and robotic platforms confirm the relevance of this approach for real-world environments.

Page generated in 0.0729 seconds