• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1349
  • 397
  • 363
  • 185
  • 104
  • 47
  • 36
  • 31
  • 26
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • Tagged with
  • 3045
  • 532
  • 465
  • 417
  • 410
  • 358
  • 328
  • 276
  • 265
  • 222
  • 219
  • 201
  • 169
  • 161
  • 158
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
531

Etude de la combustion des mélanges hydrocarbures/alcools dans un moteur HCCI / A study of hydrocarbon/alcohol combustion in HCCI engines

Saisirirat, Peerawat 23 May 2011 (has links)
Actuellement, les principaux thèmes pour le secteur de transport sont le réchauffement global et la crise énergétique, ce qui encourage les chercheurs à développer des technologies alternatives et efficaces. Le concept ‘HCCI’ (combustion d’une charge homogène, allumée par compression) est l’une des solutions pour le moteur de véhicules. Ce mode de combustion, indépendant d’une notion de propagation de flamme, permet de réduire fortement les émissions critiques de NOX et de suies dans les gaz d'échappement. Cette combustion de type HCCI du carburant diesel se caractérise par une combustion à deux étapes. Parallèlement, l’apparition de nouveaux carburants, comme le bio-alcool, est une autre voie de recherche. Les bio-alcools ont un nombre d’indice d'octane élevé qui peut se mélanger avec du carburant diesel pour optimiser la combustion de HCCI des carburants diesel. L’objectif de cette thèse est donc de caractériser les deux étapes de la combustion HCCI en étudiant l’influence de l’impact de l’ajout d’une fraction d’alcools dans diesel. La comparaison avec un mélange d’iso-octane, hydrocarbure à indice d'octane élevé de paraffine et des mélanges dilués via les gaz d’échappement est aussi analysée en tant que verrous potentiels pour améliorer la combustion de type HCCI. Dans cette thèse, le n-heptane est choisi comme composé principal représentatif du diesel, l'éthanol et 1-butanol sont choisis comme bio-alcools. L’analyse présentée ici se repose sur trois approches différentes : l’analyse expérimentale de la pression cylindre, l'analyse d'images de chimiluminescence spontanée de certaines espèces et les résultats issus de la modélisation cinétique de la combustion. / Currently, the major issues for the transportation sector are the global warming and energy crisis which encourage researchers to develop an alternative green efficient technology. The homogeneous charge compression ignition (HCCI) can be one of solutions for the automotive engine. This combustion concept is independent on the high temperature flame propagation which releases lowest critical emissions (NOX and PM) in the exhaust gas. HCCI combustion of diesel fuel presents specific characteristic of two-stage ignition that over-advances the main heat release. As the importance of bio-alcohol fuels increases, it is interesting to evaluate the potential of the fuels, to optimize the HCCI combustion of diesel fuels. This is the objective of this phD thesis. The two-stage ignition characteristic of the diesel hydrocarbon is described and the influence of alcohol fuel fraction in diesel blends is investigated in comparison with high octane paraffin hydrocarbon diesel blends and EGR addition. All potentials are concluded to the potential for HCCI combustion improvement. In this thesis, n-heptane was selected as the major diesel representative component and ethanol and 1-butanol as the considered alcohol fuels. Three approaches were used based on experimental cylinder pressure analysis, the chemiluminescence emissions image analysis and the chemical kinetic analysis results from the engine modeling. A detailed chemical kinetic scheme was specifically developed from sub-scheme of all considered fuel.
532

Estimation sous contraintes de communication : algorithmes et performances asymptotiques / Estimation under communication constraints : algorithms and asymptotic performance

Cabral Farias, Rodrigo 17 July 2013 (has links)
L'essor des nouvelles technologies de télécommunication et de conception des capteurs a fait apparaître un nouveau domaine du traitement du signal : les réseaux de capteurs. Une application clé de ce nouveau domaine est l'estimation à distance : les capteurs acquièrent de l'information et la transmettent à un point distant où l'estimation est faite. Pour relever les nouveaux défis apportés par cette nouvelle approche (contraintes d'énergie, de bande et de complexité), la quantification des mesures est une solution. Ce contexte nous amène à étudier l'estimation à partir de mesures quantifiées. Nous nous concentrons principalement sur le problème d'estimation d'un paramètre de centrage scalaire. Le paramètre est considéré soit constant, soit variable dans le temps et modélisé par un processus de Wiener lent. Nous présentons des algorithmes d'estimation pour résoudre ce problème et, en se basant sur l'analyse de performance, nous montrons l'importance de l'adaptativité de la dynamique de quantification pour l'obtention d'une performance optimale. Nous proposons un schéma adaptatif de faible complexité qui, conjointement, estime le paramètre et met à jour les seuils du quantifieur. L'estimateur atteint de cette façon la performance asymptotique optimale. Avec 4 ou 5 bits de résolution, nous montrons que la performance optimale pour la quantification uniforme est très proche des performances d'estimation à partir de mesures continues. Finalement, nous proposons une approche à haute résolution pour obtenir les seuils de quantification non-uniformes optimaux ainsi qu'une approximation analytique des performances d'estimation. / With recent advances in sensing and communication technology, sensor networks have emerged as a new field in signal processing. One of the applications of his new field is remote estimation, where the sensors gather information and send it to some distant point where estimation is carried out. For overcoming the new design challenges brought by this approach (constrained energy, bandwidth and complexity), quantization of the measurements can be considered. Based on this context, we study the problem of estimation based on quantized measurements. We focus mainly on the scalar location parameter estimation problem, the parameter is considered to be either constant or varying according to a slow Wiener process model. We present estimation algorithms to solve this problem and, based on performance analysis, we show the importance of quantizer range adaptiveness for obtaining optimal performance. We propose a low complexity adaptive scheme that jointly estimates the parameter and updates the quantizer thresholds, achieving in this way asymptotically optimal performance. With only 4 or 5 bits of resolution, the asymptotically optimal performance for uniform quantization is shown to be very close to the continuous measurement estimation performance. Finally, we propose a high resolution approach to obtain an approximation of the optimal nonuniform quantization thresholds for parameter estimation and also to obtain an analytical approximation of the estimation performance based on quantized measurements.
533

From dataflow-based video coding tools to dedicated embedded multi-core platforms / Depuis des outils de codage vidéo basés sur la programmation flux de données vers des plates-formes multi-coeur embarquées et dédiées

Yviquel, Hervé 25 October 2013 (has links)
Le développement du multimédia, avec l'émergence des architectures parallèles, a ravivé l'intérêt de la programmation flux de données pour la conception de systèmes embarqués. En effet, la programmation flux de données offre une approche de développement suffisamment flexible pour créer des applications complexes tout en exprimant la concurrence et le parallélisme explicitement. Paradoxalement, la plupart des études portent sur des modèles flux de données statiques, même si un processus de développement pragmatique nécessite l'expressivité et la practicité d'un langage de programmation basé sur un modèle flux de données dynamiques, comme le langage de programmation utilisé dans le cadre de Reconfigurable Video Coding. Dans cette thèse, nous décrivons un environnement de développement pour la programmation flux de données qui facilite le développement multimédia pour des plates-formes multi-coeur embarquées. Cet environnement de développement repose sur une architecture logicielle modulaire qui bénéficie de techniques modernes de génie logiciel telles que la méta modélisation et la programmation orientée aspect. Ensuite, nous développons une implémentation logicielle optimisée des programmes flux de données ciblant aussi bien les ordinateurs de bureau que les plates-formes embarquées. Notre implémentation vise à combler le fossé entre la practicité du langage de programmation et l'efficacité de son exécution. Enfin, nous présentons un ensemble d'algorithmes de projection et d'ordonnancement d'acteurs qui permettent l'exécution de programmes flux de données dynamiques sur des plates-formes multi-coeur avec des performances extensibles. / The development of multimedia technology, along with the emergence of parallel architectures, has revived the interest on dataflow programming for designing embedded systems. Indeed, dataflow programming offers a flexible development approach in order to build complex applications while expressing concurrency and parallelism explicitly. Paradoxically, most of the studies focus on static dataflow models of computation, even if a pragmatic development process requires the expressiveness and the practicality of a programming language based on dynamic dataflow models, such as the language included in the Reconfigurable Video Coding framework. In this thesis, we describe a complete development environment for dataflow programming that eases multimedia development for embedded multi-core platforms. This development environment is built upon a modular software architecture that benefits from modern software engineering techniques such as meta modeling and aspect-oriented programming. Then, we develop an optimized software implementation of dataflow programs targeting desktop and embedded multi-core platforms. Our implementation aims to bridge the gap between the practicality of the programming language and the efficiency of the execution. Finally, we present a set of runtime actors mapping/scheduling algorithms that enable the execution of dynamic dataflow programs over multi-core platforms with scalable performance.
534

Winpaz : Ett GUI till en ny komprimeringsalgoritm / Winpaz : A GUI for a new compression algorithm

Svensson, Andreas, Olsson, Björn January 2007 (has links)
Detta är ett 10-poängs examensarbete på C-nivå, som vi under vårterminen avlagt vid Karlstads universitet. Målet med vårt projekt var att skapa ett nytt grafiskt gränssnitt till en komprimeringsalgoritm vid namn PAZ. Nuförtiden finns en hel uppsjö av grafiska gränssnitt till komprimeringsalgoritmer, men inget av dem stöder möjligheten att plugga in en egenutvecklad algoritm. Därför var vi tvungna att skapa vårt eget gränssnitt, som förutom PAZ också skulle stödja ZIP, RAR och andra etablerade algoritmer. Vi har alltså skapat ett grafiskt gränssnitt, vilket är anpassat för en implementation av den nya PAZ-algoritmen. Algoritmen har utvecklats av vår uppdragsgivare Martin Larsson. Gränssnittet har vi, i samarbete med Martin, valt att kalla för Winpaz. Vi började med att göra två prototyper, som vi bland annat delade ut till personer på universitetet för att få respons på användarvänligheten hos gränssnitten. Med utgångspunkt från resultaten av dessa tester, konstruerade vi sedan vårt slutgiltiga gränssnitt. Kravet vi hade på oss var att skapa ett användarvänligt grafiskt gränssnitt, som skulle stödja de vanligaste algoritmerna. Vi nådde målet att implementera stöd för algoritmerna ZIP och TAR. Dock fick vi göra avkall på implementationen av algoritmerna PAZ och RAR på grund av tidsbrist, men anpassade gränssnittet så att en senare inpluggning av dessa algoritmer är möjlig. Vi är nöjda med vår slutprodukt, men inser också att det troligen krävs en del ytterligare funktionalitet för att gränssnittet ska fungera exemplariskt. Under projektet har vi, förutom att vi stärkte våra kunskaper i C++-programmering, även lärt oss att använda utvecklingsverktyget wx-DevCpp. Utöver detta har vi lärt oss att programmera grafiska gränssnitt med hjälp av wxWidgets. / This is a bachelor´s project that we have been working on during a period of ten weeks, full time. The goal of our project was to design and implement a GUI for a new data compression algorithm called PAZ. At present, a vast array of compression/extraction GUIs is available, but none of them provide the possibility to incorporate a user developed algorithm. Thus, we had to create our own, with support for not only PAZ, but also ZIP, RAR, and other well known archiving algorithms. And so, we have created a GUI that is well suited for an implementation of the new PAZ algorithm. The PAZ algorithm has been developed by Martin Larsson. We chose, in collaboration with Martin, to name the GUI application Winpaz. We began by implementing two separate prototypes, which we sent out to be tested by a closed group of beta testers. The reason for this test was to investigate how to design various parts of the application to be user friendly. Using the results from the testers, we then began the development of our final version of the GUI. Our goals were to implement a user friendly GUI, that supported PAZ as well as the most widespread algorithms already in use. We achieved our first goal, to design a user friendly GUI, and we implemented support for both ZIP and TAR, but had to abandon our efforts in implementing RAR and PAZ support due to lack of time. The interface is however designed with the future incorporation of these algorithms in mind. We are fairly pleased with our work, but we also recognize the need for added functionality in order to make the GUI a commercial grade product. During this project we have, apart from broadening our knowledge and skill in C++ programming, also learned to use the IDE wxDevCpp, a powerful open source tool for developing GUI applications based on the wxWidgets framework.
535

Analyse expérimentale et numérique de la compaction des renforts fibreux : Application pour la perméabilité / Experimental and numerical analysis of fibrous reinforcements compactions : Application for permeability simulation

Nguyen, Quang Thanh 06 October 2011 (has links)
Au cours de la phase de préformage, le renfort sec peut être soumis à plusieurs déformations : la tension, le cisaillement mais aussi la compression. Si les deux premières déformations ont été bien explorées dans plusieurs études ces dernières années, ce n’est pas le cas de la compression. Pourtant, ce type de déformation affecte de manière importante la perméabilité du renfort lors de l’injection de la résine, car il change la porosité du renfort tant au niveau de la forme qu’au niveau de la dimension. La présente thèse propose d’étudier le comportement du renfort en compression et l’influence de cette déformation sur la perméabilité. Pour cela, des essais de compression sont menés pour étudier l’impact de la compaction sur la déformation globale du renfort ainsi que des différents facteurs susceptibles de l’affecter. Parallèle aux essais expérimentaux, des simulations numériques à l’échelle mésoscopique par éléments finis ont été mises en place. Les simulations réalisées sont validées à partir des essais mécaniques. Les géométries déformées obtenues par les simulations mécaniques ont été ensuite traitées par une chaîne de maillage pour l’obtention d’un maillage 3D régulière d’un VER fluide. La prédiction de la perméabilité du renfort tissé est réalisée en résolvant les équations de Stokes et Brinkman et l’utilisation de l’homogénéisation sur le maillage décrit précédemment / During the preforming phase, the dry reinforcement may be subjected to several deformations: tension, shear, but also compression. If two first déformations have been well explored in several studies in recent years, this is not the case of compression. However, this type of deformation significantly affects the permeability of the reinforcement during resin injection because it changes the porosity of the reinforcement both in form and in terms of size. This thesis proposes to study the behavior of the reinforcement in compression and the influence of this deformation on the permeability. For this purpose, compression tests are conducted to study the impact of compaction on the overall deformation of the reinforcement and the various factors that may affect it. Parallel to the experimental study, finite element based numerical simulations at the mesoscopic scale was implemented. The simulations are validated by the mechanical tests. The deformed geometry obtained by the mechanical simulations was then processed by a meshing chain to obtain a 3D regular mesh of the RVE fluid. The prediction of the permeability of the woven reinforcement is achieved by solving the Stokes and Brinkman equations and by using the homogenization on the grid mentioned above.
536

Second-order prediction and residue vector quantization for video compression / Prédiction de second ordre et résidu par quantification vectorielle pour la compression vidéo

Huang, Bihong 08 July 2015 (has links)
La compression vidéo est une étape cruciale pour une grande partie des applications de télécommunication. Depuis l'avènement de la norme H.261/MPEG-2, un nouveau standard de compression vidéo est produit tous les 10 ans environ, avec un gain en compression de 50% par rapport à la précédente. L'objectif de la thèse est d'obtenir des gains en compression par rapport à la dernière norme de codage vidéo HEVC. Dans cette thèse, nous proposons trois approches pour améliorer la compression vidéo en exploitant les corrélations du résidu de prédiction intra. Une première approche basée sur l'utilisation de résidus précédemment décodés montre que, si des gains sont théoriquement possibles, le surcoût de la signalisation les réduit pratiquement à néant. Une deuxième approche basée sur la quantification vectorielle mode-dépendent (MDVQ) du résidu préalablement à l'étape classique transformée-quantification scalaire, permet d'obtenir des gains substantiels. Nous montrons que cette approche est réaliste, car les dictionnaires sont indépendants du QP et de petite taille. Enfin, une troisième approche propose de rendre adaptatif les dictionnaires utilisés en MDVQ. Un gain substantiel est apporté par l'adaptivité, surtout lorsque le contenu vidéo est atypique, tandis que la complexité de décodage reste bien contenue. Au final on obtient un compromis gain-complexité compatible avec une soumission en normalisation. / Video compression has become a mandatory step in a wide range of digital video applications. Since the development of the block-based hybrid coding approach in the H.261/MPEG-2 standard, new coding standard was ratified every ten years and each new standard achieved approximately 50% bit rate reduction compared to its predecessor without sacrificing the picture quality. However, due to the ever-increasing bit rate required for the transmission of HD and Beyond-HD formats within a limited bandwidth, there is always a requirement to develop new video compression technologies which provide higher coding efficiency than the current HEVC video coding standard. In this thesis, we proposed three approaches to improve the intra coding efficiency of the HEVC standard by exploiting the correlation of intra prediction residue. A first approach based on the use of previously decoded residue shows that even though gains are theoretically possible, the extra cost of signaling could negate the benefit of residual prediction. A second approach based on Mode Dependent Vector Quantization (MDVQ) prior to the conventional transformed scalar quantization step provides significant coding gains. We show that this approach is realistic because the dictionaries are independent of QP and of a reasonable size. Finally, a third approach is developed to modify dictionaries gradually to adapt to the intra prediction residue. A substantial gain is provided by the adaptivity, especially when the video content is atypical, without increasing the decoding complexity. In the end we get a compromise of complexity and gain for a submission in standardization.
537

Évaluation des propriétés mécaniques d’un sol traité au ciment / Evaluation of the mechanical properties of a soil-mixing material

Szymkiewicz, Fabien 04 October 2011 (has links)
Le Soil-Mixing consiste à traiter le sol avec un liant hydraulique en le mélangeant mécaniquement en place pour améliorer ses propriétés mécaniques. Son coté économique ainsi que son faible impact environnemental ont fait de cette méthode jusque là cantonnée à l'amélioration de sols compressibles ou à forte teneur en matière organique une alternative attrayante aux méthodes traditionnelles de renforcements des sols, de soutènements (temporaires voire définitifs), de fondations et de travaux d'étanchéités. Mais avec cette augmentation de la demande, les exigences nouvelles concernant la méthode et le matériau sont apparues.De nombreuses études permettent d'apporter des éléments de réponses. Cependant, il n'existe pas d'étude paramétrique globale étudiant à la fois l'impact du type de sol et de la quantité d'eau sur la caractérisation du matériau Soil-Mixing et qui permettrait d'améliorer les méthodes de dosage ainsi que les méthodes de dimensionnement des ouvrages en Soil-Mixing.Un mélange sol-ciment est composé majoritairement de sol. Le ciment ne représentera au maximum que 30% du mélange. L'approche adoptée est donc plutôt celle du domaine de la géotechnique que des bétons hydrauliques. Nous avons pris le parti de baser notre travail sur une étude de laboratoire, en réalisant des mélanges dits “de référence”. Trois sables et cinq sols fins ont été traités en faisant varier à chaque fois les quantités de ciment et d'eau, afin d'observer l'influence de la granulométrie, de l'argilosité et de la quantité d'eau présente dans le mélange sur la résistance, la rigidité et la déformation à la rupture du matériau. Par ailleurs, des sols reconstitués à base de sable et de sol fin ont été traités afin d'étudier l'impact des fines et de leur nature sur la résistance du matériau. En parallèle, le suivi de différents chantiers nous a permis d'étudier la mise en œuvre de la méthode, l'homogénéité du matériau réalisé in situ, et de comparer les résultats obtenus avec ceux de l'étude paramétrique. Les retombées de ce travail sont la création d'abaques reliant la résistance au dosage en ciment et au rapport C/E, ainsi qu'un tableau de synthèse de données expérimentales des différentes propriétés mécaniques du matériau Soil-Mixing (en fonction de la nature du sol rencontré), et des formules permettant pour les sols grenus de prédire la résistance à 7 et 28 jours en fonction du pourcentage de fines dans le sol et du dosage en ciment / The Soil-Mixing consists in mixing a hydraulic binder into the soil mechanically in order to improve its mechanical properties. Because of its economical as well as its sustainable advantages, this method so far confined to the improvement of compressible or high organic content soils has become an attractive alternative to traditional methods for soil reinforcement, retaining walls (temporary or final), foundations and cutoff walls. But these new applications imply new requirements on the method as well as on the material. Many studies on the subject provide some answers. However, there is no comprehensive parametric study examining both the impact of soil type and the amount of water on the characterization of the Soil-Mixing material and would improve the testing methods and methods for design of structures in Soil-Mixing.Soil-cement mixtures are predominantly composed of soil. The cement will represent at most 30% of the mixture. That is why we have chosen to follow a geotechnical approach rather than the concrete approach for this project.We followed an experimental program based on a laboratory study, realizing mixes called "reference" mixes. Three sand soil and five fine soils were treated by varying each time the quantities of cement and water to observe the influence of particle size, clay content and the amount of water present in the mixes on the resistance of the material, stiffness and failure strain. In addition, soils made from sand and fine soils were reconstituted and treated to study the impact of fines and their nature on the strength of the material.In parallel, monitoring of various projects has enabled us to study the implementation of the method, the homogeneity of the material produced in situ, and to compare the results with those of the parametric study. The results of this work are the creation of abaci connecting the resistance to the cement content and C/E ratio, and a summary table of experimental data of different mechanical properties of the Soil-Mixing material (depending on the nature of the soil), and formulas for granular soils predicting the strength after 7 and 28 days of curing depending on the percentage of fines in the soil and on cement content
538

Compression guidée par automate et noyaux rationnels / Compression guided by automata and rational kernels

Amarni, Ahmed 11 May 2015 (has links)
En raison de l'expansion des données, les algorithmes de compression sont désormais cruciaux. Nous abordons ici le problème de trouver des algorithmes de compression optimaux par rapport à une source de Markov donnée. A cet effet, nous étendons l'algorithme de Huffman classique. Pour se faire premièrement on applique Huffman localement à chaque état de la source Markovienne, en donnant le résultat de l'efficacité obtenue pour cet algorithme. Mais pour bien approfondir et optimiser quasiment l'efficacité de l'algorithme, on donne un autre algorithme qui est toujours appliqué localement à chaque états de la source Markovienne, mais cette fois ci en codant les facteurs partant de ces états de la source Markovienne de sorte à ce que la probabilité du facteur soit une puissance de 1/2 (sachant que l'algorithme de Huffman est optimal si et seulement si tous les symboles à coder ont une probabilité puissance de 1/2). En perspective de ce chapitre on donne un autre algorithme (restreint à la compression de l'étoile) pour coder une expression à multiplicité, en attendant dans l'avenir à coder une expression complète / Due to the expansion of datas, compression algorithms are now crucial algorithms. We address here the problem of finding an optimal compression algorithm with respect to a given Markovian source. To this purpose, we extend the classical Huffman algorithm. The kernels are popular methods to measure the similarity between words for classication and learning. We generalize the definition of rational kernels in order to apply kernels to the comparison of languages. We study this generalization for factor and subsequence kerneland prove that these kernels are defined for parameters chosen in an appropriate interval. We give different methods to build weighted transducers which compute these kernels
539

Relationship between the ECT-strength of corrugated board and the compression strength of liner and fluting medium papers

Dimitrov, Kiril Ognianov 17 September 2010 (has links)
Please read the abstract in the dissertation. Copyright / Dissertation (MEng)--University of Pretoria, 2010. / Chemical Engineering / unrestricted
540

Measurability Aspects of the Compactness Theorem for Sample Compression Schemes

Kalajdzievski, Damjan January 2012 (has links)
In 1998, it was proved by Ben-David and Litman that a concept space has a sample compression scheme of size $d$ if and only if every finite subspace has a sample compression scheme of size $d$. In the compactness theorem, measurability of the hypotheses of the created sample compression scheme is not guaranteed; at the same time measurability of the hypotheses is a necessary condition for learnability. In this thesis we discuss when a sample compression scheme, created from compression schemes on finite subspaces via the compactness theorem, have measurable hypotheses. We show that if $X$ is a standard Borel space with a $d$-maximum and universally separable concept class $\m{C}$, then $(X,\CC)$ has a sample compression scheme of size $d$ with universally Borel measurable hypotheses. Additionally we introduce a new variant of compression scheme called a copy sample compression scheme.

Page generated in 0.0213 seconds