• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1927
  • 598
  • 576
  • 417
  • 240
  • 177
  • 57
  • 54
  • 45
  • 26
  • 26
  • 25
  • 24
  • 23
  • 20
  • Tagged with
  • 4822
  • 533
  • 504
  • 499
  • 433
  • 421
  • 376
  • 362
  • 354
  • 346
  • 340
  • 337
  • 320
  • 319
  • 317
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
511

A 1Mbps 0.18μm CMOS Soft-output Decoder for Product Turbo Codes

Bade, Peter 30 July 2009 (has links)
A product turbo code (PTC) decoder application specific integrated circuit (ASIC) is designed in 0.18μm 1P6M CMOS with embedded SRAM. From simulation, an operating frequency of 73.1 MHz at typical conditions is obtained, yielding a throughput of 3.8 Mbps with 4 decoding iterations, while consuming 103.4 mW. The total area is 5.13 mm2. Assuming the ASIC would be used as a hard macro, the area could be reduced to 1.7 mm2. The ASIC was tested at 20 MHz under typical conditions, which resulted in a throughput of 1.0 Mbps at 1.8V supply while consuming 36.6 mW. By making a slight modification, this design can be easily scaled to support IEEE 802.16d WiMAX. Allow for this, and moving to a 45nm process an estimated throughput of 9.44 Mbps with 4 iterations can be obtained. Total macro area would be approximately 0.11 mm2.
512

The Encoding and decoding of complex visual stimuli : a neural model to optimize and read out a temporal population code

Luvizotto, André Luiz 17 September 2012 (has links)
The mammalian visual system has a remarkable capacity of processing a large amount of information within milliseconds under widely varying conditions into invariant representations. Recently a model of the primary visual system exploited the unique feature of dense local excitatory connectivity of the neo-cortex to match these criteria. The model rapidly generates invariant representations integrating the activity of spatially distributed modeled neurons into a so-called Temporal Population Code (TPC). In this thesis, we first investigate an issue that has persisted TPC since its introduction: to extend the concept to a biologically compatible readout stage. We propose a novel neural readout circuit based on wavelet transform that decodes the TPC over different frequency bands. We show that, in comparison with pure linear readouts used previously, the proposed system provides a robust, fast and highly compact representation of visual input. We then generalized this optimized encoding-decoding paradigm to deal with a number of robotics application in real-world tasks to investigate its robustness. Our results show that complex stimuli such as human faces, hand gestures and environmental cues can be reliably encoded by TPC which provides a powerful biologically plausible framework for real-time object recognition. In addition, our results suggest that the representation of sensory input can be built into a spatial-temporal code interpreted and parsed in series of wavelet like components by higher visual areas. / El sistema visual dels mamífers té una remarcable capacitat per processar informació en intervals de temps de mili-segons sota condicions molt variables i adquirir representacions invariants d'aquesta informació. Recentment un model del còrtex primari visual explota les característiques d'alta connectivitat excitatriu local del neocortex per modelar aquestes capacitats. El model integra ràpidament l'activitat repartida espaialment de les neurones i genera codificacions invariants que s'anomenen Temporal Population Codes (TPC). Aquí investiguem una qüestió que ha persistit des de la introducció del TPC: estudiar un procés biològicament possible capaç de fer la lectura d'aquestes codificacions. Nosaltres proposem un nou circuit neuronal de lectura basat en la Wavelet Transform que decodifica la senyal TPC en diferents intervals de freqüència. Monstrem que, comparat amb lectures purament lineals utilitzades previament, el sistema proposat proporciona una representació robusta, ràpida i compacta de l'entrada visual. També presentem una generalització d'aquest paradigma de codificació-decodificació optimitzat que apliquem a diferents tasques de visió per computador i a la visió dins del context de la robòtica. Els resultats del nostre estudi suggereixen que la representació d'escenes visuals complexes, com cares humanes, gestos amb les mans i senyals del medi ambient podrien ser codificades pel TPC el qual es pot considerar un poderós marc biològic per reconeixement d'objectes en temps real. A més a més, els nostres resultats suggereixen que la representació de l'entrada sensorial pot ser integrada en un codi espai-temporal interpretat i analitzat en una serie de components Wavelet per àrees visuals superiors.
513

Modern coding schemes for unequal error protection

Deetzen, Neele von January 2009 (has links)
Zugl.: Bremen, Univ., Diss., 2009
514

Straftatfolgen im deutschen und koreanischen Strafrecht : ein prinzipieller Vergleich /

Son, Misuk. January 2004 (has links) (PDF)
Univ., Diss.--Trier, 2004. / Literaturverz. S. 374 - 444.
515

Les mots étrangers de Vladimir Nabokov / Vladimir Nabokov’s foreign words

Loison-Charles, Julie 10 June 2014 (has links)
Cette thèse démontre le caractère fondamental du multilinguisme de Nabokov dans son écriture en anglais : après avoir été un auteur prolifique en russe, l’écrivain a opéré une transition linguistique et n’a plus composé ses romans qu’en langue anglaise. Cette dernière ne peut nullement être réduite à une langue seconde puisque Nabokov a su l’écrire avant le russe et la parlait depuis l’enfance. Il a par ailleurs bénéficié d’une éducation polyglotte puisqu’il maîtrisait parfaitement le français. Cette thèse étudie le style de Nabokov en soulignant sa créativité linguistique et en examinant le rôle fondateur que la traduction a joué dans le positionnement de ses différentes langues les unes par rapport aux autres. L’identité bilingue de Nabokov a pour conséquence que son écriture est déviante, mais aussi défiante : elle est marquée d’étrangeté (le caractère de ce qui est étrange) et d’étrangéité (ce qui est étranger). Dans ses romans, la langue anglaise voit surgir en son sein des mots étrangers qui, typographiquement et sémantiquement, déstabilisent la lecture : le phénomène de l’alternance codique (ou code-switching) est au cœur de cette thèse et interroge le rapport entre l’auteur tyrannique (Couturier) et son lecteur. La langue anglaise elle-même perd de sa familiarité et devient étrangère : le bilinguisme de Nabokov lui confère un statut d’étranger dans la langue, ce qui lui permet de voir la violence du langage (Lecercle) et de la faire apparaître, notamment grâce à des calembours et des néologismes. Nabokov est ce que Deleuze appelle un grand écrivain à l’aide d’une formule proustienne : ses livres « sont écrits dans une sorte de langue étrangère ». / This thesis shows how central Nabokov’s multilingualism was to his prose in English: after authoring several works in Russian, the writer changed languages and then only wrote his novels in English. It was not merely a second language for him because Nabokov could write English before Russian and he had spoken it since childhood. Besides, he enjoyed a polyglot education and was fluent in French. This thesis studies Nabokov’s style in English by focusing on his linguistic creativity and by examining the founding role that translation played in how his several tongues were going to position themselves in relation to one another. Nabokov’s bilingual identity means that his writing both challenges and deviates from the norm: it is dappled with strangeness and foreignness. In his novels, foreign words irrupt in the midst of the English prose and, typographically and semantically, they destabilize the reading experience: code-switching is at the heart of this thesis and questions the relation between “the narrator’s tyranny” (Couturier) and his reader. English itself loses its familiarity and becomes a foreign language: Nabokov’s bilingualism means he is like a foreigner in this tongue; therefore he reveals the violence of language (Lecercle) and puts it into play through puns and neologisms. Nabokov is what Deleuze calls, thanks to a Proustian expression, a great writer: his books “are written in a kind of foreign language”.
516

The equivocation of codes

Schofield, Mark January 2018 (has links)
Equivocation was introduced by Shannon in the late 1940’s in seminal papers that kick-started the whole field of information theory. Much ground has been covered on equivocation’s counterpart, channel capacity and in particular, its bounds. However, less work has been carried out on the evaluation of the equivocation of a code transmitted across a channel. The aim of the work covered in this thesis was to use a probabilistic approach to investigate and compare the equivocation of various codes across a range of channels. The probability and entropy of each output, given each input, can be used to calculate the equivocation. This gives a measure of the ambiguity and secrecy of a code when transmitted across a channel. The calculations increase exponentially in magnitude as both the message length and code length increase. In addition, the impact of factors such as erasures and deletions also serve to significantly complicate the process. In order to improve the calculation times offered by a conventional, linearly-programmed approach, an alternative strategy involving parallel processing with a CUDA-enabled (Compute Unified Device Architecture) graphical processor was employed. This enabled results to be obtained for codes of greater length than was possible with linear programming. However, the practical implementation of a CUDA driven, parallel processed solution gave rise to significant issues with both the software implementation and subsequent platform stability. By normalising equivocation results, it was possible to compare different codes under different conditions, making it possible to identify and select codes that gave a marked difference in the equivocation encountered by a legitimate receiver and an eavesdropper. The introduction of code expansion provided a novel method for enhancing equivocation differences still further. The work on parallel processing to calculate equivocation and the use of code expansion was published in the following conference: Schofield, M., Ahmed, M. & Tomlinson, M. (2015), Using parallel processing to calculate and improve equivocation, in ’IEEE Conference Publications - IEEE 16th International Conference on Communication Technology’. In addition to the novel use of a CUDA-enabled graphics process to calculated equivocation, equivocation calculations were also performed for expanded versions of the codes. Code expansion was shown to yield a dramatic increase in the achievable equivocation levels. Once methods had been developed with the Binary Symmetric Channel (BSC), they were extended to include work with intentional erasures on the BSC, intentional deletions on the BSC and work on the Binary Erasure Channel (BEC). The work on equivocation on the BSC with intentional erasures was published in: Schofield, M. et al, (2016), Intentional erasures and equivocation on the binary symmetric channel, in ’IEEE Conference Publications - International Computer Symposium’, IEEE, pp 233-235. The work on the BEC produced a novel outcome due to the erasure correction process employed. As the probability of an erasure occurring increases, the set of likely decoded outcomes diminishes. This directly impacts the output entropy of the system by decreasing it, thereby also affecting the equivocation value of the system. This aspect was something that had not been encountered previously. The work also extended to the consideration of intentional deletions on the BSC and the Binary Deletion Channel (BDC) itself. Although the methods used struggled to cope with the additional complexity brought by deletions, the use of Varshamov-Tenengolts codes on the BSC with intentional deletions showed that family of codes to be well suited to the channel arrangement as well as having the capability to be extended to enable the correction of multiple deletions.
517

La réforme pénitentiaire au Mali : l'enjeu de la légitimation d'une institution exogène dans une société traditionnelle / Prison reform in Mali : the challenge of the legitimacy of an exogenous institution in a traditional society

Berte, Ibrahima 21 October 2016 (has links)
A la fin du XIXème siècle, sauf à l’intérieur de quelques garnisons et forts de traite européens de la côte, les prisons étaient méconnues en Afrique. Aujourd’hui, 50 ans après les indépendances, les Etats africains utilisent encore massivement le système pénitentiaire légué par les colonisateurs. Comme le rappellent toujours les prisons surpeuplées, le système carcéral s’étend désormais sur l’ensemble des sociétés au sud du Sahara. Aujourd’hui encore ce réseau architectural colonial n’a point été détruit ni remplacé. Il fournit d’ailleurs la majeure partie des bâtiments utilisés par le régime pénal des Etats contemporains. D’autre part, les arsenaux juridiques utilisés s’inspirent de ceux du système colonial et la prison fait partie d’un ensemble plus vaste d’institutions héritées de la colonisation qui sont toujours fonctionnelles dans ce contexte où la tradition est toujours présente. C’est au regard du surpeuplement des prisons au Mali, des conditions inhumaines d’incarcération et de détention et des textes dépassés et inadaptés qui les régissent que nous avons voulu réfléchir à une possible réforme dont les autorités ont toujours parlé, mais qui n’est jamais faite. Il s’agit, dans les présentes recherches, d’examiner l’histoire sociale, culturelle et politique des arsenaux répressifs apparus au Mali depuis l’esclavage au XIXème siècle jusqu’aux prisons actuelles. Il s’agit d’une tentative de compréhension des aspects intellectuels et philosophiques de la prison et l’enfermement dans la tradition des ethnies et des terroirs du Mali, ce qui nous permettra de réfléchir sur la pratique des institutions coloniales de répression dans la vie quotidienne des populations et d’analyser l’actualité des prisons au quotidien pour voir s’il est possible d’avoir des prisons humanisées reposant sur des concepts de justice traditionnelle d’une part, et d’autre part, sur des normes internationalement reconnues en la matière. Cette recherche vise surtout à comprendre les supports sociologiques d’une réforme des prisons au Mali et à répondre à des questions de légitimité qui cherchent à savoir sur quoi doit reposer la réforme : sur la tradition ou sur la modernité ou sur les deux ? En outre, elle sert à se faire une idée sur la faisabilité d’une réforme et à édifier sur l’utilité sociale de la prison dans une société qui ne l’a pas toujours connu et dont la pauvreté incite à imaginer des solutions novatrices et simples qui visent à donner un mieux vivre aux populations, à toutes les populations aussi bien à l’extérieur qu’à l’intérieur des centres de détention. L’objectif visé est de contribuer à un projet global de bonne gestion de la société malienne, car les programmes de développement initiés dans nos pays africains, mettent en marge le développement de la vie en prison. Pourtant, en prison, vivent aussi des hommes qui doivent être pris en compte par les Etats dans les programmes, les projets de réforme. C’est là, notre ambition de contribuer aux initiatives pouvant aider à développer le pays, à donner aux populations partout où elles se trouvent, le sens de la vie, la considération, enfin à permettre de cerner la place de la prison dans le vaste chantier de la réforme de l’État. Il s’agit donc de réfléchir au lien entre réforme de l’Etat et réforme de la prison, d’autant plus que la réforme pénitentiaire est transversale et ne peut atteindre la légitimité souhaitée sans toucher à beaucoup d’autres secteurs de la société comme la sécurité, la santé, la pauvreté, l’emploi etc. / At the end of the twentieth century, prisons were unknown in Africa except in a few garrison towns and European forts involved in slave trade. Today, fifty years after they achieve their independence, African countries are massively applying the prison system left by the former colonizers. Overpopulated prisons are good indicators that the penitentiary system extends to the whole of the societies in the Southern part of Sahara. Today still, this colonial architectural network has not been demolished or replaced as shown by the majority of the buildings still in place in contemporary States. Legal arsenals have also been inspired by those of the colonial system; the prison is part of a larger grid of institutions inherited from the colonization, which are still functional in an environment where tradition remains vibrant.In view of the overcrowded prisons, inhuman conditions of detention and incarceration, and inadequate and outdated legal texts, we aim at reflecting on a possible reform, which authorities have always desired to institute but never did. We seek to examine the political, cultural and social history of the repressive arsenals that have been in use in Mali since the period of slavery in the 20th century to the present prisons. Our objective is to understand the intellectual and philosophical aspects of the prison -and imprisonment- in the ethnic and regional tradition of Mali; such research will allow us to consider the influence of the colonial repressive institutions in the everyday life of the population, and to analyze the daily agenda of the prisons so as to evaluate the possibility of making prisons more human on the basis of traditional justice concepts and internationally recognized norms. Such research aims at understanding the sociological basis for a prison reform in Mali and answer those who question the legitimacy of such a reform: shall it be based on tradition or modernity or both? Moreover, this research will help to determine whether such reform would be feasible, and to enlighten on the social utility of prisons in a society that has not always known them and whose poverty incites to envision new and simple solutions, which aim at giving a better life to the population, both inside and outside detention centers. Our ultimate objective is to contribute to a global project for a good management of Malian society while we observe that the development programs that have been initiated in African countries put improvement of life in prison at the margin. Yet, human beings also live in prison and therefore, States must take them into account in their programs and reform projects. This is precisely our motivation, which is to contribute to initiatives that may impact on the development of this country, and give to the population the sense of life and consideration as well as an understanding of the place of the prisons in the vast area of State reforms. This means that we need to reflect on the link between State reform and prison reform, even more as the prison reform is a transversal issue, which cannot be legitimate if it does not consider many other sectors in society including security, health, poverty, employment, etc.
518

Contributions à l’usage des détecteurs de clones pour des tâches de maintenance logicielle / Contributions to the use of code clone detectors in software maintenance tasks

Charpentier, Alan 17 October 2016 (has links)
L’existence de plusieurs copies d’un même fragment de code (nommées des clones dans lalittérature) dans un logiciel peut compliquer sa maintenance et son évolution. La duplication decode peut poser des problèmes de consistance, notamment lors de la propagation de correction debogues. La détection de clones est par conséquent un enjeu important pour préserver et améliorerla qualité logicielle, propriété primordiale pour le succès d’un logiciel.L’objectif général de cette thèse est de contribuer à l’usage des détecteurs de clones dans destâches de maintenance logicielle. Nous avons centré nos contributions sur deux axes de recherche.Premièrement, la méthodologie pour comparer et évaluer les détecteurs de clones, i.e. les benchmarksde clones. Nous avons empiriquement évalué un benchmark de clones et avons montré queles résultats dérivés de ce dernier n’étaient pas fiables. Nous avons également identifié des recommandationspour fiabiliser la construction de benchmarks de clones. Deuxièmement, la spécialisationdes détecteurs de clones dans des tâches de maintenance logicielle.Nous avons développé uneapproche spécialisée dans un langage et une tâche (la réingénierie) qui permet aux développeursd’identifier et de supprimer la duplication de code de leurs logiciels. Nous avons mené des étudesde cas avec des experts du domaine pour évaluer notre approche. / The existence of several copies of a same code fragment—called code clones in the literature—in a software can complicate its maintenance and evolution. Code duplication can lead to consistencyproblems, especially during bug fixes propagation. Code clone detection is therefore a majorconcern to maintain and improve software quality, which is an essential property for a software’ssuccess.The general objective of this thesis is to contribute to the use of code clone detection in softwaremaintenance tasks. We chose to focus our contributions on two research topics. Firstly, themethodology to compare and assess code clone detectors, i.e. clone benchmarks. We perform anempirical assessment of a clone benchmark and we found that results derived from this latter arenot reliable. We also identified recommendations to construct more reliable clone benchmarks.Secondly, the adaptation of code clone detectors in software maintenance tasks. We developed aspecialized approach in one language and one task—refactoring—allowing developers to identifyand remove code duplication in their softwares. We conducted case studies with domain experts toevaluate our approach.
519

From Time series signal matching to word spotting in multilingual historical document images / De la mise en correspondance de séries temporelles au word spotting dans les images de documents historiques multilingues

Mondal, Tanmoy 18 December 2015 (has links)
Cette thèse traite dela mise en correspondance de séquences appliquée au word spotting (localisation de motsclés dans des images de documents sans en interpréter le contenu). De nombreux algorithmes existent mais très peu d’entre eux ont été évalués dans ce contexte. Nous commençons donc par une étude comparative de ces méthodes sur plusieurs bases d’images de documents historiques. Nous proposons ensuite un nouvel algorithme réunissant la plupart des possibilités offertes séparément dans les autres algorithmes. Ainsi, le FSM (Flexible Sequence Matching) permet de réaliser des correspondances multiples sans considérer des éléments bruités dans la séquence cible, qu’ils se situent au début, à la fin ou bien au coeur de la correspondance. Nous étendons ensuite ces possibilités à la séquence requête en définissant un nouvel algorithme (ESC : Examplary Sequence Cardinality). Finalement, nous proposons une méthode d’appariement alternative utilisant une mise en correspondance inexacte de chaines de codes (shape code) décrivant les mots. / This thesis deals with sequence matching techniques, applied to word spotting (locating keywords in document images without interpreting the content). Several sequence matching techniques exist in the literature but very few of them have been evaluated in the context of word spotting. This thesis begins by a comparative study of these methods for word spotting on several datasets of historical images. After analyzing these approaches, we then propose a new algorithm, called as Flexible Sequence Matching (FSM) which combines most of the advantages offered separately by several other previously explored sequence matching algorithms. Thus, FSM is able to skip outliers from target sequence, which can be present at the beginning, at the end or in the middle of the target sequence. Moreover it can perform one-to-one, one-to-many and many-to-one correspondences between query and target sequence without considering noisy elements in the target sequence. We then also extend these characteristics to the query sequence by defining a new algorithm (ESC : Examplary Sequence Cardinality). Finally, we propose an alternative word matching technique by using an inexact chain codes (shape code), describing the words.
520

Générateur de code multi-temps et optimisation de code multi-objectifs / Multi-time code generation and multi-objective code optimisation

Lomüller, Victor 12 November 2014 (has links)
La compilation est une étape indispensable dans la création d'applications performantes.Cette étape autorise l'utilisation de langages de haut niveau et indépendants de la cible tout en permettant d'obtenir de bonnes performances.Cependant, de nombreux freins empêchent les compilateurs d'optimiser au mieux les applications.Pour les compilateurs statiques, le frein majeur est la faible connaissance du contexte d'exécution, notamment sur l'architecture et les données utilisées.Cette connaissance du contexte se fait progressivement pendant le cycle de vie de l'application.Pour tenter d'utiliser au mieux les connaissances du contexte d'exécution, les compilateurs ont progressivement intégré des techniques de génération de code dynamique.Cependant ces techniques ne se focalisent que sur l'utilisation optimale du matériel et n'utilisent que très peu les données.Dans cette thèse, nous nous intéressons à l'utilisation des données dans le processus d'optimisation d'applications pour GPU Nvidia.Nous proposons une méthode utilisant différents moments pour créer des bibliothèques adaptatives capables de prendre en compte la taille des données.Ces bibliothèques peuvent alors fournir les noyaux de calcul les plus adapté au contexte.Sur l'algorithme de la GEMM, la méthode permet d'obtenir des gains pouvant atteindre 100~\% tout en évitant une explosion de la taille du code.La thèse s'intéresse également aux gains et coûts de la génération de code lors de l'exécution, et ce du point de vue de la vitesse d'exécution, de l'empreinte mémoire et de la consommation énergétique.Nous proposons et étudions 2 approches de génération de code à l'exécution permettant la spécialisation de code avec un faible surcoût.Nous montrons que ces 2 approches permettent d'obtenir des gains en vitesse et en consommation comparables, voire supérieurs, à LLVM mais avec un coût moindre. / Compilation is an essential step to create efficient applications.This step allows the use of high-level and target independent languages while maintaining good performances.However, many obstacle prevent compilers to fully optimize applications.For static compilers, the major obstacle is the poor knowledge of the execution context, particularly knowledge on the architecture and data.This knowledge is progressively known during the application life cycle.Compilers progressively integrated dynamic code generation techniques to be able to use this knowledge.However, those techniques usually focuses on improvement of hardware capabilities usage but don't take data into account.In this thesis, we investigate data usage in applications optimization process on Nvidia GPU.We present a method that uses different moments in the application life cycle to create adaptive libraries able to take into account data size.Those libraries can therefore provide more adapted kernels.With the GEMM algorithm, the method is able to provide gains up to 100~\% while avoiding code size explosion.The thesis also investigate runtime code generation gains and costs from the execution speed, memory footprint and energy consumption point of view.We present and study 2 light-weight runtime code generation approaches that can specialize code.We show that those 2 approaches can obtain comparable, and even superior, gains compared to LLVM but at a lower cost.

Page generated in 0.0582 seconds