• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 22
  • 9
  • 8
  • 3
  • 1
  • Tagged with
  • 64
  • 25
  • 20
  • 20
  • 19
  • 19
  • 19
  • 18
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

An update and reassessment of vascular plant species richness and distribution in Bach Ma National Park, Central Vietnam

Le, Nguyen Thoi Trung, Nguyen, Hoang Khanh Linh, Nguyen, Quang Tan, Do, Trung Dong, Pham, Gia Tung, Le, Thanh An, Nguyen, Vu Bao Chi 29 December 2021 (has links)
Bach Ma National Park (BMNP) is recognized as an essential biodiversity hotspot in Vietnam because of its diverse topography, high species richness and threatened and endemic species. This study updates the richness and distribution of vascular plant species in the BMNP by intergrading data from literature, field surveys, key-informant interviews and participatory observations. Our results showed that the park has a high diversity of vascular plants with 1,874 species belonging to 192 families, 6 phylums including Psilotophyta, Lycopodiophyta, Equisetophyta, Polypodiophyta, Pinophyta, and Magnoliophyta. It also indicates that 199 out of 1,874 vascular species in the BMNP are listed as endangered, precious and rare plant species of Vietnam. In particular, 55 species are part of the IUCN 2020 list, in which 9 are critically endangered species (CR), 15 are endangered species (EN), and 31 are vulnerable species (VU). According to the rankings of the Red List Vietnam (2007), 6 species of CR (accounting for 13.64% compared with the whole country), 36 species of EN (20%), and 52 species of VU (26%) were found in this area. The results provided that vascular plant species are distributed into 2 types based on high altitude (threshold at 900m), but there are no dominant communities. The findings may be essential information for foresters and biologists to recognize and use it as the newest update for their next scientific research in conservation and resource management. / Vườn Quốc gia (VQG) Bạch Mã được xem là một điểm nóng đa dạng sinh học quan trọng ở Việt Nam vì địa hình đa dạng, độ phong phú loài cao, đặc biệt là các loài đặc hữu và nguy cấp. Trong nghiên cứu này, chúng tôi đã cập nhật sự phong phú và phân bố của các loài thực vật bậc cao tại VQG Bạch Mã bằng cách kết hợp dữ liệu từ tổng quan tài liệu, khảo sát thực địa, phỏng vấn người am hiểu và điều tra có sự tham gia. Kết quả cho thấy VQG có hệ thực vật bậc cao phong phú với 1.874 loài, thuộc 192 họ, 6 ngành bao gồm Psilotophyta, Lycopodiophyta, Equisetophyta, Polypodiophyta, Pinophyta, Magnoliophyta. Kết quả chỉ ra rằng 199 trong số 1.874 loài thực vật bậc cao tại VQG này được xếp vào danh sách các loài nguy cấp của Việt Nam. Đặc biệt, có 55 loài thuộc danh mục của IUCN năm 2020, trong đó có 9 loài Cực kỳ nguy cấp (CR), 15 loài Nguy cấp (EN) và 31 loài Sẽ nguy cấp (VU). Trong khi đó, theo xếp hạng của Sách Đỏ Việt Nam (2007), nghiên cứu cho thấy có 6 loài CR (chiếm 13,64% so với cả nước), 36 loài EN (20%) và 52 loài VU (26%). Phát hiện của chúng tôi cũng chỉ ra rằng đặc điểm phân bố của các loài thực vật bậc cao ở VQG Bạch Mã gồm 2 kiểu rừng dựa trên độ cao (mức 900m), nhưng không có quần xã nào chiếm ưu thế. Các kết quả này được kỳ vọng sẽ là nguồn thông tin cần thiết cho các nhà hoạt động lâm nghiệp và sinh vật học sử dụng nó như một bản cập nhật mới nhất cho các nghiên cứu khoa học tiếp theo trong bảo tồn và quản lý tài nguyên.
52

La Cathédrale de León a-t-elle des chances de remplir les conditions d’inscription à la Liste du patrimoine mondial de l’UNESCO?

St-Denis, Myriam 04 1900 (has links)
La Liste du patrimoine mondial de l’UNESCO exerce une forte attraction à l’échelle internationale. Cette recherche aborde des démarches accomplies par l’État du Nicaragua en vue de l’inscription de la Cathédrale de León, et tente de déterminer le potentiel de réussite de cette candidature. En premier lieu, nous faisons une réflexion sur la Liste du patrimoine mondial, en regard de la Convention du patrimoine mondial et des États parties. En deuxième lieu, à partir de la décision du Comité concernant le projet du Nicaragua, nous mettons en lumière le manque de coordination entre les parties prenantes, soit entre les instances nationales, locales et diocésaines. Les données récoltées à León nous permettent d’observer que la coordination entre les parties prenantes est essentielle à la réalisation du projet d’inscription, tant pour la consolidation du dossier que pour la protection du bien. Nous soulevons ensuite les enjeux et les solutions envisageables. Afin de favoriser la participation de toutes les parties prenantes au projet, nous appliquons l’approche du « développement de consensus ». Les résultats de l’analyse révèlent néanmoins que la présence de conflits de valeurs empêche la création d’accords. Conséquemment, nous considérons que l’inscription de la Cathédrale de León est peu probable. Le processus d’inscription est une tâche ambitieuse, d’autant plus qu’il fait appel à la contribution d’une propriété privée sous l'égide d’une institution: l’Église Catholique. L’aboutissement du projet est confronté inévitablement à des enjeux de pouvoir, présents en toile de fond. / UNESCO’s World Heritage List is widely recognized and of great importance internationally. This research outlines the steps undertaken by the State of Nicaragua to register the Cathedral of León on the List and attempts to determine the chances of success of its nomination. Firstly, we study the World Heritage List, in regards to the World Heritage Convention and the States Parties. Second, looking at the Committee’s decision concerning the Nicaragua project, we highlight the lack of coordination between the principal stakeholders, namely the national, local and diocesan levels. Data collected in León allow us to observe that coordination between the stakeholders is essential for the registration project, affecting the consolidation of the dossier as well as the protection of property. We then analyze the issues and the possible solutions. To promote the participation of all stakeholders, we apply the approach of "consensus building". However, the results of the analysis show that ”conflicts in values” prevent the creation of agreements. We therefore conclude that the Cathedral of León has a low chance of being registered on the World Heritage List. The registration process is an ambitious task, all the more as the project requires the implication of a private property under the aegis of an institution: the Catholic Church. Its fulfillment is inevitably impacted by issues of power underlying the nomination project.
53

Les algorithmes de haute résolution en tomographie d'émission par positrons : développement et accélération sur les cartes graphiques

Nassiri, Moulay Ali 05 1900 (has links)
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies. / Positron emission tomography (PET) is a molecular imaging modality that uses radiotracers labeled with positron emitting isotopes in order to quantify many biological processes. The clinical applications of this modality are largely in oncology, but it has a potential to be a reference exam for many diseases in cardiology, neurology and pharmacology. In fact, it is intrinsically able to offer the functional information of cellular metabolism with a good sensitivity. The principal limitations of this modality are the limited spatial resolution and the limited accuracy of the quantification. To overcome these limits, the recent PET systems use a huge number of small detectors with better performances. The image reconstruction is also done using accurate algorithms such as the iterative stochastic algorithms. But as a consequence, the time of reconstruction becomes too long for a clinical use. So the acquired data are compressed and the accelerated versions of iterative stochastic algorithms which generally are non convergent are used to perform the reconstruction. Consequently, the obtained performance is compromised. In order to be able to use the complex reconstruction algorithms in clinical applications for the new PET systems, many previous studies were aiming to accelerate these algorithms on GPU devices. Therefore, in this thesis, we joined the effort of researchers for developing and introducing for routine clinical use the accurate reconstruction algorithms that improve the spatial resolution and the accuracy of quantification for PET. Therefore, we first worked to develop the new strategies for accelerating on GPU devices the reconstruction from list mode acquisition. In fact, this mode offers many advantages over the histogram-mode, such as motion correction, the possibility of using time-of-flight (TOF) information to improve the quantification accuracy, the possibility of using temporal basis functions to perform 4D reconstruction and extract kinetic parameters with better accuracy directly from the acquired data. But, one of the main obstacles that limits the use of list-mode reconstruction approach for routine clinical use is the relatively long reconstruction time. To overcome this obstacle we : developed a new strategy to accelerate on GPU devices fully 3D list mode ordered-subset expectation-maximization (LM-OSEM) algorithm, including the calculation of the sensitivity matrix that accounts for the patient-specific attenuation and normalisation corrections. The reported reconstruction are not only compatible with a clinical use of 3D LM-OSEM algorithms, but also lets us envision fast reconstructions for advanced PET applications such as real time dynamic studies and parametric image reconstructions. developed and implemented on GPU a multigrid/multiframe approach of an expectation-maximization algorithm for list-mode acquisitions (MGMF-LMEM). The objective is to develop new strategies to accelerate the reconstruction of gold standard LMEM (list-mode expectation-maximization) algorithm which converges slowly. The GPU-based MGMF-LMEM algorithm processed data at a rate close to one million of events per second per iteration, and permits to perform near real-time reconstructions for large acquisitions or low-count acquisitions such as gated studies. Moreover, for clinical use, the quantification is often done from acquired data organized in sinograms. This data is generally compressed in order to accelerate reconstruction. But previous works have shown that this approach to accelerate the reconstruction decreases the accuracy of quantification and the spatial resolution. The ordered-subset expectation-maximization (OSEM) is the most used reconstruction algorithm from sinograms in clinic. Thus, we parallelized and implemented the attenuation-weighted line-of-response OSEM (AW-LOR-OSEM) algorithm which allows a PET image reconstruction from sinograms without any data compression and incorporates the attenuation and normalization corrections in the sensitivity matrices as weight factors. We compared two strategies of implementation: in the first, the system matrix (SM) is calculated on the fly during the reconstruction, while the second implementation uses a precalculated SM more accurately. The results show that the computational efficiency is about twice better for the implementation using calculated SM on-the-fly than the implementation using pre-calculated SM, but the reported reconstruction times are compatible with a clinical use for both strategies.
54

Cache-conscious off-line real-time scheduling for multi-core platforms : algorithms and implementation / Ordonnanceur hors-ligne temps-réel et conscient du cache ciblant les architectures multi-coeurs : algorithmes et implémentations

Nguyen, Viet Anh 22 February 2018 (has links)
Les temps avancent et les applications temps-réel deviennent de plus en plus gourmandes en ressources. Les plate-formes multi-cœurs sont apparues dans le but de satisfaire les demandes des applications en ressources, tout en réduisant la taille, le poids, et la consommation énergétique. Le challenge le plus pertinent, lors du déploiement d'un système temps-réel sur une plate-forme multi-cœur, est de garantir les contraintes temporelles des applications temps réel strict s'exécutant sur de telles plate-formes. La difficulté de ce challenge provient d'une interdépendance entre les analyses de prédictabilité temporelle. Cette interdépendance peut être figurativement liée au problème philosophique de l'œuf et de la poule, et expliqué comme suit. L'un des pré-requis des algorithmes d'ordonnancement est le Pire Temps d'Exécution (PTE) des tâches pour déterminer leur placement et leur ordre d'exécution. Mais ce PTE est lui aussi influencé par les décisions de l'ordonnanceur qui va déterminer quelles sont les tâches co-localisées ou concurrentes propageant des effets sur les caches locaux et les ressources physiquement partagées et donc le PTE. La plupart des méthodes d'analyse pour les architectures multi-cœurs supputent un seul PTE par tâche, lequel est valide pour toutes conditions d'exécutions confondues. Cette hypothèse est beaucoup trop pessimiste pour entrevoir un gain de performance sur des architectures dotées de caches locaux. Pour de telles architectures, le PTE d'une tâche est dépendant du contenu du cache au début de l'exécution de la dite tâche, qui est lui-même dépendant de la tâche exécutée avant et ainsi de suite. Dans cette thèse, nous proposons de prendre en compte des PTEs incluant les effets des caches privés sur le contexte d’exécution de chaque tâche. Nous proposons dans cette thèse deux techniques d'ordonnancement ciblant des architectures multi-cœurs équipées de caches locaux. Ces deux techniques ordonnancent une application parallèle modélisée par un graphe de tâches, et génèrent un planning statique partitionné et non-préemptif. Nous proposons une méthode optimale à base de Programmation Linéaire en Nombre Entier (PLNE), ainsi qu'une méthode de résolution par heuristique basée sur de l'ordonnancement par liste. Les résultats expérimentaux montrent que la prise en compte des effets des caches privés sur les PTE des tâches réduit significativement la longueur des ordonnancements générés, ce comparé à leur homologue ignorant les caches locaux. Afin de parfaire les résultats ainsi obtenus, nous avons réalisé l'implémentation de nos ordonnancements dirigés par le temps et conscients du cache pour un déploiement sur une machine Kalray MPPA-256, une plate-forme multi-cœur en grappes (clusters). En premier lieu, nous avons identifié les challenges réels survenant lors de ce type d'implémentation, tel que la pollution des caches, la contention induite par le partage du bus, les délais de lancement d'une tâche introduits par la présence de l'ordonnanceur, et l'absence de cohérence des caches de données. En second lieu, nous proposons des stratégies adaptées et incluant, dans la formulation PLNE, les contraintes matérielles ; ainsi qu'une méthode permettant de générer le code final de l'application. Enfin, l'évaluation expérimentale valide la correction fonctionnelle et temporelle de notre implémentation pendant laquelle nous avons pu observé le facteur le plus impactant la longueur de l'ordonnancement: la contention. / Nowadays, real-time applications are more compute-intensive as more functionalities are introduced. Multi-core platforms have been released to satisfy the computing demand while reducing the size, weight, and power requirements. The most significant challenge when deploying real-time systems on multi-core platforms is to guarantee the real-time constraints of hard real-time applications on such platforms. This is caused by interdependent problems, referred to as a chicken and egg situation, which is explained as follows. Due to the effect of multi-core hardware, such as local caches and shared hardware resources, the timing behavior of tasks are strongly influenced by their execution context (i.e., co-located tasks, concurrent tasks), which are determined by scheduling strategies. Symetrically, scheduling algorithms require the Worst-Case Execution Time (WCET) of tasks as prior knowledge to determine their allocation and their execution order. Most schedulability analysis techniques for multi-core architectures assume a single WCET per task, which is valid in all execution conditions. This assumption is too pessimistic for parallel applications running on multi-core architectures with local caches. In such architectures, the WCET of a task depends on the cache contents at the beginning of its execution, itself depending on the task that was executed before the task under study. In this thesis, we address the issue by proposing scheduling algorithms that take into account context-sensitive WCETs of tasks due to the effect of private caches. We propose two scheduling techniques for multi-core architectures equipped with local caches. The two techniques schedule a parallel application modeled as a task graph, and generate a static partitioned non-preemptive schedule. We propose an optimal method, using an Integer Linear Programming (ILP) formulation, as well as a heuristic method based on list scheduling. Experimental results show that by taking into account the effect of private caches on tasks’ WCETs, the length of generated schedules are significantly reduced as compared to schedules generated by cache-unaware scheduling methods. Furthermore, we perform the implementation of time-driven cache-conscious schedules on the Kalray MPPA-256 machine, a clustered many-core platform. We first identify the practical challenges arising when implementing time-driven cache-conscious schedules on the machine, including cache pollution cause by the scheduler, shared bus contention, delay to the start time of tasks, and data cache inconsistency. We then propose our strategies including an ILP formulation for adapting cache-conscious schedules to the identified practical factors, and a method for generating the code of applications to be executed on the machine. Experimental validation shows the functional and the temporal correctness of our implementation. Additionally, shared bus contention is observed to be the most impacting factor on the length of adapted cache-conscious schedules.
55

Décodage des codes algébriques et cryptographie

Augot, Daniel 07 June 2007 (has links) (PDF)
Je traite du décodage de deux grandes familles de codes algébriques :<br />les codes cycliques binaires et les codes de Reed-Solomon sur un<br />alphabet $q$-aire (ainsi que les codes géométriques). En ce qui<br />concerne les codes cycliques, ceux-ci n'ont pas d'algorithme générique<br />de décodage, mis à part les codes BCH ou assimilés (bornes de<br />Hartman-Tzeng, de Roos). Au premier rang des codes intéressants pour<br />lesquels on ne connaît pas d'algorithme de décodage {\em générique}<br />figurent les {\em codes à résidus quadratiques}, qui ont de bons<br />paramètres. J'étudie une mise en équation du problème du décodage par<br />syndrôme de ces codes, que l'on peut résoudre avec des outils de base<br />de Gröbner. On obtient ainsi des algorithmes de décodage de complexité<br />raisonnable pour ces codes. Ces travaux ont fait l'objet d'une partie<br />de la thèse de Magali Bardet.<br /><br /><br />En ce qui concerne les codes de Reed-Solomon, ceux-ci peuvent être vus<br />comme des {\em codes d'évaluation}, et le problème de décodage associé<br />revient à approcher une fonction par des polynômes de base degré. De<br />grands progrès ont été réalisés par Guruswami et Sudan, qui ont trouvé<br />un algorithme qui décode bien au delà des rayons classiques de<br />décodage, en relaxant l'hypothèse que la solution doit être unique. Je<br />propose d'améliorer certaines étapes de cet algorithme, en le rendant<br />plus rapide et déterministe (notamment en évitant une factorisation de<br />polynôme sur un corps fini), dans le cas des codes Reed-Solomon, et<br />dans le cas des codes géométriques. Ces travaux ont été effectués en<br />encadrant Lancelot Pecquet.<br /><br />Du point de vue théorique, j'ai étudié des généralisations<br />multivariées, qui correspondent à certains codes: les codes produits<br />de Reed-Solomon, et les codes de Reed-Muller. On obtient ainsi un bon<br />rayon de décodage, dans le cas des codes de petit taux. Dans le cas de<br />codes de Reed-Muller sur l'alphabet binaire, Cédric Tavernier, dans sa<br />thèse sous ma direction, a produit et implanté un algorithme efficace,<br />plus que ceux basés sur l'algorithme de Guruswami-Sudan.<br /><br /><br /><br />J'ai étudié les aspects négatifs du problème de décodage par syndrôme<br />des codes linéaires, et du décodage des codes de Reed-Solomon, quand<br />le nombre d'erreurs est élevé, en but d'application en cryptographie.<br />Dans le premier cas, j'ai construit une fonction de hachage<br />cryptographique à réduction de sécurité, c'est-à-dire que trouver une<br />faiblesse dans le fonction de hachage revient à résoudre un problème<br />réputé difficile de codage. J'ai aussi construit une nouvelle<br />primitive de chiffrement à clé publique, reposant sur la difficulté de<br />décoder les codes de Reed-Solomon.<br /><br />Dans un domaine plus appliqué, j'ai proposé avec Raghav Bhaskar un<br />nouvel algorithme d'échange de clé multi-utilisateurs, fondé sur le<br />problème du logarithme discret. Raghav Bhaskar a fourni une preuve de<br />sécurité de ce protocole, pendant sa thèse sous ma direction. Nous<br />avons aussi étudié comment adapter ce protocole aux pertes de<br />messages, car notre protocole est un des seuls qui est robuste à ces<br />pertes.
56

Codage multi-vues multi-profondeur pour de nouveaux services multimédia

Mora, Elie Gabriel 04 February 2014 (has links) (PDF)
Les travaux effectués durant cette thèse de doctorat ont pour but d'augmenter l'efficacité de codage dans 3D-HEVC. Nous proposons des approches conventionnelles orientées vers la normalisation vidéo, ainsi que des approches en rupture basées sur le flot optique. En approches conventionnelles, nous proposons une méthode qui prédit les modes Intra de profondeur avec ceux de texture. L'héritage est conditionné par un critère qui mesure le degré de similitude entre les deux modes. Ensuite, nous proposons deux méthodes pour améliorer la prédiction inter-vue du mouvement dans 3D-HEVC. La première ajoute un vecteur de disparité comme candidat inter-vue dans la liste des candidats du Merge, et la seconde modifie le processus de dérivation de ce vecteur. Finalement, un outil de codage intercomposantes est proposé, où le lien entre les arbres quaternaires de texture et de profondeur est exploité pour réduire le temps d'encodage et le débit, à travers un codage conjoint des deux arbres. Dans la catégorie des approches en rupture, nous proposons deux méthodes basées sur l'estimation de champs denses de vecteurs de mouvement en utilisant le flot optique. La première calcule un champ au niveau d'une vue de base reconstruite, puis l'extrapole au niveau d'une vue dépendante, où il est hérité par les unités de prédiction en tant que candidat dense du Merge. La deuxième méthode améliore la synthèse de vues : quatre champs sont calculés au niveau de deux vues de référence en utilisant deux références temporelles. Ils sont ensuite extrapolés au niveau d'une vue synthétisée et corrigés en utilisant une contrainte épipolaire. Les quatre prédictions correspondantes sont ensuite combinées. Les deux méthodes apportent des gains de codage significatifs, qui confirment le potentiel de ces solutions innovantes.
57

Caractérisation et étude de l’impact des permissions dans les applications mobiles

Dbouba, Selsabil 12 1900 (has links)
No description available.
58

Pensions et pensionnaires de la monarchie : de la grâce royale au système de redistribution de l'Etat au XVIIIe siècle / Pensions & pensioners of the French monarchy : from royal favour to State redistribution system in the eighteenth century

Carré, Benoît 06 April 2018 (has links)
Pensions et pensionnaires de la monarchie : de la grâce royale au système de redistribution de l’État au XVIIIe siècle La question des pensions et des pensionnaires de l’État est abordée à partir d’un corpus de sources centré sur les archives de la Maison du Roi, du Trésor royal et du Comité des pensions de l’Assemblée nationale constituante. Les mécanismes d’attribution et de distribution des pensions royales permettent de redécouvrir les contradictions de la monarchie d’Ancien Régime, prises entre la permanence de traditions anciennes et les exigences de l’État moderne. En revenant sur les tentatives répétées et inabouties de réformer et de rationnaliser un objet de dépenses dont le poids n’a cessé de peser sur les finances royales, la thèse invite à s’interroger sur ces formes de distributions utilisées par le pouvoir comme un instrument de domination politique et social, mais dont les aspects financiers et comptables ont été inégalement maîtrisés. L’histoire de la gestion des pensions royales au XVIIIe siècle offre une étude de cas particulièrement documentée qui permet d’illustrer le développement de la bureaucratie moderne, révélant une administration imaginative dans sa manière de réformer les pensions de l’État mais freinée par les intérêts contradictoires du régime. C’est finalement la crise politique de 1789 qui a permis de clarifier et de réformer un système de grâces royales devenu le symbole des abus de la cour aux yeux de l’opinion publique. En séparant les pensions de cour des pensions de l’État, en créant un droit à la pension pour les serviteurs de l’État là où l’Ancien Régime ne connaissait qu’un système de récompenses fondé sur l’usage et l’esprit de clientèle, le Comité des pensions de l’Assemblée nationale constituante a posé, en 1790, les bases du premier système de retraite de la fonction publique d’État. / Pensions & pensioners of the French monarchy : from royal favour to State redistribution system in the eighteenth century The issue of State pensions and pensioners is tackled on the basis of a corpus of sources found among the archives of the Maison du Roi (Royal Household), the Trésor royal (Royal Treasury) and the Comité des pensions (Pensions Committee) of the Assemblée nationale constituante (National Constituent Assembly). An analysis of the attribution and distribution mechanisms of the Royal pensions reveals the contradictions of the Ancien Régime monarchy: the preservation of ancient traditions versus the requirements of a modern State. The repeated and unsuccessful attempts to reform and rationalize an object of expenditure whose weight has not ceased to weigh on the royal finances is demonstrated here. The thesis invites us to question these forms of distribution used by the power as an instrument of political and social domination, but whose financial and accounting aspects have been unequally controlled. The history of the royal pensions management in the 18th century offers a particularly well-documented case study that illustrates the development of modern bureaucracy. It reveals an inventive administration in its way of reforming State pensions while constrained by conflicting interests of the regime. It was finally the political crisis of 1789 that clarified and reformed a system of royal liberalities that became the symbol of abuses of the Court in the eyes of public opinion. In 1790, by separating Court pensions from State pensions, by creating an entitlement to pension for State servants where the Ancien Régime knew only a system of rewards based on custom and clientelism, the Comité des pensions of the Assemblée nationale constituante laid the foundation for the first pension system of the State Public Service.
59

Approches bioinformatiques pour l'assessment de la biodiversité / Bioinformatics approachs for the biodiversity assesment

Riaz, Tiayyba 23 November 2011 (has links)
Cette thèse s'intéresse à la conception et le développement des techniques de bioinfor- matique qui peuvent faciliter l'utilisation de l'approche metabarcoding pour mesurer la diversité d'espèces. Le metabarcoding peut être utilisé avec le séquencage haut débit pour l'identification d'espèces multiples à partir d'un seul échantillon environnemental. La véritable force du metabarcoding réside dans l'utilisation de barcode marqueurs choisi pour une étude particulière et l'identification d'espèces ou des taxons peut être réalisé avec des marqueurs soigneusement conçu. Avec l'avancement des techniques haut débit de séquençage, une énorme quantité des données de séquences est produit qui contient un nombres substantiel des mutations. Ces mutations posent un grand problème pour les estimations correctes de la biodiversité et pour le d'assignation de taxon. Les trois problèmes majeurs dans le domaine de la bioinformatique que j'ai abordés dans cette thèse sont: i) évaluer la qualité d'une barcode marker , ii) concevoir des nouveaux région barcode et iii) d'analyser les données de séquençage pour traiter les erreurs et éliminer le bruit en séquences. Pour évaluer la qualité d'un barcode marker, on a développé deux mesures quantita- tive,formelle: la couverture (Bc) et la spécificité (Bs). La couverture donne une mesure de universalité d'une pairs de primer pour amplifier un large nombre de taxa, alors que la spécificité donne une mesure de capacité à discriminer entre les différents taxons. Ces mesures sont très utiles pour le classement des barcode marker et pour sélectionner les meilleurs markers. Pour trouver des nouveaux région barcode notamment pour les applications metabarcod- ing, j'ai développé un logiciel, ecoPrimers3. Basé sur ces deux mesures de qualité et de l'information taxinomique intégré, ecoPrimers nous permet de concevoir barcode markers pour n'importe quel niveau taxonomique . En plus, avec un grand nombre de paramètres réglables il nous permet de contrôler les propriétés des amorces. Enfin, grâce a des algorithmes efficaces et programmé en langage C, ecoPrimers est suffisamment efficace pour traiter des grosses bases de données, y compris génomes bactériens entièrement séquencés. Enfin pour traiter des erreurs présentes dans les données de séquencage , nous avons analysé un ensemble simple d'échantillons de PCR obtenus à partir de l'analyse du régime alimentaire de Snow Leopard. En mesurant les corrélations entre les différents paramètres des erreurs, nous avons observé que la plupart des erreurs sont produites pendant l'amplification par PCR. Pour détecter ces erreurs, nous avons développé un algorithme utilisant les graphes, qui peuvent différencier les vrai séquences des erreurs induites par PCR. Les résultats obtenus à partir de cet algorithme a montré que les données de-bruitée a donnent une estimation réaliste de la diversité des espèces étudiées dans les Alpes françaises. / This thesis is concerned with the design and development of bioinformatics techniques that can facilitate the use of metabarcoding approach for measuring species diversity. Metabarcoding coupled with next generation sequencing techniques have a strong po- tential for multiple species identification from a single environmental sample. The real strength of metabarcoding resides in the use of barcode markers chosen for a particular study. The identification at species or higher level taxa can be achieved with carefully designed barcode markers. Moreover with the advent of high throughput sequencing techniques huge amount of sequence data is being produced that contains a substantial level of mutations. These mutations pose a problem for the correct estimates of biodi- versity and for the taxon assignation process. Thus the three major challenges that we addressed in this thesis are: evaluating the quality of a barcode region, designing new barcodes and dealing with errors occurring during different steps of an experiment. To assess the quality of a barcode region we have developed two formal quantitative mea- sures called barcode coverage (Bc) and barcode specificity (Bs). Barcode coverage is concerned with the property of a barcode to amplify a broad range of taxa, whereas barcode specificity deals with its ability to discriminate between different taxa. These measures are extremely useful especially for ranking different barcodes and selecting the best markers. To deal with the challenge of designing new barcodes for metabarcoding applications we have developed an efficient software called ecoPrimers. Based on the above two quality measures and with integrated taxonomic information, ecoPrimers1 enables us to design primers and their corresponding barcode markers for any taxonomic level. Moreover with a large number of tunable parameters it allows us to control the properties of primers. Finally, based on efficient algorithms and implemented in C language, ecoPrimers is efficient enough to deal with large data bases including fully sequenced bacterial genomes. Finally to deal with errors present in DNA sequence data, we have analyzed a simple set of PCR samples obtained from the diet analysis of snow leopard. We grouped closely related sequences and by measuring the correlation between different parameters of mutations, we have shown that most of the errors were introduced during PCR amplification. In order to deal with such errors, we have further developed an algorithm using graphs approach, that can differentiate true sequences from PCR induced errors. The results obtained from this algorithm showed that de-noised data gave a realistic estimate of species diversity studied in French Alpes. This algorithm is implemented in program obiclean.
60

Jahresbericht 2004 / Universitätsbibliothek Chemnitz

Thümer, Ingrid 21 August 2007 (has links) (PDF)
Jahresbericht der Universitätsbibliothek Chemnitz - Berichtsjahr 2004 / Annual report of the University Library of Chemnitz in 2004

Page generated in 0.0931 seconds