• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 359
  • 54
  • 47
  • 45
  • 37
  • 19
  • 16
  • 6
  • 6
  • 6
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 727
  • 318
  • 113
  • 77
  • 74
  • 66
  • 57
  • 54
  • 54
  • 51
  • 41
  • 41
  • 41
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

Characterization of the synaptic connectivity patterns of genetically defined neuron types in circuits that regulate dopamine and serotonin

Pavlopoulos, Alexandros Ikaros January 2014 (has links)
The Lateral Habenula (LHb) have been implicated in both reward-seeking behavior and in depressive disorders due to its modulatory effects on dopamine rich areas. Excitatory projections from LHb target GABAergic interneurons of both ventral tegmental area (VTA) and rostromedial tegmental nucleus (RMTg) and consequently provide strong inhibition on VTA‟s dopaminergic neurons. These reward related signals are provided to LHb from distinct neuronal populations in internal Globus Pallidus (GPi). Here by using a dual viral combination of an adeno-associated helper virus (AAV) and a genetically modified rabies virus that displays specific transsynaptic retrograde spread we are providing anatomical evidence for a strong innervations of the LHb by VGLUT2+ glutaminergic and SOM+ GABAergic GPi neurons. Our results provide the first direct evidence for both an excitatory and an inhibitory projection m, from GPi to the LHb. Given the importance of the LHb as a modulatory nucleus of the dopaminergic system, the definition of its connectivity and function will give valuable insights in the understanding of both reward-seeking behavior and depressive disorders.
562

Randomness as a Cause of Test Flakiness / Slumpmässighet som en orsak till skakiga tester

Mjörnman, Jesper, Mastell, Daniel January 2021 (has links)
With today’s focus on Continuous Integration, test cases are used to ensure the software’s reliability when integrating and developing code. Test cases that behave in an undeterministic manner are known as flaky tests, which threatens the software’s reliability. Because of flaky test’s undeterministic nature, they can be troublesome to detect and correct. This is causing companies to spend great amount of resources on flaky tests since they can reduce the quality of their products and services. The aim of this thesis was to develop a usable tool that can automatically detect flakiness in the Randomness category. This was done by initially locating and rerunning flaky tests found in public Git repositories. By scanning the resulting pytest logs from the tests that manifested flaky behaviour, noting indicators of how flakiness manifests in the Randomness category. From these findings we determined tracing to be a viable option of detecting Randomness as a cause of flakiness. The findings were implemented into our proposed tool FlakyReporter, which reruns flaky tests to determine if they pertain to the Randomness category. Our FlakyReporter tool was found to accurately categorise flaky tests into the Randomness category when tested against 25 different flaky tests. This indicates the viability of utilizing tracing as a method of categorizing flakiness.
563

Příčiny nedostatečného čerpání fondů Evropské unie na Slovensku v programovém období 2007-2013 / The causes of insufficient use of EU funds in Slovakia during the 2007-2013 programming period

Sedláčková, Martina January 2016 (has links)
The presented thesis The causes of insufficient use of EU funds in Slovakia during the 2007- 2013 programming period addresses a system of utilisation of the EU funds in Slovakia which were provided by the European Union's Cohesion Policy in 2007-2013 programming period. The period is the first Cohesion Policy's programming period that could be fully benefited by Slovakia, and although Slovakia was economically highly evaluated even with regards to the economic crisis, at the end of the period the exceptional prolongation of the n+2 rule was demanded, and eventually approved. Therefore, the aim of the thesis is to find and explore possible causes of the lack of benefit of the EU funds that lead to obtaining the exception. The first part of the thesis analyses the theory of regional policy which provides multiple possible alternative hypotheses that answers to the research question. These potential answers constitute the chapters in the second part of the thesis: the responsibility of the utilisation on the regional level, the problems in settings and functioning of the bodies on national level, the external factors impact, and finally the rules posed by the EU. All hypotheses are analysed by the process-tracing method tracking the process of using of the funds. The method tests the key moments in...
564

Myélinisation des projections corticales visuelles de la souris

Roy, Jolanie 10 1900 (has links)
La gaine de myéline qui entoure les axones joue plusieurs rôles, comme l’accélération de la propagation de l’influx nerveux, la synchronisation des aires corticales, la plasticité, un support métabolique, etc. Sa dégénérescence lors de certaines pathologies, comme la sclérose en plaques, cause d’importants problèmes dont des déficits de la coordination motrice et de la démence. C’est pourquoi il est important de comprendre l’origine et la nature des axones myélinisés. L’objectif de ce mémoire est de voir si les axones des projections sensorielles corticocorticales sont myélinisés. Pour ce faire, des injections de Phaseolus vulgaris leucoagglutinine (Phal), un traceur neuronal antérograde, ont été faites dans le cortex visuel primaire de la souris. Les axones marqués et la gaine de myéline ont été révélés avec de l’immunohistochimie dirigée contre le Phal et la protéine de base de la myéline (MBP) respectivement. Les coupes ont été observées au microscope confocal pour chercher la colocalisation de Phal et MBP, qui indiquerait la présence d’axones myélinisés. Plusieurs axones corticocorticaux ipsilatéraux cheminent dans la matière grise. De ces axones, étonnamment peu d’axones myélinisés ont été trouvés. La myélinisation des axones qui s’engageaient dans la matière blanche a été plus difficile à déterminer avec certitude. Certains segments d’axones Phal+ clairement sans myéline ont été observés. Puisque la densité de MBP de la matière blanche était trop élevée, il était impossible de déterminer la colocalisation du Phal et MBP sur des axones individuels. La microscopie électronique a permis de voir des axones marqués individuellement myélinisés dans la matière blanche. / Myelin that ensheathes neuronal axons plays many roles. It increases propagation speed of action potentials and contributes to synchronizing activity between cortical areas. Myelin is plastic and provides a metabolic support for axons. Many diseases, like multiple sclerosis, are linked to the loss of the myelin sheath around axons. For that, it is important to better understand the nature of myelinated axons. Our objective here is to determine whether axons of sensory cortico-cortical projections, are myelinated. To achieve this goal, injections of the anterograde neuronal tracer, leucoagglutinin of Phaseolus vulgaris (Phal) were made in the primary visual cortex of mice. Double immunohistochemistry was used to reveal axons labeled with Phal combined with visualisation of the myelin basic protein (MBP). Sections were observed under a confocal microscope to find colocalization of Phal and MBP staining. Many ipsilateral corticocortical axons travel in the gray matter. Of these, surprisingly few myelinated axons were seen. Determining myelination of Phal labeled axons within the white matter tracts and external capsule was more difficult. The MBP staining of white matter was too dense to allow to unambiguously determine whether individual axons were myelinated. However, some clearly unmyelinated axons were observed therein. To solve this ambiguity, electron microscopic analysis was performed. Myelinated Phal-labeled axons were observed in the EC with electron microscopy.
565

Simulation of Optical Aberrations for Comet Interceptor’s OPIC Instrument

Bührer, Maximilian January 2020 (has links)
In space exploration optical imaging is one of the key measurements conducted, with a vast majority of missions heavily relying on optical data acquisition to examine alien worlds. One such endeavor is ESA’s F-class mission Comet Interceptor, a multi-element spacecraft expected to be launched in 2028. It consists of a primary platform and two sub-spacecraft, one of which carrying the Optical Periscopic Imager for Comets (OPIC). An accurate prediction of the generated imagery is of undeniable importance as mission planning and instrument design strongly depend on the real-world output quality of the camera system. In the case of OPIC, the collected image data will be used to reconstruct three dimensional models of targeted celestial bodies. Furthermore, the sub-spacecraft faces a risk of high velocity dust impacts, leading to a limited number of data samples to be broadcasted back to the primary spacecraft before collision. Testing image prioritization algorithms and reconstruction methods prior to mission start requires accurate computer-generated images. Camera sensors and lens systems are subjected to various optical distortions and aberrations that degrade the final image. Popular render engines model those effects to a certain degree only and as a result produce content that is looking too perfect. While more sophisticated software products exist, they often come with compatibility limitations and other drawbacks. This report discusses the most important optical aberrations, as well as their relevance for optical instruments in space applications with a particular focus on the Comet Interceptor mission. The main part of this work is however the implementation of a dedicated software tool that simulates a variety of optical aberrations complementing the basic camera model of the Blender render engine. While its functionality is mostly demonstrated for OPIC, the software is designed with a broad range of usage scenarios in mind.
566

Role des Péricytes Pulmonaires dans l’Hypertension Artérielle Pulmonaire : à la recherche de nouvelles cibles thérapeutiques / Role of pericytes pulmonary in Pulmonary arterial hypertension : in search of new therapeutic targets

Bordenave, Jennifer 20 September 2019 (has links)
Les péricytes sont fortement suspectés de jouer un rôle déterminant dans la physiopathologie de l’hypertension artérielle pulmonaire (HTAP), non seulement en raison de leur position et distribution, de leur rôle dans l'homéostasie vasculaire, de leur plasticité et spécificité tissulaire, mais aussi vu leur nette augmentation en nombre autour des artérioles pulmonaires remodelées. Cependant, les mécanismes impliqués dans leur accumulation autour des vaisseaux remodelés ainsi que leur importance dans la mise en place et la progression de l’HTAP restent encore incompris. De plus, nous ne savons pas si les péricytes présentent ou non des anomalies phénotypiques dans l’HTAP.C’est pourquoi ces travaux de doctorat ont visé à : 1) Identifier les possibles anomalies intrinsèques des péricytes provenant de patients HTAP ; 2) Préciser rôle de la voie de signalisation CXCL12/CXCR4/CXCR7 dans l’augmentation de la couverture péricytaire et tester des inhibiteurs de cette voie dans des modèles précliniques d’hypertension pulmonaire (HP) ; 3) Etudier l’impact du pouvoir mésenchymateux des péricytes dans le remodelage vasculaire pulmonaire associé à l’HTAP.Nos données ont permis d’une part de démontrer que les péricytes provenant de patients HTAP possédent des défauts intrinsèques dans les mécanismes de prolifération, de migration et de différenciation cellulaire et que la voie du CXCL12 contribue fortement à l’augmentation anormale de la couverture péricytaire autour des vaisseaux remodelés de patients HTAP. D’autre part, via leur capacité à se différencier en cellules contractiles, nous avons pu démontrer que les péricytes contribuaient directement au remodelage vasculaire pulmonaire.En conclusion, notre étude montre ainsi l’importance du rôle des péricytes pulmonaires dans la progression de l’hypertension artérielle pulmonaire humaine et expérimentale. / Pericytes (PCs) are strongly suspected to play a determining role in the pathophysiology of pulmonary arterial hypertension (PAH), because of their position and distribution, role in vascular homeostasis, versatility and tissue-specificity, but also because they accumulate around remodeled pulmonary arterioles in PAH. However, the underlying mechanisms and their dynamic role in PAH are still unknown. Furthermore, we do not know whether pulmonary PCs are phenotypically and functionally altered in PAH. To answer these questions, our objective were: 1) To examine the phenotypic and functional characteristics of human pulmonary PCs derived from control and PAH patients; 2) To precise the role of the intrinsic abnormalities in the altered phenotype of pulmonary PCs in PAH; 3) To study the dynamic role(s) of pulmonary PCs in preclinical PAH models, especially through modulation of the CXCL12/CXCR4/CXCR7 signaling pathway. Taken together, our findings identify for the first time phenotypic and functional abnormalities of pulmonary PCs in PAH with pathogenetic significance since they increased directly their proliferation, migration and capacity to differentiate in smooth muscle-like cells.
567

Évaluation d’algorithmes stéréoscopiques de haute précision en faible B/H / Evaluation of high precision low baseline stereo vision algorithms

Dagobert, Tristan 04 December 2017 (has links)
Cette thèse étudie la précision en vision stéréo, les méthodes de détection dites a contrario et en présente une application à l'imagerie satellitaire. La première partie a été réalisée dans le cadre du projet DGA-ANR-ASTRID "STÉRÉO". Son but est de définir les limites effectives des méthodes de reconstruction stéréo quand on contrôle toute la chaîne d’acquisition à la précision maximale, que l’on acquiert des paires stéréo en rapport B/H très faible et sans bruit. Pour valider ce concept, nous créons des vérités terrains très précises en utilisant un rendeur. En gardant les rayons calculés durant le rendu, nous avons une information très dense sur la scène 3D. Ainsi nous créons des cartes d'occultations, de disparités dont l'erreur de précision est inférieure à 10e-6. Nous avons mis à la disposition de la communauté de recherche des images de synthèse avec un SNR supérieur à 500 : un ensemble de 66 paires stéréo dont le B/H varie de1/2500 à 1/50. Pour évaluer les méthodes de stéréo sur ce nouveau type de données, nous proposons des métriques calculant la qualité des cartes de disparités estimées, combinant la précision et la densité des points dont l'erreur relative est inférieure à un certain seuil. Nous évaluons plusieurs algorithmes représentatifs de l'état de l'art, sur les paires créées ainsi sur les paires de Middlebury, jusqu'à leurs limites de fonctionnement. Nous confirmons par ces analyses, que les hypothèses théoriques sur le bien-fondé du faible B/H en fort SNR sont valides, jusqu'à une certaine limite que nous caractérisons. Nous découvrons ainsi que de simples méthodes de flux optique pour l'appariement stéréo deviennent plus performantes que des méthodes variationnelles discrètes plus élaborées. Cette conclusion n'est toutefois valide que pour des forts rapports signal à bruit. L'exploitation des données denses nous permet de compléter les vérités terrain par une détection très précise des bords d'occultation. Nous proposons une méthode de calcul de contours vectoriels subpixéliens à partir d'un nuage de points très dense, basée sur des méthodes a contrario de classification de pixels. La seconde partie de la thèse est dédiée à une application du flot optique subpixélien et des méthodes a contrario pour détecter des nuages en imagerie satellitaire. Nous proposons une méthode qui n'exploite que l'information visible optique. Elle repose sur la redondance temporelle obtenue grâce au passage répété des satellites au-dessus des mêmes zones géographiques. Nous définissons quatre indices pour séparer les nuages du paysage : le mouvement apparent inter-canaux, la texture locale, l'émergence temporelle et la luminance. Ces indices sont modélisés dans le cadre statistique des méthodes a contrario qui produisent un NFA (nombre de fausses alarmes pour chacun). Nous proposons une méthode pour combiner ces indices et calculer un NFA beaucoup plus discriminant. Nous comparons les cartes de nuages estimées à des vérités terrain annotées et aux cartes nuageuses produites par les algorithmes liés aux satellites Landsat-8 etSentinel-2. Nous montrons que les scores de détection et de fausses alarmes sont supérieurs à ceux obtenus avec ces algorithmes, qui pourtant utilisent une dizaine de bandes multi-spectrales. / This thesis studies the accuracy in stereo vision, detection methods calleda contrario and presents an application to satellite imagery. The first part was carried out within the framework of the project DGA-ANR-ASTRID"STEREO". His The aim is to define the effective limits of stereo reconstruction when controlling the entire acquisition chain at the maximum precision, that one acquires stereo pairs in very low baseline and noise-free. To validate thisconcept, we create very precise ground truths using a renderer. By keeping the rays computed during rendering, we have very dense information on the 3Dscene. Thus we create occultation and disparity maps whose precision error is less than 10e-6. We have made synthetic images available to the research community with an SNR greater than 500: a set of 66 stereo pairs whoseB/H varies from 1/2500 to 1/50. To evaluate stereo methods onthis new type of data, we propose metrics computing the quality of the estimated disparity maps, combining the precision and the density of the points whose relative error is less than a certain threshold. We evaluate several algorithmsrepresentative of the state of the art, on the pairs thus created and on theMiddlebury pairs, up to their operating limits. We confirm by these analyzesthat the theoretical assumptions about the merit of the low B/H in highSNR are valid, up to a certain limit that we characterize. We thus discover that simple optical flow methods for stereo matching become more efficient than more sophisticated discrete variational methods. This conclusion, however, is only valid for high signal-to-noise ratios. The use of the dense data allows us to complete the ground truths a subpixel detection of the occlusion edges. We propose a method to compute subpixel vector contours from a very dense cloud ofpoints, based on pixel classification a contrario methods. The second part of the thesis is devoted to an application of the subpixelian optical flowand a contrario methods to detect clouds in satellite imagery. We propose a method that exploits only visible optical information. It is based onthe temporal redundancy obtained by the repeated passages of the satellites overthe same geographical zones. We define four clues to separate the clouds fromthe landscape: the apparent inter-channel movement, Local texture, temporal emergence and luminance. These indices are modeled in the statistical framework of a contrario methods which produce an NFA (number of false alarms for each). We propose a method for combining these indices and computing a much more discriminating NFA. We compare the estimated cloud maps to annotated ground truths and the cloud maps produced by the algorithms related to the Landsat-8and Sentinel-2 satellites. We show that the detection and false alarms scores are higher than those obtained with these algorithms, which however use a dozen multi-spectral bands.
568

Conception et réalisation, par fabrication additive, de matériaux cellulaires architecturés / Design and realization, by additive manufacturing, of architectural cellular materials

Heisel, Cyprien 16 May 2019 (has links)
La démarche « matériaux numériques », développée au CEA Le Ripaut, consiste à optimiser numériquement une structure, à l’aide de codes de calcul permettant de réaliser des expériences numériques, afin de répondre le plus précisément possible à un cahier des charges. La mise en œuvre de ces structures optimisées, aux formes pouvant être complexes, n’est parfois pas réalisable avec les procédés de fabrication actuels. Cependant, la progression rapide de l’impression 3D semble maintenant pouvoir concrétiser cette démarche. Le but de cette thèse est d’étudier cette faisabilité de fabrication, à travers une application concrète : l’optimisation des récepteurs volumétriques des Centrales Solaires Thermodynamiques (CST).Actuellement, la conception de ces récepteurs en Carbure de Silicium (SiC) est restreinte par les techniques existantes de fabrication, et leurs morphologies se limitent donc principalement à des mousses ou des canaux parallèles. Or, ce type de structure ne permet pas d’exploiter tout le caractère 3D proposé par les récepteurs, en raison notamment d’une absorption trop hétérogène du rayonnement solaire dans le volume. Dans ce travail de thèse, afin de rechercher la répartition de l’absorption la plus homogène possible dans l’ensemble du volume, de nombreuses structures aux formes variées sont générées virtuellement. Une simulation de l’éclairement solaire reçu est réalisée sur l’ensemble de ces structures, grâce à un code de calcul développé spécialement pour cette application, permettant ainsi d’en retenir trois répondants au mieux aux critères du cahier des charges. Ces structures potentiellement optimisées ont ensuite été fabriquées en SiC par impression 3D, par un procédé de projection de liant sur lit de poudre. Elles ont été ensuite testées sur un banc d’essai expérimental du laboratoire PROMES, reproduisant les conditions d’une CST. Les résultats ont montrés que ces structures, aux formes totalement différentes de mousses ou de canaux parallèles, sont capables de produire au maximum de l’air à 860°C en sortie de récepteur, et avec des rendements énergétiques proches de 0,65. Enfin, un code de calcul thermique couplé conducto-radiatif, amélioré durant ce travail, a permis d’analyser ces résultats expérimentaux et servira pour les futurs travaux d’optimisation de la géométrie d’un récepteur. / The "numerical materials" approach, developed at CEA Le Ripaut, consists to numerically optimize a structure, by using calculation codes that allow to realize numerical experiments, in order to answer, as precisely as possible, to a set of specifications. The manufacturing of these optimized structures, whose shapes can be complex, is sometimes not feasible with current manufacturing processes. However, the rapid progress of 3D printing now seems to be able to concretize this approach. The aim of this thesis is to study this manufacturing feasibility, through a concrete application: the optimization of the volumetric receivers of Concentrated Solar Power Plants (CSP). Currently, the design of these silicon carbide (SiC) receptors is restricted by the existing manufacturing techniques, and their morphologies are therefore mainly limited to foams or parallel channels. However, this type of structure does not allow to exploit all the 3D character proposed by the receivers, due in particular to a heterogeneous absorption of solar radiation in the volume. In this work, in order to find the distribution of the most homogeneous absorption possible in the whole volume, many structures with various shapes are generated virtually. A simulation of the solar irradiance received is carried out on all these structures, thanks to a calculation code developed especially for this application, thus allowing to choose three of them, respondents at best to the criteria of the specifications. These potentially optimized structures were then manufactured in SiC by 3D printing, by a binder jetting process. They were then tested on an experimental test bench of the PROMES laboratory, reproducing the conditions of a CSP. Results showed that these structures, where their shapes are totally different from foams or parallel channels, are able to produce a maximum air temperature of 860°C at the output of the receiver, and with efficiencies close to 0.65. Finally, a conducto-radiative coupled thermal computational code, improved during this work, made it possible to analyze these experimental results and will be used for the future work of optimization of the geometry of a receiver.
569

Photon mapping / Photon Mapping

Nečas, Ondřej January 2009 (has links)
This thesis deals with practical implementation of photon mapping algorithm. To achieve better results some basic and some more advanced methods of global illumination has been examined. These time demanding algorithms are often practically unusable and their further optimization is necessary. Optimized ray tracer is essential for practical implementation. Computing diffuse interreflection by Monte Carlo sampling is also very time demanding operation. Therefore it is appropriate to use it along with proper interpolation.
570

Mapování textur / Texture Mapping

Strach, Zdeněk Unknown Date (has links)
In this master's thesis I'm engaged in problematic of texture mapping in ray tracing. Ray tracing is shortly described in the beginning. Texture mapping methods are described then, solid textures first and 2D textures follow. Implementation of MIP map method is deeply described in next chapters. The results are evaluated at the end.

Page generated in 0.0883 seconds