• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 2
  • 1
  • Tagged with
  • 21
  • 9
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Étude et réalisation d'un TDC numérique dans le cadre du trigger du GANIL

Boujrad, A. 20 December 2001 (has links) (PDF)
En physique nucléaire, l'interaction faisceau-cible engendre une multitude d'événements qui ne sont pas tous d'intérêt pour le phénomène physique étudié. Il est donc important de disposer d'un système de sélection nommé trigger. Nous avons étudié et réalisé un nouveau trigger adapté aux expériences menées au GANIL. Nous avons présenté un historique des différents triggers utilisés aux GANIL (Grand Accélérateur National d'Ions Lourds) et avons montré la nécessité d'un nouveau trigger modulaire, universel et ouvert. Après une description des différents modes de fonctionnement du nouveau trigger (GANIL Master Trigger, GMT) nous avons décrit les phases de sa conception et de sa réalisation. Le trigger renseigne sur la configuration des détecteurs temporels, or cette information peut être fondamentale dans le cas où la fenêtre d'analyse du trigger couvre plusieurs périodes du faisceau. Nous avons donc proposé une structure de mesure de temps (Time to Digital Converter, TDC) qui permet de lever cette indétermination. Les contraintes de temps mort, d'intégration et de consommation nous ont conduit à proposer une architecture numérique basée sur un compteur associé à une ligne A Retard (LAR). Des calculs simples ont permis de définir la zone de fonctionnement du TDC. Cette zone dépend du rapport cyclique de l'horloge et des retards de la LAR. Des mesures de Non Linéarité Différentielle (NLD) pour des résolutions différentes (1,2,5 et 10 ns) ont permis d'établir les limites de ce système et de mettre en évidence des solutions d'amélioration de ces caractéristiques.
12

Performance dosimétrique et capacité matricielle du détecteur à fibre scintillante pour les contrôles de qualité en radiochirurgie stéréotaxique

Gagnon, Jean-Christophe 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / La radiochirurgie stéréotaxique est un mode de traitement délivrant la dose de prescription en une seule fraction. Pour ce faire des petits champs et des arcs non coplanaires sont utilisés de manière à diminuer la dose aux tissus sains. Afin de s'assurer que la dose planifiée est bien conforme à celle donnée lors du traitement, des mesures de contrôles de qualité s'imposent. Or, il n'existe pas encore de détecteur idéal permettant de connaître précisément la dose dans ces conditions de traitement. Afin de palier à cette lacune, nous avons développé un détecteur à fibre scintillante possédant des caractéristiques favorables pour la radiochirurgie stéréotaxique telle qu'une grande résolution spatiale, l'équivalence à l'eau et l'indépendance angulaire et énergétique. Pour ce faire, des mesures de facteurs de sortie brute (soit, plus rigoureusement, la multiplication du facteur collimateur avec le facteur fantôme) et de profils furent effectuées avec les collimateurs coniques utilisés en radiochirurgie stéréotaxique. Les films Gafchromic EBT2, la diode de radiochirurgie non blindée SFD, la diode blindée 60008, la micro-chambre à ionisation A16 (des détecteurs présents sur le marché) ainsi que le détecteur à fibre scintillante furent utilisés lors des mesures, de façon à comparer la réponse des différents dosimètres pour mettre à jour leurs forces et leurs faiblesses. Par la suite, un prototype composé de 49 détecteurs à fibre scintillante disposés en croix a été développé et construit afin de prendre des mesures de distributions de dose en deux dimensions. Finalement, une mesure d'un plan de traitement complet a été effectuée avec la fibre scintillante, la diode de radiochirurgie non blindée SFD et la micro-chambre à ionisation A16 afin d'évaluer la précision avec laquelle il était possible de faire une mesure de dose lors d'un contrôle de qualité avec ces différents détecteurs.
13

Calibration du multidétecteur HERACLES et simulations de collisions d'ions lourds à l'aide d'un modèle de dynamique moléculaire antisymmétrisée

St-Onge, Patrick 20 April 2018 (has links)
Le multidétecteur HERACLES a été utilisé pour étudier les réactions ²⁵Na; ²⁵Mg + ¹²C à 9.23 MeV par nucléon à l’accélérateur ISAC-2 de TRIUMF. Les données brutes recueillies par HERACLES doivent être traitées pour en tirer des résultats physiques. Nous avons conçu un programme d’analyse codé en C++ pour traiter ces données. Le développement d’algorithmes d’identification a permis d’accélérer l’identification des particules dans les spectres des nombreux détecteurs d’HERACLES. Les résultats de l’identification montrent une identification en charge des particules pour les détecteurs des 4 premiers anneaux couvrant des angles de 4.8° à 24° par rapport au faisceau. Les particules légères sont identifiées en masse jusqu’à l’hélium dans les 2 autres anneaux couvrant les angles de 24° à 46°. L’étalonnage en énergie des détecteurs est déterminé à l’aide de la formule de Parlog. Nous avons réalisé une simulation hybride AMD et GEMINI et nous avons comparé les résultats aux données expérimentales pour les systèmes ²⁵Na; ²⁵Mg + ¹²C C à 9.23 MeV par nucléon.
14

Vérification relationnelle pour des programmes avec des données entières

Konecny, Filip 29 October 2012 (has links) (PDF)
Les travaux présentés dans cette thèse sont lies aux problèmes de vérification de l'atteignabilité et de la terminaison de programmes qui manipulent des données entières non-bornées. On décrit une nouvelle méthode de vérification basée sur une technique d'accélération de boucle, qui calcule, de manière exacte, la clôture transitive d'une relation arithmétique. D'abord, on introduit un algorithme d'accélération de boucle qui peut calculer, en quelques secondes, des clôtures transitives pour des relations de l'ordre d'une centaine de variables. Ensuite, on présente une méthode d'analyse de l'atteignabilité, qui manipule des relations entre les variables entières d'un programme, et applique l'accélération pour le calcul des relations entrée-sortie des procédures, de façon modulaire. Une approche alternative pour l'analyse de l'atteignabilité, présentée également dans cette thèse, intègre l'accélération avec l'abstraction par prédicats, afin de traiter le problème de divergence de cette dernière. Ces deux méthodes ont été évaluées de manière pratique, sur un nombre important d'exemples, qui étaient, jusqu'a présent, hors de la portée des outils d'analyse existants. Dernièrement, on a étudié le problème de la terminaison pour certaines classes de boucles de programme, et on a montré la décidabilité pour les relations étudiées. Pour ces classes de relations arithmétiques, on présente un algorithme qui s'exécute en temps au plus polynomial, et qui calcule l'ensemble d'états qui peuvent générer une exécution infinie. Ensuite on a intégré cet algorithme dans une méthode d'analyse de la terminaison pour des programmes qui manipulent des données entières.
15

Optimisation des détecteurs de la matrice HERACLES

Gagnon-Moisan, Francis 11 April 2018 (has links)
Ce mémoire de maîtrise présente différents détecteurs de la matrice HERACLES et les tests qui furent effectués afin de l'adapter aux nouvelles conditions expérimentales imposées au centre de recherche TRIUMF. Depuis sa création, l'ensemble de détecteurs qui composent aujourd'hui la matrice HERACLES a subi plusieurs modifications et devra en subir encore afin d'être à la fine pointe de la recherche moderne. Cet ouvrage est divisé en trois chapitres distincts. Chaque chapitre traite d'une catégorie de détecteurs et des diverses recherches associées. Le premier chapitre traite des détecteurs à neutrons et des corrections à effectuer afin d'améliorer l'efficacité de détection. Le second aborde les modifications sur les détecteurs composés de scintillateurs CsI(Tl). Finalement, le troisième et dernier chapitre porte sur un type de photomultiplicateur à position qui est envisagé dans la composition de la matrice. Ce travail présente une combinaison de simulations effectuées grâce au logiciel GEANT4 et d'expériences en laboratoire. Les résultats des simulations furent utilisés pour obtenir des corrections à des données d'une expérience et à connaître les meilleures corrections potentielles à tester pour les différents détecteurs.
16

Comportement des ménages en matière de consommation d'électricité : une meta-analyse et des approches expérimentales / Household electricity consumption behaviour : a meta-analysis and experimental approaches

Buckley, Penelope 03 May 2019 (has links)
Cette thèse examine comment répondent des consommateurs aux mécanismes visant à réduire leur consommation d'énergie. Ce besoin de réduction découle de la nécessité d'atteindre les objectifs de réduction d'émissions de gaz à effet de serre, d'augmenter la production d'énergie à partir d'énergie renouvelables et de réaliser des économies d'énergie. Ces objectifs exigent que la demande résidentielle soit plus flexible face à l'évolution de l'offre et que des économies d'énergie soient réalisées par les ménages. Le premier chapitre explore les barrières à l'acceptation et à l'adoption des compteurs intelligents et des incitations qu'ils peuvent fournir. D'importantes barrières existent et les réductions de consommation sont loin d'être réalisées. Le manque de motivation, l'incompréhension de l'information sur la consommation et la rigidité de la vie quotidienne sont les principales barrières qui limitent la réponse des ménages aux incitations fournies par les compteurs intelligents. Le deuxième chapitre analyse les résultats d'expériences de terrain et d'études pilotes portant sur les impacts des différentes incitations sur la consommation résidentielle. Les résultats montrent qu'il existe de grandes variations et qu'en moyenne, une incitation entraînera une réduction de 2% de la consommation d'énergie. Les incitations de feedback en temps réel ainsi que l'information monétaire ont le plus grand effet. Enfin, les études plus robustes font état d'effets de réduction plus faibles. Dans le troisième chapitre, un jeu expérimental de ressources communes est utilisé pour explorer les réponses individuelles aux incitations basées sur le prix et les nudges. Les individus sont encouragés à réduire leur consommation, soit par une augmentation de prix, soit par des smiley évocant leur surconsommation. Le prix est le plus efficace pour encourager le niveau cible de consommation, mais il faut plus de temps pour qu'il fasse effet. Le nudge est compris rapidement mais tend à renforcer les comportements de surconsommation. Le quatrième chapitre examine l'effet du framing sur la disposition à l'effort. Les individus doivent accomplir une tâche simple et répétitive pour laquelle ils reçoivent un paiement à la pièce sous forme d'un gain ou d'une perte. Le framing sous forme de gains et de pertes est combiné à trois structures de paiement différentes : gain fixe, gain faible ou élevé avec une probabilité égale révélée avant ou après la réalisation de l'effort. Les résultats montrent que le framing n'a aucun effet sur la réalisation de l'effort, excepté pour un contexte de gain élevé annoncé avant de fournir l'effort. / This thesis examines how consumers respond to incentives used to encourage a reduction in their energy consumption. This necessary reduction stems from the need to reduce greenhouse gas emissions, increase energy production from renewable energy sources and achieve energy savings. These objectives require that residential demand be more flexible in response to changes in supply and that energy savings be achieved by households. The first chapter explores the barriers to consumer acceptance and adoption of smart meters and the incentives that they provide. Significant barriers exist and consumption reductions are far from being achieved. Limited motivation, lack of understanding of information on consumption and the rigidity of daily life are the main barriers preventing households from acting upon the incentives delivered via smart meters. The second chapter analyses the results of field experiments and pilot studies on the impacts of different incentives on residential consumption. The results show that there are large variations and that, on average, an incentive will result in a 2% reduction in energy consumption. Real-time feedback and monetary information have the greatest effect. Finally, more robust studies report lower reduction effects. In the third chapter, a common pool resource game is used to explore individual responses to price and nudge-based incentives. Individuals are encouraged to reduce their consumption either by price increases or by smilies that reflect their overconsumption. The price is most effective at encouraging the target level of consumption but takes longer to have an effect. The nudge is quickly understood but tends to reinforce overconsumption behaviours. The fourth chapter examines the effect of framing on effort provision. Individuals are asked to complete a simple and repetitive task for which they receive a piece-rate payoff in the form of a gain or loss. Framing in the form of gains and losses is combined with three different payment structures: fixed gain, low gain or high gain with an equal probability revealed before or after the effort is made. The results show that framing has no effect on effort provision, except for a high gain context announced before making the effort.
17

Vers un Model Checking avec accélération plate des systèmes hétérogènes

Bardin, Sébastien 20 October 2005 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la vérification formelle de systèmes informatiques. Plus exactement nous nous intéressons au calcul de l'ensemble d'accessibilité d'automates étendus par des variables à domaines infinis. Bien que cet ensemble ne soit pas récursif en général, des techniques à base d'accélération permettent de le calculer en pratique. Cependant ces méthodes sont encore mal connues. Nous nous intéressons à l'étude de l'accélération, des points de vue théorique, algorithmique et implantation logicielle.
18

Réécriture d’arbres de piles et traces de systèmes à compteurs / Ground stack tree rewriting and traces of counter systems

Penelle, Vincent 20 November 2015 (has links)
Dans cette thèse, nous nous attachons à étudier des classes de graphes infinis et leurs propriétés, Notamment celles de vérification de modèles, d'accessibilité et de langages reconnus.Nous définissons une notion d'arbres de piles ainsi qu'une notion liée de réécriture suffixe, permettant d'étendre à la fois les automates à piles d'ordre supérieur et la réécriture suffixe d'arbres de manière minimale. Nous définissons également une notion de reconnaissabilité sur les ensembles d'opérations à l'aide d'automates qui induit une notion de reconnaissabilité sur les ensembles d'arbres de piles et une notion de normalisation des ensembles reconnaissables d'opérations analogues à celles existant sur les automates à pile d'ordre supérieur. Nous montrons que les graphes définis par ces systèmes de réécriture suffixe d'arbres de piles possèdent une FO-théorie décidable, en montrant que ces graphes peuvent être obtenu par une interprétation à ensembles finis depuis un graphe de la hiérarchie à piles.Nous nous intéressons également au problème d'algébricité des langages de traces des systèmes à compteurs et au problème lié de la stratifiabilité d'un ensemble semi-linéaire. Nous montrons que dans le cas des polyèdres d'entiers, le problème de stratifiabilité est décidable et possède une complexité coNP-complète. Ce résultat nous permet ensuite de montrer que le problème d'algébricité des traces de systèmes à compteurs plats est décidable et coNP-complet. Nous donnons également une nouvelle preuve de la décidabilité des langages de traces des systèmes d'addition de vecteurs, préalablement étudié par Schwer / In this thesis, we study classes of infinite graphs and their properties,especially the model-checking problem, the accessibility problem and therecognised languages.We define a notion of stack trees, and a related notionof ground rewriting, which is an extension of both higher-order pushdownautomata and ground tree rewriting systems. We also define a notion ofrecognisability on the sets of ground rewriting operations through operationautomata. This notion induces a notion of recognisability over sets of stacktrees and a normalisation of recognisable sets of operations, similar to theknown notions over higher-order pushdown automata. We show that the graphsdefined by these ground stack tree rewriting systems have a decidableFO-theory, by exhibiting a finite set interpretation from a graph defined bya higher-order automaton to a graph defined by a ground stack tree rewritingsystem.We also consider the context-freeness problem for counter systems, andthe related problem of stratifiability of semi-linear sets. We prove thedecidability of the stratifiability problem for integral polyhedra and that itis coNP-complete. We use this result to show that the context-freeness problemfor flat counter systems is as well coNP-complete. Finally, we give a new proofof the decidability of the context-freeness problem for vector additionsystems, previously studied by Schwer
19

Algorithmique et complexité des systèmes à compteurs / Algorithmics and complexity of counter machines

Blondin, Michael 29 June 2016 (has links)
L'un des aspects fondamentaux des systèmes informatiques modernes, et en particulier des systèmes critiques, est la possibilité d'exécuter plusieurs processus, partageant des ressources communes, de façon simultanée. De par leur nature concurrentielle, le bon fonctionnement de ces systèmes n'est assuré que lorsque leurs comportements ne dépendent pas d'un ordre d'exécution prédéterminé. En raison de cette caractéristique, il est particulièrement difficile de s'assurer qu'un système concurrent ne possède pas de faille. Dans cette thèse, nous étudions la vérification formelle, une approche algorithmique qui vise à automatiser la vérification du bon fonctionnement de systèmes concurrents en procédant par une abstraction vers des modèles mathématiques. Nous considérons deux de ces modèles, les réseaux de Petri et les systèmes d'addition de vecteurs, et les problèmes de vérification qui leur sont associés. Nous montrons que le problème d'accessibilité pour les systèmes d'addition de vecteurs (avec états) à deux compteurs est PSPACE-complet, c'est-à-dire complet pour la classe des problèmes solubles à l'aide d'une quantité polynomiale de mémoire. Nous établissons ainsi la complexité calculatoire précise de ce problème, répondant à une question demeurée ouverte depuis plus de trente ans. Nous proposons une nouvelle approche au problème de couverture pour les réseaux de Petri, basée sur un algorithme arrière guidé par une caractérisation logique de l'accessibilité dans les réseaux de Petri dits continus. Cette approche nous a permis de mettre au point un nouvel algorithme qui s'avère particulièrement efficace en pratique, tel que démontré par notre implémentation logicielle nommée QCover. Nous complétons ces résultats par une étude des systèmes de transitions bien structurés qui constituent une abstraction générale des systèmes d'addition de vecteurs et des réseaux de Petri. Nous considérons le cas des systèmes de transitions bien structurés à branchement infini, une classe qui inclut les réseaux de Petri possédant des arcs pouvant consommer ou produire un nombre arbitraire de jetons. Nous développons des outils mathématiques facilitant l'étude de ces systèmes et nous délimitons les frontières au-delà desquelles la décidabilité des problèmes de terminaison, de finitude, de maintenabilité et de couverture est perdue. / One fundamental aspect of computer systems, and in particular of critical systsems, is the ability to run simultaneously many processes sharing resources. Such concurrent systems only work correctly when their behaviours are independent of any execution ordering. For this reason, it is particularly difficult to ensure the correctness of concurrent systems.In this thesis, we study formal verification, an algorithmic approach to the verification of concurrent systems based on mathematical modeling. We consider two of the most prominent models, Petri nets and vector addition systems, and their usual verification problems considered in the literature.We show that the reachability problem for vector addition systems (with states) restricted to two counters is PSPACE-complete, that is, it is complete for the class of problems solvable with a polynomial amount of memory. Hence, we establish the precise computational complexity of this problem, left open for more than thirty years.We develop a new approach to the coverability problem for Petri nets which is primarily based on applying forward coverability in continuous Petri nets as a pruning criterion inside a backward coverability framework. We demonstrate the effectiveness of our approach by implementing it in a tool named QCover.We complement these results with a study of well-structured transition systems which form a general abstraction of vector addition systems and Petri nets. We consider infinitely branching well-structured transition systems, a class that includes Petri nets with special transitions that may consume or produce arbitrarily many tokens. We develop mathematical tools in order to study these systems and we delineate the decidability frontier for the termination, boundedness, maintainability and coverability problems for these systems.
20

Mise en place d'un modèle de fuite multi-états en secteur hydraulique partiellement instrumenté / Mastering losses on drinking water network

Claudio, Karim 19 December 2014 (has links)
L’évolution de l’équipement des réseaux d’eau potable a considérablement amélioré le pilotage de ces derniers. Le telérelevé des compteurs d’eau est sans doute la technologie qui a créé la plus grande avancée ces dernières années dans la gestion de l’eau, tant pour l’opérateur que pour l’usager. Cette technologie a permis de passer d’une information le plus souvent annuelle sur les consommations (suite à la relève manuelle des compteurs d’eau) à une information infra-journalière. Mais le télérelevé, aussi performant soit-il, a un inconvénient : son coût. L’instrumentation complète d’un réseau engendre des investissements que certains opérateurs ne peuvent se permettre. Ainsi la création d’un échantillon de compteurs à équiper permet d’estimer la consommation totale d’un réseau tout en minimisant les coûts d’investissement. Cet échantillon doit être construit de façon intelligente de sorte que l’imprécision liée à l’estimation ne nuise pas à l’évaluation des consommations. Une connaissance précise sur les consommations d’eau permet de quantifier les volumes perdus en réseau. Mais, même dans le cas d’une évaluation exacte des pertes, cela ne peut pas suffire à éliminer toutes les fuites sur le réseau. En effet, si le réseau de distribution d’eau potable est majoritairement enterré, donc invisible, il en va de même pour les fuites. Une fraction des fuites est invisible et même indétectable par les techniques actuelles de recherche de fuites, et donc irréparable. La construction d’un modèle de fuite multi-états permet de décomposer le débit de fuite suivant les différents stades d’apparition d’une fuite : invisible et indétectable, invisible mais détectable par la recherche de fuite et enfin visible en surface. Ce modèle, de type semi-markovien, prend en compte les contraintes opérationnelles, notamment le fait que nous disposons de données de panel. La décomposition du débit de fuite permet de fait une meilleure gestion du réseau en ciblant et adaptant les actions de lutte contre les fuites à mettre en place en fonction de l’état de dégradation du réseau. / The evolution of equipment on drinking water networks has considerably bettered the monitoring of these lasts. Automatic meter reading (AMR) is clearly the technology which has brought the major progress these last years in water management, as for the operator and the end-users. This technology has allowed passing from an annual information on water consumption (thanks to the manual meter reading) toan infra-daily information. But as efficient as AMR can be, it has one main inconvenient : its cost. A complete network instrumentation generates capital expenditures that some operators can’t allowed themselves. The constitution of a sample of meters to equip enables then to estimate the network total consumption while minimizing the investments. This sample has to be built smartly so the inaccuracy of the estimator shouldn’t be harmful to the consumption estimation. A precise knowledge on water consumption allowsquantifying the water lost volumes on the network. But even an exact assessment of losses is still not enough to eliminate all the leaks on the network. Indeed, if the water distribution network is buried, and so invisible, so do the leaks. A fraction of leaks are invisible and even undetectable by the current technologies of leakage control, and so these leaks are un-reparable. The construction of a multi-state model enables us to decompose the leakage flow according to the different stages of appearance of a leak : invisible and undetectable, invisible but detectable with leakage control and finally detectable. This semi-Markovian model takes into account operational constrains, in particular the fact that we dispose of panel data. The leakage flow decomposition allows a better network monitoring but targeting and adapting the action of leakage reduction to set up according to the degradation state of the network.

Page generated in 0.035 seconds