• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 77
  • 33
  • 9
  • 1
  • Tagged with
  • 111
  • 43
  • 32
  • 19
  • 17
  • 15
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Spectro-imagerie optique à faible flux et comparaison de la cinématique Ha et HI d'un échantillon de galaxies proches

Daigle, Olivier 02 1900 (has links)
Un nouveau contrôleur de EMCCD (Electron multiplying Charge Coupled Device) est présenté. Il permet de diminuer significativement le bruit qui domine lorsque la puce EMCCD est utilisé pour du comptage de photons: le bruit d'injection de charge. À l'aide de ce contrôleur, une caméra EMCCD scientifique a été construite, caractérisée en laboratoire et testée à l'observatoire du mont Mégantic. Cette nouvelle caméra permet, entre autres, de réaliser des observations de la cinématique des galaxies par spectroscopie de champ intégral par interférométrie de Fabry-Perot en lumière Ha beaucoup plus rapidement, ou de galaxies de plus faible luminosité, que les caméras à comptage de photon basées sur des tubes amplificateurs. Le temps d'intégration nécessaire à l'obtention d'un rapport signal sur bruit donné est environ 4 fois moindre qu'avec les anciennes caméras. Les applications d'un tel appareil d'imagerie sont nombreuses: photométrie rapide et faible flux, spectroscopie à haute résolution spectrale et temporelle, imagerie limitée par la diffraction à partir de télescopes terrestres (lucky imaging), etc. D'un point de vue technique, la caméra est dominée par le bruit de Poisson pour les flux lumineux supérieurs à 0.002 photon/pixel/image. D'un autre côté, la raie d'hydrogène neutre (HI) à 21 cm a souvent été utilisée pour étudier la cinématique des galaxies. L'hydrogène neutre a l'avantage de se retrouver en quantité détectable au-delà du disque optique des galaxies. Cependant, la résolution spatiale de ces observations est moindre que leurs équivalents réalisés en lumière visible. Lors de la comparaison des données HI, avec des données à plus haute résolution, certaines différences étaient simplement attribuées à la faible résolution des observations HI. Le projet THINGS (The HI Nearby Galaxy Survey a observé plusieurs galaxies de l'échantillon SINGS (Spitzer Infrared Nearby Galaxies Survey). Les données cinématiques du projet THIGNS seront comparées aux données cinématiques obtenues en lumière Ha, afin de déterminer si la seule différence de résolution spatiale peut expliquer les différences observées. Les résultats montrent que des différences intrinsèques aux traceurs utilisées (hydrogène neutre ou ionisé), sont responsables de dissemblances importantes. La compréhension de ces particularités est importante: la distribution de la matière sombre, dérivée de la rotation des galaxies, est un test de certains modèles cosmologiques. / A new EMCCD (Electron multiplying Charge Coupled Device) controller is presented. It allows the EMCCD to be used for photon counting by drastically taking down its dominating source of noise : the clock induced charges. A new EMCCD camera was built using this controller. It has been characterized in laboratory and tested at the observatoire du mont Mégantic. When compared to the previous generation of photon counting cameras based on intensifier tubes, this new camera renders the observation of the galaxies kinematics with an integral field spectrometer with a Fabry-Perot interferometer in Ha light much faster, and allows fainter galaxies to be observed. The integration time required to reach a given signal-to-noise ratio is about 4 times less than with the intensifier tubes. Many applications could benefit of such a camera: fast, faint flux photometry, high spectral and temporal resolution spectroscopy, earth-based diffraction limited imagery (lucky imaging), etc. Technically, the camera is dominated by the shot noise for flux higher than 0.002 photon/pixel/image. The 21 cm emission line of the neutral hydrogen (HI) is often used to map the galaxies kinematics. The extent of the distribution of the neutral hydrogen in galaxies, which goes well beyond the optical disk, is one of the reasons this line is used so often. However, the spatial resolution of such observations is limited when compared to their optical equivalents. When comparing the HI data to higher resolution ones, some differences were simply attributed to the beam smearing of the HI caused by its lower resolution. The THINGS (The HI Nearby Galaxy Survey) project observed many galaxies of the SINGS (Spitzer Infrared Nearby Galaxies Survey) project. The kinematics of THINGS will be compared to the kinematic data of the galaxies obtained in Ha light. The comparison will try to determine whether the sole beam smearing is responsible of the differences observed. The results shows that intrinsic dissimilarities between the kinematical tracers used are responsible of some of the observed disagreements. The understanding of theses differences is of a high importance as the dark matter distribution, inferred from the rotation of the galaxies, is a test to some cosmological models.
102

Développement de Jonctions Supraconductrices à Effet Tunnel pour le comptage de photons en astronomie

Jorel, Corentin 20 December 2004 (has links) (PDF)
Cette thèse présente la poursuite des travaux grenoblois de développement des Jonctions Supraconductrices à Effet Tunnel (JSET) de types S/Al-AlO_x-Al/S pour le comptage de photons individuels en vue d'applications astronomiques dans l'infrarouge proche. La couche supraconductrice S, en niobium ou en tantale dans notre cas, est photo-absorbante et permet la conversion de l'énergie d'un photon incident en une population de charges excitées dont le nombre est proportionnel à l'énergie déposée et la durée de vie suffisante pour qu'elles soient comptées par effet tunnel. Il suffit pour cela de polariser en tension des jonctions à très basse température (100mK) et d'intégrer les impulsions de courant tunnel photo-induit pour évaluer l'énergie absorbée. L'intérêt des JSET pour la détection lumineuse est discuté dans le premier chapitre au travers de la comparaison des techniques performantes actuelles, aussi bien à base de supraconducteurs (Bolomètres à transition supraconductrice, Bolomètres à électrons chauds) que classiques (Photo-Diodes à Avalanche, Photo-Multiplicateurs, CCD et CMOS). Au démarrage de cette thèse, un procédé de fabrication avait permis d'obtenir des jonctions à base de niobium de bonne qualité et des résultats préliminaires en comptage de photons. L'objectif double était de passer à des jonctions à base de tantale, intrinsèquement plus sensibles, avec un nouveau procédé de fabrication collective plus performant. Dans un premier temps nous avons optimisé la qualité cristalline du dépôt de tantale. Les analyses structurales par rayons X montrent que ces films, déposés par pulvérisation cathodique magnétron à 600$^o$C sur substrat saphir plan-R recouvert d'une sous couche de Nb sont épitaxiés suivant l'axe (100). Les mesures de transport électrique à basse température donnent d'excellents rapports résistifs relatifs (de l'ordre de 45) conduisant à des libres parcours moyens de l'ordre de 100 nm. Dans un second temps, un nouveau procédé original de fabrication collective des jonctions a été imaginé et un jeu de 5 masques a été réalisé. Ces masques permettent la réalisation de jonctions individuelles de différentes tailles (de 25 par 25 à 50 par 50 microns carrés) et formes (quelques dispositifs ont une géométrie en losange ou en forme sinusoïdale). Ils autorisent aussi la réalisation de jonctions multiples sur un absorbeur commun ou de réseau de 9 jonctions (pixels). Le développement de ce procédé et sa fiabilisation ont permis d'obtenir un très fort pourcentage ( >90$%) de jonctions de qualité. Nous avons ainsi obtenu d'excellentes résistances normales de quelques microohm.cm^2 et de faible courant de fuite sous le gap de l'ordre du nA. Enfin, nous avons mis en évidence le fonctionnement de ces dispositifs en comptage de photons à la frontière du visible et de l'infrarouge proche (0,78 micron de longueur d'onde). Et même si une meilleure résolution énergétique requiert encore quelques adaptations expérimentales, les détecteurs obtenus sont particulièrement prometteurs pour l'astronomie au sol, des rayons X à l'infrarouge, aussi bien que pour les télécommunications à 1,55 micron où les possibilités des JSET restent sans équivalent.
103

Sensors and wireless networks for monitoring climate and biology in a tropical region of intensive agriculture : methods, tools and applications to the case of the Mekong Delta of Vietnam / Réseaux de capteurs sans fil pour l’observation du climat et de la biologie dans une région tropicale d’agriculture intensive : méthodes, outils et applications pour le cas du Delta du Mékong, Vietnam

Lam, Bao Hoai 26 January 2018 (has links)
Les changements climatiques ont des impacts considérables sur le temps, les océans et les rivages, la vie sauvage. Ils amènent des problèmes désormais considérés comme majeurs par les gouvernements et organisations internationales. Ces efforts ont fourni un cadre à cette thèse, qui propose de procéder en boucle fermée de l’observation d’insectes ravageurs, avec des centaines de capteurs en réseau ("light traps"), au système d’information, et enfin à des décisions de lutte, manuelles ou automatiques. Le point d’appui pratique est la conception d’un système de comptage d’insectes proliférant dans les cultures de riz (BPH). L’abstraction que nous développons est celle d’une machine environnementale de grande taille, distribuée, qui capte et synthétise l’information, élabore des connaissances, et prend des décisions. Autour de cette abstraction, nous avons élaboré un système de vision "fisheye" effectuant le comptage des insectes. Nous proposons un système d’information géographique directement connecté au réseau de capteurs. Le couplage direct, "cyber-physique", entre les systèmes d’information et l’observation de l’environnement à échelle régionale est une nouveauté transposable, qui permet de comprendre et contrôler quantité d’évolutions. / Climate changes bring problems related to nature evolutions. Global warming has an impact on sea level, weather patterns, and wild life. A number of national and international organizations are developing research programs in these directions, including threats on cultures and insect proliferation. Monitoring these phenomena, observing consequences, elaborating counteracted strategies are critical for the economy and society.The initial motivation of this work was the understanding of change impacts in the Mekong Delta region. From there, automatic observation tools were designed with a real time information system able to integrate environmental measures, then to support knowledge production.Tracking environment evolutions is distributed sensing, which can be the association of efficient sensors and radio communications, operated under the control of an information system. Sensing insects is very complex due to their diversity and dispersion. However, this is feasible in the case of intensive agricultural production as it is the case of rice, having a small number of pests. An automatic vision observatory is proposed to observe the main threats for the rice, as an evolution of manual light traps. Radio communication weaves these observatories into a network with connection to databases storing measures and possible counteractions. An example observatory has a fisheye camera and insect counting algorithms for the BPH practical case in Vietnam.By considering the observation system as an input for an abstract machine, and considering decision and actions taken as a possible control on the environment, we obtain a framework for knowledge elaboration that can be useful in lots of other situations.
104

Contributions au développement d'outils computationnels de design de protéine : méthodes et algorithmes de comptage avec garantie / Contribution to protein design tools : counting methods and algorithms

Viricel, Clement 18 December 2017 (has links)
Cette thèse porte sur deux sujets intrinsèquement liés : le calcul de la constante de normalisation d’un champ de Markov et l’estimation de l’affinité de liaison d’un complexe de protéines. Premièrement, afin d’aborder ce problème de comptage #P complet, nous avons développé Z*, basé sur un élagage des quantités de potentiels négligeables. Il s’est montré plus performant que des méthodes de l’état de l’art sur des instances issues d’interaction protéine-protéine. Par la suite, nous avons développé #HBFS, un algorithme avec une garantie anytime, qui s’est révélé plus performant que son prédécesseur. Enfin, nous avons développé BTDZ, un algorithme exact basé sur une décomposition arborescente qui a fait ses preuves sur des instances issues d’interaction intermoléculaire appelées “superhélices”. Ces algorithmes s’appuient sur des méthodes issuse des modèles graphiques : cohérences locales, élimination de variable et décompositions arborescentes. A l’aide de méthodes d’optimisation existantes, de Z* et des fonctions d’énergie de Rosetta, nous avons développé un logiciel open source estimant la constante d’affinité d’un complexe protéine protéine sur une librairie de mutants. Nous avons analysé nos estimations sur un jeu de données de complexes de protéines et nous les avons confronté à deux approches de l’état de l’art. Il en est ressorti que notre outil était qualitativement meilleur que ces méthodes. / This thesis is focused on two intrinsically related subjects : the computation of the normalizing constant of a Markov random field and the estimation of the binding affinity of protein-protein interactions. First, to tackle this #P-complete counting problem, we developed Z*, based on the pruning of negligible potential quantities. It has been shown to be more efficient than various state-of-the-art methods on instances derived from protein-protein interaction models. Then, we developed #HBFS, an anytime guaranteed counting algorithm which proved to be even better than its predecessor. Finally, we developed BTDZ, an exact algorithm based on tree decomposition. BTDZ has already proven its efficiency on intances from coiled coil protein interactions. These algorithms all rely on methods stemming from graphical models : local consistencies, variable elimination and tree decomposition. With the help of existing optimization algorithms, Z* and Rosetta energy functions, we developed a package that estimates the binding affinity of a set of mutants in a protein-protein interaction. We statistically analyzed our esti- mation on a database of binding affinities and confronted it with state-of-the-art methods. It appears that our software is qualitatively better than these methods.
105

Propriétés spectrales des opérateurs de composition et opérateurs de Hankel / Spectral properties of the composition operators and Hankel operators

Merghni, Lobna 31 January 2017 (has links)
Dans cette thèse nous nous intéressons aux opérateurs de composition sur les espaces de Hardy et Dirichlet et aux opérateurs de Hankel sur les espaces des fonction polyanalytiques. On s’'intéresse à l’'opérateur de composition sur les espaces de Dirichlet : $mathcal{D}_alpha=\left{f \in Hol(D): |f|_alpha^{2}=| f(0)| ^{2}+int_{D}| f'(z)| ^{2}dA_alpha(z)<infty \right}.$ La fonction de comptage généralisée de Nevanlinna associée à l'espace de Dirichlet $\mathcal{D}_\alpha$ est donnée par:$$ N_{\varphi,\alpha}(z):=\sum_{z=\varphi(w),{w\in\D}}(1-|w| )^\alpha,\qquad z\in\D.$$Nous étudions dans la première partie de ce travail la relation entre la fonction de comptage généralisée de Nevanlinna associée à $\varphi$ et la norme de ses ses puissances sur les espaces de Dirichlet. Nous aussi des examples d’'opérateurs de composition de Hilbert-Schmidt sur les espaces de Dirichlet. Nous étudions aussi l’'appartenance de $C_\varphi$ à la classe de Schatten en termes de la taille de l’ensemble de niveau et la norme de $\varphi^n$. Dans la deuxième partie nous considérons l’'espace de Fock-Bargmann des fonctions polyanalytiques, $f in F^n(mathbb{C})$. Nous montrons que si $f (z) = z^k\overline{z}^l$ avec $k, l \in \mathbb{N},$, alors l’'opérateur de Hankel $ H_{f}$ est borné sur $F^n(\mathbb{C})$ si et seulement si $\sup_{m,j}\|H_{f}e_{j, m}\|_{F^n(\mathbb{C})} < +\infty$.On montre aussi que si $f$ une fonction entière sur $\mathbb{C}$, alors l’'opérateur de Hankel $ H_{\bar f}$ est borné sur $F_n(C)$ si et seulement si f est un polynôme de degré au plus 1, et l’'opérateur de Hankel $ H_{\bar f}$ est compact sur $F_n(C)$ si et seulement si f est un polynôme constant. / In this thesis we focus on the composition operators on Hardy and Dirichlet spaces and Hankel operators on spaces of polyanalytiques functions. We are interested in the composition operator on the Dirichlet spaces: $$ mathcal{D}_alpha=left{ f in Hol(D): |f|_alpha^{2}=| f(0)|^{2}+int_{D}| f'(z)| ^{2}dA_alpha(z)<infty \right}. $$ The generalized Nevanlinna counting function associated to $ mathcal{D}_alpha $, is given by: $ N_{varphi,alpha}(z)=sum_{z=phi(w),{winD}}(1-|w| )^alpha,qquad zinDsetminus{phi(0)} .$ We study in the first part of this work the relationship between the generalized Nevanlinna counting function associated with $varphi$ and the norms of its iterated in the Dirichlet spaces. We give examples of Hilbert-Schmidt composition operators on the Dirichlet spaces. We study the composition operators on the Dirichlet spaces belong to Schatten class and the link with the size of contact points of its symbol with the unit circle. In the second part we consider the Bargmann-Fock space of polyanalytic functions, $f in F^n(mathbb{C})$. We prove that if $f (z) = z^koverline{z}^l$ with $k, l in mathbb{N},$ then the Hankel operator $ H_{f}$ is bounded on $F^n(mathbb{C})$ if and only if $sup_{m,j}|H_{f}e_{j, m}|_{F^n(mathbb{C})} < +infty$. We also establish that if $f $ an entire function on $mathbb{C}$, then the Hankel operator $ H_{bar f}$ is bounded on $F^n(mathbb{C})$ if and only if $f$ is a polynomial of degree at most $1,$ and the Hankel operator $ H_{bar f}$ is compact on $F^n(mathbb{C})$ if and only if $f$ is a constant polynomial.
106

Détection des événements rares dans des vidéos / Detecting rare events in video sequences

Pop, Ionel 23 September 2010 (has links)
Le travail présenté dans cette étude se place dans le contexte de l’analyse automatique des vidéos. A cause du nombre croissant des données vidéo, il est souvent difficile, voire impossible qu’un ou plusieurs opérateurs puissent les regarder toutes. Une demande récurrente est d’identifier les moments dans la vidéo quand il y a quelque chose d’inhabituel qui se passe, c’est-à-dire la détection des événements anormaux.Nous proposons donc plusieurs algorithmes permettant d’identifier des événements inhabituels, en faisant l’hypothèse que ces événements ont une faible probabilité. Nous abordons plusieurs types d’événements, de l’analyse des zones en mouvement à l’analyse des trajectoires des objets suivis.Après avoir dédié une partie de la thèse à la construction d’un système de suivi,nous proposons plusieurs mesures de similarité entre des trajectoires. Ces mesures, basées sur DTW (Dynamic Time Warping), estiment la similarité des trajectoires prenant en compte différents aspects : spatial, mais aussi temporel, pour pouvoir - par exemple - faire la différence entre des trajectoires qui ne sont pas parcourues de la même façon (en termes de vitesse de déplacement). Ensuite, nous construisons des modèles de trajectoires, permettant de représenter les comportements habituels des objets pour pouvoir ensuite détecter ceux qui s’éloignent de la normale.Pour pallier les défauts de suivi qui apparaissent dans la pratique, nous analysons les vecteurs de flot optique et nous construisons une carte de mouvement. Cette carte modélise sous la forme d’un codebook les directions privilégiées qui apparaissent pour chaque pixel, permettant ainsi d’identifier tout déplacement anormal, sans avoir pour autant la notion d’objet suivi. En utilisant la cohérence temporelle, nous pouvons améliorer encore plus le taux de détection, affecté par les erreurs d’estimation de flot optique. Dans un deuxième temps, nous changeons la méthode de constructions de cette carte de mouvements, pour pouvoir extraire des caractéristiques de plus haut niveau — l’équivalent des trajectoires, mais toujours sans nécessiter le suivi des objets. Nous pouvons ainsi réutiliser partiellement l’analyse des trajectoires pour détecter des événements rares.Tous les aspects présentés dans cette thèse ont été implémentés et nous avons construit certaines applications, comme la prédiction des déplacements des objets ou la mémorisation et la recherche des objets suivis. / The growing number of video data makes often difficult, even impossible, any attemptof watching them entirely. In the context of automatic analysis of videos, a recurring request is to identify moments in the video when something unusual happens.We propose several algorithms to identify unusual events, making the hypothesis that these events have a low probability. We address several types of events, from those generates by moving areas to the trajectories of objects tracked. In the first part of the study, we build a simple tracking system. We propose several measures of similarity between trajectories. These measures give an estimate of the similarity of trajectories by taking into account both spatial and/or temporal aspects. It is possible to differentiate between objects moving on the same path, but with different speeds. Based on these measures, we build models of trajectories representing the common behavior of objects, so that we can identify those that are abnormal.We noticed that the tracking yields bad results, especially in crowd situations. Therefore, we use the optical flow vectors to build a movement model based on a codebook. This model stores the preferred movement directions for each pixel. It is possible to identify abnormal movement at pixel-level, without having to use a tracker. By using temporal coherence, we can further improve the detection rate, affected by errors of estimation of optic flow. In a second step, we change the method of construction of this model. With the new approach, we can extract higher-level features — the equivalent trajectories, but still without the notion of object tracking. In this situation, we can reuse partial trajectory analysis to detect rare events.All aspects presented in this study have been implemented. In addition, we have design some applications, like predicting the trajectories of visible objects or storing and retrieving tracked objects in a database.
107

Matrix decompositions and algorithmic applications to (hyper)graphs / Décomposition de matrices et applications algorithmiques aux (hyper)graphes

Bergougnoux, Benjamin 13 February 2019 (has links)
Durant ces dernières décennies, d'importants efforts et beaucoup de café ont été dépensés en vue de caractériser les instances faciles des problèmes NP-difficiles. Dans ce domaine de recherche, une approche s'avère être redoutablement efficace : la théorie de la complexité paramétrée introduite par Downey et Fellows dans les années 90.Dans cette théorie, la complexité d'un problème n'est plus mesurée uniquement en fonction de la taille de l'instance, mais aussi en fonction d'un paramètre .Dans cette boite à outils, la largeur arborescente est sans nul doute un des paramètres de graphe les plus étudiés.Ce paramètre mesure à quel point un graphe est proche de la structure topologique d'un arbre.La largeur arborescente a de nombreuses propriétés algorithmiques et structurelles.Néanmoins, malgré l'immense intérêt suscité par la largeur arborescente, seules les classes de graphes peu denses peuvent avoir une largeur arborescente bornée.Mais, de nombreux problèmes NP-difficiles s'avèrent faciles dans des classes de graphes denses.La plupart du temps, cela peut s'expliquer par l'aptitude de ces graphes à se décomposer récursivement en bipartitions de sommets $(A,B)$ où le voisinage entre $A$ et $B$ possède une structure simple.De nombreux paramètres -- appelés largeurs -- ont été introduits pour caractériser cette aptitude, les plus remarquables sont certainement la largeur de clique , la largeur de rang , la largeur booléenne et la largeur de couplage induit .Dans cette thèse, nous étudions les propriétés algorithmiques de ces largeurs.Nous proposons une méthode qui généralise et simplifie les outils développés pour la largeur arborescente et les problèmes admettant une contrainte d'acyclicité ou de connexité tel que Couverture Connexe , Dominant Connexe , Coupe Cycle , etc.Pour tous ces problèmes, nous obtenons des algorithmes s'exécutant en temps $2^{O(k)}\cdot n^{O(1)}$, $2^{O(k \log(k))}\cdot n^{O(1)}$, $2^{O(k^2)}\cdot n^{O(1)}$ et $n^{O(k)}$ avec $k$ étant, respectivement, la largeur de clique, la largeur de Q-rang, la larguer de rang et la largueur de couplage induit.On prouve aussi qu'il existe un algorithme pour Cycle Hamiltonien s'exécutant en temps $n^{O(k)}$ quand une décomposition de largeur de clique $k$ est donné en entrée.Finalement, nous prouvons qu'on peut compter en temps polynomial le nombre de transversaux minimaux d'hypergraphes $\beta$-acyclique ainsi que le nombre de dominants minimaux de graphes fortement triangulés.Tous ces résultats offrent des pistes prometteuses en vue d'une généralisation des largeurs et de leurs applications algorithmiques. / In the last decades, considerable efforts have been spent to characterize what makes NP-hard problems tractable. A successful approach in this line of research is the theory of parameterized complexity introduced by Downey and Fellows in the nineties.In this framework, the complexity of a problem is not measured only in terms of the input size, but also in terms of a parameter on the input.One of the most well-studied parameters is tree-width, a graph parameter which measures how close a graph is to the topological structure of a tree.It appears that tree-width has numerous structural properties and algorithmic applications.However, only sparse graph classes can have bounded tree-width.But, many NP-hard problems are tractable on dense graph classes.Most of the time, this tractability can be explained by the ability of these graphs to be recursively decomposable along vertex bipartitions $(A,B)$ where the adjacency between $A$ and $B$ is simple to describe.A lot of graph parameters -- called width measures -- have been defined to characterize this ability, the most remarkable ones are certainly clique-width, rank-width, and mim-width.In this thesis, we study the algorithmic properties of these width measures.We provide a framework that generalizes and simplifies the tools developed for tree-width and for problems with a constraint of acyclicity or connectivity such as Connected Vertex Cover, Connected Dominating Set, Feedback Vertex Set, etc.For all these problems, we obtain $2^{O(k)}\cdot n^{O(1)}$, $2^{O(k \log(k))}\cdot n^{O(1)}$, $2^{O(k^2)}\cdot n^{O(1)}$ and $n^{O(k)}$ time algorithms parameterized respectively by clique-width, Q-rank-width, rank-width and mim-width.We also prove that there exists an algorithm solving Hamiltonian Cycle in time $n^{O(k)}$, when a clique-width decomposition of width $k$ is given.Finally, we prove that we can count in polynomial time the minimal transversals of $\beta$-acyclic hypergraphs and the minimal dominating sets of strongly chordal graphs.All these results offer promising perspectives towards a generalization of width measures and their algorithmic applications.
108

Étude de la tomodensitométrie spectrale quantitative et ses applications en radiothérapie

Simard, Mikaël 02 1900 (has links)
La tomodensitométrie par rayons-X (CT) est une modalité d’imagerie produisant une carte tridimensionnelle du coefficient d’atténuation des rayons-X d’un objet. En radiothérapie, le CT fournit de l’information anatomique et quantitative sur le patient afin de permettre la planification du traitement et le calcul de la dose de radiation à livrer. Le CT a plusieurs problèmes, notamment (1) une limitation au niveau de l’exactitude des paramètres physiques quantitatifs extraits du patient, et (2) une sensibilité aux biais causés par des artéfacts de durcissement du faisceau. Enfin, (3) dans le cas où le CT est fait en présence d’un agent de contraste pour améliorer la planification du traitement, il est nécessaire d’effectuer un deuxième CT sans agent de contraste à des fins de calcul de dose, ce qui augmente la dose au patient. Ces trois problèmes limitent l’efficacité du CT pour certaines modalités de traitement qui sont plus sensibles aux incertitudes comme la protonthérapie. Le CT spectral regroupe un ensemble de méthodes pour produire plusieurs cartes d’atténuation des rayons-X moyennées sur différentes plages énergétiques. L’information supplémentaire, pondérée en énergie qui est obtenue permet une meilleure caractérisation des matériaux analysés. Le potentiel de l’une de ces modalités spectrales, le CT bi-énergie (DECT), est déjà bien démontré en radiothérapie, alors qu’une approche en plein essor, le CT spectral à comptage de photons (SPCCT), promet davantage d’information spectrale à l’aide de détecteurs discriminateurs en énergie. Par contre, le SPCCT souffre d’un bruit plus important et d’un conditionnement réduit. Cette thèse investigue la question suivante : y a-t-il un bénéfice à utiliser plus d’information résolue en énergie, mais de qualité réduite pour la radiothérapie ? La question est étudiée dans le contexte des trois problèmes ci-haut. Tout d’abord, un estimateur maximum a posteriori (MAP) est introduit au niveau de la caractérisation des tissus post-reconstruction afin de débruiter les données du CT spectral. L’approche est validée expérimentalement sur un DECT. Le niveau de bruit du pouvoir d’arrêt des protons diminue en moyenne d’un facteur 3.2 à l’aide de l’estimateur MAP. Celui-ci permet également de conserver généralement le caractère quantitatif des paramètres physiques estimés, le pouvoir d’arrêt variant en moyenne de 0.9% par rapport à l’approche conventionnelle. Ensuite, l’estimateur MAP est adapté au contexte de l’imagerie avec agent de contraste. Les résultats numériques démontrent un bénéfice clair à utiliser le SPCCT pour l’imagerie virtuellement sans contraste par rapport au DECT, avec une réduction de l’erreur RMS sur le pouvoir d’arrêt des protons de 2.7 à 1.4%. Troisièmement, les outils développés ci-haut sont validés expérimentalement sur un micro-SPCCT de la compagnie MARS Bioimaging, dont le détecteur à comptage de photons est le Medipix 3, qui est utilisé pour le suivi de particules au CERN. De légers bénéfices au niveau de l’estimation des propriétés physiques à l’aide du SPCCT par rapport au DECT sont obtenus pour des matériaux substituts à des tissus humains. Finalement, une nouvelle paramétrisation du coefficient d’atténuation pour l’imagerie pré-reconstruction est proposée, dans le but ultime de corriger les artéfacts de durcissement du faisceau. La paramétrisation proposée élimine les biais au niveau de l’exactitude de la caractérisation des tissus humains par rapport aux paramétrisations existantes. Cependant, aucun avantage n’a été obtenu à l’aide du SPCCT par rapport au DECT, ce qui suggère qu’il est nécessaire d’incorporer l’estimation MAP dans l’imagerie pré-reconstruction via une approche de reconstruction itérative. / X-ray computed tomography (CT) is an imaging modality that produces a tridimensional map of the attenuation of X-rays by the scanned object. In radiation therapy, CT provides anatomical and quantitative information on the patient that is required for treatment planning. However, CT has some issues, notably (1) a limited accuracy in the estimation of quantitative physical parameters of the patient, and (2) a sensitivity to biases caused by beam hardening artifacts. Finally, (3) in the case where contrast-enhanced CT is performed to help treatment planning, a second scan with no contrast agent is required for dose calculation purposes, which increases the overall dose to the patient. Those 3 problems limit the efficiency of CT for some treatment modalities more sensitive to uncertainties, such as proton therapy. Spectral CT regroups a set of methods that allows the production of multiple X-ray attenuation maps evaluated over various energy windows. The additional energy-weighted information that is obtained allows better material characterization. The potential of one spectral CT modality, dual-energy CT (DECT), is already well demonstrated for radiation therapy, while an upcoming method, spectral photon counting CT (SPCCT), promises more spectral information with the help of energy discriminating detectors. Unfortunately, SPCCT suffers from increased noise and poor conditioning. This thesis thus investigates the following question: is there a benefit to using more, but lower quality energy-resolved information for radiotherapy? The question is studied in the context of the three problems discussed earlier. First, a maximum a posteriori (MAP) estimator is introduced for post-reconstruction tissue characterization for denoising purposes in spectral CT. The estimator is validated experimentally using a commercial DECT. The noise level on the proton stopping power is reduced, on average, by a factor of 3.2 with the MAP estimator. The estimator also generally con- serves the quantitative accuracy of estimated physical parameters. For instance, the stopping power varies on average by 0.9% with respect to the conventional approach. Then, the MAP estimation framework is adapted to the context of contrast-enhanced imaging. Numerical results show clear benefits when using SPCCT for virtual non-contrast imaging compared to DECT, with a reduction of the RMS error on the proton stopping power from 2.7 to 1.4%. Third, the developed tools are validated experimentally on a micro-SPCCT from MARS Bioimaging, which uses the Medipix 3 chip as a photon counting detector. Small benefits in the accuracy of physical parameters of tissue substitutes materials are obtained. Finally, a new parametrization of the attenuation coefficient for pre-reconstruction imaging is pro- posed, whose ultimate aim is to correct beam hardening artifacts. In a simulation study, the proposed parametrization eliminates all biases in the estimated physical parameters of human tissues, which is an improvement upon existing parametrizations. However, no ad- vantage has been obtained with SPCCT compared to DECT, which suggests the need to incorporate MAP estimation in the pre-reconstruction framework using an iterative reconstruction approach.
109

Traitement antibiotique sélectif au tarissement des vaches laitières

Kabera, Fidèle 07 1900 (has links)
Le traitement sélectif (TS) des vaches laitières au tarissement (où seuls les quartiers ou les vaches infectées sont traités avec des antimicrobiens) constitue une alternative potentielle au traitement universel (TU, où tous les quartiers de toutes les vaches reçoivent des antimicrobiens, quel que soit leur statut infectieux), pour une utilisation plus judicieuse des antimicrobiens. L'objectif de cette thèse était d’apporter plus de lumière sur les décisions de traitement antimicrobien ciblant les quartiers ou vaches infecté(e)s au tarissement. Différents devis et méthodologies ont été utilisés pour répondre à cet objectif. Un essai contrôlé randomisé a été conçu et 569 vaches (2,251 quartiers) provenant de 9 troupeaux laitiers du Québec avec un comptage de cellules somatiques (CCS) du réservoir <250 000 cellules/mL ont été systématiquement enrôlées et réparties au hasard dans 4 groupes : 1) traitement antimicrobien seul pour tous les quartiers ; 2) traitement antimicrobien combiné avec un scellant interne à trayon pour tous les quartiers ; 3) traitement antimicrobien sélectif seul basé sur les résultats de la culture bactériologique du lait sur Petrifilm® ; et 4) traitement antimicrobien sélectif combiné avec un scellant interne à trayon basé sur les résultats de la culture du lait sur Petrifilm®. Dans les groupes de TS, les quartiers non infectés n'ont reçu qu'un scellant interne à trayon. Aucune différence significative n'a été détectée entre le TS par quartier et le TU des vaches laitières au tarissement, en termes d'élimination des infections intramammaires (IIM) et de prévention de nouvelles IIM pendant la période de tarissement, de risque d'un premier cas de mammite clinique (MC), de production laitière moyenne quotidienne et de CCS au cours des 120 premiers jours de la lactation suivante. Un TS reposant sur les résultats d'une culture de lait de quartier sur Petrifilm® au tarissement a permis de réduire l'utilisation d'antimicrobiens de 52% (IC à 95%: 39 – 64) par rapport à un TU. En plus de cet essai contrôlé randomisé, la culture du lait par quartier à l'aide de Petrifilm® a été comparée à l'historique du CCS par une estimation bayésienne de leur précision pour identifier les quartiers ou les vaches qui devraient être traités avec des antimicrobiens dans des protocoles de TS au tarissement. Compte tenu de la disponibilité des données de CCS, de la facilité d'utilisation du dernier test de CCS pré-tarissement et de la valeur prédictive négative élevée qui pourrait être obtenue, les producteurs pourraient envisager d'utiliser uniquement le dernier test de CCS pré-tarissement comme outil potentiel pour identifier les vaches qui devraient être traitées avec des antimicrobiens au tarissement. Le dernier test de CCS pré-tarissement peut être utilisé seul ou en combinaison avec la culture de lait par quartier sur Petrifilm® sur les vaches avec un CCS élevé pour identifier encore plus spécifiquement les quartiers qui doivent être traités. L'ajout d'une culture de lait par quartier à la ferme sur Petrifilm® pour les vaches identifiées comme infectées à l'aide des données du CCS améliorerait la précision du test (principalement la valeur prédictive positive) et réduirait davantage l'utilisation d'antimicrobiens. Également, une revue systématique et une série de méta-analyses ont été menées pour étudier l'efficacité du TS par rapport au TU, afin de guider les décideurs et les utilisateurs qui s'engagent dans une utilisation plus efficace et judicieuse des antimicrobiens au moment du tarissement. Treize articles représentant 12 essais contrôlés, randomisés ou non, étaient disponibles pour les analyses. Le TS a permis de réduire de 66% (IC à 95%: 49 – 80) l'utilisation d'antimicrobiens au moment du tarissement. Les résultats appuient fortement l'idée que le TS réduirait l'utilisation d'antimicrobiens au moment du tarissement, sans effet négatif sur la santé du pis ou la production laitière au cours des premiers mois de la lactation subséquente, si, et seulement si, les scellant internes à trayons sont utilisés pour les quartiers non traités avec des antimicrobiens. Enfin, le suivi de l'utilisation d'un scellant interne à trayon a été effectué pour déterminer la proportion de quartiers qui ont conservé le bouchon de scellant jusqu’à la première traite après le vêlage et la persistance de résidus de scellant dans le lait après le vêlage. Un bouchon de scellant était présent jusqu'à la première traite pour 83% des quartiers, et nous pourrions émettre l'hypothèse que la perte du bouchon s'est produite près du vêlage secondaire à la tétée ou pour une autre raison (ex., la pression hydrostatique du lait), étant donné que les associations observées entre la présence ou non d'un bouchon de scellant observable et les chances de nouvelles IIM étaient relativement faibles. Les résidus de scellant pouvaient être observés dans le lait jusqu'à 12 jours après le vêlage, quoique 75% des quartiers n’excrétaient plus de scellant au bout de 5 jours en lait. / Selective dry cow therapy (SDCT, in which only infected quarters or cows are treated with antimicrobials) represents an alternative to blanket dry cow therapy (BDCT, in which all quarters of all cows at dry off are treated with antimicrobials, regardless of their infection status), for a more judicious use of antimicrobials. The objective of this thesis was to shed more light on targeted antimicrobial treatment decisions of infected quarters or cows at dry-off. Different study designs and methodologies were used to meet this objective. A randomized controlled trial was designed and a total of 569 cows (2,251 quarters) from 9 dairy herds in Québec with bulk tank somatic cell count (SCC) <250,000 cells/mL were systematically enrolled and randomly allocated to 4 groups: 1) antimicrobial treatment alone of all quarters; 2) antimicrobial treatment combined with an internal teat sealant (ITS) of all quarters; 3) selective antimicrobial treatment alone based on milk bacteriological culture results on Petrifilm®; and 4) selective antimicrobial treatment combined with an ITS based on milk culture results on Petrifilm®. In the selective antimicrobial treatment groups, uninfected quarters received only an ITS. No significant differences were detected between quarter-based selective and blanket dry cow therapies, in terms of elimination of intramammary infections (IMI) and prevention of new IMI during the dry period, risk of a first case of clinical mastitis (CM), daily average milk yield and somatic cell count in the first 120 days of the subsequent lactation. A selective antimicrobial treatment relying on results of quarter milk culture using Petrifilm® at dry off enabled a reduction in antimicrobial use of 52% (95% CI: 39 – 64) as compared to blanket dry cow treatment. In addition to this randomized controlled trial, quarter milk culture using Petrifilm® was compared with SCC history through a Bayesian estimation of diagnostic accuracy to identify quarters or cows that should be treated with antimicrobials in selective treatment protocols at dry off. Considering the availability of SCC data, the easiness of using just the last Dairy Herd Improvement (DHI) test before dry off, and the high negative predictive value that could be achieved, producers may consider using just the last DHI test before dry off results as a potential tool to identify cows that should be treated with antimicrobials at dry off. The last SCC test before 7 dry off may be used alone or in combination with quarter-level on-farm Petrifilm® milk culture on high SCC cows to more specifically identify quarters that need to be treated. Adding quarter-level milk culture using Petrifilm® to cows identified as unhealthy using cow-level SCC data could improve the test accuracy (mainly the positive predictive value) and further reduced the use of antimicrobials. Also, a systematic review and a series of meta-analyses were conducted to investigate the efficacy of SDCT compared with BDCT, to guide decision-makers and users to engage in a more effective and judicious use of antimicrobials at dry-off. Thirteen articles representing 12 controlled trials, randomized or not, were available for analyses. SDCT reduced the use of antimicrobials at dry off by 66% (95% CI: 49 – 80). Evidences strongly support that SDCT would reduce the use of antimicrobials at dry off, without any detrimental effect on udder health or milk production during the first months of the subsequent lactation, if, and only if, ITS are used for healthy quarters untreated with antimicrobials. Finally, a follow up on the use of ITS was performed to determine the proportion of quarters that had retained the sealant plug until the first milking after calving and the persistence of ITS residues in milk after calving. A sealant plug was present at first milking after calving for 83% of the quarters, and we could hypothesize that the loss of the plug occurred closely around calving due to suckling or for another reason (e.g., milk hydrostatic pressure), since the observed associations between the presence or not of an observable sealant plug and the odds of new IMI were relatively small. The sealant residues could be observed in milk up to 12 days in milk, although 75% of the quarters had expelled the last ITS residues by 5 days in milk.
110

Impacts de l’utilisation de litière de fumier recyclé sur la santé des vaches laitières et la qualité du lait

Fréchette, Annie 12 1900 (has links)
La litière de fumier recyclé (LFR) est utilisée dans les fermes laitières québécoises depuis quelques années, et ce, malgré le manque de connaissances scientifiques quant aux risques reliés à l’utilisation de ce produit pour la santé des animaux. Le premier objectif de cette thèse était de décrire les méthodes de production de LFR dans un contexte québécois et les pratiques de régie associées. Le deuxième objectif du projet consistait à déterminer le potentiel de recroissance de certaines espèces bactériennes dans la LFR lorsqu’elle est contaminée. Par la suite, le niveau de propreté et la prévalence de lésions aux jarrets chez les vaches laitières exposées ou non à ce produit ont été estimés. Finalement, l’association entre l’utilisation de LFR et l’incidence de mammite sous-clinique et clinique a été évaluée. Des études observationnelles cohorte ou transversale (selon l’objectif de recherche) ont été réalisées en 2018-2019 sur 27 fermes utilisant de la LFR et 61 fermes utilisant de la litière de paille, à titre comparatif. Les visites de fermes ont permis de constater que les méthodes utilisées pour produire de la LFR n’étaient pas standardisées et qu’elles ne permettaient pas un réel compostage de la fraction solide du fumier. Les essais de recroissance ont permis de démontrer que les différentes LFR (traitée en tas, contenant fermé ou cuve rotative) ne réagissaient pas de la même façon à une inoculation par des coliformes. La LFR de cuve rotative contenait une plus faible concentration initiale de Klebsiella spp. et a montré une croissance bactérienne significative dans les premières 24 h post-inoculation. Les LFR conditionnées dans des tas ou contenants avaient quant à elles une concentration initiale importante de Klebsiella spp. et n’ont pas démontré de croissance bactérienne significative suivant leur inoculation, ce qui suggère un effet de saturation de croissance bactérienne. Au cours de l’étude transversale, 30 vaches par troupeau, en moyenne, ont été notées à l’aide d’un score de propreté sur trois zones du corps ainsi que d’un score sur l’état des jarrets, afin d’estimer leur propreté et la présence de lésions aux jarrets. Le score de propreté attribué à chaque zone du corps des vaches allait de 1 à 4, 1 étant très propre et 4 très sale. Nous avons observé que les vaches logées sur LFR avaient, en général, une meilleure propreté du pis et du bas des pattes que celles logées sur paille. La LFR avait un effet protecteur pour le risque d’avoir un score de propreté du pis ≥ 3 (rapport de cotes (RC) : 0,43) ou d’avoir un score de 4 (RC : 0,29). Les vaches logées sur LFR avaient aussi le bas des membres plus propres que celles logées sur paille avec de plus faibles cotes d’avoir un score ≥ 2 (RC : 0,45), un score ≥ 3 (RC : 0,16) ou un score de 4 (RC : 0,07). Cependant, nous n’avons pas trouvé de différence entre les deux groupes d’animaux au niveau de la propreté du flanc et du haut des pattes. Lors de leur évaluation pour la propreté, les vaches ont aussi été notées à l’aide d’un score de lésions aux jarrets allant de 0 à 3. Un score de 0 représentait un jarret parfaitement sain alors qu’un score de 3 était attribué à un jarret présentant une enflure de plus de 2,5 cm. Les deux jarrets étaient évalués et le jarret ayant reçu le score le plus élevé était inclus dans les analyses. Nous n’avons pas identifié de différence quant aux scores de jarret entre les deux groupes d’animaux. Afin d’évaluer la santé de la glande mammaire, une étude cohorte d’une durée d’un an a été mise en place à partir de la visite de la ferme. Les dynamiques de comptages de cellules somatiques ont été suivies sur 11 031 vaches durant cette période afin d’analyser l’incidence de mammite sous-clinique. Nous n’avons pas été en mesure de détecter une différence d’incidence entre les deux groupes d’animaux. Au cours de l’étude cohorte, les producteurs laitiers ont identifié et fait parvenir au laboratoire 1 144 échantillons de lait provenant de vaches atteintes de mammites cliniques. L’incidence totale de mammite clinique n’était pas plus élevée dans les fermes LFR qu’au sein des fermes paille. Cependant, lorsque nous avons analysé l’incidence de mammite clinique par agent pathogène spécifique, nous avons pu constater que les vaches logées sur LFR étaient 7,0 fois plus à risque d’expérimenter une mammite clinique causée par Klebsiella pneumoniae que celles du groupe comparatif. / Recycled manure solids (RMS) bedding has been used on Quebec dairy farms for a number of years, despite the lack of scientific knowledge about the health risks associated with the use of this product for animals. The first objective of this thesis was to describe the RMS production methods in a Quebec context and the associated management practices. The second objective of the project was to determine the potential for regrowth of certain bacterial species in the RMS when it is contaminated. Subsequently, the level of cleanliness and prevalence of hock lesions in dairy cows exposed or not to this product were estimated. Finally, the association between RMS use and the incidence of subclinical and clinical mastitis was evaluated. Observational cohort or cross-sectional studies (depending on the research objective) were conducted in 2018-2019 on 27 farms using RMS and 61 farms using straw bedding for comparison. The farm visits highlighted that the methods used to produce RMS were not standardized and did not allow for true composting of the manure solid fraction. The regrowth trials showed that different RMS (treated in heap, closed container or rotating drum) did not react in the same way to coliform inoculation. The rotating drum RMS contained a lower initial concentration of Klebsiella spp. and experienced significant bacterial growth in the first 24 hours post-inoculation. The heap or closed container RMS had a high initial concentration of Klebsiella spp. and did not show significant bacterial growth following inoculation, suggesting a saturation effect on bacterial growth. In the cross-sectional study, an average of 30 cows were measured using a cleanliness score on three body areas as well as a hock lesion score to estimate their cleanliness and the presence of hock lesions. The cleanliness score assigned to each area of the cows' body ranged from 1 to 4, with 1 being very clean and 4 being very dirty. We found that cows housed on RMS generally had better udder and lower leg cleanliness than those housed on straw. Recycled manure solids bedding had a protective effect for the risk of having an udder cleanliness score ≥ 3 (odds ratio (OR): 0,43) or having a score of 4 (OR: 0,29). Cows housed on RMS also had cleaner lower legs than those housed on straw with lower odds of having a score ≥ 2 (OR: 0,45), a score ≥ 3 (OR: 0,16) or a score of 4 (OR: 0,07). However, we found no difference between the two groups of animals in flank and upper leg cleanliness. When they were evaluated for cleanliness, cows were also measured using a hock lesion score ranging from 0 to 3. A score of 0 represented a perfectly healthy hock, while a score of 3 was assigned to a hock with swelling greater than 2.5 cm. Both hocks were scored and the hock with the higher score was included in the analyses. We did not identify any difference regarding hock lesions between the two groups of animals. To assess mammary gland health, a one-year cohort study was set up from the farm visit. Somatic cell count dynamics were followed on 11 031 cows during this period to analyze the incidence of subclinical mastitis. We were not able to detect a difference in incidence between the two groups of animals. During the cohort study, dairy farmers identified and sent to the laboratory 1 144 milk samples from cows with clinical mastitis. The total incidence of clinical mastitis was not higher on RMS farms than on straw farms. However, when we analyzed the incidence of clinical mastitis by specific pathogen, we found that cows housed on RMS were 7.0 times more likely to experience clinical mastitis caused by Klebsiella pneumoniae than those in the comparison group.

Page generated in 0.0343 seconds