• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 366
  • 155
  • 26
  • 2
  • Tagged with
  • 544
  • 282
  • 155
  • 130
  • 120
  • 114
  • 98
  • 71
  • 71
  • 63
  • 52
  • 51
  • 45
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Signal acoustique et activité thermique dans les lacs de cratère de volcans actifs. Réalisation d'une station de mesure hydroacoustique au Taal (Philippines)

Poussielgue, Nicolas 23 February 1998 (has links) (PDF)
Afin d'étudier les variations temporelles du signal acoustique dans un lac de cratère nous avons réalisé une station de mesure permanente et l'avons installée en novembre 1994 dans le lac de cratère du volcan Taal (philippines). Cette station acquiert tous les quarts d'heure des échantillons temporels du signal acoustique (à 40 mètres de profondeur) dans trois bandes de fréquences différentes: BF(<500hz), MF (<12,5 kHz) et HF(<500kHz). Le traitement des données permet la représentation d'un sonogramme. Une variation importante du signal acoustique a été induite par le séisme de Mindoro (magnitude 7. 1 ) du 15 Novembre 1994 situé à 46 km du Taal. La puissance thermique apportée au lac chute brutalement de 50%, le débit gazeux est ralenti de 1/10° . Les flux liquide et gazeux ne reviennent à leur état initial que 5 jours après. On assiste à un phénomène transitoire qui touche tous les paramètres mesurés : déformations, acoustique, thermique. A partir des données de la température du lac de cratère du Taal et des valeurs météorologiques, un calcul de l'apport énergétique de l'édifice volcanique au lac de cratère de 1990 à 1995 permet de mettre en évidence la reprise d'activité du volcan Taal depuis 1990, la puissance thermique mesurée passant de 50MW à 250MW. Le flux gazeux mesuré ne suffisant pas pour apporter une telle puissance, que ce soit au TaaI ou au Ruapehu, nous concluons que la chaleur est apportée majoritairement par des échanges liquides. Nous montrons par ailleurs que les variations de l'inclinaison du volcan sont fortement corrélées avec les variations de la puissance thermique. La mesure du signal acoustique en milieu volcanique est donc une méthode prometteuse qui mérite d'être mise en oeuvre dans d'autres édifices volcaniques.
422

Analyse de la variabilité de la fonction de transfert d'un bassin versant et développement d'un modèle conceptuel faiblement paramétré, le modèle Storhy : application au bassin du Réal Collobrier

Neyret-Gigot, Jean Marc 09 October 1992 (has links) (PDF)
Celte étude entre dans le cadre de l'approche globale de la relation pluie- débit décomposant les mécanismes de transformation de la pluie en débit en Fonction de Transfert et Fonction de Production. On s'interroge sur l'aptitude des fonctions de transfert de type Hydrogramme Unitaire à bien reproduire les débits. En un premier temps, on cherche pour cela à identifier, sur un bassin méditerranéen du Sud de la France et sur un bassin sahélien, quels sont les facteurs provoquant la variabilité de la Fonction de Transfert. En utilisant une approche corrélative ainsi que la méthode DPFT, on montre que la Fonction de Transfert, surtout dans sa phase décroissante, est sensible aux conditions antérieures et à la pluviométrie de l'épisode; le temps de montée au pic étant un élément relativement stable. En un deuxième temps, on cherche à identifier une Fonction de Transfert débarrassée de la phase décroissante non invariante et on propose un modèle où la Fonction de Production, de type réservoir, explique la phase de récession des hydrogrammes. Grâce à des techniques d'optimisation adaptées et à l'emploi de tests de sensibilité, divers jeux de paramètres sont proposés et utilisés sur différents bassins versants. Les meilleures reconstitutions sont obtenues avec un réservoir à vidange non linéaire dont les caractéristiques sont liées au débit initial et à la pluie, le transfert se réduisant à un simple décalage. Ce modèle conceptuel simple et faiblement paramétré fournit des résultats intéressants et offre la possibilité de développements futurs.
423

Conséquences de l’acclimatation à différents régimes thermiques sur les taux métaboliques standards des tacons du saumon de l’Atlantique(Salmo salar)

Beauregard, David 06 1900 (has links)
Les poissons vivant au sein d’une rivière sont soumis à des variations circadiennes de température pouvant influencer la croissance, la digestion et le métabolisme standard. Les modèles bioénergétiques utilisant les fonctions métaboliques pour déterminer la croissance d’un poisson ont souvent été élaborés avec des poissons acclimatés à des températures constantes. Ces modèles pourraient sous-estimer l’énergie dépensée par un poisson soumis à des températures fluctuantes. En utilisant la respirométrie par débit intermittent, les objectifs de ce travail étaient : (1) de quantifier les différences entre les taux métaboliques standards de poissons acclimatés à une température constante (20.2 oC ± 0.5 oC) et à des fluctuations circadiennes de température (19.8 oC ± 2.0 oC; 19.5 oC ± 3.0 oC) et (2) comparer deux méthodologies pour calculer les taux métaboliques standards de poissons sujets aux fluctuations circadiennes de températures : respirométrie (a) en température constante ou (b) en température fluctuante. Les poissons acclimatés à des fluctuations circadiennes de température ont des taux métaboliques standards plus élevés que des poissons acclimatés à une température constante. À 20.2 oC ± 0.5 oC, les taux métabolique standards ont été de 25% à 32% plus bas pour des poissons maintenus à une température constante que pour des poissons gardés sous des fluctuations circadiennes de température. Les méthodologies utilisées pour estimer les taux métaboliques standards de poissons sujets aux fluctuations de température offrent des résultats similaires. / Fish that inhabits river are subjected to circadian fluctuations in water temperature. These fluctuations can influence growth, digestion and metabolic processes. Bioenergetic models are traditionally modeled using data recorded from fish kept at constant water temperatures. These models could underestimate the energy spent by fish subjected to fluctuating temperatures. Thus, with intermittent-flow respirometry, the objectives of this study were to: (1) quantify the differences between standard metabolic rates of fish acclimatized to a constant temperature (20.2 oC ± 0.5 oC) and two circadian fluctuating temperatures (19.8 oC ± 2.0 oC; 19.5 oC ± 3.0 oC) and (2) compare two methodology for calculate standard metabolic rates of fish subjected to circadian fluctuating temperatures: intermittent-flow respirometry with (a) constant temperature or (b) fluctuating temperatures. Fish held at circadian fluctuating temperatures have higher standard metabolic rates than fish acclimatized to a constant temperature. At 20.2 oC ± 0.5 oC, standard metabolic rates was 25% to 32% lower for fish held at constant temperature than for fish held under circadian fluctuations. However, results of the two different strategies used to calculate standard metabolic rates of fish subjected to circadian fluctuating temperatures did not differ.
424

Régulations homéostatiques cardiovasculaires suite à une transfusion par échange avec du sang hyperagrégeant chez le rat

Vanier, Julie 12 1900 (has links)
Dans le but de vérifier l’impact d’un changement soudain dans l’agrégation érythrocytaire sur certains paramètres cardiovasculaires, une transfusion par échange sanguin du tiers du volume a été effectuée avec du sang hyperagrégeant chez le rat de souche Brown Norway. La pression caudale, le volume cardiaque systolique, la fraction d’éjection, le débit cardiaque, le rythme cardiaque et la résistance périphérique à l’écoulement sanguin ont été observés non-intrusivement sur 19 jours suite à la transfusion. Les rats ont été sacrifiés plus d’un mois suivant la transfusion et une étude ex vivo de la réponse à deux agents dilatateurs (l’acétylcholine et le nitroprussiate de sodium) a été menée sur les artérioles mésentériques. Des variations des paramètres cardiovasculaires, soit le débit, le volume systolique et la résistance périphérique, ont été remarquées dans les trois premiers jours posttransfusion. Une résistance du muscle vasculaire lisse au monoxyde d’azote a été notée chez les rats transfusés au sang hyperagrégeant alors qu’aucune dysfonction endothéliale n’était apparente en réponse à l’acétylcholine. / The aim of this study was to evaluate the effects of an acute change in erythrocyte aggregation on cardiovascular parameters by exchanging one third of the blood volume with hyperaggregating blood in the Brown Norway rat model. Values of caudal pressure, systolic cardiac volume, ejection fraction, cardiac output, heart rate and peripheral resistance to blood flow were observed non-invasively over 19 days after transfusion. The rats were sacrificed after more than a month following the procedure and an ex vivo study in response to pharmacological agents (acetylcholine and sodium nitroprussiate) was performed on mesenteric arterioles. Variations in cardiac output, systolic volume and peripheral resistance were noted for the first three days post-transfusion. The vascular smooth muscles of rats transfused with the hyperaggregating erythrocytes seemed to have developed a resistance to nitric oxide but no endothelial dysfunction was observed in response to acetylcholine.
425

Pharmacologie des variations de débit sanguin oculaires chez le rat au moyen de la débitmétrie au laser par effet Doppler

Hétu, Simon 01 1900 (has links)
La débitmétrie au laser à effet Doppler (LDF) constitue une méthode prometteuse et non-invasive pour l'étude du débit sanguin local dans l'œil. Cette technique est basée sur un changement de fréquence subi par la lumière lors du mouvement des globules rouges dans les vaisseaux. Une nouvelle sonde LDF a été testée pour sa sensibilité à évaluer la circulation rétinienne/choroïdienne sous des conditions hypercapniques et en présence de diverses substances vasoactives ou suivant la photocoagulation des artères rétiniennes chez le rat. Après dilatation pupillaire, la sonde LDF a été placée en contact avec la cornée de rats anesthésiés et parallèle à l'axe optique. L'hypercapnie a été provoquée par inhalation de CO2 (8% dans de l'air médical), alors que les agents pharmacologiques ont été injectés de façon intravitréenne. La contribution relative à la circulation choroïdienne a été évaluée à la suite de la photocoagulation des artères rétiniennes. Le débit sanguin s'est trouvé significativement augmenté à la suite de l'hypercanie (19%), de l'adénosine (14%) ou du nitroprusside de sodium (16%) comparativement au niveau de base, alors que l'endothéline-1 a provoqué une baisse du débit sanguin (11%). La photocoagulation des artères rétiniennes a significativement diminué le débit sanguin (33%). Des mesures en conditions pathologiques ont ensuite été obtenues après l'injection intravitréenne d'un agoniste sélectif du récepteur B1 (RB1). Ce récepteur des kinines est surexprimé dans la rétine des rats rendus diabétiques avec la streptozotocine (STZ) en réponse à l'hyperglycémie et au stress oxydatif. Les résultats ont montré que le RB1 est surexprimé dans la rétine chez les rats diabétiques-STZ à 4 jours et 6 semaines. À ces moments, le débit sanguin rétinien/choroïdien a été significativement augmenté (15 et 18 %) après l'injection de l'agoniste, suggérant un effet vasodilatateur des RB1 dans l'œil diabétique. Bien que la circulation choroïdienne contribue probablement au signal LDF, les résultats démontrent que le LDF représente une technique efficace et non-invasive pour l'étude de la microcirculation rétinienne in-vivo en continu. Cette méthode peut donc être utilisée pour évaluer de façon répétée les réponses du débit sanguin pendant des modifications métaboliques ou pharmacologiques dans des modèles animaux de maladies oculaires. / Laser Doppler Flowmetry (LDF) is a promising, non-invasive technique to assess local ocular blood flow. This technique is based on a Doppler frequency shift of the backscattered light due to the movement of the red blood cells in the vessels. A new LDF probe was tested for its sensitivity to assess the retinal/choroidal blood flow variations in response to hypercapnia, diverse vasoactive agents and following retinal arteries photocoagulation in the rat. After pupil dilation, a LDF probe was placed in contact to the cornea of anesthetised rats in the optic axis. Hypercapnia was induced by inhalation of CO2 (8% in medical air) while pharmacological agents were injected intravitreously. The relative contribution of the choroidal circulation to the LDF signal was determined after retinal artery occlusion by photocoagulation. Blood flow was significantly increased by hypercapnia (19%), adenosine (14%) and sodium nitroprusside (16%) as compared to baseline values while endothelin-1 decreased blood flow (11%). Photocoagulation of retinal arteries significantly decreased blood flow level (33%). Measurements in pathological conditions were then obtained after intravitreal injections of a B1R agonist. This kinin receptor is overexpressed in the retina of streptozotocin (STZ) diabetic rats in response to hyperglycaemia and oxidative stress. Data showed that B1R was upregulated in the STZ-diabetic retina at 4 days and 6 weeks. At these time points, retinal/choroidal blood flow was significantly increased (15 and 18 %) upon injection of the agonist, suggesting a vasodilatory effect of B1R in the diabetic eye. Although choroidal circulation most likely contributes to the LDF signal in this setting, the results demonstrate that LDF represents a suitable in vivo non-invasive technique to monitor online relative changes of retinal microcirculation. This technique could be used for repeatedly assessing blood flow reactivity to metabolic or pharmacologic challenges in rodent models of ocular diseases.
426

Prévention, contre-prévention et analyse d’impact : le cas du clonage de carte de débit

Wolfshagen, Paul-Alexandre 04 1900 (has links)
Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires. / Context and objectives. Each year, economic crimes generate important economic and social losses. Many enterprises, including private enterprises, collaborated and introduced initiatives in order to combat this criminality. Fraud using automated payment cards is a crime in full expansion against which many organizations have taken actions. The objective of this dissertation is, on one hand, to improve the knowledge on the impact of preventive measures implemented in the branches of a retailer and, on the other hand, to estimate their impact on the criminal decision-making process. Methodology. The effect of preventive measures is assessed through interrupted time series analysis. In addition, members the retailer security staff were interviewed and a review of event reports associated with debit card fraud was performed. Results. The preventive measures were associated to various results. Depending on the preventive measure, one can observe either an increase or a decrease in the number of crimes performed. It is also observed that some measures have resulted in tactical and spatial displacements. Some offenders have also started to commit other types of crimes. Conclusion. The results suggest that the preventive measures implemented had a significant preventive effect on debit card crimes. However, the presence of many types of displacement shows that the offenders have adjusted to those preventive measures. In order to properly document this type of crime and associated displacements, additional studies are necessary.
427

Relation entre la structure et la fonction des artères cérébrales dans l’athérosclérose : impact des traitements cardioprotecteurs

Bolduc, Virginie 12 1900 (has links)
Le processus de l’athérosclérose est associé à des changements vasculaires structuraux et mécaniques dont la rigidification carotidienne et aortique. Ce phénomème est bien connu et contraste avec l’augmentation paradoxale de la distensibilité cérébrovasculaire observée dans les artères cérébrales exposées aux facteurs de risque cardiovasculaire, tels que l’hypertension. L’impact de l’athérosclérose sur le remodelage, la compliance et la fonction des artères cérébrales est inconnu. En ciblant l’endothélium, l’athérosclérose induit une dysfonction endothéliale cérébrale sévère qui interfère avec le contrôle du débit sanguin cérébral et ultimement avec les fonctions cognitives. Dans les artères cérébrales, le remodelage de la paroi artérielle est toujours accompagné d’une perte des fonctions vasodilatatrices, ce qui suggère que ces deux évènements sont au cœur d’un cercle vicieux. Nos études visent à vérifier l’hypothèse selon laquelle le remodelage de la paroi est déterminé par la fonction endothéliale au niveau cérébrovasculaire alors qu’au niveau de la carotide, le stress mécanique du pouls sanguin régule les propriétés structurales et biomécaniques. Afin de vérifier cette hypothèse, dans une première étude, nous avons sélectionné trois interventions thérapeutiques aux mécanismes d’action différents qui modulent la fonction endothéliale indirectement en diminuant le stress mécanique exercé sur la paroi via une diminution de la fréquence cardiaque. Suite à un traitement chronique de trois mois chez la souris athérosclérotique, LDLr-/-; hApoB-100+/+, l’efficacité de l’ivabradine, du métoprolol et de l’exercice physique volontaire dans la prévention de l’augmentation de la compliance cérébrovasculaire s’est avérée proportionnelle à l’étendue des bénéfices sur la fonction endothéliale. La rigidification carotidienne n’a été prévenue que par les interventions qui réduisent vraiment la fréquence cardiaque, c’est-à-dire l’ivabradine et le métoprolol. Dans une deuxième étude, nous avons confirmé nos résultats en utilisant un traitement antioxydant dans le but de cibler plus directement l’endothélium. La catéchine ne réduit pas la fréquence cardiaque, mais elle est reconnue pour protéger l’endothélium cérébral en neutralisant le stress oxydant. Ainsi, la carotide est restée rigide alors que le remodelage cérébral a été prévenu. Une technique d’imagerie novatrice, la tomographie par cohérence optique, nous a permis de valider nos observations in vivo et de proposer que la catéchine prévient l’hypoperfusion du cerveau en protégeant la fonction endothéliale et l’intégrité de la paroi vasculaire cérébrale. Finalement, les deux études identifient la métalloprotéinase de type 9 comme un joueur potentiellement impliqué dans l’augmentation de la compliance cérébrovasculaire. Nos études démontrent que les changements structuraux et biomécaniques affectant la paroi des artères cérébrales sont indubitablement dépendants de l’endothélium alors que dans la carotide, le stress mécanique est le paramètre le plus déterminant. Somme toute, en protégeant indirectement l’endothélium cérébral on empêche les processus de remodelage, telle que l’activation de la métalloprotéinase de type 9. De nombreuses études ont suggéré l’implication des dysfonctions cérébrovasculaires dans la maladie d’Alzheimer. En effet, les affections vasculaires qui compromettent chroniquement le débit sanguin cérébral, telles la dysfonction endothéliale et la réduction de la lumière artérielle, vont entraîner un déficit métabolique des neurones à l’origine de la neurodégénérescence. Les traitements préventifs cardioprotecteurs, tels que l’ivabradine, l’exercice physique et la catéchine améliorent la fonction endothéliale, la structure et la biomécanique des artères cérébrales, et pourraient donc prévenir l’hypoperfusion chronique du cerveau et le déclin cognitif dans l’athérosclérose. / Large artery stiffness and endothelial dysfunction are markers of atherosclerosis. Stiffening of the carotid arteries contrast with the paradoxical increase in distensibility of cerebral arteries that was reported in the presence of risk factors for cardiovascular diseases, such as hypertension. However, our knowledge concerning the influence of atherosclerosis on cerebrovascular compliance and structure remains incomplete. By targeting the endothelium, atherosclerosis induces a severe cerebral endothelial dysfunction affecting chronically the cerebral blood flow and potentially leading to cognitive dysfunctions. Few studies have shown that the paradoxical increase in cerebrovascular distensibility is consistently reported in animal model of risk factors for cardiovascular diseases exhibiting a cerebral endothelial dysfunction. That being said, we hypothesized that the compliance and structure of cerebral arteries is essentially controlled by the endothelium. To validate our hypothesis, in a first study, we selected three distinct therapeutic approaches that modulated the cerebral endothelial function and the mechanical stress imposed to the vascular wall by lowering heart rate in a mouse model of atherosclerosis, LDLr-/-; hApoB-100+/+ during three months. Ivabradine, metroprolol and voluntary physical training protected, with different efficiencies, the cerebral flow-mediated dilation and this was reflected by a prevention, or not, of the increase in compliance. A 13.5 % heart rate reduction with ivabradine and metoprolol limited carotid artery stiffening. Voluntary physical training did not induce an overall reduction of heart rate explaining the lack of effect on carotid mechanics and suggesting that carotids compliance is more influenced by the mechanical stress imposed to the vascular wall by the cardiac cycle. In a second study, we confirmed our previous findings using a diatery approach that targeted more directly the endothelium, the polyphenol antioxidant catechin. Catechin was previously proven, by us and others, to reverse endothelial dysfunction, reduce inflammation and neutralize reactive oxygen species in diverse vascular beds from animal models of atherosclerosis. Accordingly, we found that catechin prevents adverse cerebral wall remodeling but, again, without a significant heart rate reduction, carotids remained stiff. We also integrated a new live imaging technology allowing us to confirm our findings in vivo and to demonstrate that endothelial, structural and mechanical protection by catechin can result in an improvement of basal cerebral blood flow. Finally, both studies identified metalloproteinase -9 as a potential player in the process leading the weakening of the cerebral artery walls. Taken together, our studies highlight that structural and biomechanical alterations are genuinely triggered by endothelial dysfunction. In carotids, mechanicals stress seems to be the main factor controlling remodeling. In essence, indirect protection of the endothelium impedes in cerebral vessels the remodeling processes, such as the activation of metalloproteinase -9. Numerous studies have revealed that vascular, especially cerebral endothelial dysfunction is implicated in the pathogenesis of Alzheimer’s disease. When brain perfusion is compromised, the suboptimal energy delivery causes neuronal death. Deleterious cerebrovascular outcomes that promote the impairment of vasodilation and the encroachment of the lumen will limit cerebral blood flow in a chronic manner. Chronic treatment with ivabradine, voluntary physical training and catechin preserved the endothelial function, the structure and the mechanics of cerebral arteries, which guarantees a closer management of cerebral blow flow in atherosclerotic mice and a reduce propensity to develop cognitive deficiency. / Thèse réalisée en cotutelle avec Dre Christine Des Rosiers
428

Approches bioinformatiques pour l'assessment de la biodiversité

Riaz, Tiayyba 23 November 2011 (has links) (PDF)
Cette thèse s'intéresse à la conception et le développement des techniques de bioinfor- matique qui peuvent faciliter l'utilisation de l'approche metabarcoding pour mesurer la diversité d'espèces. Le metabarcoding peut être utilisé avec le séquencage haut débit pour l'identification d'espèces multiples à partir d'un seul échantillon environnemental. La véritable force du metabarcoding réside dans l'utilisation de barcode marqueurs choisi pour une étude particulière et l'identification d'espèces ou des taxons peut être réalisé avec des marqueurs soigneusement conçu. Avec l'avancement des techniques haut débit de séquençage, une énorme quantité des données de séquences est produit qui contient un nombres substantiel des mutations. Ces mutations posent un grand problème pour les estimations correctes de la biodiversité et pour le d'assignation de taxon. Les trois problèmes majeurs dans le domaine de la bioinformatique que j'ai abordés dans cette thèse sont: i) évaluer la qualité d'une barcode marker , ii) concevoir des nouveaux région barcode et iii) d'analyser les données de séquençage pour traiter les erreurs et éliminer le bruit en séquences. Pour évaluer la qualité d'un barcode marker, on a développé deux mesures quantita- tive,formelle: la couverture (Bc) et la spécificité (Bs). La couverture donne une mesure de universalité d'une pairs de primer pour amplifier un large nombre de taxa, alors que la spécificité donne une mesure de capacité à discriminer entre les différents taxons. Ces mesures sont très utiles pour le classement des barcode marker et pour sélectionner les meilleurs markers. Pour trouver des nouveaux région barcode notamment pour les applications metabarcod- ing, j'ai développé un logiciel, ecoPrimers3. Basé sur ces deux mesures de qualité et de l'information taxinomique intégré, ecoPrimers nous permet de concevoir barcode markers pour n'importe quel niveau taxonomique . En plus, avec un grand nombre de paramètres réglables il nous permet de contrôler les propriétés des amorces. Enfin, grâce a des algorithmes efficaces et programmé en langage C, ecoPrimers est suffisamment efficace pour traiter des grosses bases de données, y compris génomes bactériens entièrement séquencés. Enfin pour traiter des erreurs présentes dans les données de séquencage , nous avons analysé un ensemble simple d'échantillons de PCR obtenus à partir de l'analyse du régime alimentaire de Snow Leopard. En mesurant les corrélations entre les différents paramètres des erreurs, nous avons observé que la plupart des erreurs sont produites pendant l'amplification par PCR. Pour détecter ces erreurs, nous avons développé un algorithme utilisant les graphes, qui peuvent différencier les vrai séquences des erreurs induites par PCR. Les résultats obtenus à partir de cet algorithme a montré que les données de-bruitée a donnent une estimation réaliste de la diversité des espèces étudiées dans les Alpes françaises.
429

Stratégies d'encodage pour codeur vidéo scalable

Pitrey, Yohann 16 September 2009 (has links) (PDF)
Les travaux de cette thèse ont pour but de développer des stratégies de régulation de débit pour le codage vidéo scalable MPEG-4 SVC. Plusieurs approches sont proposées, en fonction des besoins en termes de précision et de la complexité désirée. La qualité du flux vidéo décodé est également prise en compte afin d'améliorer l'impression visuelle. La multiplication des moyens de transmission et la diversification des appareils capables de lire du contenu vidéo contraignent les diffuseurs à dépenser beaucoup de temps et de moyens pour être en mesure de fournir une qualité de vidéo optimale quel que soit le contexte. La vidéo scalable a été développée en réponse à ce besoin d'adaptation des contenus vidéo aux différents contextes de diffusion. Le standard H.264/MPEG-4 SVC (Scalable Video Coding) propose trois types de scalabilité (spatiale, temporelle et en qualité), qui permettent d'adapter la résolution, le nombre d'images par seconde et la qualité du flux en fonction des besoins. Un flux vidéo unique est encodé, contentant plusieurs couches de résolution différentes codées les unes par rapport aux autres, de façon à rendre le codage de l'ensemble plus efficace. La régulation de débit permet d'adapter le débit en sortie de l'encodeur pour respecter des contraintes liées à la transmission ou au décodage du flux vidéo. À partir d'une consigne donnée, le budget à respecter est réparti entre les différents éléments du flux. Un modèle de débit est ensuite utilisé pour anticiper le comportement du débit en fonction des paramètres d'encodage afin de respecter les contraintes imposées au flux. À partir de cette problématique, deux approches sont proposées. La première se base sur un pré-encodage de chaque image pour fournir une base de calcul au modèle de débit. Elle permet d'obtenir une régulation très précise, avec une erreur entre le budget alloué et le débit effectif inférieure à 7\% sur les trois types de scalabilité. La seconde approche utilise les informations rassemblées dans les images précédentes comme base pour le modèle de débit de l'image à encoder. Elle ne requiert pas de pré-encodage, et ne pénalise pas la complexité du processus d'encodage. En outre, la perte de performances par rapport à l'approche en deux passes est minime et la consigne de débit par seconde est respectée de manière précise. Enfin, une méthode permettant de réduire les variations de la qualité est proposée pour améliorer l'impression visuelle ressentie par l'utilisateur. Les résultats montrent que la méthode présentée est capable de réguler le débit avec une grande précision sur les trois types de scalabilité, tout en réduisant les variations de la qualité et en conservant une complexité de calculs très faible. Ces atouts la rendent non seulement intéressante du point de vue des performances, mais également applicable dans des contextes pratiques où les ressources en temps sont limitées.
430

Analyse d'Applications Flot de Données pour la Compilation Multiprocesseur

Bodin, Bruno 20 December 2013 (has links) (PDF)
Les systèmes embarqués sont des équipements électroniques et informatiques, soumis à de nombreuses contraintes et dont le fonctionnement doit être continu. Pour définir le comportement de ces systèmes, les modèles de programmation dataflows sont souvent utilisés. Ce choix de modèle est motivé d'une part, parce qu'ils permettent de décrire un comportement cyclique, nécessaire aux systèmes embarqués ; et d'autre part, parce que ces modèles s'apprêtent à des analyses qui peuvent fournir des garanties de fonctionnement et de performance essentielles. La société Kalray propose une architecture embarquée, le MPPA. Il est accompagné du langage de programmation ΣC. Ce langage permet alors de décrire des applications sous forme d'un modèle dataflow déjà très étudié, le modèle Cyclo-Static Dataflow Graph(CSDFG). Cependant, les CSDFG générés par ce langage sont souvent trop complexes pour permettre l'utilisation des techniques d'analyse existantes. L'objectif de cette thèse est de fournir des outils algorithmiques qui résolvent les différentes étapes d'analyse nécessaires à l'étude d'une application ΣC, mais dans un temps d'exécution raisonnable, et sur des instances de grande taille. Nous étudions trois problèmes d'analyse distincts : le test de vivacité, l'évaluation du débit maximal, et le dimensionnement mémoire. Pour chacun de ces problèmes, nous fournissons des méthodes algorithmiques rapides, et dont l'efficacité a été vérifiée expérimentalement. Les méthodes que nous proposons sont issues de résultats sur les ordonnancements périodiques ; elles fournissent des résultats approchés et sans aucune garantie de performance. Pour pallier cette faiblesse, nous proposons aussi de nouveaux outils d'analyse basés sur les ordonnancements K-périodiques. Ces ordonnancements généralisent nos travaux d'ordonnancement périodiques et nous permettrons dans un avenir proche de concevoir des méthodes d'analyse bien plus efficaces.

Page generated in 0.0632 seconds