131 |
Identification of milk fatty acids as proxies of the enteric methane emissions in dairy cows / Identification des acides gras du lait comme proxies des émissions de méthane entérique chez la vache laitièreBougouin, Adeline 26 September 2018 (has links)
Le méthane (CH4) est un puissant gaz à effet de serre produit lors de la fermentation microbienne anaérobie des aliments dans le rumen. L’un des enjeux majeurs pour le secteur de l’élevage est de trouver des stratégies (alimentaires, génétique) pour réduire les émissions de CH4 tout en maintenant les performances animales. Les techniques de mesure de ces émissions sont coûteuses et difficilement utilisables à grande échelle sur le terrain, d’où la nécessité de trouver des alternatives de mesure ou biomarqueurs pour prédire ces émissions. Les acides gras (AG) du lait ont déjà été identifiés comme indicateurs intéressants de la méthanogenèse chez la vache laitière, mais il convient d’améliorer la précision des équations de prédiction du CH4 existantes ainsi que d'élargir leur domaine d'application à tous types de rations. L'objectif de mon travail de thèse a été de confirmer la pertinence des AG du lait comme indicateurs périphériques de la méthanogénèse chez la vache laitière avec diverses conditions nutritionnelles. Deux bases de données regroupant des données individuelles (issues d’une collaboration scientifique internationale) et moyennes (issues de la littérature) de CH4, de composition en AG du lait et d’autres performances et caractéristiques de l’animal, ainsi que des données de composition chimique des rations, ont été créées. Parallèlement, l’acquisition in vivo de données en conditions expérimentales contrôlées pour des rations mal connues ont permis d’incrémenter la base de données individuelles. Des équations de prédiction des émissions de CH4 [en g/jour, g/kg de matière sèche ingérée (MSI), et g/kg de lait] ont été développées à partir de certains AG du lait, utilisés seuls ou combinés à d’autres variables d’ingestion et de performances laitières, représentant alors des modèles complexes. Des relations entre les émissions de CH4 et la teneur de différents AG du lait (C10:0, iso C17:0 + trans-9 C16:1, iso C16:0, cis-11 C18:1, cis-15 C18:1, cis-9,cis-12 C18:2, et trans-11,cis-15 C18 :2) ont été mises en évidence, confirmant des voies métaboliques communes dans le rumen entre méthanogenèse et métabolisme lipidique. Les équations sont également liées aux types de régimes à partir desquels elles ont été développées. Les équations simples (AG du lait uniquement) sont moins précises que les complexes (erreurs résiduelles de prédiction, respectivement, de 58.6 g/jour, 2.8 g/kg MSI et 3.7 g/kg lait vs. 42.8 g/jour, 2.5 g/kg MSI et 3.3 g/kg lait). Une différence minimum de 16% de CH4 entre stratégies de réduction pourra être mise en évidence par la meilleure équation de prédiction développée. Des équations basées sur des AG bien déterminés par les méthodes infrarouges devront être testées pour évaluer, en routine et à grande échelle, de nouvelles stratégies de réduction des émissions de CH4 entérique chez la vache laitière. / Methane (CH4) is a potent greenhouse gas coming from the anaerobic microbial fermentation of the diet in the rumen. One of the main current challenge for the dairy sector is to find CH4 mitigation strategies (diets or genetics) without altering animal performance. Enteric methane measurement methods are costly and very difficult to apply on a large scale on field. Thus, there is a need to develop alternative measurement methods, such as equations based on proxies to predict CH4 emissions. Milk fatty acids (FA) have been identified as potential predictors of the methanogenesis in dairy cattle, but the prediction ability of extant published CH4 equations must be improved, and their domain of applicability must be enlarged to a wide range of diets. The objective of this PhD thesis was to confirm the potential of milk FA as proxies to predict enteric CH4 emissions in dairy cows fed a wide range of diets. Two databases (based on individual and mean data, respectively) were built thanks to an international collaboration, and gathered data on CH4, milk FA composition, dairy performances, diet and animal characteristics. Two in vivo experiments were conducted with the aim to study the effect of dietary strategies poorly documented, on methanogenesis and milk FA. The data from these experiments were included in the created database. Firstly, simple CH4 prediction equations were developed [g/d, g/kg of DMI (DMI), and g/kg of milk] based only on milk FA, and secondly other variables related to cow intake or characteristics, and dairy performance were added and constituted complex equations. Relationships between CH4 and several milk FA (C10:0, iso C17:0 + trans-9 C16:1, iso C16:0, cis-11 C18:1, cis-15 C18:1, cis-9,cis-12 C18:2, and trans-11,cis-15 C18 :2) were found, confirming common rumen metabolic pathways between methanogenesis and lipid metabolism. Equations were also closely related to the diets included in the database used for their development. Simple equations were less accurate than complex ones (prediction error of 58.6 g/d, 2.8 g/kg DMI and 3.7 g/kg milk vs 42.8 g/d, 2.5 g/kg DMI and 3.3 g/kg milk, respectively). A minimum difference of 16% in CH4 emissions between mitigating strategies can be evidenced with the best prediction equation developed in this PhD. Methane prediction equations based on milk FA well determined by infrared spectrometry methods need to be developed in order to be used on a routine basis and on a large scale. These prediction equations would allow studying the effect of novel mitigation strategies of enteric CH4 emissions in dairy cows.
|
132 |
Analyse bioinformatique des protéines BCL-2 et développement de la base de connaissance dédiée, BCL2DB / Bioinformatic analysis of BCL-2 proteins and development of the dedicated knowledge database, BCL2DBRech de Laval, Valentine 11 December 2013 (has links)
Les protéines BCL-2 jouent un rôle essentiel dans la décision de vie ou de mort des cellules. Elles contrôlent l'induction de l'apoptose (mort cellulaire programmée) par la voie mitochondriale via des fonctions opposées de régulateurs anti- et pro-apoptotiques. Les protéines contenant un ou plusieurs domaines dits d'homologie à Bcl-2 (BHl- 4) sont systématiquement classées dans cette famille. Grâce à une analyse bioinformatique et phylogénétique, nous avons revisité les différents critères d'inclusion dans le groupe de protéines BCL-2 et proposé une nouvelle classification tenant compte des données structurales et évolutives. Cette nouvelle nomenclature distingue : un premier groupe de protéines homologues (dérivant d'un ancêtre commun), partageant une structure 3D semblable à celle de Bcl-2 et pouvant ne posséder aucun motif BH, et un conglomérat, en pleine expansion, regroupant des protéines sans lien phylogénétique apparent et partageant une courte région de similarité de séquence correspondant au motif BH3. Sur la base de ces résultats, nous avons construit un processus, basé sur des profils HMM, pour identifier les protéines appartenant au groupe de protéines BCL-2. Notre processus automatisé est utilisé pour i) récupérer les séquences nucléotidiques et protéiques mensuellement ii) les annoter et iii) les intégrer dans la base de connaissances BCL2DB (« The BCL-2 Database »). Celle-ci est accessible via une interface Web (http://bcl2db.ibcp.fr) qui permet aux chercheurs d'extraire des données et d'effectuer des analyses de séquence / BCL-2 proteins play an essential role in the decision of life or death of animal cells. They control the induction of apoptosis (programmed cell death) in the mitochondrial pathway via regulators having opposite functions: anti- or pro-apoptotic. Proteins containing one or more Bcl-2 homology domains (BHl-4) are systematically classified in this family. Through bioinformatics and phylogenetic analysis, we revisited the different criteria for protein inclusion in the BCL-2 group and proposed a new classification taking into account structural and evolutionary data. This new nomenclature distinguishes a first group of homologous proteins (derived from a common ancestor), sharing a similar 3D structural fold with Bcl-2 and often (but not necessarily) having one or more BH motifs, and a fast expanding conglomerate of proteins without apparent phylogenetic relationships and sharing only a short region of sequence similarity corresponding to the BH3 motif. Based on these results, we built a process based on profiles HMM to identify proteins belonging to the BCL-2 protein group. Our automated process i) recovers on a monthly basis the nucleotide and protein sequences ii) annotates them and iii) integrates this information into BCL2DB ("The BCL-2 Database"). This resource can be accessed via a web interface (http://bcl2db.ibcp.fr) which allows researchers to extract data and perform sequence analysis
|
133 |
Modélisation spatio-temporelle orientée-objet pour l'étude du comportement de transport basé sur l'activitéFrihida, Ali January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
134 |
L’utilisation d’acétaminophène durant la grossesse et le risque de trouble du spectre de l’autisme : les issues méthodologiques liées à la mesure d’exposition d’acétaminophène.Kamdem Tchuendem, Lydienne 04 1900 (has links)
Le trouble du spectre de l’autisme (TSA) est une pathologie due à des anomalies neurodéveloppementales. Syndrome le plus souvent diagnostiqué dans la petite enfance, il affecte principalement l’interaction sociale et cause: des troubles de langage, de la communication et du comportement. Sa prévalence sans cesse croissante atteint en 2018 1.52% au Canada[1]. Cette prévalence est quatre fois plus élevée chez les garçons comparativement aux filles[2].
À ce jour, il n’existe pas de traitement spécifique au TSA, cependant des interventions psychologiques et médications sont proposées pour réduire des symptômes tel que l’agressivité et l’anxiété qui y sont associés.
L’étiologie du TSA est peu ou mal connue. Néanmoins, des hypothèses sont avancées suivant trois facteurs. Génétique, biologique et environnementale. Concernant ce dernier facteur, l’on peut citer l’exposition in utéro aux médicaments et ce projet porte son intérêt sur ce point et plus précisément l’acétaminophène. C’est l’un des analgésiques le plus utilisé dans le soulagement de la douleur et le traitement de la fièvre. Il est souvent recommandé aux femmes durant la grossesse pour le soulagement de la douleur et le traitement de la fièvre. Cette forte consommation d’acétaminophène chez la femme enceinte : environ 65%-75% aux États-Unis[3], soulève une réelle problématique sachant qu’il est démontré que le principe actif est détectable dans des échantillons de plasma de cordon ombilical[4]. La possibilité que l’acétaminophène traverse le placenta et soit présent dans la circulation sanguine du bébé n’est pas exclue[4],[5]. Il est important d’effectuer davantage de recherche sur le sujet afin d’évaluer le réel impact d’une telle exposition.
Sachant les limites d’inclusion des femmes enceintes dans les essais cliniques randomisées, nous avons mené une étude de cohorte populationnelle et les données utilisées proviennent de quatre bases de données administratives québécoises, dont le jumelage a permis de mettre sur pied la cohorte des grossesses du Québec (CGQ) avec un suivi longitudinal entre 1998 et 2015.
Ainsi, ce projet méthodologique vise principalement à explorer et illustrer les limites de l’utilisation des bases de données administratives pour mesurer l’exposition aux médicaments en vente libre. Ceci en utilisant comme cas pratique, l’évaluation du risque de TSA chez des enfants exposés à l’acétaminophène durant la phase gestationnelle comparativement aux enfants non exposés.
La littérature rapporte que les données quant à l’utilisation des médicaments en vente libre sont souvent sous-estimées par rapport à la réalité. L’utilisation bases de données administratives afin de mesurer l’exposition de certains médicaments en vente libre, introduirait une erreur de classification importante[6]. Sachant que la collecte de données se base sur les prescriptions complétées en pharmacie. Dans la pratique clinique courante, ces médicaments sont peu prescrits par les médecins et peu compléter auprès du pharmacien. Le cas pratique utilisé dans ce projet confirme cette hypothèse.
En effet, l’exposition in utéro d’acétaminophène est sous-estimée à 94% (Supplemental Table 5). Seulement 6 % (38/648) des enfants exposés sont capturés au sein de la CGQ ce qui ne reflète pas la réalité clinique d’utilisation d’acétaminophène en grossesse. Ce résultat démontre l’introduction d’un biais d’information (erreur de classification) qui expliquerait totalement ou en partie l’estimé mesuré. En effet, notre étude montre qu’il n’y a pas d’augmentation statistiquement significative entre le risque de TSA et la consommation d’acétaminophène in-utero (aHR : 1.10 IC 95% 0.93-1.30). Parallèlement, une analyse de sous cohorte a été effectuée. Celle-ci, utilisait des questionnaires auto-rapportées par les mères afin de mesurer l’exposition à l’acétaminophène. Pour cette analyse secondaire, un effet protecteur est mesuré (aHR : 0.78 IC 95% 0.41-1.47). Des analyses de sensibilités sur l’issue ont pu confirmer la robustesse de ces estimés, validant ainsi nos résultats.
En conclusion, ce projet d’étude a permis de mesurer l’ampleur des erreurs de classifications associées à l’utilisation des bases de données administratives pour des questions de recherches impliquant des médicaments en vente libre. Cependant, au regard de ces défis méthodologiques, il est difficile de mesurer l’association entre l’utilisation d’acétaminophène et le risque de TSA dans notre cohorte. Notre étude ne démontre pas d’association statistiquement significative, ce qui est contradictoire aux antécédentes études ayant des méthodes de mesures d’exposition différentes. / Autism Spectrum Disorder (ASD) is a pathology caused by neurodevelopmental abnormalities. A syndrome most often diagnosed in early childhood, ASD mainly affects social interaction and causes language, communication, and behavioral disorders. Its ever-increasing prevalence reached a rate of 1.52% in Canada in 2018[1]. This prevalence is four times higher in boys compared to girls[2].
Nowadays, there is no specific treatment for ASD, however, psychological interventions and medications are proposed to reduce symptoms such as aggression and anxiety.
The etiology of ASD is unknown. Nevertheless, hypotheses are put forward to explain the ASD mechanism via the genetic, biological, and environmental approach. The last factor includes in-utero exposure to medications and the present project focuses on this point and more specifically acetaminophen[3]. This research focuses on this point and, more specifically, on acetaminophen. It is one of the most widely used analgesics in pain and fever treatment, which is why it is often recommended to women during pregnancy. This high consumption of acetaminophen in pregnant women: approximately 65%-75% in the United States [4], raises a real problem, knowing that it has been demonstrated that the active ingredient is detectable in cord plasma samples [5]. It is possible that acetaminophen crosses the placenta and is present in the baby’s bloodstream[4], [5]. It is important to carry out more research on the subject in order to assess the true impact of such exposure.
Knowing the limits of the inclusion of pregnant women in randomized clinical trials, we conducted a population-based cohort study. The data came from four Quebec administrative databases, their pairing allowing the establishment of the Quebec pregnancy cohort (QPC) with a longitudinal follow-up between 1998 and 2015.
Thus, this methodological project mainly aims to explore and illustrate the limits of the use of administrative databases to measure exposure of over-the-counter medications. Using as a practical example, the assessment of the risk of ASD in children exposed to acetaminophen during the gestational phase compared to unexposed children.
The literature reports that data on the use of over-the-counter medications are often underestimated compared to reality. The use of administrative databases to measure exposure to over-the-counter medications would introduce major misclassification[6]. Knowing that data are collected based on prescriptions filled in pharmacies. In the current clinical practice, these medications are rarely prescribed by physicians and rarely filled by pharmacists. The practical case used in this project confirms this hypothesis.
In-utero exposure to acetaminophen is underestimated at 94% (Supplemental Table 5). Only 6% (38/648) of exposed children are captured within the QPC, which does not reflect the clinical reality of acetaminophen use in pregnancy. This result demonstrates the introduction of an information bias (misclassification) which would totally or partially explain the measured estimate. Indeed, our study shows that there is no statistically significant increase between the risk of ASD and the consumption of acetaminophen in utero (aHR: 1.10 95% CI 0.93-1.30). At the same time, a sub-cohort analysis was carried out. This used questionnaires self-reported by mothers to measure exposure to acetaminophen. For this secondary analysis, a protective effect is measured (aHR: 0.78 95% CI 0.41-1.47). Sensitivity analyses on issue were able to confirm the robustness of these results, thus validating our results.
Through this study, we were able {Citation} to measure the magnitude of misclassifications associated with the use of administrative databases for research questions involving over-the-counter drugs. However, given these methodological challenges, it is difficult to measure the association between the use of acetaminophen in pregnancy and the risk of ASD in our cohort. Our study does not demonstrate a statistically significant association, which is contradictory to previous studies with exposure measurement methods approaching reality.
|
135 |
CONTRIBUTION À L'ANALYSE DE L'IMPACT DE MISES À JOUR SUR DES VUES ET SUR DES CONTRAINTES D'INTÉGRITÉ XML.Idabal, Hicham 25 November 2010 (has links) (PDF)
DANS CETTE THÈSE, NOUS NOUS POSITIONNONS DANS UN CONTEXTE DYNAMIQUE, OÙ LES DONNÉES XML ÉVOLUENT AU COURS DU TEMPS ET SONT SOUMISES À UN ENSEMBLE DE MISES À JOUR, ET NOUS NOUS INTÉRESSONS À DEUX PROBLÈMES MAJEURS, LARGEMENT ÉTUDIÉS DANS LE CADRE RELATIONNEL : -LA DÉTECTION DE L'IMPACT D'UN ENSEMBLE DE MISE À JOUR SUR UNE VUE, DÉFINIE PAR UNE REQUÊTE.-LA DÉTECTION DE L'IMPACT D'UN ENSEMBLE DE MISE À JOUR SUR LA SATISFACTION D'UNE DÉPENDANCE FONCTIONNELLE. DANS LE PREMIER CAS, L'OBJECTIF EST DE DÉTECTER SI L'ENSEMBLE DE MISES À JOUR A MODIFIÉ LA VUE. DANS LE DEUXIÈME CAS, L'OBJECTIF EST DE DÉTECTER SI L'ENSEMBLE DE MISE À JOUR A PRODUIT UN NOUVEAU DOCUMENT QUI NE SATISFAIT PLUS LES CONTRAINTES QU'IL SATISFAISAIT AVANT LES MISES À JOUR. NOUS NOUS DIFFÉRENCIONS DES TRAVAUX ANTÉRIEURS PRINCIPALEMENT SUR DEUX POINTS : (1) NOUS SUPPOSONS QUE LES DONNÉES SOURCES SONT À PRIORI INDISPONIBLES ET NOUS ÉTUDIONS LES DEUX PROBLÈMES EN EFFECTUANT UNE ANALYSE STATIQUE DES DÉFINITIONS DES MISES À JOUR, ET DE LA VUE (CAS1) OU DE LA DÉPENDANCE FONCTIONNELLE (CAS 2). DE PLUS, DANS LE CAS OÙ UN SCHÉMA XML CONTRAIGNANT LA STRUCTURE DES DONNÉES, EST DISPONIBLE NOUS UTILISONS CETTE INFORMATION SUPPLÉMENTAIRE DANS NOTRE ANALYSE AFIN DE DÉTECTER ÉVENTUELLEMENT PLUS DE CAS D'INDÉPENDANCES ENTRE LES MISES À JOUR ET LA VUE OU LA DÉPENDANCE FONCTIONNELLE SELON LE CAS. (2) NOUS PRENONS L'OPTION D'UTILISER, COMME MÉCANISME DE SÉLECTION DE NŒUDS, DANS LA DÉFINITION DES MISES À JOUR, DES VUES ET DES DÉPENDANCES FONCTIONNELLES, UN LANGAGE FORMEL BASÉ SUR L'UTILISATION DE MOTIFS RÉGULIER ARBORESCENTS, PERMETTANT DE DÉFINIR DES REQUÊTES APPELÉES 'REQUÊTES ARBRES RÉGULIÈRES' (EN ABRÉGÉ RARS).
|
136 |
Utilisation de la base de données nationale d'inscription par les firmes de courtage et les régulateurs canadiens : gestion des renseignements personnelsDesjardins, David 08 1900 (has links)
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maître en droit (LL.M.)" / Le présent texte a pour sujet la Base de données nationale d'inscription,
système d'inscription obligatoire depuis quelques mois pour l'ensemble des
firmes de courtage et des représentants en valeurs mobilières au Canada, à
l'exception de ceux et celles qui n'exercent leurs activités qu'en territoire
québécois.
La question de la protection des renseignements personnels compris dans cette
base de données y est analysée en portant une attention particulière à la
pluralité des régimes de protection qui évolue au Canada. En effet, différentes
règles s'appliquent selon que l'on est en présence d'un organisme public ou une
entreprise du secteur privé et selon que la « transaction» est intraprovinciale ou
extraprovinciale.
La Base de données nationale d'inscription remplace dorénavant la procédure
d'inscription sur support papier. Les documents issus de ce système
informatique possèdent des caractéristiques propres et certaines règles doivent
être respectées afin de leurs conférer la même valeur juridique que les
documents papier.
Finalement, la compilation de l'information dans cette gigantesque base de
données serait futile s'il n'était pas possible d'accéder aux renseignements qui y
sont contenus. Une fois les différents types d'accès définis, une comparaison
sera faite avec certains systèmes d'inscription en ligne américains.
La technologie bouleverse nos habitudes dans tous les secteurs de l'économie.
Les finances ne sont pas en reste. Avec la Base de données nationale
d'inscription, c'est tout le système d'inscription de l'industrie canadienne des
valeurs mobilières qui prend un sérieux coup de jeune. Et il était temps ... / The subject of the present text concems the National Registration Database, a
recent mandatory registration system designated for all brokerage firms and
investment advisors across Canada, with the exception of those who exercise
their activities exclusively in Quebec.
The matter of protection of personal information included in this database is
analyzed with an emphasis on the existence of multiple laws evolving in
Canada. In fact, different mIes apply whether you are in the presence of a
public body or an enterprise of the private sector and whether the "transaction"
is concluded within or out of the province.
The National Registration Database replaces the previous paper format
registration procedure. The documents produced by this computerized system
have their own particularities and certain mIes must be respected in order to
maintain a legal value equal to the priOf format.
Finally, the compiling of information found in this enormous database would be
useless if it was not possible to access its information. Once the different types
of access are determined, a comparison will be done with existing American
online registration systems.
It is obvious that technology has had a tremendous impact on the economy. Of
course, the financial industry is affected. With the National Registration
Database, the whole Canadian securities registration system has had a total
makeover. It was about time...
|
137 |
L'effet de la psychoneurothérapie sur l'activité électrique du cerveau d'individus souffrant du trouble dépressif majeur unipolairePaquette, Vincent January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
138 |
Cultes et identités en France au XVIIe siècle : étude des calendriers et des livres liturgiques / Cults and indentities in 17th century France : study of liturgical books and calendarsD'hour, Thomas 28 June 2014 (has links)
Le XVIIe siècle est généralement considéré comme un moment de romanisation des liturgies diocésaines françaises, sur le modèle des ouvrages romains réformés à la fin du XVIe siècle par Pie V (le nouveau Bréviaire romain est imprimé en 1568). Toutefois, force est de constater que chaque diocèse conserve une certaine marge de manœuvre, notamment pour la conservation d’usages particuliers s’ils sont en pratique depuis deux cents ans, ainsi que le prévoit la bulle Quod a Nobis.Ce travail s’intéresse, par le prisme des calendriers liturgiques diocésains et des livres qui les contiennent, aux conséquences de ce mouvement de romanisation sur les cultes et l’identité des diocèses. Pour l’essentiel, la méthode choisie consiste à saisir cent trente-cinq calendriers, imprimés entre 1570 et 1680 par soixante-dix diocèses, sous la forme d’une base de données et à les interroger en série. Plus particulièrement, les calendriers sont l’objet dans les premières années du XVIIe siècle de profondes réformes, tant dans leur structure que dans leur contenu. Ainsi, le calendrier romain et les offices de saints contenus dans le Bréviaire ne sont pas adoptés de la même manière dans l’ensemble des diocèses du royaume de France. Il est alors possible de construire une cartographie des différents degrés d’adoption du modèle romain et d’identifier des espaces. De même, tous les diocèses ne font pas état d’autant d’usages propres les uns que les autres, notamment au regard du nombre de saints.Enfin, ces cultes particuliers peuvent également être partagés entre plusieurs diocèses, dessinant alors de nouveaux espaces de dévotions à certains saints, à l’échelle de la France / Usually, the seventeenth century is considered as a time of romanisation of dioceses liturgy, following the model of Roman works that were reformed at the end of the 16th century by the pope Pie V (Roman breviary is printed in 1568). However, one has to come to the conclusion that each diocese keeps a certain margin especially concerning the conservation of particular uses if they had been in use for two hundred years, as scheduled by the bull Quod a Nobis.This study choses to show the consequences of the Roman reform on the identity and the worship of diocese through the prism of diocesan liturgic calendars and the books that contain them. Foremost, the chosen method consists in entering one hundred and thirty-five calendars, printed between 1570 and 1680 by seventy dioceses, in a data base and questionning them in series.More particularly, the calendars are the object in the early seventeenth century of deep reforms, in their structure as well as in their content. Hence, the Roman calendar and the saints services contained in the Breviary have not been adopted in the same way in all the dioceses of the French relm. It is then possible to build a cartography of the different degrees of adoption of the Roman model and identify spaces. In the same way, every diocese didn't mention as many particular uses as the others, especially in regard to the number of their own saints.Finally, these particular worships can be shared by several dioceses, defining new spaces of devotion to specific saints, on the French scale.
|
139 |
Amélioration de la localisation 3D de données laser terrestre à l'aide de cartes 2D ou modèles 3D / Improved 3D localization of mobile mapping vehicles using 2D maps or 3D modelsMonnier, Fabrice 19 December 2014 (has links)
Les avancées technologiques dans le domaine informatique (logiciel et matériel) et, en particulier, de la géolocalisation ont permis la démocratisation des modèles numériques. L'arrivée depuis quelques années de véhicules de cartographie mobile a ouvert l'accès à la numérisation 3D mobile terrestre. L'un des avantages de ces nouvelles méthodes d'imagerie de l'environnement urbain est la capacité potentielle de ces systèmes à améliorer les bases de données existantes 2D comme 3D, en particulier leur niveau de détail et la diversité des objets représentés. Les bases de données géographiques sont constituées d'un ensemble de primitives géométriques (généralement des lignes en 2D et des plans ou des triangles en 3D) d'un niveau de détail grossier mais ont l'avantage d'être disponibles sur de vastes zones géographiques. Elles sont issues de la fusion d'informations diverses (anciennes campagnes réalisées manuellement, conception automatisée ou encore hybride) et peuvent donc présenter des erreurs de fabrication. Les systèmes de numérisation mobiles, eux, peuvent acquérir, entre autres, des nuages de points laser. Ces nuages laser garantissent des données d'un niveau de détail très fin pouvant aller jusqu'à plusieurs points au centimètre carré. Acquérir des nuages de points laser présente toutefois des inconvénients :- une quantité de données importante sur de faibles étendues géographiques posant des problèmes de stockage et de traitements pouvant aller jusqu'à plusieurs Téraoctet lors de campagnes d'acquisition importantes- des difficultés d'acquisition inhérentes au fait d'imager l'environnement depuis le sol. Les systèmes de numérisation mobiles présentent eux aussi des limites : en milieu urbain, le signal GPS nécessaire au bon géoréférencement des données peut être perturbé par les multi-trajets voire même stoppé lors de phénomènes de masquage GPS liés à la réduction de la portion de ciel visible pour capter assez de satellites pour en déduire une position spatiale. Améliorer les bases de données existantes grâce aux données acquises par un véhicule de numérisation mobile nécessite une mise en cohérence des deux ensembles. L'objectif principal de ce manuscrit est donc de mettre en place une chaîne de traitements automatique permettant de recaler bases de données géographiques et nuages de points laser terrestre (provenant de véhicules de cartographies mobiles) de la manière la plus fiable possible. Le recalage peut se réaliser de manière différentes. Dans ce manuscrit, nous avons développé une méthode permettant de recaler des nuages laser sur des bases de données, notamment, par la définition d'un modèle de dérive particulièrement adapté aux dérives non-linéaires de ces données mobiles. Nous avons également développé une méthode capable d'utiliser de l'information sémantique pour recaler des bases de données sur des nuages laser mobiles. Les différentes optimisations effectuées sur notre approche nous permettent de recaler des données rapidement pour une approche post-traitements, ce qui permet d'ouvrir l'approche à la gestion de grands volumes de données (milliards de points laser et milliers de primitives géométriques).Le problème du recalage conjoint a été abordé. Notre chaîne de traitements a été testée sur des données simulées et des données réelles provenant de différentes missions effectuées par l'IGN / Technological advances in computer science (software and hardware) and particularly, GPS localization made digital models accessible to all people. In recent years, mobile mapping systems has enabled large scale mobile 3D scanning. One advantage of this technology for the urban environment is the potential ability to improve existing 2D or 3D database, especially their level of detail and variety of represented objects. Geographic database consist of a set of geometric primitives (generally 2D lines and plans or triangles in 3D) with a coarse level of detail but with the advantage of being available over wide geographical areas. They come from the fusion of various information (old campaigns performed manually, automated or hybrid design) wich may lead to manufacturing errors. The mobile mapping systems can acquire laser point clouds. These point clouds guarantee a fine level of detail up to more than one points per square centimeter. But there are some disavantages :- a large amount of data on small geographic areas that may cause problems for storage and treatment of up to several Terabyte during major acquisition,- the inherent acquisition difficulties to image the environment from the ground. In urban areas, the GPS signal required for proper georeferencing data can be disturbed by multipath or even stopped when GPS masking phenomena related to the reduction of the portion of the visible sky to capture enough satellites to find a good localization. Improve existing databases through these dataset acquired by a mobile mapping system requires alignment of these two sets. The main objective of this manuscript is to establish a pipeline of automatic processes to register these datasets together in the most reliable manner. Co-registration this data can be done in different ways. In this manuscript we have focused our work on the registration of mobile laser point cloud on geographical database by using a drift model suitable for the non rigid drift of these kind of mobile data. We have also developped a method to register geographical database containing semantics on mobile point cloud. The different optimization step performed on our methods allows to register the data fast enough for post-processing pipeline, which allows the management of large volumes of data (billions of laser points and thousands geometric primitives). We have also discussed on the problem of joint deformation. Our methods have been tested on simulated data and real data from different mission performed by IGN
|
140 |
SGBD open-source pour historisation de données et impact des mémoires flash / Open-source DBMS for data historization and impact of flash memoriesChardin, Brice 07 December 2011 (has links)
L'archivage de données industrielles est un problème complexe : il s'agit de stocker un grand nombre de données sur plusieurs décennies, tout en supportant la charge des insertions temps réel et des requêtes d'extraction et d'analyse. Pour ce type d'application, des produits « de niche » se sont spécialisés pour ce segment du marché : les progiciels d'historisation. Il s'agit de solutions propriétaires avec des coûts de licence de l'ordre de plusieurs dizaines de milliers d'euros, et dont le fonctionnement interne n'est pas dévoilé. Nous avons donc dans un premier temps mis en évidence les spécificités de ces progiciels d'historisation, tant au niveau des fonctionnalités que des performances. Néanmoins, l'archivage de données industrielles peut s'appliquer à des contexte très différents. L'IGCBox par exemple est un mini PC industriel utilisant MySQL pour l'archivage à court terme des données de production des centrales hydrauliques d'EDF. Ce matériel présente quelques spécificités, la principale étant son système de mémoire non volatile basé uniquement sur la technologie flash, pour sa fiabilité importante en milieu industriel et sa faible consommation d'énergie. Les SGBD possèdent pour des raisons historiques de nombreuses optimisations spécifiques aux disques durs, et le manque d'optimisation adaptée aux mémoires flash peut dégrader significativement les performances. Le choix de ce type de mémoire a donc eu des répercussions notables sur les performances pour l'insertion, avec une dégradation importante par rapport aux disques durs. Nous avons donc proposé Chronos, un SGBD dédié à l'historisation de données sur mémoires flash. Pour cela, nous avons en particulier identifié un algorithme d'écriture « quasi-séquentiel » efficace pour accéder à la mémoire, ainsi que des mécanismes de bufferisation et de mise à jour d'index optimisés pour les charges typiques de l'historisation. Les résultats expérimentaux montrent un gain significatif pour les insertions par rapport à des solutions équivalentes, d'un facteur 20 à 54. Chronos est donc une solution compétitive lorsque les insertions correspondent à une proportion importante de la charge soumise au SGBD. En particulier pour les charges typiques des IGCBox, Chronos se distingue en proposant des performances globales améliorées d'un facteur 4 à 18 par rapport aux autres solutions. / Archiving industrial data is a complex issue: a large volume of data has to be stored for several decades while meeting performance requirements for real-time insertions, along with retrieval and analysis queries. For these applications, niche products have specialized in this market segment: data historians. Data historians are proprietary solutions, with license fees of tens of thousands of dollars, and whose internal mechanisms are not documented. Therefore, we first emphasized data historian specificities, with regards to functionalities as much as performance. However, archiving industrial data can occur in very different contexts. IGCBoxes for example are industrial mini PCs using MySQL for short-term data archiving in hydroelectric power stations at EDF. These equipments expose distinctive features, mainly on their storage system based exclusively on flash memory, for its reliability in an industrial environment and its low energy consumption. For historical reasons, DBMS include many hard disk drive-oriented optimizations, and the lack of adjustment for flash memories can significantly decrease performance. This type of memory thus had notable consequences on insert performance, with a substantial drop compared with hard disk drives. We therefore designed Chronos, a DBMS for historization data management on flash memories. For that purpose, we especially identified an efficient “quasi-sequential” write pattern on flash memories, along with buffer and index management techniques optimized for historization typical workloads. Experimental results demonstrate improved performance for insertions over different solutions, by a factor of 20 to 54. Chronos is therefore competitive when insertions make up an extensive part of the workload. For instance, Chronos stands out with the typical workload of IGCBoxes, with global performance improved by a factor of 4 to 18 compared with other solutions.
|
Page generated in 0.0217 seconds