• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 44
  • 20
  • 1
  • Tagged with
  • 179
  • 62
  • 41
  • 30
  • 25
  • 24
  • 21
  • 21
  • 19
  • 19
  • 16
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Cémentochronologie : précision et exactitude de l’estimation de l’âge au décès : influence de la taphonomie / Cementochronology : precision and accuracy of age at death estimation : impact of taphonomy

Bertrand, Benoit 18 December 2017 (has links)
L’estimation de l’âge au décès d’individus découverts en contexte médico-légal ou ar-chéologique est un sujet fondamental. La cémentochronologie fondée sur le dépôt annuel de cément acellulaire est une technique parmi les plus performantes dont l’exactitude est appréciée dans de nombreuses publications. Cependant, le manque de standardisation ralentit l’adoption de cette méthode et freine l’étude de la précision qui demeure méconnue tout comme l’impact des conditions taphonomiques sur sa fiabilité. Le premier objectif de ce travail est de mesurer la concordance des estimations effectuées, donc la précision, puis d’évaluer l’exactitude, donc la qualité de l’accord entre l’âge estimé et l’âge chronologique, en appliquant un protocole standardisé et certifié ISO-9001 pour s’affranchir des biais inhérents à la préparation. Le second objectif est d’apprécier l’impact des affections taphonomiques trop souvent négligées. La collecte des données à partir de préparations histologiques dentaires représente une opération coûteuse en temps et constitue un obstacle majeur pour conduire des études cémentochronologiques. Nous nous fixons comme autre objectif d’expérimenter un logiciel de comptage semi-automatique, fruit d’une collaboration entre anthropologues (UTML) et développeurs (FEI Visualization Sciences Group). Pour atteindre ces buts, l’étude porte sur 2000 lames histologiques réalisées à partir de 400 canines. 200 canines sont issues de collections de référence dont l’âge, le sexe, l’intervalle postmortem et la durée d’inhumation des sujets sont connus. Afin d’apprécier l’influence de la taphonomie sur la lisibilité et la précision et d’étudier l’applicabilité de la méthode à du matériel ancien, 200 canines extraites de sujets archéologiques datés entre le XIIe et le XVIIIe siècle sont intégrées à l’étude. Précision et exactitude sont approchées pour chaque classe d’âge et en tenant compte des intervalles post-mortem et des affections taphonomiques, mettant ainsi en évidence une fiabilité qui est fonction de l’âge du sujet, mais aussi de l’état de conservation des tissus. Ce travail vise, sur un échantillon standardisé conséquent, à amener une discussion sur les performances de la cémentochronologie à l’échelle individuelle et populationnelle, à apporter des recommandations et proposer un modèle de prédiction pour minimiser les différences entre âge estimé et âge chronologique. / Age at death estimation is a fundamental component of creating a biological profile in forensic and bioarchaeological contexts. Cementochronology based on annual deposition of acellular cementum is one of the most effective ageing techniques, and its accuracy, i.e. the agreement between estimated age and chronological age, is acknowledged in many publications. However, the lack of standardization slows down the adoption of this method and hinders the evaluation of its precision that remains unknown as well as the impact of taphonomical processes. The first objective of this thesis is to measure the agreement between cementum estimates, i.e. the precision, and then to assess the accuracy through the evaluation of the quality of the accordance between chronological age and estimates based on a standardized and ISO-9001 certified protocol to overcome bias due to sample preparation. The second objective is to gauge the impact of taphonomical effects too often neglected. Counting cementum increments on histological preparations is time-consuming and represents a major difficulty to perform cementochronological studies. Another goal is to experiment a semi-automatic program resulting from a col-laboration between anthropologists (UTML) and software developers (FEI Visualization Sciences Group). To achieve these goals, our study is based on 2000 histological sections from 400 canines. 200 canines are derived from reference collections with documented age, sex, postmortem interval and burial duration. In order to grasp the influence of taphonomy on slices readability and on precision and to investigate the applicability of this method on ancient material, 200 canines extracted from archaeological assemblages dated between the XIIth century and XVIIIth century are included in the study. Accuracy and precision are assessed for each age group in considering post-mortem intervals and taphonomical conditions and show a reliability influenced by age but also by tissue preservation. This work aims, on a large standardized sample, to discuss cementochronology’s performance for individual and population approaches, to provide recommen-dations and to propose a prediction model to reduce differences between estimated age and chronological age.
72

Etude de la variabilité interindividuelle de l'efficience alimentaire de la vache laitière / Study of the between-cows variability of feed efficiency in dairy cows

Fischer, Amélie 12 April 2017 (has links)
L’amélioration de l’efficience alimentaire des animaux peut contribuer à un élevage plus durable par la réduction des ressources utilisées et des rejets associés. Les caractères qui déterminent l’efficience alimentaire des vaches laitières restent mal identifiés. Le projet se propose donc d’identifier les facteurs biologiques associés à la variabilité interindividuelle de l’efficience alimentaire des vaches laitières. La variation d’efficience alimentaire a été estimée avec l’ingéré résiduel, classiquement défini comme la variabilité résiduelle de l’énergie nette ingérée corrigée pour l’énergie nette du lait, l’entretien et les variations de réserves corporelles. Cet ingéré résiduel inclut par définition toutes les erreurs de mesure. Pour réduire ces erreurs, la note d’état corporel, qui classiquement se fait par notation visuelle, a été automatisée et de nombreux autres caractères candidats ont été mesurés fréquemment dans un environnement stable sur quasiment toute la lactation.La variabilité de l’ingéré résiduel ne représentait que 8% de la variabilité de l’ingéré mesuré, dont 58,9% étaient associés à de l’efficience et non de l’erreur. L’étude de la répétabilité de cet ingéré résiduel au cours de la lactation suggère d’éviter les 7 premières quinzaines au profit du milieu de lactation. Parmi tous les caractères mesurés, le comportement alimentaire, la température ruminale, la variation des réserves corporelles et l’activité expliquaient 58,9% de la variabilité de l’ingéré résiduel. Les effets de plusieurs de ces caractères semblent confondus. Leur lien de causalité av / Achieving higher feed efficiency of animals is expected to improve animal production sustainability through reduction of the used resources and of the associated emissions. The traits determining feed efficiency remain poorly understood. The present project aimed therefore at identifying the biological factors associated with feed efficiency differences in lactating dairy cows. Feed efficiency variation was estimated with the traditional residual intake, which was defined as the residual variability of net energy intake which is not explained by net energy required for lactation, maintenance and body reserves change. This residual intake includes by definition all measurement errors. To reduce these errors, body condition score, which is commonly measured visually, has been automated and several other candidate traits were measured frequently in a steady environment for almost whole lactation.Residual intake variability represented only 8% of intake variability in our study, among which only 58.9% were found to be associated with feed efficiency variability and not to errors. The repeatability analysis of the residual intake throughout the lactation suggested to avoid the 7 first lactation fortnights, and rather to focus on lactation middle. Among all measured traits, feeding behaviour, rumen temperature, body reserves change and activity explained 58.9% of residual intake variability. Many of these traits seemed confounded with others, which claimed for the need for further work to properly define their causal relationship with feed efficiency, especially focussing on di
73

Évaluation analytique de la précision des systèmes en virgule fixe pour des applications de communication numérique / Analytical approach for evaluation of the fixed point accuracy

Chakhari, Aymen 07 October 2014 (has links)
Par rapport à l'arithmétique virgule flottante, l'arithmétique virgule fixe se révèle plus avantageuse en termes de contraintes de coût et de consommation, cependant la conversion en arithmétique virgule fixe d'un algorithme spécifié initialement en virgule flottante se révèle être une tâche fastidieuse. Au sein de ce processus de conversion, l'une des étapes majeures concerne l'évaluation de la précision de la spécification en virgule fixe. En effet, le changement du format des données de l'application s'effectue en éliminant des bits ce qui conduit à la génération de bruits de quantification qui se propagent au sein du système et dégradent la précision des calculs en sortie de l'application. Par conséquent, cette perte de précision de calcul doit être maîtrisée et évaluée afin de garantir l'intégrité de l'algorithme et répondre aux spécifications initiales de l'application. Le travail mené dans le cadre de cette thèse se concentre sur des approches basées sur l'évaluation de la précision à travers des modèles analytiques (par opposition à l'approche par simulations). Ce travail traite en premier lieu de la recherche de modèles analytiques pour évaluer la précision des opérateurs non lisses de décision ainsi que la cascade d'opérateurs de décision. Par conséquent, la caractérisation de la propagation des erreurs de quantification dans la cascade d'opérateurs de décision est le fondement des modèles analytiques proposés. Ces modèles sont appliqués à la problématique de l'évaluation de la précision de l'algorithme de décodage sphérique SSFE (Selective Spanning with Fast Enumeration) utilisé pour les systèmes de transmission de type MIMO (Multiple-Input Multiple-Output). Dans une seconde étape, l'évaluation de la précision des structures itératives d'opérateurs de décision a fait l'objet d'intérêt. Une caractérisation des erreurs de quantification engendrées par l'utilisation de l'arithmétique en virgule fixe est menée afin de proposer des modèles analytiques basés sur l'estimation d'une borne supérieure de la probabilité d'erreur de décision ce qui permet de réduire les temps d'évaluation. Ces modèles sont ensuite appliqués à la problématique de l'évaluation de la spécification virgule fixe de l'égaliseur à retour de décision DFE (Decision Feedback Equalizer). Le second aspect du travail concerne l'optimisation des largeurs de données en virgule fixe. Ce processus d'optimisation est basé sur la minimisation de la probabilité d'erreur de décision dans le cadre d'une implémentation sur un FPGA (Field-Programmable Gate Array) de l'algorithme DFE complexe sous contrainte d'une précision donnée. Par conséquent, pour chaque spécification en virgule fixe, la précision est évaluée à travers les modèles analytiques proposés. L'estimation de la consommation des ressources et de la puissance sur le FPGA est ensuite obtenue à l'aide des outils de Xilinx pour faire un choix adéquat des largeurs des données en visant à un compromis précision/coût. La dernière phase de ce travail traite de la modélisation en virgule fixe des algorithmes de décodage itératif reposant sur les concepts de turbo-décodage et de décodage LDPC (Low-Density Parity-Check). L'approche proposée prend en compte la structure spécifique de ces algorithmes ce qui implique que les quantités calculées au sein du décodeur (ainsi que les opérations) soient quantifiées suivant une approche itérative. De plus, la représentation en virgule fixe utilisée (reposant sur le couple dynamique et le nombre de bits total) diffère de la représentation classique qui, elle, utilise le nombre de bits accordé à la partie entière et la partie fractionnaire. Avec une telle représentation, le choix de la dynamique engendre davantage de flexibilité puisque la dynamique n'est plus limitée uniquement à une puissance de deux. Enfin, la réduction de la taille des mémoires par des techniques de saturation et de troncature est proposée de manière à cibler des architectures à faible-complexité. / Traditionally, evaluation of accuracy is performed through two different approaches. The first approach is to perform simulations fixed-point implementation in order to assess its performance. These approaches based on simulation require large computing capacities and lead to prohibitive time evaluation. To avoid this problem, the work done in this thesis focuses on approaches based on the accuracy evaluation through analytical models. These models describe the behavior of the system through analytical expressions that evaluate a defined metric of precision. Several analytical models have been proposed to evaluate the fixed point accuracy of Linear Time Invariant systems (LTI) and of non-LTI non-recursive and recursive linear systems. The objective of this thesis is to propose analytical models to evaluate the accuracy of digital communications systems and algorithms of digital signal processing made up of non-smooth and non-linear operators in terms of noise. In a first step, analytical models for evaluation of the accuracy of decision operators and their iterations and cascades are provided. In a second step, an optimization of the data length is given for fixed-point hardware implementation of the Decision Feedback Equalizer DFE based on analytical models proposed and for iterative decoding algorithms such as turbo decoding and LDPC decoding-(Low-Density Parity-Check) in a particular quantization law. The first aspect of this work concerns the proposition analytical models for evaluating the accuracy of the non-smooth decision operators and the cascading of decision operators. So, the characterization of the quantization errors propagation in the cascade of decision operators is the basis of the proposed analytical models. These models are applied in a second step to evaluate the accuracy of the spherical decoding algorithmSSFE (Selective Spanning with Fast Enumeration) used for transmission MIMO systems (Multiple-Input Multiple -Output). In a second step, the accuracy evaluation of the iterative structures of decision operators has been the interesting subject. Characterization of quantization errors caused by the use of fixed-point arithmetic is introduced to result in analytical models to evaluate the accuracy of application of digital signal processing including iterative structures of decision. A second approach, based on the estimation of an upper bound of the decision error probability in the convergence mode, is proposed for evaluating the accuracy of these applications in order to reduce the evaluation time. These models are applied to the problem of evaluating the fixed-point specification of the Decision Feedback Equalizer DFE. The estimation of resources and power consumption on the FPGA is then obtained using the Xilinx tools to make a proper choice of the data widths aiming to a compromise accuracy/cost. The last step of our work concerns the fixed-point modeling of iterative decoding algorithms. A model of the turbo decoding algorithm and the LDPC decoding is then given. This approach integrates the particular structure of these algorithms which implies that the calculated quantities in the decoder and the operations are quantified following an iterative approach. Furthermore, the used fixed-point representation is different from the conventional representation using the number of bits accorded to the integer part and the fractional part. The proposed approach is based on the dynamic and the total number of bits. Besides, the dynamic choice causes more flexibility for fixed-point models since it is not limited to only a power of two.
74

Molecular Profiling in Pediatric Oncology – the MOSCATO-01 Experience // Characterization of SMARCB1-Altered Soft Tissue Sarcomas in Response to Pharmacological HDAC Inhibition / Profilage moléculaire en oncologie pédiatrique – expérience de l'essai MOSCATO-01 // Caractérisation des sarcomes des tissus mous présentant des altérations de SMARCB1 traités par des inhibiteurs des HDAC

Harttrampf, Anne Catherine 10 December 2018 (has links)
1ère partie: Bien que les patients pédiatriques présentent généralement des taux de survie élevés, environ 20% d’entre eux ne peuvent être guéris avec des approches thérapeutiques standards, principalement ceux souffrant de sarcomes métastatiques, neuroblastomes, tumeurs cérébrales et tumeurs rares. Afin d’établir de nouvelles modalités thérapeutiques en identifiant des facteurs moléculaires qui puissent être ciblés par des approches pharmacologiques, les essais cliniques MOSCATO-01 (Molecular Screening for Cancer Treatment Optimization, NCT01566019) et MAPPYACTS (NCT02613962) ont été respectivement initiés en 2011 et en 2016. Une caractérisation moléculaire systématique des biopsies tumorales de patients avec des tumeurs réfractaires ou en rechute a été réalisée afin de pouvoir proposer des traitements ciblés. Chez 75 patients pédiatriques inclus dans MOSCATO-01 avec des cancers solides comprenant des tumeurs cérébrales, nous avons mis en oeuvre des approches d’hybridation génomique comparée (CGH), de séquençage d’un panel de mutations présélectionnées et de séquençage des exomes et transcrits. Des altérations génomiques pouvant être ciblées ont été identifiées dans 60% des cas, incluant des variations du nombre de copies (42%), des mutations (33%), et des transcrits de fusion (2%). Ces altérations affectent des voies de signalisation oncogéniques majeures, incluant des récepteurs tyrosine kinases et leurs cibles. Des mutations germinales ont été identifiées chez 10% des patients. Quatorze patients ont reçu 17 traitements ciblés; une réponse objective ou une maladie sans progression a été observée chez 5 patients. Nos résultats montrent qu’une approche de médecine de précision peut être envisagée et que des altérations ciblables sont présentes dans les cancers pédiatriques. Les obstacles à franchir concernent l’identification et la sélection des cibles, et la mise en pratique clinique des approches thérapeutiques.2ème partie: Les sarcomes épithélioïdes, des tumeurs très rares, affectent tous les groupes d’âge, dont les adolescents, et présentent à la fois des caractères épithéliaux et mésenchymateux. Comme les tumeurs rhabdoïdes affectant les jeunes enfants, les sarcomes épithélioïdes sont caractérisés par des altérations de SMARCB1, un membre central du complexe de remodelage de la chromatine SWI/SNF. Le phénotype agressif et l’implication fréquente des RTKs dans ces deux tumeurs ainsi que leur similarité (épi-)génétique nous ont conduit à approfondir les relations fonctionnelles entre la régulation des RTKs, la signalisation cellulaire, et les effets de la modulation épigénétique. Des lignées cellulaires de chacun des types de tumeurs ont été étudiées pour déterminer la réponse à l’inhibition pharmacologique des RTKs et des HDAC, ainsi que mTOR et EZH2. La sensibilité la plus grande in vitro a été observée avec le Panobinostat, un inhibiteur de HDAC. Le Panobinostat induit la mort cellulaire et inverse partiellement la transition épithéliale-mésenchymateuse, qui pourrait être corrélée à une régulation différentielle des RTKs EGFR et FGFR2. Comme souvent observé dans le traitement des tumeurs solides par les seuls inhibiteurs de HDAC, le Panobinostat est associé à une inhibition modérée de la croissance tumorale in vivo dans un modèle de sarcome épithélioïde. La combinaison de l’inhibition des HDAC et de l’EGFR augmente la sensibilité vis-à-vis de cette dernière à la fois dans les sarcomes épithélioïdes et les tumeurs rhabdoïdes et représente une stratégie prometteuse pour le traitement des tumeurs solides. / Part 1: Although pediatric cancer patients have high survival rates, 20% cannot be cured with standard therapeutic regimens, predominantly those with metastatic sarcomas, neuroblastomas, malignant brain tumors and rare tumor types. To provide a new rationale for treatment definition by identifying new molecular targets that can be pharmacologically addressed, the Molecular Screening for Cancer Treatment Optimization (MOSCATO-01/NCT01566019) and the MAPPYACTS (NCT02613962) trials are running at Gustave Roussy since 2011 and 2016, respectively. Patients with relapsed or refractory malignancies are undergoing biopsy or surgical intervention at treatment failure for molecular characterization that allows the suggestion of a targeted treatment. In 75 pediatric patients with solid malignancies including brain tumors included in MOSCATO-01, we developed further the initial CGHarray and targeted gene sequencing panel, to whole-exome and RNA sequencing which is currently employed in the international follow-up trial MAPPYACTS. Actionable genomic alterations were identified in 60%, representing a copy number change in 42%, a mutation in 33% and a fusion transcript in 2%. Pathway allocation showed that these targets mainly affected prominent oncogenic signaling pathways including receptor tyrosine kinases and associated downstream signaling. Germline alterations were identified in 10% of patients. Fourteen patients received 17 targeted treatment approaches; objective response or prolonged stable disease was seen in five patients. Our results showed that this approach is safe and feasible in minors and that actionable alterations are present. Significant challenges were encountered in pipeline workflows, target definition, interpretation and selection, and clinical implementation.Part 2: Epithelioid sarcoma is an exceedingly rare soft tissue sarcoma occuring in all age groups, including adolescents and displays both epithelial and mesenchymal features. As rhabdoid tumors, a deleterious entity affecting very young children, epithelioid sarcoma is characterized by alterations affecting core SWI/SNF chromatin remodeling complex member SMARCB1. The aggressive phenotype and frequent involvement of receptor tyrosine kinases in both epithelioid sarcoma and rhabdoid tumor as well as their (epi-)genetic parallels led us to take deeper insight into the relation between tyrosine kinase regulation, signaling and effects of epigenetic modulation. Cell lines of both tumor types were studied in order to determine response to pharmacological inhibition by receptor tyrosine kinase and HDAC inhibitors as well as by agents inhibiting mTOR and EZH2. Both tumor types displayed highest in-vitro sensitivity towards pan-HDAC inhibitor panobinostat. Panobinostat sufficiently induced cell death and partially reversed epithelial-to-mesenchymal transition which could be related to differential regulation of receptor tyrosine kinases EGFR and FGFR2. As often observed in treatment of solid tumors with single agent HDAC inhibitors, panobinostat led to slight tumor growth inhibition in an in-vivo epithelioid sarcoma model. The combination of HDAC and EGFR inhibition increased sensitivity towards the latter in both epithelioid sarcoma and rhabdoid tumor and might be a promising strategy to sufficiently translate HDAC inhibitors into clinics for solid tumors.
75

Modeling the speed-accuracy tradeoff using the tools of information theory / Modélisation du compromis vitesse précision d'une tâche de pointage humain à l'aide des outils de la théorie de l'information

Gori, Julien 20 December 2018 (has links)
La loi de Fitts, qui relie le temps de mouvement MT dans une tache de pointage aux dimensions de la cible visée D et W est usuellement exprimée à partir d’une imitation de la formule de la capacité de Shannon MT = a + b log 2 (1 + D/W). Toutefois, l’analyse actuelle est insatisfaisante: elle provient d’une simple analogie entre la tache de pointage et la transmission d’un signal sur un canal bruité sans qu’il n’y ait de modèle explicite de communication.Je développe d’abord un modèle de transmission pour le pointage, où l’indice de difficulté ID = log 2 (1 + D/W) s’exprime aussi bien comme une entropie de source et une capacité de canal, permettant ainsi de réconcilier dans un premier temps l’approche de Fitts avec la théorie de l’information de Shannon. Ce modèle est ensuite exploité pour analyser des données de pointage récoltées lors d’expérimentations contrôlées mais aussi en conditions d’utilisations réelles.Je développe ensuite un second modèle, focalisé autour de la forte variabilité caractéristique du mouvement humain et qui prend en compte la forte diversité des mécanismes de contrôle du mouvement: avec ou sans voie de retour, par intermittence ou de manière continue. À partir d’une chronométrie de la variance positionnelle, évaluée à partir d’un ensemble de trajectoires, on remarque que le mouvement peut-être découpé en deux phases: une première où la variance augmente et une grande partie de la distance à couvrir est parcourue, est suivie d’une deuxième au cours de laquelle la variance diminue pour satisfaire les contraintes de précision requises par la tache.Dans la deuxième phase, le problème du pointage peut-être ramené à un problème de communication à la Shannon, où l’information est transmise d’une“source” (variance à la fin de la première phase) à une “destination” (extrémité du membre) à travers un canal Gaussien avec la présence d’une voie de retour.Je montre que la solution optimale à ce problème de transmission revient à considérer un schéma proposé par Elias. Je montre que la variance peut décroitre au mieux exponentiellement au cours de la deuxième phase, et que c’est ce résultat qui implique directement la loi de Fitts. / Fitts’ law, which relates movement time MTin a pointing task to the target’s dimensions D and Wis usually expressed by mimicking Shannon’s capacityformula MT = a + b log 2 (1 + D/W). Yet, the currentlyreceived analysis is incomplete and unsatisfactory: itstems from a vague analogy and there is no explicitcommunication model for pointing.I first develop a transmission model for pointing taskswhere the index of difficulty ID = log 2 (1 + D/W) isthe expression of both a source entropy and a chan-nel capacity, thereby reconciling Shannon’s informa-tion theory with Fitts’ law. This model is then levera-ged to analyze pointing data gathered from controlledexperiments but also from field studies.I then develop a second model which builds on thevariability of human movements and accounts for thetremendous diversity displayed by movement control:with of without feedback, intermittent or continuous.From a chronometry of the positional variance, eva-luated from a set of trajectories, it is observed thatmovement can be separated into two phases: a firstwhere the variance increases over time and wheremost of the distance to the target is covered, follo-wed by a second phase where the variance decreasesuntil it satisfies accuracy constraints. During this se-cond phase, the problem of aiming can be reduced toa Shannon-like communication problem where infor-mation is transmitted from a “source” (variance at theend of the first phase), to a “destination” (the limb ex-tremity) over a “channel” perturbed by Gaussian noisewith a feedback link. I show that the optimal solution tothis transmission problem amounts to a scheme firstsuggested by Elias. I show that the variance can de-crease at best exponentially during the second phase,and that this result induces Fitts’ law.
76

Functional characterization of INTS11 loss-of-function in zebrafish

Herold, Aveeva 10 1900 (has links)
Le gène INTS11 est une sous-unité catalytique du complexe Integrator qui joue un rôle central dans le traitement de divers ARN naissants. Récemment, des patients présentant des mutations de perte de fonction dans le gène INTS11 ont été signalés comme ayant des problèmes neurodéveloppementaux graves, des problèmes ataxiques et des retards de développement globaux. À ce jour, aucune mutation dans INTS11 n'a été liée à des maladies humaines, et aucune preuve ne soutient leur rôle dans des problèmes neurodéveloppementaux. Par conséquent, nous avons développé un modèle INTS11 knock-out (KO) F0 CRISPRant chez le poisson-zèbre pour caractériser fonctionnellement les mutations de perte de fonction de ce gène in vivo. Nos larves INTS11-KO présentent une accumulation accrue de snARN mal traités, confirmant la perturbation de la fonction du gène. De plus, les larves INTS11-KO meurent prématurément à 14 jours et présentent un phénotype comportemental aberrant, similaire à d'autres modèles génétiques de poisson-zèbre des troubles neurodéveloppementaux. Aussi, les larves INTS11-KO présentent une réduction de la taille du cerveau avec une réduction du contenu neuronal. Enfin, nos résultats d'immunomarquage ont révélé une réduction de la taille du cervelet chez les larves INTS11-KO. Dans l'ensemble, ces données soutiennent le rôle d'INTS11 dans le développement cérébral et sont cohérentes avec les retards neurodéveloppementaux décrits chez les patients présentant des mutations délétères dans ce gène. Notre étude montre comment des organismes modèles simples tels que le poisson-zèbre peuvent aider à caractériser l'étiologie génétique des troubles génétiques. Les résultats de nos recherches pourraient contribuer à des diagnostics plus précis et ouvrir la voie à la découverte de mécanismes pathogènes clés qui pourraient être exploités pour le développement de traitements pour les patients présentant des mutations dans INTS11. / The INTS11 gene is a catalytic subunit of the Integrator complex that plays a central role in processing various nascent RNAs. Recently, patients with loss-of-function mutations in the INTS11 gene have been reported to have severe neurodevelopmental issues, ataxic problems, and global developmental delays. To date, mutations in INTS11 have not been linked to human diseases, and no evidence supports their role in neurodevelopmental problems. Therefore, we developed an ints11 F0 CRISPRant knock-out (KO) model in zebrafish to functionally characterize loss-of-function mutations in this gene in vivo. Our ints11-KO larvae exhibited an increased accumulation of unprocessed snRNAs, confirming the disruption of the ints11 function. Moreover, ints11-KO larvae die prematurely by 14 days of age and display an aberrant behavioural phenotype, similar to other zebrafish genetic models of neurodevelopmental disorders. Furthermore, ints11-KO larvae show reduced brain size with reduced neuronal content. Finally, immunostaining results revealed a reduction in cerebellum size in our ints11-KO. Altogether, these data support the role of INTS11 in brain development and are consistent with the neurodevelopment delays described in patients with deleterious mutations in this gene. Our study shows how simple model organisms like zebrafish can help characterize the genetic etiology of genetic disorders. The results from our research could aid in more accurate diagnoses and open the path to unveiling key pathogenic mechanisms that could be leveraged for the development of treatment for patients with mutations in INTS11.
77

Précision et qualité en reconstruction tomographique : algorithmes et applications

Recur, Benoît 29 November 2010 (has links)
Il existe un grand nombre de modalités permettant l'acquisition d'un objet de manière non destructrice (Scanner à Rayons X, micro-scanner, Ondes Térahertz, Microscopie Électronique de Transmission, etc). Ces outils acquièrent un ensemble de projections autour de l'objet et une étape de reconstruction aboutit à une représentation de l'espace acquis. La principale limitation de ces méthodes est qu'elles s'appuient sur une modélisation continue de l'espace alors qu'elles sont exploitées dans un domaine fini. L'étape de discrétisation qui en résulte est une source d'erreurs sur les images produites. De plus, la phase d'acquisition ne s'effectue pas de manière idéale et peut donc être entachée d'artéfacts et de bruits. Un grand nombre de méthodes, directes ou itératives, ont été développées pour tenter de réduire les erreurs et reproduire une image la plus représentative possible de la réalité. Un panorama de ces reconstructions est proposé ici et est coloré par une étude de la qualité, de la précision et de la résistances aux bruits d'acquisition.Puisque la discrétisation constitue l'une des principales limitations, nous cherchons ensuite à adapter des méthodes discrètes pour la reconstruction de données réelles. Ces méthodes sont exactes dans un domaine fini mais ne sont pas adaptées à une acquisition réelle, notamment à cause de leur sensibilité aux erreurs. Nous proposons donc un lien entre les deux mondes et développons de nouvelles méthodes discrètes plus robustes aux bruits. Enfin, nous nous intéressons au problème des données manquantes, i.e. lorsque l'acquisition n'est pas uniforme autour de l'objet, à l'origine de déformations dans les images reconstruites. Comme les méthodes discrètes sont insensibles à cet effet nous proposons une amorce de solution utilisant les outils développés dans nos travaux. / A large kind of methods are available now to acquire an object in a non-destructive way (X-Ray scanner, micro-scanner, Tera-hertz waves, Transmission Electron Microscopy, etc). These tools acquire a projection set around the object and a reconstruction step leads to a representation of the acquired domain. The main limitation of these methods is that they rely on a continuous domain modeling wheareas they compute in a finite domain. The resulting discretization step sparks off errors in obtained images. Moreover, the acquisition step is not performed ideally and may be corrupted by artifacts and noises. Many direct or iterative methods have been developped to try to reduce errors and to give a better representative image of reality. An overview of these reconstructions is proposed and it is enriched with a study on quality, precision and noise robustness.\\Since the discretization is one of the major limitations, we try to adjust discrete methods for the reconstruction of real data. These methods are accurate in a finite domain but are not suitable for real acquisition, especially because of their error sensitivity. Therefore, we propose a link between the two worlds and we develop new discrete and noise robust methods. Finally, we are interesting in the missing data problem, i.e. when the acquisition is not uniform around the object, giving deformations into reconstructed images. Since discrete reconstructions are insensitive to this effect, we propose a primer solution using the tools developed previously.
78

Précision spatiale d'atteintes manuelles vers des cibles virtuelles : effet du contexte visuel et du vieillissement normal

Fortin, Stéphane January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
79

Large-scale and high-quality multi-view stereo / Stéréo multi-vues à grande-échelle et de haute-qualité

Vu, Hoang Hiep 05 December 2011 (has links)
L'acquisition de modèles 3D des scènes réelles trouve son utilité dans de nombreuses applications pratiques, comme l'archivage numérique, les jeux vidéo, l'ingénierie, la publicité. Il existe principalement deux méthodes pour acquérir un modèle 3D: la reconstruction avec un scanner laser (méthode active) et la reconstruction à partir de plusieurs photographies d'une même scène prise dans des points de vues différentes (méthode passive). Si la méthode active permet d'acquérir des modèles avec une grande précision, il est cependant coûteux et difficile à mettre en place pour de grandes scènes extérieures. La méthode passive, ou la stéréo multi-vues est en revanche plus flexible, facile à mettre en oeuvre et surtout moins coûteuse que la méthode active. Cette thèse s'attaque au problème de la reconstruction de stéréo multi-vues à grande échelle et précise pour les scènes extérieures. Nous améliorons des méthodes précédentes et les assemblons pour créer une chaîne de stéréo multi-vues efficace tirant parti de l'accélération de cartes graphiques. La chaîne produit des maillages de qualité à partir d'images de haute résolution, ce qui permet d'atteindre les meilleurs scores dans de nombreuses évaluations. Aux plus grandes échelles, nous développons d'une part des techniques de type diviser-pour-régner pour reconstruire des morceaux partiaux de la scène. D'autre part, pour combiner ces résultats séparés, nous créons une nouvelle méthode qui fusionne rapidement des centaines de maillages. Nous réussissons à reconstruire de beaux maillages urbains et des monuments historiques précis à partir de grandes collections d'images (environ 1600 images de 5M Pixel) / Acquisition of 3D model of real objects and scenes is indispensable and useful in many practical applications, such as digital archives, game and entertainment industries, engineering, advertisement. There are 2 main methods for 3D acquisition : laser-based reconstruction (active method) and image-based reconstruction from multiple images of the scene in different points of view (passive method). While laser-based reconstruction achieves high accuracy, it is complex, expensive and difficult to set up for large-scale outdoor reconstruction. Image-based, or multi-view stereo methods are more versatile, easier, faster and cheaper. By the time we begin this thesis, most multi-view methods could handle only low resolution images under controlled environment. This thesis targets multi-view stereo both both in large scale and high accuracy issues. We significantly improve some previous methods and combine them into a remarkably effective multi-view pipeline with GPU acceleration. From high-resolution images, we produce highly complete and accurate meshes that achieve best scores in many international recognized benchmarks. Aiming even larger scale, on one hand, we develop Divide and Conquer approaches in order to reconstruct many small parts of a big scene. On the other hand, to combine separate partial results, we create a new merging method, which can merge automatically and quickly hundreds of meshes. With all these components, we are successful to reconstruct highly accurate water-tight meshes for cities and historical monuments from large collections of high-resolution images (around 1600 images of 5 M Pixel images)
80

Développement d’outils pronostiques dynamiques dans le cancer de la prostate localisé traité par radiothérapie / Development of dynamic prognostic tools in localized prostate cancer treated by radiation therapy

Sene, Mbery 13 December 2013 (has links)
La prédiction d'un événement clinique à l'aide d'outils pronostiques est une question centrale en oncologie. L'émergence des biomarqueurs mesurés au cours du temps permet de proposer des outils incorporant les données répétées de ces biomarqueurs pour mieux guider le clinicien dans la prise en charge des patients. L'objectif de ce travail est de développer et valider des outils pronostiques dynamiques de rechute de cancer de la prostate, chez des patients traités initialement par radiothérapie externe, en prenant en compte les données répétées du PSA, l'antigène spécifique de la prostate, en plus des facteurs pronostiques standard. Ces outils sont dynamiques car ils peuvent être mis à jour à chaque nouvelle mesure disponible du biomarqueur. Ils sont construits à partir de modèles conjoints pour données longitudinales et de temps d'événement. Le principe de la modélisation conjointe est de décrire l'évolution du biomarqueur à travers un modèle linéaire mixte, décrire le risque d'événement à travers un modèle de survie et lier ces deux processus à travers une structure latente. Deux approches existent, les modèles conjoints à effets aléatoires partagés et les modèles conjoints à classes latentes. Dans un premier travail, nous avons tout d'abord comparé, en terme de qualité d'ajustement et de pouvoir prédictif, des modèles conjoints à effets aléatoires partagés différant par leur forme de dépendance entre le PSA et le risque de rechute clinique. Puis nous avons évalué et comparé ces deux approches de modélisation conjointe. Dans un deuxième travail, nous avons proposé un outil pronostique dynamique différentiel permettant d'évaluer le risque de rechute clinique suivant l'initiation ou non d'un second traitement (un traitement hormonal) au cours du suivi. Dans ces travaux, la validation de l'outil pronostique a été basée sur deux mesures de pouvoir prédictif: le score de Brier et l'entropie croisée pronostique. Dans un troisième travail, nous avons enfin décrit la dynamique des PSA après un second traitement de type hormonal chez des patients traités initialement par une radiothérapie seule. / The prediction of a clinical event with prognostic tools is a central issue in oncology. The emergence of biomarkers measured over time can provide tools incorporating repeated data of these biomarkers to better guide the clinician in the management of patients. The objective of this work is to develop and validate dynamic prognostic tools of recurrence of prostate cancer in patients initially treated by external beam radiation therapy, taking into account the repeated data of PSA, the Prostate-Specific Antigen, in addition to standard prognostic factors. These tools are dynamic because they can be updated at each available new measurement of the biomarker. They are built from joint models for longitudinal and time-to-event data. The principle of joint modelling is to describe the evolution of the biomarker through a linear mixed model, describe the risk of event through a survival model and link these two processes through a latent structure. Two approaches exist, shared random-effect models and joint latent class models. In a first study, we first compared in terms of goodness-of-fit and predictive accuracy shared random-effect models differing in the form of dependency between the PSA and the risk of clinical recurrence. Then we have evaluated and compared these two approaches of joint modelling. In a second study, we proposed a differential dynamic prognostic tool to evaluate the risk of clinical recurrence according to the initiation or not of a second treatment (an hormonal treatment) during the follow-up. In these works, validation of the prognostic tool was based on two measures of predictive accuracy: the Brier score and the prognostic cross-entropy. In a third study, we have described the PSA dynamics after a second treatment (hormonal) in patients initially treated by a radiation therapy alone.

Page generated in 0.0654 seconds