• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 43
  • 20
  • 1
  • Tagged with
  • 170
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 18
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Architecture de communication pour les réseaux d'instrumentation sans fil

Albu, Roxana 11 July 2011 (has links) (PDF)
Aujourd'hui les réseaux de capteurs sont devenus des systèmes pouvant atteindre un très grand nombre de nœuds, avec une zone de couverture déterminée et déployés d'une manière plus ou moins dense dans un environnement hétérogène dont on mesure ainsi son état global. La problématique de cette thèse consiste à concevoir une architecture pour les objets communicants à faible consommation en utilisant des antennes " intelligentes " pour l'instrumentation et la mesure. Intégrant une approche pluridisciplinaire, cette architecture couvre les services offerts depuis les couches MAC jusqu'à celles de plus haut niveau. Basés sur une partie matérielle complètement reconfigurable (amplificateur de puissance et antennes à base de MEMS RF), les services des couches supérieures sont définis en partie sur circuits numériques pour la couche physique (bande de base) et la couche MAC, et de manière logicielle pour les protocoles de routages adaptés et les services innovants. En résumé, le travail consiste à concevoir un système autonome multi capteurs, d'acquisition et de traitement avec mémorisation, communicant à travers un réseau sans fil. Les principaux problèmes à résoudre seront : - Le contrôle de la topologie - La précision de la synchronisation - La consommation d'énergie.
62

Contribution à la modélisation dynamique, l'identification et la synthèse de lois de commande adaptées aux axes flexibles d'un robot industriel.

Oueslati, Marouene 18 December 2013 (has links) (PDF)
Les robots industriels représentent un moyen de production sophistiqués pour l'industrie manufacturière d'aujourd'hui. Ces manipulateurs sont plus agiles, plus flexibles et moins coûteux que les machines-outils spécialisées. L'exploitation de ces avantages fait l'objet d'une demande croissante de l'industrie. La dynamique de ces manipulateurs est soumise à des nombreuses sources d'imprécision. En effet les défauts de la chaîne de transmission, ou encore les éléments de liaisons peuvent être le siège de déformations et de vibrations dégradant sensiblement leur précision. Ces phénomènes physiques sont d'autant plus difficiles à compenser que seul un sous ensemble des états du système est mesuré par les codeurs moteurs. La structure de commande industrielle actuelle d'un robot n'agit donc pas directement sur ces phénomènes. Il est nécessaire alors de progresser sur le front de l'amélioration de la précision par l'adaptation de la commande à ces nouvelles exigences. Un état de l'art met en évidence un manque de travaux qui traitent de l'élaboration d'anticipations adaptées aux axes d'un robot et intégrant les phénomènes de déformation. En outre, la planification de trajectoire n'est classiquement pas remise en cause et peu évoquée. Elle représente pourtant un moyen d'action éprouvé afin d'améliorer les performances dynamiques en suivi de profil. L'approche proposée dans ce mémoire se veut une alternative à ces méthodes. Elle est basée sur une exploitation d'un modèle dynamique représentatif et détaillé. Il intègre les principaux phénomènes physiques mis en évidence tels que les effets de la gravité, les systèmes mécaniques de compensation, les forces de frottement et la flexibilité articulaire. Cette modélisation associée à des méthodes d'identification expérimentale est exploitée afin de déduire une structure de commande. Elle permet la réduction des déformations élastiques et des vibrations par une action sur la précommande et sur la loi de mouvement adaptée. Ainsi, nous introduisons une méthode d'estimation non asymptotique appliquée en robotique, afin d'estimer rapidement les paramètres vibratoires de ce dernier et contribue à une réactualisation des modèles exploités. Des résultats expérimentaux montrent que cette méthodologie mène à une amélioration des performances de positionnement par rapport à la commande industrielle.
63

Développement d'un magnétomètre nanofabriqué très basse température (30 mK) et fort champ magnétique (16 T) : étude de nouveaux états magnétiques apparaissant dans les nanoaimants frustrés / Development of a nanofabricated magnetometer at very low temperature (30 mK) and high magnetic field (16 T) : new magnetic states in frustrated nanomagnets

Florea, Ovidiu 21 December 2015 (has links)
L'objectif de cette thèse était de développer un magnétomètre à force de Faraday pour mesurer des valeurs absolues de l'aimantation à très basse température (30 mK) et fort champ magnétique (16 T) avec une haute sensibilité (10-5 emu). Ce magnétomètre sera principalement utilisé pour sonder les propriétés induites sous champ dans les systèmes magnétiques frustrés.Dans une première partie, je détaille le développement de ce magnétomètre. Cela comprend l'optimisation du réfrigérateur à dilution et de bobines de gradient de champ ainsi que le développement d'une détection capacitive avec un étage amplificateur à froid pour améliorer la sensibilité de la mesure. Les mesures magnétiques préliminaires sont présentées. Les changements nécessaires pour rendre le magnétomètre opérationnel sont discutés.Dans une seconde partie, je présente l'étude expérimentale de systèmes magnétiques frustrés: des grenats de Gadolinium, décrits par des spins classiques, et des composés moléculaires frustrés à base de Cuivre, pour sonder les effets quantiques. Ces mesures ont été réalisées entre 70 mK et 300 K sur les magnétomètres existant à l'Institut Néel.Dans Gd3Ga5O12, nous avons complété le diagramme de phases H-T. Nous avons montré la robustesse de ce diagramme de phases par notre étude sur le composé isomorphe GGd3Al5O12. Nous avons mis en évidence la convergence de toutes les phases observées en un unique point dans les deux systèmes.Dans les systèmes quantiques, nous avons réalisé des études préliminaires sur des clusters Cu44 à base de tétraèdres, et un système triangulaire Cu3. Bien que prometteuses, nous n'avons pas approfondi ces études à cause de problèmes d'échantillons. / The objective of this work was to develop a Faraday force magnetometer to measureabsolute values of the magnetization at very low temperatures (30 mK) andhigh applied magnetic fields (16 T) with a high sensitivity (10-5 emu). This magnetometer will be especially dedicated to the study of the field induced properties of frustrated magnets.In a first part, I present the development of this magnetometer. It involves the optimization of the dilution refrigerator and field gradient coils, and the development of a capacitive detection with a cold amplifier stage to improve the measurement sensitivity. Preliminary magnetic measurements are shown. The changes in the design required to make the magnetometer operational are discussed.In a second part, I focus on experimental studies of frustrated magnets: Gadolinium garnets, described by classical spins, and Copper based frustrated molecular compounds, to probe quantum effects. These measurements were performed from 70 mK to 300 K, with the existing magnetometers at the Institut Neel.In Gd3Ga5O12, we have complemented the H-T phase diagram. This phase diagram was proven to be robust by our study on the isomorphous compound, Gd3Al5O12. We evidence the convergence of all the observed phases to a unique point in both samples.In quantum systems, we performed preliminary studies on Cu44 clusters with tetrahedral motives, and on a triangular system Cu3. Although promising, these studies were not pursued due to sample problems.
64

Cémentochronologie : précision et exactitude de l’estimation de l’âge au décès : influence de la taphonomie / Cementochronology : precision and accuracy of age at death estimation : impact of taphonomy

Bertrand, Benoit 18 December 2017 (has links)
L’estimation de l’âge au décès d’individus découverts en contexte médico-légal ou ar-chéologique est un sujet fondamental. La cémentochronologie fondée sur le dépôt annuel de cément acellulaire est une technique parmi les plus performantes dont l’exactitude est appréciée dans de nombreuses publications. Cependant, le manque de standardisation ralentit l’adoption de cette méthode et freine l’étude de la précision qui demeure méconnue tout comme l’impact des conditions taphonomiques sur sa fiabilité. Le premier objectif de ce travail est de mesurer la concordance des estimations effectuées, donc la précision, puis d’évaluer l’exactitude, donc la qualité de l’accord entre l’âge estimé et l’âge chronologique, en appliquant un protocole standardisé et certifié ISO-9001 pour s’affranchir des biais inhérents à la préparation. Le second objectif est d’apprécier l’impact des affections taphonomiques trop souvent négligées. La collecte des données à partir de préparations histologiques dentaires représente une opération coûteuse en temps et constitue un obstacle majeur pour conduire des études cémentochronologiques. Nous nous fixons comme autre objectif d’expérimenter un logiciel de comptage semi-automatique, fruit d’une collaboration entre anthropologues (UTML) et développeurs (FEI Visualization Sciences Group). Pour atteindre ces buts, l’étude porte sur 2000 lames histologiques réalisées à partir de 400 canines. 200 canines sont issues de collections de référence dont l’âge, le sexe, l’intervalle postmortem et la durée d’inhumation des sujets sont connus. Afin d’apprécier l’influence de la taphonomie sur la lisibilité et la précision et d’étudier l’applicabilité de la méthode à du matériel ancien, 200 canines extraites de sujets archéologiques datés entre le XIIe et le XVIIIe siècle sont intégrées à l’étude. Précision et exactitude sont approchées pour chaque classe d’âge et en tenant compte des intervalles post-mortem et des affections taphonomiques, mettant ainsi en évidence une fiabilité qui est fonction de l’âge du sujet, mais aussi de l’état de conservation des tissus. Ce travail vise, sur un échantillon standardisé conséquent, à amener une discussion sur les performances de la cémentochronologie à l’échelle individuelle et populationnelle, à apporter des recommandations et proposer un modèle de prédiction pour minimiser les différences entre âge estimé et âge chronologique. / Age at death estimation is a fundamental component of creating a biological profile in forensic and bioarchaeological contexts. Cementochronology based on annual deposition of acellular cementum is one of the most effective ageing techniques, and its accuracy, i.e. the agreement between estimated age and chronological age, is acknowledged in many publications. However, the lack of standardization slows down the adoption of this method and hinders the evaluation of its precision that remains unknown as well as the impact of taphonomical processes. The first objective of this thesis is to measure the agreement between cementum estimates, i.e. the precision, and then to assess the accuracy through the evaluation of the quality of the accordance between chronological age and estimates based on a standardized and ISO-9001 certified protocol to overcome bias due to sample preparation. The second objective is to gauge the impact of taphonomical effects too often neglected. Counting cementum increments on histological preparations is time-consuming and represents a major difficulty to perform cementochronological studies. Another goal is to experiment a semi-automatic program resulting from a col-laboration between anthropologists (UTML) and software developers (FEI Visualization Sciences Group). To achieve these goals, our study is based on 2000 histological sections from 400 canines. 200 canines are derived from reference collections with documented age, sex, postmortem interval and burial duration. In order to grasp the influence of taphonomy on slices readability and on precision and to investigate the applicability of this method on ancient material, 200 canines extracted from archaeological assemblages dated between the XIIth century and XVIIIth century are included in the study. Accuracy and precision are assessed for each age group in considering post-mortem intervals and taphonomical conditions and show a reliability influenced by age but also by tissue preservation. This work aims, on a large standardized sample, to discuss cementochronology’s performance for individual and population approaches, to provide recommen-dations and to propose a prediction model to reduce differences between estimated age and chronological age.
65

Etude de la variabilité interindividuelle de l'efficience alimentaire de la vache laitière / Study of the between-cows variability of feed efficiency in dairy cows

Fischer, Amélie 12 April 2017 (has links)
L’amélioration de l’efficience alimentaire des animaux peut contribuer à un élevage plus durable par la réduction des ressources utilisées et des rejets associés. Les caractères qui déterminent l’efficience alimentaire des vaches laitières restent mal identifiés. Le projet se propose donc d’identifier les facteurs biologiques associés à la variabilité interindividuelle de l’efficience alimentaire des vaches laitières. La variation d’efficience alimentaire a été estimée avec l’ingéré résiduel, classiquement défini comme la variabilité résiduelle de l’énergie nette ingérée corrigée pour l’énergie nette du lait, l’entretien et les variations de réserves corporelles. Cet ingéré résiduel inclut par définition toutes les erreurs de mesure. Pour réduire ces erreurs, la note d’état corporel, qui classiquement se fait par notation visuelle, a été automatisée et de nombreux autres caractères candidats ont été mesurés fréquemment dans un environnement stable sur quasiment toute la lactation.La variabilité de l’ingéré résiduel ne représentait que 8% de la variabilité de l’ingéré mesuré, dont 58,9% étaient associés à de l’efficience et non de l’erreur. L’étude de la répétabilité de cet ingéré résiduel au cours de la lactation suggère d’éviter les 7 premières quinzaines au profit du milieu de lactation. Parmi tous les caractères mesurés, le comportement alimentaire, la température ruminale, la variation des réserves corporelles et l’activité expliquaient 58,9% de la variabilité de l’ingéré résiduel. Les effets de plusieurs de ces caractères semblent confondus. Leur lien de causalité av / Achieving higher feed efficiency of animals is expected to improve animal production sustainability through reduction of the used resources and of the associated emissions. The traits determining feed efficiency remain poorly understood. The present project aimed therefore at identifying the biological factors associated with feed efficiency differences in lactating dairy cows. Feed efficiency variation was estimated with the traditional residual intake, which was defined as the residual variability of net energy intake which is not explained by net energy required for lactation, maintenance and body reserves change. This residual intake includes by definition all measurement errors. To reduce these errors, body condition score, which is commonly measured visually, has been automated and several other candidate traits were measured frequently in a steady environment for almost whole lactation.Residual intake variability represented only 8% of intake variability in our study, among which only 58.9% were found to be associated with feed efficiency variability and not to errors. The repeatability analysis of the residual intake throughout the lactation suggested to avoid the 7 first lactation fortnights, and rather to focus on lactation middle. Among all measured traits, feeding behaviour, rumen temperature, body reserves change and activity explained 58.9% of residual intake variability. Many of these traits seemed confounded with others, which claimed for the need for further work to properly define their causal relationship with feed efficiency, especially focussing on di
66

Évaluation analytique de la précision des systèmes en virgule fixe pour des applications de communication numérique / Analytical approach for evaluation of the fixed point accuracy

Chakhari, Aymen 07 October 2014 (has links)
Par rapport à l'arithmétique virgule flottante, l'arithmétique virgule fixe se révèle plus avantageuse en termes de contraintes de coût et de consommation, cependant la conversion en arithmétique virgule fixe d'un algorithme spécifié initialement en virgule flottante se révèle être une tâche fastidieuse. Au sein de ce processus de conversion, l'une des étapes majeures concerne l'évaluation de la précision de la spécification en virgule fixe. En effet, le changement du format des données de l'application s'effectue en éliminant des bits ce qui conduit à la génération de bruits de quantification qui se propagent au sein du système et dégradent la précision des calculs en sortie de l'application. Par conséquent, cette perte de précision de calcul doit être maîtrisée et évaluée afin de garantir l'intégrité de l'algorithme et répondre aux spécifications initiales de l'application. Le travail mené dans le cadre de cette thèse se concentre sur des approches basées sur l'évaluation de la précision à travers des modèles analytiques (par opposition à l'approche par simulations). Ce travail traite en premier lieu de la recherche de modèles analytiques pour évaluer la précision des opérateurs non lisses de décision ainsi que la cascade d'opérateurs de décision. Par conséquent, la caractérisation de la propagation des erreurs de quantification dans la cascade d'opérateurs de décision est le fondement des modèles analytiques proposés. Ces modèles sont appliqués à la problématique de l'évaluation de la précision de l'algorithme de décodage sphérique SSFE (Selective Spanning with Fast Enumeration) utilisé pour les systèmes de transmission de type MIMO (Multiple-Input Multiple-Output). Dans une seconde étape, l'évaluation de la précision des structures itératives d'opérateurs de décision a fait l'objet d'intérêt. Une caractérisation des erreurs de quantification engendrées par l'utilisation de l'arithmétique en virgule fixe est menée afin de proposer des modèles analytiques basés sur l'estimation d'une borne supérieure de la probabilité d'erreur de décision ce qui permet de réduire les temps d'évaluation. Ces modèles sont ensuite appliqués à la problématique de l'évaluation de la spécification virgule fixe de l'égaliseur à retour de décision DFE (Decision Feedback Equalizer). Le second aspect du travail concerne l'optimisation des largeurs de données en virgule fixe. Ce processus d'optimisation est basé sur la minimisation de la probabilité d'erreur de décision dans le cadre d'une implémentation sur un FPGA (Field-Programmable Gate Array) de l'algorithme DFE complexe sous contrainte d'une précision donnée. Par conséquent, pour chaque spécification en virgule fixe, la précision est évaluée à travers les modèles analytiques proposés. L'estimation de la consommation des ressources et de la puissance sur le FPGA est ensuite obtenue à l'aide des outils de Xilinx pour faire un choix adéquat des largeurs des données en visant à un compromis précision/coût. La dernière phase de ce travail traite de la modélisation en virgule fixe des algorithmes de décodage itératif reposant sur les concepts de turbo-décodage et de décodage LDPC (Low-Density Parity-Check). L'approche proposée prend en compte la structure spécifique de ces algorithmes ce qui implique que les quantités calculées au sein du décodeur (ainsi que les opérations) soient quantifiées suivant une approche itérative. De plus, la représentation en virgule fixe utilisée (reposant sur le couple dynamique et le nombre de bits total) diffère de la représentation classique qui, elle, utilise le nombre de bits accordé à la partie entière et la partie fractionnaire. Avec une telle représentation, le choix de la dynamique engendre davantage de flexibilité puisque la dynamique n'est plus limitée uniquement à une puissance de deux. Enfin, la réduction de la taille des mémoires par des techniques de saturation et de troncature est proposée de manière à cibler des architectures à faible-complexité. / Traditionally, evaluation of accuracy is performed through two different approaches. The first approach is to perform simulations fixed-point implementation in order to assess its performance. These approaches based on simulation require large computing capacities and lead to prohibitive time evaluation. To avoid this problem, the work done in this thesis focuses on approaches based on the accuracy evaluation through analytical models. These models describe the behavior of the system through analytical expressions that evaluate a defined metric of precision. Several analytical models have been proposed to evaluate the fixed point accuracy of Linear Time Invariant systems (LTI) and of non-LTI non-recursive and recursive linear systems. The objective of this thesis is to propose analytical models to evaluate the accuracy of digital communications systems and algorithms of digital signal processing made up of non-smooth and non-linear operators in terms of noise. In a first step, analytical models for evaluation of the accuracy of decision operators and their iterations and cascades are provided. In a second step, an optimization of the data length is given for fixed-point hardware implementation of the Decision Feedback Equalizer DFE based on analytical models proposed and for iterative decoding algorithms such as turbo decoding and LDPC decoding-(Low-Density Parity-Check) in a particular quantization law. The first aspect of this work concerns the proposition analytical models for evaluating the accuracy of the non-smooth decision operators and the cascading of decision operators. So, the characterization of the quantization errors propagation in the cascade of decision operators is the basis of the proposed analytical models. These models are applied in a second step to evaluate the accuracy of the spherical decoding algorithmSSFE (Selective Spanning with Fast Enumeration) used for transmission MIMO systems (Multiple-Input Multiple -Output). In a second step, the accuracy evaluation of the iterative structures of decision operators has been the interesting subject. Characterization of quantization errors caused by the use of fixed-point arithmetic is introduced to result in analytical models to evaluate the accuracy of application of digital signal processing including iterative structures of decision. A second approach, based on the estimation of an upper bound of the decision error probability in the convergence mode, is proposed for evaluating the accuracy of these applications in order to reduce the evaluation time. These models are applied to the problem of evaluating the fixed-point specification of the Decision Feedback Equalizer DFE. The estimation of resources and power consumption on the FPGA is then obtained using the Xilinx tools to make a proper choice of the data widths aiming to a compromise accuracy/cost. The last step of our work concerns the fixed-point modeling of iterative decoding algorithms. A model of the turbo decoding algorithm and the LDPC decoding is then given. This approach integrates the particular structure of these algorithms which implies that the calculated quantities in the decoder and the operations are quantified following an iterative approach. Furthermore, the used fixed-point representation is different from the conventional representation using the number of bits accorded to the integer part and the fractional part. The proposed approach is based on the dynamic and the total number of bits. Besides, the dynamic choice causes more flexibility for fixed-point models since it is not limited to only a power of two.
67

Molecular Profiling in Pediatric Oncology – the MOSCATO-01 Experience // Characterization of SMARCB1-Altered Soft Tissue Sarcomas in Response to Pharmacological HDAC Inhibition / Profilage moléculaire en oncologie pédiatrique – expérience de l'essai MOSCATO-01 // Caractérisation des sarcomes des tissus mous présentant des altérations de SMARCB1 traités par des inhibiteurs des HDAC

Harttrampf, Anne Catherine 10 December 2018 (has links)
1ère partie: Bien que les patients pédiatriques présentent généralement des taux de survie élevés, environ 20% d’entre eux ne peuvent être guéris avec des approches thérapeutiques standards, principalement ceux souffrant de sarcomes métastatiques, neuroblastomes, tumeurs cérébrales et tumeurs rares. Afin d’établir de nouvelles modalités thérapeutiques en identifiant des facteurs moléculaires qui puissent être ciblés par des approches pharmacologiques, les essais cliniques MOSCATO-01 (Molecular Screening for Cancer Treatment Optimization, NCT01566019) et MAPPYACTS (NCT02613962) ont été respectivement initiés en 2011 et en 2016. Une caractérisation moléculaire systématique des biopsies tumorales de patients avec des tumeurs réfractaires ou en rechute a été réalisée afin de pouvoir proposer des traitements ciblés. Chez 75 patients pédiatriques inclus dans MOSCATO-01 avec des cancers solides comprenant des tumeurs cérébrales, nous avons mis en oeuvre des approches d’hybridation génomique comparée (CGH), de séquençage d’un panel de mutations présélectionnées et de séquençage des exomes et transcrits. Des altérations génomiques pouvant être ciblées ont été identifiées dans 60% des cas, incluant des variations du nombre de copies (42%), des mutations (33%), et des transcrits de fusion (2%). Ces altérations affectent des voies de signalisation oncogéniques majeures, incluant des récepteurs tyrosine kinases et leurs cibles. Des mutations germinales ont été identifiées chez 10% des patients. Quatorze patients ont reçu 17 traitements ciblés; une réponse objective ou une maladie sans progression a été observée chez 5 patients. Nos résultats montrent qu’une approche de médecine de précision peut être envisagée et que des altérations ciblables sont présentes dans les cancers pédiatriques. Les obstacles à franchir concernent l’identification et la sélection des cibles, et la mise en pratique clinique des approches thérapeutiques.2ème partie: Les sarcomes épithélioïdes, des tumeurs très rares, affectent tous les groupes d’âge, dont les adolescents, et présentent à la fois des caractères épithéliaux et mésenchymateux. Comme les tumeurs rhabdoïdes affectant les jeunes enfants, les sarcomes épithélioïdes sont caractérisés par des altérations de SMARCB1, un membre central du complexe de remodelage de la chromatine SWI/SNF. Le phénotype agressif et l’implication fréquente des RTKs dans ces deux tumeurs ainsi que leur similarité (épi-)génétique nous ont conduit à approfondir les relations fonctionnelles entre la régulation des RTKs, la signalisation cellulaire, et les effets de la modulation épigénétique. Des lignées cellulaires de chacun des types de tumeurs ont été étudiées pour déterminer la réponse à l’inhibition pharmacologique des RTKs et des HDAC, ainsi que mTOR et EZH2. La sensibilité la plus grande in vitro a été observée avec le Panobinostat, un inhibiteur de HDAC. Le Panobinostat induit la mort cellulaire et inverse partiellement la transition épithéliale-mésenchymateuse, qui pourrait être corrélée à une régulation différentielle des RTKs EGFR et FGFR2. Comme souvent observé dans le traitement des tumeurs solides par les seuls inhibiteurs de HDAC, le Panobinostat est associé à une inhibition modérée de la croissance tumorale in vivo dans un modèle de sarcome épithélioïde. La combinaison de l’inhibition des HDAC et de l’EGFR augmente la sensibilité vis-à-vis de cette dernière à la fois dans les sarcomes épithélioïdes et les tumeurs rhabdoïdes et représente une stratégie prometteuse pour le traitement des tumeurs solides. / Part 1: Although pediatric cancer patients have high survival rates, 20% cannot be cured with standard therapeutic regimens, predominantly those with metastatic sarcomas, neuroblastomas, malignant brain tumors and rare tumor types. To provide a new rationale for treatment definition by identifying new molecular targets that can be pharmacologically addressed, the Molecular Screening for Cancer Treatment Optimization (MOSCATO-01/NCT01566019) and the MAPPYACTS (NCT02613962) trials are running at Gustave Roussy since 2011 and 2016, respectively. Patients with relapsed or refractory malignancies are undergoing biopsy or surgical intervention at treatment failure for molecular characterization that allows the suggestion of a targeted treatment. In 75 pediatric patients with solid malignancies including brain tumors included in MOSCATO-01, we developed further the initial CGHarray and targeted gene sequencing panel, to whole-exome and RNA sequencing which is currently employed in the international follow-up trial MAPPYACTS. Actionable genomic alterations were identified in 60%, representing a copy number change in 42%, a mutation in 33% and a fusion transcript in 2%. Pathway allocation showed that these targets mainly affected prominent oncogenic signaling pathways including receptor tyrosine kinases and associated downstream signaling. Germline alterations were identified in 10% of patients. Fourteen patients received 17 targeted treatment approaches; objective response or prolonged stable disease was seen in five patients. Our results showed that this approach is safe and feasible in minors and that actionable alterations are present. Significant challenges were encountered in pipeline workflows, target definition, interpretation and selection, and clinical implementation.Part 2: Epithelioid sarcoma is an exceedingly rare soft tissue sarcoma occuring in all age groups, including adolescents and displays both epithelial and mesenchymal features. As rhabdoid tumors, a deleterious entity affecting very young children, epithelioid sarcoma is characterized by alterations affecting core SWI/SNF chromatin remodeling complex member SMARCB1. The aggressive phenotype and frequent involvement of receptor tyrosine kinases in both epithelioid sarcoma and rhabdoid tumor as well as their (epi-)genetic parallels led us to take deeper insight into the relation between tyrosine kinase regulation, signaling and effects of epigenetic modulation. Cell lines of both tumor types were studied in order to determine response to pharmacological inhibition by receptor tyrosine kinase and HDAC inhibitors as well as by agents inhibiting mTOR and EZH2. Both tumor types displayed highest in-vitro sensitivity towards pan-HDAC inhibitor panobinostat. Panobinostat sufficiently induced cell death and partially reversed epithelial-to-mesenchymal transition which could be related to differential regulation of receptor tyrosine kinases EGFR and FGFR2. As often observed in treatment of solid tumors with single agent HDAC inhibitors, panobinostat led to slight tumor growth inhibition in an in-vivo epithelioid sarcoma model. The combination of HDAC and EGFR inhibition increased sensitivity towards the latter in both epithelioid sarcoma and rhabdoid tumor and might be a promising strategy to sufficiently translate HDAC inhibitors into clinics for solid tumors.
68

Modeling the speed-accuracy tradeoff using the tools of information theory / Modélisation du compromis vitesse précision d'une tâche de pointage humain à l'aide des outils de la théorie de l'information

Gori, Julien 20 December 2018 (has links)
La loi de Fitts, qui relie le temps de mouvement MT dans une tache de pointage aux dimensions de la cible visée D et W est usuellement exprimée à partir d’une imitation de la formule de la capacité de Shannon MT = a + b log 2 (1 + D/W). Toutefois, l’analyse actuelle est insatisfaisante: elle provient d’une simple analogie entre la tache de pointage et la transmission d’un signal sur un canal bruité sans qu’il n’y ait de modèle explicite de communication.Je développe d’abord un modèle de transmission pour le pointage, où l’indice de difficulté ID = log 2 (1 + D/W) s’exprime aussi bien comme une entropie de source et une capacité de canal, permettant ainsi de réconcilier dans un premier temps l’approche de Fitts avec la théorie de l’information de Shannon. Ce modèle est ensuite exploité pour analyser des données de pointage récoltées lors d’expérimentations contrôlées mais aussi en conditions d’utilisations réelles.Je développe ensuite un second modèle, focalisé autour de la forte variabilité caractéristique du mouvement humain et qui prend en compte la forte diversité des mécanismes de contrôle du mouvement: avec ou sans voie de retour, par intermittence ou de manière continue. À partir d’une chronométrie de la variance positionnelle, évaluée à partir d’un ensemble de trajectoires, on remarque que le mouvement peut-être découpé en deux phases: une première où la variance augmente et une grande partie de la distance à couvrir est parcourue, est suivie d’une deuxième au cours de laquelle la variance diminue pour satisfaire les contraintes de précision requises par la tache.Dans la deuxième phase, le problème du pointage peut-être ramené à un problème de communication à la Shannon, où l’information est transmise d’une“source” (variance à la fin de la première phase) à une “destination” (extrémité du membre) à travers un canal Gaussien avec la présence d’une voie de retour.Je montre que la solution optimale à ce problème de transmission revient à considérer un schéma proposé par Elias. Je montre que la variance peut décroitre au mieux exponentiellement au cours de la deuxième phase, et que c’est ce résultat qui implique directement la loi de Fitts. / Fitts’ law, which relates movement time MTin a pointing task to the target’s dimensions D and Wis usually expressed by mimicking Shannon’s capacityformula MT = a + b log 2 (1 + D/W). Yet, the currentlyreceived analysis is incomplete and unsatisfactory: itstems from a vague analogy and there is no explicitcommunication model for pointing.I first develop a transmission model for pointing taskswhere the index of difficulty ID = log 2 (1 + D/W) isthe expression of both a source entropy and a chan-nel capacity, thereby reconciling Shannon’s informa-tion theory with Fitts’ law. This model is then levera-ged to analyze pointing data gathered from controlledexperiments but also from field studies.I then develop a second model which builds on thevariability of human movements and accounts for thetremendous diversity displayed by movement control:with of without feedback, intermittent or continuous.From a chronometry of the positional variance, eva-luated from a set of trajectories, it is observed thatmovement can be separated into two phases: a firstwhere the variance increases over time and wheremost of the distance to the target is covered, follo-wed by a second phase where the variance decreasesuntil it satisfies accuracy constraints. During this se-cond phase, the problem of aiming can be reduced toa Shannon-like communication problem where infor-mation is transmitted from a “source” (variance at theend of the first phase), to a “destination” (the limb ex-tremity) over a “channel” perturbed by Gaussian noisewith a feedback link. I show that the optimal solution tothis transmission problem amounts to a scheme firstsuggested by Elias. I show that the variance can de-crease at best exponentially during the second phase,and that this result induces Fitts’ law.
69

Functional characterization of INTS11 loss-of-function in zebrafish

Herold, Aveeva 10 1900 (has links)
Le gène INTS11 est une sous-unité catalytique du complexe Integrator qui joue un rôle central dans le traitement de divers ARN naissants. Récemment, des patients présentant des mutations de perte de fonction dans le gène INTS11 ont été signalés comme ayant des problèmes neurodéveloppementaux graves, des problèmes ataxiques et des retards de développement globaux. À ce jour, aucune mutation dans INTS11 n'a été liée à des maladies humaines, et aucune preuve ne soutient leur rôle dans des problèmes neurodéveloppementaux. Par conséquent, nous avons développé un modèle INTS11 knock-out (KO) F0 CRISPRant chez le poisson-zèbre pour caractériser fonctionnellement les mutations de perte de fonction de ce gène in vivo. Nos larves INTS11-KO présentent une accumulation accrue de snARN mal traités, confirmant la perturbation de la fonction du gène. De plus, les larves INTS11-KO meurent prématurément à 14 jours et présentent un phénotype comportemental aberrant, similaire à d'autres modèles génétiques de poisson-zèbre des troubles neurodéveloppementaux. Aussi, les larves INTS11-KO présentent une réduction de la taille du cerveau avec une réduction du contenu neuronal. Enfin, nos résultats d'immunomarquage ont révélé une réduction de la taille du cervelet chez les larves INTS11-KO. Dans l'ensemble, ces données soutiennent le rôle d'INTS11 dans le développement cérébral et sont cohérentes avec les retards neurodéveloppementaux décrits chez les patients présentant des mutations délétères dans ce gène. Notre étude montre comment des organismes modèles simples tels que le poisson-zèbre peuvent aider à caractériser l'étiologie génétique des troubles génétiques. Les résultats de nos recherches pourraient contribuer à des diagnostics plus précis et ouvrir la voie à la découverte de mécanismes pathogènes clés qui pourraient être exploités pour le développement de traitements pour les patients présentant des mutations dans INTS11. / The INTS11 gene is a catalytic subunit of the Integrator complex that plays a central role in processing various nascent RNAs. Recently, patients with loss-of-function mutations in the INTS11 gene have been reported to have severe neurodevelopmental issues, ataxic problems, and global developmental delays. To date, mutations in INTS11 have not been linked to human diseases, and no evidence supports their role in neurodevelopmental problems. Therefore, we developed an ints11 F0 CRISPRant knock-out (KO) model in zebrafish to functionally characterize loss-of-function mutations in this gene in vivo. Our ints11-KO larvae exhibited an increased accumulation of unprocessed snRNAs, confirming the disruption of the ints11 function. Moreover, ints11-KO larvae die prematurely by 14 days of age and display an aberrant behavioural phenotype, similar to other zebrafish genetic models of neurodevelopmental disorders. Furthermore, ints11-KO larvae show reduced brain size with reduced neuronal content. Finally, immunostaining results revealed a reduction in cerebellum size in our ints11-KO. Altogether, these data support the role of INTS11 in brain development and are consistent with the neurodevelopment delays described in patients with deleterious mutations in this gene. Our study shows how simple model organisms like zebrafish can help characterize the genetic etiology of genetic disorders. The results from our research could aid in more accurate diagnoses and open the path to unveiling key pathogenic mechanisms that could be leveraged for the development of treatment for patients with mutations in INTS11.
70

Précision et qualité en reconstruction tomographique : algorithmes et applications

Recur, Benoît 29 November 2010 (has links)
Il existe un grand nombre de modalités permettant l'acquisition d'un objet de manière non destructrice (Scanner à Rayons X, micro-scanner, Ondes Térahertz, Microscopie Électronique de Transmission, etc). Ces outils acquièrent un ensemble de projections autour de l'objet et une étape de reconstruction aboutit à une représentation de l'espace acquis. La principale limitation de ces méthodes est qu'elles s'appuient sur une modélisation continue de l'espace alors qu'elles sont exploitées dans un domaine fini. L'étape de discrétisation qui en résulte est une source d'erreurs sur les images produites. De plus, la phase d'acquisition ne s'effectue pas de manière idéale et peut donc être entachée d'artéfacts et de bruits. Un grand nombre de méthodes, directes ou itératives, ont été développées pour tenter de réduire les erreurs et reproduire une image la plus représentative possible de la réalité. Un panorama de ces reconstructions est proposé ici et est coloré par une étude de la qualité, de la précision et de la résistances aux bruits d'acquisition.Puisque la discrétisation constitue l'une des principales limitations, nous cherchons ensuite à adapter des méthodes discrètes pour la reconstruction de données réelles. Ces méthodes sont exactes dans un domaine fini mais ne sont pas adaptées à une acquisition réelle, notamment à cause de leur sensibilité aux erreurs. Nous proposons donc un lien entre les deux mondes et développons de nouvelles méthodes discrètes plus robustes aux bruits. Enfin, nous nous intéressons au problème des données manquantes, i.e. lorsque l'acquisition n'est pas uniforme autour de l'objet, à l'origine de déformations dans les images reconstruites. Comme les méthodes discrètes sont insensibles à cet effet nous proposons une amorce de solution utilisant les outils développés dans nos travaux. / A large kind of methods are available now to acquire an object in a non-destructive way (X-Ray scanner, micro-scanner, Tera-hertz waves, Transmission Electron Microscopy, etc). These tools acquire a projection set around the object and a reconstruction step leads to a representation of the acquired domain. The main limitation of these methods is that they rely on a continuous domain modeling wheareas they compute in a finite domain. The resulting discretization step sparks off errors in obtained images. Moreover, the acquisition step is not performed ideally and may be corrupted by artifacts and noises. Many direct or iterative methods have been developped to try to reduce errors and to give a better representative image of reality. An overview of these reconstructions is proposed and it is enriched with a study on quality, precision and noise robustness.\\Since the discretization is one of the major limitations, we try to adjust discrete methods for the reconstruction of real data. These methods are accurate in a finite domain but are not suitable for real acquisition, especially because of their error sensitivity. Therefore, we propose a link between the two worlds and we develop new discrete and noise robust methods. Finally, we are interesting in the missing data problem, i.e. when the acquisition is not uniform around the object, giving deformations into reconstructed images. Since discrete reconstructions are insensitive to this effect, we propose a primer solution using the tools developed previously.

Page generated in 0.0524 seconds