• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 23
  • 17
  • 4
  • 2
  • 1
  • Tagged with
  • 88
  • 21
  • 12
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Estudo comparativo de aços rápidos AISI M3:2 produzidos por diferentes processos de fabricação

ARAUJO FILHO, OSCAR O. de 09 October 2014 (has links)
Made available in DSpace on 2014-10-09T12:52:07Z (GMT). No. of bitstreams: 0 / Made available in DSpace on 2014-10-09T13:59:43Z (GMT). No. of bitstreams: 0 / Neste trabalho aços rápidos ao molibdênio AISI M3:2 obtidos por diferentes processos de fabricação, submetidos ao mesmo procedimento de tratamento térmico, foram avaliados no que concerne às propriedades mecânicas de resistência à ruptura transversal e dureza. Os materiais em questão constaram dos aços rápidos comerciais Sinter 23 obtido por metalurgia do pó, o aço rápido VWM3C obtido pelo processo convencional e o aço rápido M3:2 obtido por uma técnica de metalurgia do pó que consiste de compactação uniaxial a frio de pós atomizados a água com e sem a adição de uma pequena quantidade de carbono na forma de grafite (0,3% em massa) e sinterização a vácuo com fase líquida. Esses aços rápidos foram avaliados através da comparação de suas propriedades. O aço rápido M3:2 foi sinterizado a vácuo podendo vir a se constituir numa alternativa economicamente mais viável do que o aço rápido MP Sinter 23 obtido por uma técnica de sinterização por compactação isostática a quente e com propriedades similares ao aço rápido processado pela rota convencional. A caracterização do aço rápido sinterizado a vácuo consistiu de medidas de densidades do compactado e após a sinterização. A sinterização produziu uma microestrutura aceitável e densidades próximas da densidade teórica desse aço rápido. A resistência à ruptura transversal foi avaliada através de ensaios de flexão em três pontos e a dureza através de medidas de dureza Rockwell C e Vickers. Os aços rápidos foram avaliados no que tange à microestrutura por uma técnica de microscopia eletrônica de varredura (MEV). Estabeleceu-se assim uma relação entre a microestrutura e a resistência à ruptura transversal desses aços após o tratamento térmico. Uma técnica de difração de raios X foi utilizada para a determinação das fases presentes e detecção da austenita retida. A contribuíção desse trabalho consiste na avaliação da relação microestrutura / propriedades mecânicas desses aços rápidos bem como na viabilização do aço rápido sinterizado a vácuo. / Tese (Doutoramento) / IPEN/T / Instituto de Pesquisas Energeticas e Nucleares - IPEN/CNEN-SP
42

Change-point detection and kernel methods / Détection de ruptures et méthodes à noyaux

Garreau, Damien 12 October 2017 (has links)
Dans cette thèse, nous nous intéressons à une méthode de détection des ruptures dans une suite d’observations appartenant à un ensemble muni d’un noyau semi-défini positif. Cette procédure est une version « à noyaux » d’une méthode des moindres carrés pénalisés. Notre principale contribution est de montrer que, pour tout noyau satisfaisant des hypothèses raisonnables, cette méthode fournit une segmentation proche de la véritable segmentation avec grande probabilité. Ce résultat est obtenu pour un noyau borné et une pénalité linéaire, ainsi qu’une autre pénalité venant de la sélection de modèles. Les preuves reposent sur un résultat de concentration pour des variables aléatoires bornées à valeurs dans un espace de Hilbert, et nous obtenons une version moins précise de ce résultat lorsque l’on supposeseulement que la variance des observations est finie. Dans un cadre asymptotique, nous retrouvons les taux minimax usuels en détection de ruptures lorsqu’aucune hypothèse n’est faite sur la taille des segments. Ces résultats théoriques sont confirmés par des simulations. Nous étudions également de manière détaillée les liens entre différentes notions de distances entre segmentations. En particulier, nous prouvons que toutes ces notions coïncident pour des segmentations suffisamment proches. D’un point de vue pratique, nous montrons que l’heuristique du « saut de dimension » pour choisir la constante de pénalisation est un choix raisonnable lorsque celle-ci est linéaire. Nous montrons également qu’une quantité clé dépendant du noyau et qui apparaît dans nos résultats théoriques influe sur les performances de cette méthode pour la détection d’une unique rupture. Dans un cadre paramétrique, et lorsque le noyau utilisé est invariant partranslation, il est possible de calculer cette quantité explicitement. Grâce à ces calculs, nouveaux pour plusieurs d’entre eux, nous sommes capable d’étudier précisément le comportement de la constante de pénalité maximale. Pour finir, nous traitons de l’heuristique de la médiane, un moyen courant de choisir la largeur de bande des noyaux à base de fonctions radiales. Dans un cadre asymptotique, nous montrons que l’heuristique de la médiane se comporte à la limite comme la médiane d’une distribution que nous décrivons complètement dans le cadre du test à deux échantillons à noyaux et de la détection de ruptures. Plus précisément, nous montrons que l’heuristique de la médiane est approximativement normale centrée en cette valeur. / In this thesis, we focus on a method for detecting abrupt changes in a sequence of independent observations belonging to an arbitrary set on which a positive semidefinite kernel is defined. That method, kernel changepoint detection, is a kernelized version of a penalized least-squares procedure. Our main contribution is to show that, for any kernel satisfying some reasonably mild hypotheses, this procedure outputs a segmentation close to the true segmentation with high probability. This result is obtained under a bounded assumption on the kernel for a linear penalty and for another penalty function, coming from model selection.The proofs rely on a concentration result for bounded random variables in Hilbert spaces and we prove a less powerful result under relaxed hypotheses—a finite variance assumption. In the asymptotic setting, we show that we recover the minimax rate for the change-point locations without additional hypothesis on the segment sizes. We provide empirical evidence supporting these claims. Another contribution of this thesis is the detailed presentation of the different notions of distances between segmentations. Additionally, we prove a result showing these different notions coincide for sufficiently close segmentations.From a practical point of view, we demonstrate how the so-called dimension jump heuristic can be a reasonable choice of penalty constant when using kernel changepoint detection with a linear penalty. We also show how a key quantity depending on the kernelthat appears in our theoretical results influences the performance of kernel change-point detection in the case of a single change-point. When the kernel is translationinvariant and parametric assumptions are made, it is possible to compute this quantity in closed-form. Thanks to these computations, some of them novel, we are able to study precisely the behavior of the maximal penalty constant. Finally, we study the median heuristic, a popular tool to set the bandwidth of radial basis function kernels. Fora large sample size, we show that it behaves approximately as the median of a distribution that we describe completely in the setting of kernel two-sample test and kernel change-point detection. More precisely, we show that the median heuristic is asymptotically normal around this value.
43

Détection d'anomalies et de ruptures dans les séries temporelles. Applications à la gestion de production de l'électricité / Detection of outliers and changepoints in time series. Applications over the management of electricity production

Allab, Nedjmeddine 21 November 2016 (has links)
Continental est l'outil de référence utilisé par EDF pour la gestion d'électricité à long terme. il permet d'élaborer la stratégie d'exploitation du parc constitué de centrales réparties sur toute l'europe. l'outil simule sur chaque zone et chaque scénario plusieurs variables telles que la demande d'électricité, la quantité générée ainsi que les coûts associés. nos travaux de thèse ont pour objectif de fournir des méthodes d'analyse de ces données de production afin de faciliter leur étude et leur synthèse. nous récoltons un ensemble de problématiques auprès des utilisateurs de continental que nous tentons de résoudre à l'aide des technique de détection d'anomalies et de ruptures dans les séries temporelles. / Continental is the main tool that edf uses for the long-term management of electricity. It elaborates the strategy exploitation of the electrical parc made up by power plants distributed all over europe. the tool simulates for each zone and each scenario several variables, such as the electricity demand, the generated quantity as well as the related costs. our works aim to provide methods to analyse the data of electricity production in order to ease their discovery and synthesis. we get a set of problmatics from the users of continental that we tent to solve through techniques of outliers and changepoints detection in time series.
44

Détection de ruptures multiples – application aux signaux physiologiques. / Multiple change point detection – application to physiological signals.

Truong, Charles 29 November 2018 (has links)
Ce travail s’intéresse au problème de détection de ruptures multiples dans des signaux physiologiques (univariés ou multivariés). Ce type de signaux comprend par exemple les électrocardiogrammes (ECG), électroencéphalogrammes (EEG), les mesures inertielles (accélérations, vitesses de rotation, etc.). L’objectif de cette thèse est de fournir des algorithmes de détection de ruptures capables (i) de gérer de long signaux, (ii) d’être appliqués dans de nombreux scénarios réels, et (iii) d’intégrer la connaissance d’experts médicaux. Par ailleurs, les méthodes totalement automatiques, qui peuvent être utilisées dans un cadre clinique, font l’objet d’une attention particulière. Dans cette optique, des procédures robustes de détection et des stratégies supervisées de calibration sont décrites, et une librairie Python open-source et documentée, est mise en ligne.La première contribution de cette thèse est un algorithme sous-optimal de détection de ruptures, capable de s’adapter à des contraintes sur temps de calcul, tout en conservant la robustesse des procédures optimales. Cet algorithme est séquentiel et alterne entre les deux étapes suivantes : une rupture est détectée, puis retranchée du signal grâce à une projection. Dans le cadre de sauts de moyenne, la consistance asymptotique des instants estimés de ruptures est démontrée. Nous prouvons également que cette stratégie gloutonne peut facilement être étendue à d’autres types de ruptures, à l’aide d’espaces de Hilbert à noyau reproduisant. Grâce à cette approche, des hypothèses fortes sur le modèle génératif des données ne sont pas nécessaires pour gérer des signaux physiologiques. Les expériences numériques effectuées sur des séries temporelles réelles montrent que ces méthodes gloutonnes sont plus précises que les méthodes sous-optimales standards et plus rapides que les algorithmes optimaux.La seconde contribution de cette thèse comprend deux algorithmes supervisés de calibration automatique. Ils utilisent tous les deux des exemples annotés, ce qui dans notre contexte correspond à des signaux segmentés. La première approche apprend le paramètre de lissage pour la détection pénalisée d’un nombre inconnu de ruptures. La seconde procédure apprend une transformation non-paramétrique de l’espace de représentation, qui améliore les performances de détection. Ces deux approches supervisées produisent des algorithmes finement calibrés, capables de reproduire la stratégie de segmentation d’un expert. Des résultats numériques montrent que les algorithmes supervisés surpassent les algorithmes non-supervisés, particulièrement dans le cas des signaux physiologiques, où la notion de rupture dépend fortement du phénomène physiologique d’intérêt.Toutes les contributions algorithmiques de cette thèse sont dans "ruptures", une librairie Python open-source, disponible en ligne. Entièrement documentée, "ruptures" dispose également une interface consistante pour toutes les méthodes. / This work addresses the problem of detecting multiple change points in (univariate or multivariate) physiological signals. Well-known examples of such signals include electrocardiogram (ECG), electroencephalogram (EEG), inertial measurements (acceleration, angular velocities, etc.). The objective of this thesis is to provide change point detection algorithms that (i) can handle long signals, (ii) can be applied on a wide range of real-world scenarios, and (iii) can incorporate the knowledge of medical experts. In particular, a greater emphasis is placed on fully automatic procedures which can be used in daily clinical practice. To that end, robust detection methods as well as supervised calibration strategies are described, and a documented open-source Python package is released.The first contribution of this thesis is a sub-optimal change point detection algorithm that can accommodate time complexity constraints while retaining most of the robustness of optimal procedures. This algorithm is sequential and alternates between the two following steps: a change point is estimated then its contribution to the signal is projected out. In the context of mean-shifts, asymptotic consistency of estimated change points is obtained. We prove that this greedy strategy can easily be extended to other types of changes, by using reproducing kernel Hilbert spaces. Thanks this novel approach, physiological signals can be handled without making assumption of the generative model of the data. Experiments on real-world signals show that those approaches are more accurate than standard sub-optimal algorithms and faster than optimal algorithms.The second contribution of this thesis consists in two supervised algorithms for automatic calibration. Both rely on labeled examples, which in our context, consist in segmented signals. The first approach learns the smoothing parameter for the penalized detection of an unknown number of changes. The second procedure learns a non-parametric transformation of the representation space, that improves detection performance. Both supervised procedures yield finely tuned detection algorithms that are able to replicate the segmentation strategy of an expert. Results show that those supervised algorithms outperform unsupervised algorithms, especially in the case of physiological signals, where the notion of change heavily depends on the physiological phenomenon of interest.All algorithmic contributions of this thesis can be found in ``ruptures'', an open-source Python library, available online. Thoroughly documented, ``ruptures'' also comes with a consistent interface for all methods.
45

Detection of Rupture-Repair Sequences in Patterns of Alliance Development: The Effects of Client vs. Therapist Raters and Therapist Training Status

Davis, Elizabeth Helen January 2005 (has links)
No description available.
46

Ruptures ; précédé de Petite corrida sur le motif littéraire de la tauromachie

Bernard, Daniel 02 1900 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal. / L'histoire se déroulera en Espagne pendant la fête de la Saint-Firmin : la fête des taureaux à Pampelune. C'est dans cette atmosphère d'ivresse et de carnaval que de jeunes voyageurs, cherchant la trace d'Hemingway, assisteront à une corrida. Troublé par la disparition de son amie, l'un d'eux s'engagera alors sur une voie irréversible qui l'amènera à vivre une série de ruptures, à la fois intérieures et extérieures. Plutôt que d'analyser ces ruptures, notre intention sera de les montrer à travers divers événements : le voyage, la fête, la tauromachie et l'amour. Ainsi, notre récit sera presque journalistique au début ; la narration, en focalisation externe (Dashiel Hammett : La Clé de verre, Ernest Hemingway : Paradis perdu ; certains auteurs français du XIXe siècle introduisent l'intrigue de cette façon : Balzac : La Peau de chagrin, Flaubert : Madame Bovary), permettra d'examiner de l'extérieur la rupture physique. Par la suite, la narration, en focalisation interne (Stendhal : La Chartreuse de Parme ; James : Les Ambassadeurs ; Joyce : Le Portrait de l'artiste), permettra d'investir l'espace mental du héros afin de montrer deux autres ruptures, toutes intérieures celles-là. L'originalité du projet résidera dans l'utilisation de la tauromachie comme structure du récit. Ainsi, le récit - comme la tragédie de la corrida - sera divisé en trois actes : dans le premier acte, le "tercio de varas", le héros prendra conscience qu'il est seul. Dans le deuxième acte, le "tercio de banderillas", l'amour-propre du héros se retrouvera bafoué et déchiré. C'est dans le dernier acte, le "tercio de la muerte", que le héros subira la mort de ses illusions. Nous venons de le voir, le motif de la corrida sera très important dans le texte de création. Or, plusieurs écrivains se sont intéressés à la tauromachie, dont Michel Leiris dans un court essai intitulé "De la littérature considérée comme une tauromachie". Dans notre essai critique, nous visiterons ces auteurs et nous chercherons à comprendre comment le motif de la course de taureau intervient dans leurs textes.
47

Étude de la sensibilité aux gradients thermiques de billettes lors des opérations de réchauffage / Sensitivity of round bars on thermal gradient during a reheating step

Barbier, Damien 09 December 2013 (has links)
Dans le cadre des opérations de perçage, les billettes en acier subissent un réchauffage de la température ambiante à une température d’environ 1250°C. Au cours de ce réchauffage, le gradient de température dans les billettes entraîne la détérioration de la santé axiale de celles-ci et est à l’origine de l’apparition de défauts sur le tube formé. Une méthodologie d’analyse des mécanismes à l’origine de ces défauts a été mise en place. Elle se base sur la caractérisation de la santé axiale par essais rhéologiques permettant d’établir des indicateurs de ductilité et par des examens métallurgiques identifiant les défauts internes.L'étude de la sollicitation thermomécanique induite par le réchauffage du produit est analysée à l’aide de simulations numériques par éléments finis et les zones de sollicitations critiques associées au procédé sont identifiées. La caractérisation des anomalies observées sur les billettes est ensuite faite à partir d’essais de fissuration et de simulations numériques X-FeM. L’implémentation d’un critère de rupture en contrainte dans la simulation du cycle de chauffe a permis de définir les valeurs de gradient thermique limite et les courbes de chauffe optimales. Les analyses montrent que les conditions de chauffe en début de cycle thermique ont une forte influence sur la santé axiale des billettes. Les résultats de ces travaux conduisent à des solutions concrètes pour l’amélioration de la productivité. / As part of the piercing operations, billets undergo a reheating process from room temperature to a temperature of about 1250°C. During this heating, the thermal gradient in the billet leads to a deterioration of the axial health and is responsible of the initiation ofdefects on the formed tube.A methodology for the analysis of the mechanisms at the origin of these defects has been established. It is based on first, the characterization of the axial health with hot rheological tests to establish some indicators of ductility and second, on metallurgical analyses to identify the internal defects.Then finite element simulations have been performed to study the thermo-mechanical loadings induced by heating. Critical solicitation zones of the product during the processes have been identified.Finally a characterization of the observed defects into the billets has been led coupling cracks growth tests and X-FeM numerical simulations. The implementation of the experimental stress failure criterion, in the simulation of the heating cycle allows to obtain good values of thermal gradient boundary curves and leads to optimal heating curves.The analysis shows that the conditions at the beginning of the reheating process have a strong influence on the axial health of the billets. The results of these studies lead to friendly industrial solutions for improving productivity.
48

Le pouvoir des banques centrales face aux défis des marchés financiers / The stance of central banks vis-à-vis financial markets

Bakhit, Salma 23 June 2014 (has links)
La thèse se propose, dans une première partie, de décrire l'origine des débats sur la nécessité d'une banque centrale jusqu'aux formulations actuelles. Sont examinés les éléments qui ont posé les bases d'un prêteur ultime et favorisé la maturation de ce métier, de même que sont mis en relief les résultats accumulés depuis deux siècles. Notre attention porte sur la Réserve Fédérale des Etats-Unis. Les économistes sont en quête de solutions afin de prévenir les crises financières. Ainsi a été proposé un élargissement du tableau de bord de manière à contenir les prix d'actif dans une approche macro et micro-prudentielle. Parallèlement, sont analysés les canaux par lesquels la politique monétaire influence les variables réelles et financières de l'économie, et qui attestent alors du rôle pouvant être théoriquement assumé par la banque centrale sur les marchés financiers. La deuxième partie concentre le propos sur les ressorts des crises financières. Nous nous intéressons au paradoxe de la surliquidité et du surendettement, en insistant sur les particularités des marchés financiers devenant plus vulnérables. La contribution de la thèse dans cette étape consiste à vérifier si la banque centrale contribue à la manifestation de comportements abusifs et excessifs sur les marchés financiers par l'abondante création de liquidité. Notre étude empirique devrait permettre de répondre à cette question à travers une modélisation économétrique et des tests statistiques (dont le test de Chow) appliqués à une politique monétaire active (type règle de Taylor). En ce sens, cette recherche sur les actions de la Fed vise à forger une opinion sur le métier de banquier central et sur son devenir. / The thesis proposes, in a first part, to describe the origin of the debate on the need for a central bank up until the recent formulations. They were examined the elements which have posed the bases of an "ultimate lender" and promoted the maturation of this function, as were highlighted the results accumulated over two centuries. Our attention is drawn to the Federal Reserve of the United States. The economists are always in search for solutions to prevent financial crises. It has thus been proposed to extend the dashboard of central banks as to contain asset prices in a macro and micro-prudential approach. In parallel, in order to support this debate, we analyze the mechanisms by which the monetary policy affects the real and financial variables of the economy, which also affirm the role that can be assumed in theory by a central bank on financial markets. The second part focuses on the recurrence and intensity of financial crises. We consider the paradox of excess liquidity and over-indebtedness, with an emphasis on properties of financial markets becoming more vulnerable and their recent development. The contribution of the thesis in this stage consists of checking whether the central bank is responsible of abusive and excessive behavior on the financial markets by the abundant creation of liquidity. Our empirical study should help to answer this question through an econometric modeling and statistical tests (including the Chow test) applied to an active monetary policy (type Taylor rule). In this way, our research on the actions of the Fed aims to forge an opinion on the profession of modern central bankers, and perhaps on the future of central banks themselves.
49

As aprendizagens do conceito energia do metabolismo celular nas interações entre professores e estudantes mediadas pelos livros didáticos de biologia do ensino médio

Wirzbicki, Sandra Maria January 2015 (has links)
O Programa Nacional do Livro Didático (PNLD) (BRASIL, 2011) é uma política pública que avalia, seleciona e distribui livros didáticos (LDs) para estudantes da educação básica brasileira. Apesar disto, os livros apresentam limitações e abordagens conceituais ou estruturais inadequadas, que repercutem no ensino e aprendizagem em sala de aula. Mesmo com abordagem variada dos conteúdos de Ciências da Natureza e suas Tecnologias (CNTs), o LD constitui o principal recurso em sala de aula. É fundamental empreender esforços para uma compreensão ampliada das repercussões, no ensino, do tratamento dos conteúdos propostos nos LDs, que reforça uma visão linear e fragmentada dos conhecimentos científicos. A questão de pesquisa “Que evidências de aprendizagens do conceito „energia do metabolismo celular‟ podem ser identificadas no ensino de Biologia no EM a partir da interação professor e aluno mediada pelo LD?” orientou o processo. O entendimento de “energia” “não é algo simples nem consensual”; por isso foram observadas as descrições relativas à “energia” do metabolismo celular em oito coleções de LDs de Biologia do Ensino Médio (LDBEM) do Guia do PNLD/2012 (BRASIL, 2011) para a 1ª série. Fundamentada em Moraes e Galiazzi (2007), procedeu-se a transcrição de excertos dos LDBEMs analisados ao conceituar “energia” e suas relações com o metabolismo. Foi possível reconhecer um conjunto de descritores identificados por palavras que geraram unidades de análise, tais como: 1) seres vivos e energia na respiração, fermentação e fotossíntese; 2) energia nas substâncias, nas ligações e reações químicas dos organismos – ADP e ATP; 3) tipos e fontes de energia (cinética, potencial e de massa) (MOREIRA, 1998); 4) relações de energia na área de CNT; 5) representações de energia (figuras, modelos, tabelas...) Após, entrevistas semiestruturadas foram realizadas com cinco professores de Biologia do Ensino Médio, que utilizam LDBEM em suas aulas, acerca de suas concepções de “energia”. Outra etapa da pesquisa foi compreender as aprendizagens dos estudantes do EM sobre o conceito “energia”, por meio da análise das respostas obtidas na aplicação de um questionário estruturado e na elaboração de esquemas conceituais sobre o tema. As unidades, que emergiram da análise dos LDBEMs, nortearam a identificação dos recortes significativos das transcrições das entrevistas e possibilitaram perceber as compreensões dos professores acerca do conceito, bem como direcionaram as observações e descrições das respostas ao questionário e dos esquemas produzidos pelos estudantes. Explicitações do conceito nos LDBEMs, em sua maioria, estão distantes das concepções dos professores e das compreensões dos estudantes, constituindo obstáculos à aprendizagem. A triangulação dos dados da pesquisa permite reflexões sobre a significação conceitual e a necessidade de inter-relações na área de CNT, tanto na educação básica quanto na formação docente, relativas ao complexo conceito “energia” do metabolismo celular. / The National Textbook Program (NTBP) (BRASIL, 2011) is a public policy to evaluate, select and distribute textbooks (TB) to students in the Brazilian elementary education. However, the books it still features limitations and unsuitable conceptual or structural approaches that affect teaching and learning in the classroom. Despite the varied approach for contents in Nature Science and its Technologies (NST), the TB comprises the main recourse in the classroom. It is essential that efforts be made for a broader understanding of the repercussions in teaching of the handling of the contents proposed by the TB that reinforce a linear, fragmented view. The following research question “what learning evidence from the „cellular metabolism energy‟ concept can be identified in Biology teaching at the elementary education level from the teacher-student interaction that is mediated by the?”, guided the process. The understanding of “energy” cannot be seen as being neither simple nor consensual, thus the descriptions related to the cellular metabolism “energy” were observed from eight Elementary Education Biology from the /2012 (BRASIL, 2011) guide for the 1st grade. Based on Moraes & Galiazzi (2007), the transcription of the analyzed excerpts that conceptualized „energy‟ and its relationship with metabolism. It was possible to recognize a set of descriptors that were identified through words, which generated units of analysis such as: 1) Living beings and energy in breathing, fermentation and photosynthesis; 2) Energy in substances, chemical bonds and organism reactions – ADP and ATP; 3) Types and sources of energy (kinetic, potential and mass) (MOREIRA, 1998); 4) Energy relations in the CNT area; 5) Representations of energy (figures, models, tables...) After that, semistructured interviews were made with five Biology teachers who have used the Highschool Textbook in class about their conceptions of “energy”. Another research stage was to understand how learning takes place for intermediate education students regarding the “energy” concept through a questionnaire followed by the construction of conceptual schematics by the students. The units of analysis that arose from the Highschool Textbook analysis directed the significant cuttings of the interview transcriptions and allowed to perceived the teachers' understanding of the concept; and also guided the views for studying the schematics produced by the students. The majority of explanations for the concept in the Highschool Textbook are far from the teachers' conceptions and students' understanding, which constitutes obstacles to learning. Research data triangulation allows for reflections upon the conceptual significance and the need for interrelations in the CNT area, both in elementary education and in teacher training relative to the complex concept of cellular metabolism “energy”.
50

Estimation adaptative par sélection de partitions en rectangles dyadiques

Akakpo, Nathalie 07 December 2009 (has links) (PDF)
Dans cette thèse, nous étudions divers problèmes d'estimation par sélection d'estimateurs constants ou polynomiaux par morceaux sur des partitions en intervalles ou rectangles dyadiques, en utilisant un critère de type moindres carrés pénalisé adéquat. Nos travaux portent sur trois sujets différents. Nous nous intéressons tout d'abord à l'estimation d'une loi de probabilité discrète, ainsi qu'à une application à la détection de ruptures multiples. Puis, nous proposons un cadre unifié pour l'estimation fonctionnelle basée sur des données éventuellement censurées. Enfin, nous étudions simultanément l'estimation de densité multivariée et de densité conditionnelle pour des données dépendantes. Le choix de la collection de partitions en intervalles ou rectangles dyadiques s'avère intéressant aussi bien en théorie qu'en pratique. En effet, notre estimateur pénalisé vérifie dans chacun des cadres une inégalité de type oracle non-asymptotique, pour une pénalité bien choisie. Il atteint également la vitesse minimax à constante près sur de nombreuses classes de fonctions, dont la régularité est éventuellement à la fois non homogène et non isotrope. Cette propriété, qui à notre connaissance n'a été démontrée pour aucun autre estimateur, repose sur des résultats d'approximation dont les preuves sont inspirées d'un article de DeVore et Yu. Par ailleurs, le calcul de notre estimateur dans un cadre univarié est basé sur un algorithme de plus court chemin dont la complexité est seulement linéaire en la taille de l'échantillon.

Page generated in 0.7538 seconds