• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1303
  • 700
  • 234
  • 111
  • 97
  • 43
  • 36
  • 18
  • 16
  • 15
  • 15
  • 14
  • 11
  • 10
  • 10
  • Tagged with
  • 3138
  • 581
  • 547
  • 366
  • 355
  • 298
  • 295
  • 293
  • 237
  • 220
  • 213
  • 208
  • 191
  • 186
  • 178
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
731

Teorie a praxe tvorby učebnic chemie pro střední školy / Theory and practice in the creating of a chemistry textbooks for secondary schools

Klečka, Milan January 2011 (has links)
Teorie a praxe tvorby učebnic chemie pro střední školy Mgr. Milan Klečka Abstrakt: Disertační práce je zaměřena na problematiku teorie a praxe tvorby učebnic chemie pro střední školy. Východiskem práce je rozsáhlá rešerše naší a zahraniční literatury zaměřená na analýzu významu, pojetí, charakteristiky a hodnocení učebnic. Dále je uvedena příprava, realizace a výsledky rozsáhlého šetření v rámci České republiky, týkajícího se reálného používání učebnic chemie na středních školách. Formou dotazníkového šetření bylo zjištěno, jaké učebnice chemie jsou v současnosti v praxi nejpoužívanější. Nejvíce používané učebnice obecné a anorganické chemie byly pak vybrány k dalšímu hodnocení metodikou Nestlerová-Průcha-Pluskal. Byl proveden komplexní rozbor osmi nejpoužívanějších učebnic a učebnicových řad obecné a anorganické chemie a porovnány jejich parametry. V závěru disertační práce je uveden přehled jednotlivých parametrů pro každou učebnici a návrh kritérií pro tvorbu optimální učebnice chemie pro střední školy.
732

Těžké tautologie / Těžké tautologie

Pich, Ján January 2011 (has links)
We investigate the unprovability of NP$\not\subseteq$P/poly in various fragments of arithmetic. The unprovability is usually obtained by showing hardness of propositional formulas encoding superpolynomial circuit lower bounds. Firstly, we discuss few relevant techniques and known theorems. Namely, natural proofs, feasible interpolation, KPT theorem, iterability, gadget generators etc. Then we prove some original results. We show the unprovability of superpolynomial circuit lower bounds for systems admitting certain forms of feasible interpolation (modulo a hardness assumption) and for systems roughly described as tree-like Frege systems working with formulas using only a small fraction of variables of the statement that is supposed to be proved. These results are obtained by proving the hardness of the Nisan-Wigderson generators in corresponding proof systems.
733

Classification en complexité de problèmes de raisonnement non-monotone et d' énumération / Complexy classifications for nonmonotonic reasoning and enumeration

Schmidt, Johannes 16 October 2012 (has links)
Nous considérons dans cette thèse la complexité algorithmique de problèmes émanant de deux formalismes de raisonnement non-monotone: l'abduction et l'argumentation. Le premier est destiné à formaliser le processus de trouver des explications pour une manifestation observée, le second (et plus récent) offre un cadre théorique pour formaliser le processus de l'argumentation. Nous nous concentrons sur le problème d'existence d'une explication pour l'abduction et sur le problème d'existence d'un argument pour l'argumentation. Dans le cadre de la logique propositionnelle dans son ensemble ces problèmes sont considérés comme étant des tâches algorithmiques difficiles (ils sont souvent situés au deuxième niveau de l'hiérarchie polynomial). Notre but est d'une part de comprendre les sources de difficulté, et d'autre part d'identifier des fragments de la logique propositionnelle dans lequels ces problèmes sont résolubles efficacement. Pour cela nous considérons ces problèmes d'abduction et d'argumentation dans deux cadres bien-établis qui permettent des classifications de complexité : Le cadre de Post et celui de Schaefer. Dans le cadre de Post, des restrictions sont faites sur les connecteurs autorisés dans les formules utilisées. Dans le cadre de Schaefer, on considère les formules en forme normale conjonctive généralisée, les "clauses" sont alors des applications de relations booléennes à des variables et on restreint le type des relations autorisées. / In this thesis we consider the computational complexity of problems from two central formalisms of nonmonotonic reasoning: abduction and argumentation. The first one is designed to formalize the process of finding explanations for some observed manifestation, the second (and more recent) one gives a theoretical framework to formalize the process of argumentation. We focus on the explanation-existence problem for abduction and on the argument-existence problem for argumentation. Considered in full propositional logic these problems are believed to be computationally costly tasks (they are often situated at the second level of the polynomial hierarchy). With the purpose of understanding sources of hardness and of identifying tractable fragments of propositional logic we consider several abduction and argumentation problems in two well-established settings allowing for complexity classifications. In the first one, Post's Framework, restrictions are made on the allowed connectives in the used formulae, whereas in the second one, Schaefer's Framework, one considers formulae in conjunctive normal form, where the clauses are generalized to applications of arbitrary Boolean relations to variables and one restricts the allowed type of relations. We discuss differences and common features between the explanation-existence and the argument-existence problem in function of the two chosen frameworks. Finally, we consider enumeration. In particular we consider the problem of enumerating all solutions (models) of a propositional formula by non-decreasing weight in Schaefer's framework (the weight of a model being the number of variables assigned to true).
734

Complexité des dynamiques de jeux / Complexity of games dynamics

Zeitoun, Xavier 13 June 2013 (has links)
La th´eorie de la complexit´e permet de classifier les probl`emes en fonction de leur difficult´e. Le cadre classique dans lequel elle s’applique est celui d’un algorithme centralis´e qui dispose de toutes les informations. Avec l’essor des r´eseaux et des architectures d´ecentralis´ees, l’algo- rithmique distribu´ee a ´et´e ´etudi´ee. Dans un grand nombre de probl`emes, en optimisation et en ´economie, les d´ecisions et les calculs sont effectu´es par des agents ind´ependants qui suivent des objectifs diff´erents dont la r´ealisation d´epend des d´ecisions des autres agents. La th´eorie des jeux est un cadre naturel pour analyser les solutions de tels probl`emes. Elle propose des concepts de stabilit´e, le plus classique ´etant l’´equilibre de Nash.Une mani`ere naturelle de calculer de telles solutions est de “ faire r´eagir “ les agents ; si un agent voit quelles sont les d´ecisions des autres joueurs ou plus g´en´eralement un “ ´etat du jeu “, il peut d´ecider de changer sa d´ecision pour atteindre son objectif faisant ainsi ´evoluer l’´etat du jeu. On dit que ces algorithmes sont des “ dynamiques “.On sait que certaines dynamiques convergent vers un concept de solution. On s’int´eresse `a la vitesse de convergence des dynamiques. Certains concepts de solutions sont mˆeme complets pour certaines classes de complexit´e ce qui rend peu vraisemblable l’existence de dynamiques simples qui convergent rapidement vers ces solutions. On a utilis´e alors trois approches pour obtenir une convergence rapide : am´eliorer la dynamique (en utilisant par exemple des bits al´eatoires), restreindre la structure du probl`eme, et rechercher une solution approch´ee.Sur les jeux de congestion, on a ´etendu les r´esultats de convergence rapide vers un ´equilibre de Nash approch´e aux jeux n´egatifs. Cependant, on a montr´e que sur les jeux sans contrainte de signe, calculer un ´equilibre de Nash approch´e est PLS-complet. Sur les jeux d ’appariement, on a ´etudi´e la vitesse de dynamiques concurrentes lorsque les joueurs ont une information partielle param´etr´ee par un r´eseau social. En particulier, on a am´elior´e des dynamiques naturelles afin qu’elles atteignent un ´equilibre enO(log(n)) tours (avec n le nombre de joueurs). / Complexity theory allows to classify problems by their algorithmic hardness. The classical framework in which it applies is the one of a centralized algorithm that knows every informa- tion. With the development of networks and decentralized architectures, distributed dynamics was studied. In many problems, in optimization or economy, actions and computations are made by independant agents that don’t share the same objective whose realization depends on the actions of other agents. Game theory is a natural framework to study solutions of this kind of problem. It provides solution concepts such as the Nash equilibrium.A natural way to compute these solutions is to make the agents “react” ; if an agent sees the actions of the other player, or more generally the state of the game, he can decide to change his decision to reach his objective and updates the state of the game. We call �dynamics� this kind of algorithms.We know some dynamics converges to a stable solution. We are interested by the speed of convergence of these dynamics. Some solution concepts are even complete for some complexity classes which make unrealistic the existence of fast converging dynamics. We used three ways to obtain a fast convergence : improving dynamics (using random bits), finding simple subcases, and finding an approximate solution.We extent fast convergence results to an approximate Nash equilibria in negative congestion games. However, we proved that finding an approximate Nash equilibrium in a congestion games without sign restriction is PLS-complete. On matching game, we studied the speed of concurrent dynamics when players have partial information that depends on a social network. Especially, we improved natural dynamics for them to reach an equilibrium inO(log(n)) rounds (with n is the number of players).
735

Metody odhadů složitosti důkazů ve výrokové logice / Methods of proving lower bounds in propositional logic

Peterová, Alena January 2013 (has links)
In the present work, we study the propositional proof complexity. First, we prove an exponential lower bound on the complexity of resolution applying directly Razborov's approximation method, which was previously used only for bounds on the size of monotone circuits. Next, we use the approximation method for a new proof of an exponential lower bound on the complexity of random resolution refutations. That should have further applications in separating some theories in bounded arithmetic. In both cases, we use a problem from the graph theory called Broken Mosquito Screens. Finally, we state a conjecture that the approximation method is applicable even for stronger propositional proof systems, for example Cutting Plane Proofs. Powered by TCPDF (www.tcpdf.org)
736

Conceptualisation de l’agilité au sein d’une organisation de grande taille : la pratique d’un grand groupe minier et industriel marocain, l’Office Chérifien des Phosphates / Conceptualization of a big company's agility : the practice of a moroccan industrial mining group, the Cherfian Phosphat Office (OCP)

Sqalli, Hammad 26 November 2013 (has links)
Depuis l’avènement des environnements dits turbulents, une réflexion a vu le jour puis s’est développée autour du type de comportement stratégique et de compétences clés à adopter afin d’en limiter les effets négatifs. Cette réflexion a élevé le débat sur les processus d’adaptation en continu des organisations par rapport aux fluctuations exogènes. Ces perturbations peuvent également provenir de facteurs endogènes qui remodèlent les activités et les trajectoires organisationnelles. Les organisations sont alors contraintes à reconfigurer leurs processus pour mieux intégrer les changements. Mieux appréhender les fluctuations amène les organisations à plus d’anticipation, à plus de rapidité d’exécution, à plus de flexibilité et à plus d’apprentissages pour soutenir leurs projets de développement sur la durée. L’ensemble de ces mutations amènent ainsi les décideurs de tous bords à reconsidérer les hommes, les structures et les capacités organisationnelles dans une visée « agile ». L'agilité organisationnelle, entendue comme l’aptitude à se mouvoir promptement et justement dans des environnements incertains nécessite selon nous une investigation qualitative dans une perspective de meilleure compréhension du concept, car l’incomplétude de la littérature évacue les limites d’une notion qui semble figée. Notre investigation explore ainsi les représentations différenciées de la part des acteurs du concept, son opérabilité –complexe- dans les organisations, et vise enfin à élargir l’existant en apportant de nouveaux éléments de compréhension tels que la proximité, l’entrepreneuriat, la redéfinition de l’articulation du triptyque réactivité-flexibilité-proactivité… / Since the beginning of the so-called turbulent environments, thought has appeared and has developed around the type of strategic behaviour and key skills to be adopted in order to limit their negative effects. This thinking process has lifted up the debate to the ongoing adaptation processes of organisations according to exogenous fluctuations. These disturbances can also stem from endogenous factors that remodel activities and organisational paths. Organisations are therefore compelled to rearrange their processes to better integrate changes. A better approach to fluctuations leads organisations to more anticipation, quicker implementation, more flexibility and more learning that will enable them to sustain their development projects in the long run. All these alterations bring decision makers from all spheres of activity to reconsider men, structures and organisational capacities from an “agile” point of view.Organisational agility understood as the ability to move swiftly and rightly within uncertain environments requires according to this research a qualitative examination leading to a better understanding of the concept since it appears from the review of literature that the theoretical object of agility is described as rigid whereas it has its limits. This research thus explores the differentiated representations that the actors of agility make of the concept, its effectiveness, its (complex) functioning inside organisations. Finally, it also aims at enlarging the state-of-the-art by bringing new elements of understanding as proximity, entrepreneurship, redefinition of the triptych articulation: reactivity-flexibility-pro-activity.
737

Epistémologie des savoirs enseignés, appropriés et utilisés en masso-kinésithérapie. : Contribution des résultats de recherche en sciences de l’éducation à la création d’une discipline en masso-kinésithérapie pour garantir la sécurité des patients et la qualité des soins / Epistemology of knowledge taught, appropriate and used in physiotherapy. : Contribution of research results in science education to the creation of a discipline physiotherapy to ensure patient safety and quality of care

Lagniaux, Franck 22 May 2013 (has links)
La profession de masseur-kinésithérapeute est située à un tournant de son histoire. Les réformes en cours conduisent à questionner les savoirs enseignés et les compétences des masseurs-kinésithérapeutes pour garantir la sécurité du patient et la qualité des soins. Il a été cherché à connaître l'origine des savoirs en masso-kinésithérapie et à évaluer les dispositifs d'enseignements et d'appropriation de ces savoirs par les étudiants et par les professionnels de santé. Les résultats des études montrent que les écarts aux compétences attendues sont liés aux modalités d'enseignement et d'évaluation utilisées par les formateurs en formation initiale et en formation continue. Il apparait que les modalités pédagogiques utilisées par les formateurs sont souvent basées sur un socle théorique behavioriste, un modèle d'évaluation contrôle et des pratiques dogmatiques qui empêchent l'accès à la pensée et à la pratique « complexe » du soin. La formation n'optimise pas le développement des compétences de réflexivité, d'esprit critique et d'innovation nécessaires à la relation humaine de soin et à la sécurité idéale du patient. Cette thèse montre l'intérêt majeur de réaliser les enseignements en masso-kinésithérapie par des enseignants-chercheurs qui pensent, écrivent, discourent, agissent différemment des formateurs en formation initiale et en formation continue. Il est donc indispensable pour la sécurité du patient et pour la qualité des soins que la formation initiale et la formation continue en masso-kinésithérapie soient réalisées dans le cadre d'une discipline en masso-kinésithérapie sous la responsabilité d'enseignants-chercheurs en masso-kinésithérapie. / The profession of physiotherapist is located at a crossroads. Ongoing reforms lead to questioning the knowledge and skills taught physiotherapists to ensure patient safety and quality of care. It was sought to know the origin of knowledge in physiotherapy devices and evaluate teaching and ownership of such knowledge by students and health professionals. The study results show that the differences are expected to skills related to teaching methods and assessment used by teachers in initial training and continuing education. It appears that the teaching methods used by teachers are often based on a theoretical foundation behaviorist model evaluation and control practices that prevent access dogmatic thinking and practice "complex" care. Training of physiotherapists does not optimize the skills development of reflexivity, critical thinking and innovation needed in the human relationship of care and patient safety ideal. This thesis shows the major interest to carry out physiotherapy lessons by teachers and researchers who think, write, discoursing, act differently trainers in initial training and continuing education. It is therefore essential for patient safety and quality of care that initial training and continuing education in physiotherapy are carried out within the framework of a discipline physiotherapy under the responsibility of teachers researchers in physiotherapy.
738

Politiser l'action publique : une approche par les instruments : le cas du programme Constellation / Politicize public action : an approach based on tools : the case of the Constellation project

Ferguson, Yann 11 July 2014 (has links)
Les grands projets urbains sont devenus des éléments indispensables des stratégies de développement local, dans un contexte de compétition entre les territoires. Leur pilotage nécessite souvent une remise en question des formes organisationnelles convenues de l'action publique. Ainsi, le programme Constellation, opération toulousaine réunissant une zone industrielle et deux éco-quartiers, a été l’occasion de ré-instruire les connaissances et les pratiques urbaines locales. Ce processus se matérialise dans des instruments d’action délibérément mobilisés pour domestiquer l’incertitude générée par la mise à distance du fonctionnement traditionnel du système de fabrication de la ville. Ces instruments, qui peuvent être des chartes, des équipes-projets, des procédures de désignation d’urbanistes ou d’architectes, des normes qualité ou des bases-vie de chantier, mobilisent de nouveaux acteurs et de nouvelles formes managériales. Les usagers leur attribuent une capacité à transformer la culture du projet urbain. Cette thèse vise à comprendre comment les acteurs instrumentent leur action en situation d’incertitude. Elle montre que l’action instrumentée active quatre types de médiation, pragmatique, épistémique, interactive et symbolique, dont les combinaisons produisent quatre mécanismes de confinement des problèmes : la socialisation et la communalisation, la sélection et la socialisation. L’ensemble rend compte d’une politisation de l’action, dans la mesure où les instruments transforment la nature des échanges, passant d’échanges économiques à des échanges politiques. / Large urban projects have come to play an indispensible part in local development strategies, in the context of competition between areas. Their successful conduct often requires calling into question conventional ways of organizing public action. The Constellation project in Toulouse, including an industrial zone and two eco-neighborhoods, provides an occasion to re-examine local urban knowledge and practices. This process is seen in the tools used deliberately to calm the incertitude caused by departures from traditional ways of building cities. They can include charters, team projects, procedural designations of urbanists and architects, drawing up of quality standards and managing on-site locales. They mobilize new participants and new forms of management. Users of the site accredit them with an ability to transform an urban project’s culture. This doctoral thesis intends to provide an understanding of how participants use these tools in a situation of uncertainty. It shows how action involves four types of mediation: pragmatic, epistemic, interactive, and symbolic. Combinations of these produce four mechanisms for delimiting problems: association and community building, selection and socialization. The whole gives an account of the politicization of action insofar as the tools transform the nature of exchanges, from economic to political ones.
739

Résultats Positifs et Négatifs en Approximation et Complexité Paramétrée / Positive and Negative Results in Approximation and Parameterized Complexity

Bonnet, Edouard 20 November 2014 (has links)
De nombreux problèmes de la vie réelle sont NP-Difficiles et ne peuvent pas être résolus en temps polynomial. Deux paradigmes notables pour les résoudre quand même sont: l'approximation et la complexité paramétrée. Dans cette thèse, on présente une nouvelle technique appelée "gloutonnerie-Pour-La-Paramétrisation". On l'utilise pour établir ou améliorer la complexité paramétrée de nombreux problèmes et également pour obtenir des algorithmes paramétrés pour des problèmes à cardinalité contrainte sur les graphes bipartis. En vue d'établir des résultats négatifs sur l'approximabilité en temps sous-Exponentiel et en temps paramétré, on introduit différentes méthodes de sparsification d'instances préservant l'approximation. On combine ces "sparsifieurs" à des réductions nouvelles ou déjà connues pour parvenir à nos fins. En guise de digestif, on présente des résultats de complexité de jeux comme le Bridge et Havannah. / Several real-Life problems are NP-Hard and cannot be solved in polynomial time.The two main options to overcome this issue are: approximation and parameterized complexity. In this thesis, we present a new technique called greediness-For-Parameterization and we use it to improve the parameterized complexity of many problems. We also use this notion to obtain parameterized algorithms for some problems in bipartite graphs. Aiming at establishing negative results on the approximability in subexponential time and in parameterized time, we introduce new methods of sparsification that preserves approximation. We combine those "sparsifiers" with known or new reductions to achieve our goal. Finally, we present some hardness results of games such as Bridge and Havannah.
740

Understanding Deep Neural Networks and other Nonparametric Methods in Machine Learning

Yixi Xu (6668192) 02 August 2019 (has links)
<div>It is a central problem in both statistics and computer science to understand the theoretical foundation of machine learning, especially deep learning. During the past decade, deep learning has achieved remarkable successes in solving many complex artificial intelligence tasks. The aim of this dissertation is to understand deep neural networks (DNNs) and other nonparametric methods in machine learning. In particular, three machine learning models have been studied: weight normalized DNNs, sparse DNNs, and the compositional nonparametric model.</div><div></div><div><br></div><div>The first chapter presents a general framework for norm-based capacity control for <i>L<sub>p,q</sub></i> weight normalized DNNs. We establish the upper bound on the Rademacher complexities of this family. Especially, with an <i>L<sub>1,infty</sub></i> normalization, we discuss properties of a width-independent capacity control, which only depends on the depth by a square root term. Furthermore, if the activation functions are anti-symmetric, the bound on the Rademacher complexity is independent of both the width and the depth up to a log factor. In addition, we study the weight normalized deep neural networks with rectified linear units (ReLU) in terms of functional characterization and approximation properties. In particular, for an <i>L<sub>1,infty</sub></i> weight normalized network with ReLU, the approximation error can be controlled by the <i>L<sub>1</sub></i> norm of the output layer.</div><div></div><div><br></div><div>In the second chapter, we study <i>L<sub>1,infty</sub></i>-weight normalization for deep neural networks with bias neurons to achieve the sparse architecture. We theoretically establish the generalization error bounds for both regression and classification under the <i>L<sub>1,infty</sub></i>-weight normalization. It is shown that the upper bounds are independent of the network width and <i>k<sup>1/2</sup></i>-dependence on the network depth <i>k</i>. These results provide theoretical justifications on the usage of such weight normalization to reduce the generalization error. We also develop an easily implemented gradient projection descent algorithm to practically obtain a sparse neural network. We perform various experiments to validate our theory and demonstrate the effectiveness of the resulting approach.</div><div></div><div><br></div><div>In the third chapter, we propose a compositional nonparametric method in which a model is expressed as a labeled binary tree of <i>2k+1</i> nodes, where each node is either a summation, a multiplication, or the application of one of the <i>q</i> basis functions to one of the <i>m<sub>1</sub></i> covariates. We show that in order to recover a labeled binary tree from a given dataset, the sufficient number of samples is <i>O(k </i>log<i>(m<sub>1</sub>q)+</i>log<i>(k!))</i>, and the necessary number of samples is <i>Omega(k </i>log<i>(m<sub>1</sub>q)-</i>log<i>(k!))</i>. We further propose a greedy algorithm for regression in order to validate our theoretical findings through synthetic experiments.</div>

Page generated in 0.0601 seconds