• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 76
  • 25
  • 17
  • 12
  • 5
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 257
  • 96
  • 96
  • 89
  • 67
  • 53
  • 44
  • 41
  • 38
  • 38
  • 35
  • 33
  • 33
  • 33
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Implantation et nouvelles applications de la méthode d'équivalence de Cartan

Neut, Sylvain Petitot, Michel. January 2003 (has links) (PDF)
Thèse doctorat : Informatique : Lille 1 : 2003. / N° d'ordre (Lille 1) : 3296. Résumé en français et en anglais. Bibliogr. p. 133-136.
32

Calcul formel et parallélisme résolution de systèmes linéaires /

Villard, Gilles Della Dora, Jean Verjus, Jean-Pierre. January 2008 (has links)
Reproduction de : Thèse de doctorat : informatique : Grenoble, INPG : 1988. / Titre provenant de l'écran-titre. Bibliogr. p. 155-159.
33

Orientace procesu podle zákazníků / Customer focused process

Kutypa, Tomáš January 2013 (has links)
This thesis deals with the identification of customer requirements laid down in the document Formel Q. Based on the requirements of the verification of whether the organization meets these customer requirements. Verification of compliance with customer requirements is accomplished by performing the process and product audit of the organization.
34

Calcul formel et parallélisme : l'architecture du système PAC et son arithmétique rationnelle

Roch, Jean-Louis 05 December 1989 (has links) (PDF)
Pac est un système de calcul formel dédié a une machine Mind massivement parallèle. Dans une première partie, l'architecture du système est décrite. Elle est illustrée par une modélisation théorique et pratique de la parallélisation du produit de deux polynômes. Le système Pac est implante sur la machine t40 de Fps (32 processeurs). Dans une deuxième partie, l'arithmétique nodale en précision infinie sur les rationnels est étudiée. Différents algorithmes sont dégagés, notamment pour la multiplication, la division et le pgcd d'entiers de taille quelconque. Une vectorisation de l'arithmétique de base est discutée et expérimentée
35

Mesure d'indépendance linéaire de logarithmes dans un groupe algébrique commutatif

Gaudron, Eric 08 December 2001 (has links) (PDF)
Cette thèse s'inscrit dans la lignée des travaux relatifs à la théorie des formes linéaires de logarithmes. Elle comporte deux parties ainsi que trois annexes. Dans la première partie, nous nous intéressons au cas général d'un groupe algébrique commutatif quelconque, défini sur la clôture algébrique de Q. Étant donné un tel groupe G, un hyperplan W de l'espace tangent à l'origine de G et $u$ un point complexe de cet espace tangent, dont l'image par l'exponentielle du groupe de Lie complexe G(C) est algébrique, nous obtenons une minoration de la distance de u à W, qui améliore les résultats connus auparavant et qui, en particulier, est optimale en la hauteur de l'hyperplan W. La démonstration repose sur la méthode de Baker ainsi que sur un nouvel argument de nature arithmétique (procédé de changement de variables de Chudnovsky) qui nous permet d'évaluer précisément les normes ultramétriques des nombres algébriques construits au cours de la preuve. Dans la seconde partie, nous étudions plus en détail le < non-homogène>> (dans lequel le groupe G est le produit direct du groupe $\mathbb{G}_{\mathrm{a}}$ et d'une variété abélienne) et nous établissons une nouvelle mesure, comparable à celle donnée dans la première partie mais totalement explicite en les invariants liés à la variété abélienne. La particularité de cette seconde partie est de mettre en oeuvre, pour la première fois dans ce contexte, la méthode des pentes de J.-B. Bost et certains résultats de géométrie d'Arakelov qui lui sont attachés.
36

Optimisation polynomiale et variétés polaires : théorie, algorithmes, et implantations

Greuet, Aurélien 05 December 2013 (has links) (PDF)
Le calcul de l'infimum global $f^*$ d'un polynôme à $n$ variables sous contraintes est une question centrale qui apparaît dans de nombreux domaines des sciences de l'ingénieur. Pour certaines applications, il est important d'obtenir des résultats fiables. De nombreuses techniques ont été développées dans le cas où les contraintes sont données par des inéquations polynomiales. Dans cette thèse, on se concentre sur le problème d'optimisation d'un polynôme à $n$ variables sous des contraintes définies par des équations polynomiales à $n$ variables. Notre but est d'obtenir des outils, algorithmes et implémentations efficaces et fiables pour résoudre ces problèmes d'optimisation. Notre stratégie est de ramener le problème d'optimisation sous des contraintes qui définissent des ensembles algébriques de dimension quelconque à un problème équivalent, sous des nouvelles contraintes dont on maîtrise la dimension. La variété algébrique définie par ces nouvelles contraintes est l'union du lieu critique du polynôme objectif et d'un ensemble algébrique de dimension au plus 1. Pour cela, on utilise des objets géométriques définis comme lieux critiques de projections linéaires. Grâce au bon contrôle de la dimension, on prouve l'existence de certificats pour des bornes inférieures sur $f^*$ sur nos nouvelles variétés. Ces certificats sont donnés par des sommes de carrés et on ne suppose pas que $f^*$ est atteint. De même, on utilise les propriétés de nos objets géométriques pour concevoir un algorithme exact pour le calcul de $f^*$. S'il existe, l'algorithme renvoie aussi un minimiseur. Pour un problème avec $s$ contraintes et des polynômes de degrés au plus $D$, la complexité est essentiellement cubique en $(sD)^n$ et linéaire en la complexité d'évaluation des entrées. L'implantation, disponible sous forme de bibliothèque Maple, reflète cette complexité. Elle a permis de résoudre des problèmes inatteignables par les autres algorithmes exacts.
37

Karlstad Vision 100 000 och dess implementering för Karlstads Elnät AB 2011-2015

Samuelsson, Robert January 2011 (has links)
The town of Karlstad has a long term project called Vision 100 000 which aim is to increase the population towards 100 000 inhabitants. This will of course put a strain for the town’s energy distribution grid. This is a work about trying to predict the grids power usage would be for the next five years if the city building plan is finalized. Those predictions are mainly going to be done through calculations with a database program called Facilplus and by checking the measured history of power usage per hour on certain selected customers by the program CustCom.  The peak for power usage happened the 22 December at 4 am. This date is important because it would give the main measure for how much it the grid is able to deliver. The future prognoses of the power usage are then going to be calculated. This is going to be done by making sure that the total areas of newly constructed buildings are going to be measured. A mean value for area and power usage is then going to be calculated for respective single houses and apartment houses. This would in turn give the important necessary value that would enable to give Karlstad Elnät AB a mean to calculate a new primarily prognosis for the next five years plan. These prognoses would then be used as plans how to newly constructed habitation areas would affect the energy grid in Karlstad. / Karlstads Kommun har en vision att få en befolkningsmängd på 100 000 invånare. För att få en bild av det framtida energibehovet bör man först skapa sig en bild över dagens elbehov. Detta sker på två sätt, först genom att summera energiuttaget från alla de elmätare som finns under nätstationerna som hämtas från insamlingssystemet CustCom. Här får man timrapporten för varje kunds energiförbrukning. Man är då särdeles intresserad av den dagen då nätet var som hårdast belastat. Detta skedde under julhelgen 22 december 2010 klockan 16.00. Den andra metoden är att få fram värden genom beräkningar via javaprogrammet Facilplus. Programmet används även för nätdokumentation (var stationerna och kablar befinner sig geografiskt) och projektering av utbyggnaderna. Belastningsberäkningarna i Facilplus använder sig av Velanders formel för att räkna fram effekten från kända årsförbrukningar av Karlstad Elnät AB:s kunder.  När det gäller att prognosera effektanvändningen för nybebyggelserna, beräknas först ett standardvärde för respektive byggnad (specifik energiförbrukning). Detta värde beräknas med hjälp av byggnaders ytor utifrån begärda ritningar från några noga utvalda områden. Därefter kan energianvändningen per kvadratmeter beräknas utifrån uppmätt energiförbrukning för de kunderna i respektive byggnad. Omvandlingen sker sedan från energiförbrukning till effektförbrukning och man får därmed ett bra mått på hur en viss byggnadstyp har för energianvändning.  Då antalet bostäder som ska byggas ut under perioden är kända från de byggnadsplaner som är tillgängliga för allmänheten kan man sedermera få fram en översiktlig storlek för varje nybyggnadsområdes framtida energianvändning. Det kommer även sålunda bli möjligt att avgöra om elnätet bör byggas ut eller om stationer ska omplaceras så att de hamnar inom andra mottagningsstationers matningsområden. Befintliga mottagningsstationer har kapacitet för ytterligare utbyggnad av Karlstad i olika riktningar.
38

Représentations visuelles adaptatives de connaissances associant projection multidimensionnelle (MDS) et analyse de concepts formels (FCA)

Villerd, Jean 19 November 2008 (has links) (PDF)
Les outils de recherche d'information sont confrontés à un accroissement constant à la fois du volume et du nombre de dimensions des données accessibles. La traditionnelle liste de résultats ne suffit plus. Un réel besoin en nouvelles techniques de représentation visuelle émerge. Ces nouvelles techniques doivent permettre d'appréhender de manière globale des données nombreuses et multidimensionnelles, en révélant les tendances et la structure générales. On souhaite également pouvoir observer de façon détaillée un ensemble plus restreint de données selon un certain point de vue correspondant à des dimensions particulières. Notre objectif principal est d'assister l'utilisateur dans sa tâche d'exploration de l'information par une articulation judicieuse entre vue globale et vues locales maintenant sa carte mentale. Pour atteindre cet objectif, nous allions des techniques d'analyse de données capables d'identifier des sous-ensembles pertinents, à des techniques de visualisation d'information permettant de naviguer dynamiquement et intuitivement parmi ces sous-ensembles. Une attention particulière est portée aux problèmes liés aux données manquantes, d'une part, et aux données indexées sur des dimensions mixtes (binaires, nominales, continues), d'autre part. De plus, conformément aux attentes de la communauté visualisation, nous définissons un cadre formel pour la spécification de visualisations à partir des données à représenter. Concrètement, nous proposons une méthode de navigation originale associant des techniques de FCA (Formal Concept Analysis) et de visualisation multidimensionnelle MDS (MultiDimensional Scaling). Cette méthode s'appuie sur le paradigme de visualisation "overview + detail" constitué d'une vue globale révélant la structure des données et d'une vue locale affichant les détails d'un élément de la vue globale. Nous tirons parti des propriétés de regroupement du treillis de Galois en l'utilisant comme vue globale pour représenter la structure des données et suggérer des parcours cohérents. La vue locale représente les objets en extension d'un concept sélectionné, projetés par MDS. Nous illustrons la pertinence de cette méthode sur des données concrètes, issues de nos partenariats industriels, et montrons en quoi les techniques de visualisation liées à FCA et la visualisation spatialisée de données par projection MDS, parfois jugées incompatibles, se révèlent complémentaires.
39

Spécification formelle de systèmes temps réel répartis par une approche flots de données à contraintes temporelles / Formal specification of distributed real time systems using an approach based on temporally constrained data flows

Le Berre, Tanguy 23 March 2010 (has links)
Une définition des systèmes temps réel est que leur correction dépend de la correction fonctionnelle mais aussi du temps d'exécution des différentes opérations. Les propriétés temps réels sont alors exprimées comme des contraintes temporelles sur les opérations du système. Nous proposons dans cette thèse un autre point de vue où la correction est définie relativement à la validité temporelle des valeurs prises par les variables du système et aux flots de données qui parcourent le système. Pour définir ces conditions de validité, nous nous intéressons au rythme de mise à jour des variables mais aussi aux liens entre les valeurs des différentes variables du système. Une relation dite d'observation est utilisée pour modéliser les communications et les calculs du système qui définissent les liens entre les variables. Un ensemble de relations d'observation modélise l'architecture et les flots de données du système en décrivant les chemins de propagation des valeurs dans le système. Les propriétés temps réels sont alors exprimées comme des contraintes sur ces chemins de propagation permettant d'assurer la validité temporelle des valeurs prises par les variables. La validité temporelle d'une valeur est définie selon la validité temporelle des valeurs des autres variables dont elle dépend et selon le décalage temporel logique ou événementiel introduit par les communications ou les calculs le long des chemins de propagation. Afin de prouver la satisfiabilité d'une spécification définie par une telle architecture et de telles propriétés, nous construisons un système de transitions à état fini bisimilaire à la spécification. L'existence de ce système fini est justifiée par des bornes sur le décalage temporel entre les variables du système. Il est alors possible d'explorer les exécutions définies par ce système de transitions afin de prouver l'existence d'exécutions infinies satisfaisant la spécification. / Real time systems are usually defined as systems where the total correctness of an operation depends not only on its logical correctness, but also on the execution time. Under this definition, time constraints are defined according to system operations. Another definition of real time systems is centered on data where the correctness of a system depends on the timed correctness of its data and of the data flows across the system. i.e. we expect the values taken by the variable to be regularly renewed and to be consistent with the environment and the other variables. I propose a modeling framework based on this later definition. This approach allows users to focus on specifying time constraints attached to data and to postpone task and communication scheduling matters. The timed requirements are not expressed as constraints on the implantation mechanism, but on the relations binding the system’s variables. These relations between data are expressed in terms of a so called observation relation which abstracts the relation between the values that are taken by some variables, the set of sources and the image. This relation abstracts the communication as well as the computational operations and a set of observation relations models the system architecture and the data flows by defining the paths along which values of sources are propagated to build the values of an image. The real time properties are expressed as constraints on the propagation paths and state the temporal validity of the values. This temporal validity is defined by the time shift between the source and the image, and specifies the propagation of timely sound values along the path to build temporally correct values of the system outputs. At this level of abstraction, the designer gives a specification of the system based on timed properties about the timeline of data such as their freshness, stability, latency etc. In order to prove the feasibility of an observation-based model, a finite state transition system bi-similar with the specification is built. The existence of a finite bi-similar system is deduced from the bounded time shift between the variables. The existence of an infinite execution in this system proves the feasibility of the specification.
40

Perception de personnes atteintes de la maladie d'Alzheimer du soutien provenant de leur réseau social formel et informel dans les périodes précédant et suivant le diagnostic

Thorn, Karine January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0463 seconds