• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 59
  • 14
  • Tagged with
  • 178
  • 89
  • 65
  • 57
  • 28
  • 27
  • 26
  • 25
  • 23
  • 23
  • 23
  • 22
  • 22
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Rôle des fonctions exécutives dans les variations stratégiques au cours du vieillissement / Role of executive functions in strategic variations during aging

Hodzik, Suzanne 13 July 2011 (has links)
La plupart des travaux empiriques ont montré que les jeunes et les âgés utilisent de nombreuses stratégies pour accomplir des tâches cognitives. Ils mettent aussi en évidence que les âgés (a) utilisent moins de stratégies, (b) utilisent les stratégies disponibles dans des proportions différentes, (c) exécutent moins efficacement les stratégies utilisées, et (d) choisissent, sur chaque problème, moins fréquemment la meilleure stratégie que les jeunes. L’objectif général de cette thèse était de déterminer quels sont les mécanismes sous-tendant la différence de performances jeunes/âgés dans ces différentes dimensions stratégiques. Nous testons l’hypothèse que le déclin des fonctions exécutives médiatise les différences liées à l’âge dans le répertoire, la distribution, l’exécution et la sélection stratégiques. Pour atteindre cet objectif, nous avons adopté une approche corrélationnelle et une approche expérimentale. Les résultats répliquent les principales données concernant les différences jeunes/âgés dans les différentes dimensions stratégiques. De plus, ils mettent en évidence le rôle essentiel des fonctions exécutives, et, en particulier, de la flexibilité cognitive et de l’inhibition, dans la diminution avec l’âge du répertoire, de la sélection et de l’exécution stratégiques. Nous discutons les implications de ces résultats sur le vieillissement et les variations stratégiques, d’une part, et sur les modèles de la sélection stratégique, d’autre part. / Empirical studies on strategic variations during aging have shown that young andolder adults use multiple strategies to accomplish cognitive tasks. They also showed that older adults (a) use fewer strategies, (b) do not use available strategies with the same frequency as young adults (c) execute strategies less efficiently, and (d) select less frequently the best strategy than young adults. The aim of this study was to investigate which mechanisms underly the strategic differences in young and older adults. We tested the hypothesis that age related decline of executive functions mediate age-related differences in strategy repertoire, distribution, execution, and selection. To achieve these ends, we adopted correlational and experimental approaches. Results replicated previous data relative to differences between young and older adults in different strategy dimensions. Results also highlight crucial role ofexecutive functions, especially cognitive flexibility and inhibition, in strategy repertoire, selection, and execution. Implications for further our understanding of aging and strategic variations, as well as current theoretical models of strategy selection are discussed.
32

Hauteurs pour les sous-schémas et exemples d'utilisation de méthodes arakeloviennes en théorie de l'approximation diophantienne

Randriambololona, Hugues 08 January 2002 (has links) (PDF)
Dans cette thèse on définit et étudie un certain nombre de notions dans le cadre de la géométrie d'Arakelov qui, d'une part, possèdent un intérêt intrinsèque et, d'autre part, sont susceptibles d'applications à la théorie de l'approximation diophantienne.<br /><br />La plus grande partie du texte est consacrée à l'élaboration d'une théorie des hauteurs pour les sous-schémas et à la preuve de «formules de Hilbert-Samuel» pour ces hauteurs. Pour deux classes importantes de sous-schémas (les sous-schémas intègres et les sous-schémas «lisses avec multiplicités») on montre que la hauteur du sous-schéma relativement à une grande puissance d'un fibré en droites positif est asymptotiquement déterminée par la hauteur du cycle associé. La démonstration repose essentiellement sur le «théorème de Hilbert-Samuel arithmétique» de Gillet et Soulé, auquel elle se ramène par l'utilisation de techniques de géométrie analytique hermitienne. On fait ensuite une analyse plus fine du développement asymptotique des hauteurs de certains sous-schémas particuliers. Notamment, dans le cas de la dimension relative zéro, on exprime le terme constant du développement asymptotique en fonction de la ramification du sous-schéma, ce qui résout une question de Michel Laurent sur les hauteurs des matrices d'interpolation.<br /><br />Enfin, dans une partie indépendante, on expose diverses applications de méthodes arakeloviennes à des problèmes d'approximation diophantienne. En particulier on donne une nouvelle démonstration d'un critère classique d'indépendance algébrique dont l'originalité est qu'elle n'utilise plus de théorie de l'élimination mais uniquement des techniques de théorie de l'intersection arithmétique.
33

Contribution à l'arithmétique des ordinateurs

Herreros, Y. 04 October 1991 (has links) (PDF)
Ce travail présente quelques résultats d'arithmétique des ordinateurs. Dans une première partie, on fait une brève présentation des systèmes les plus classiques de représentation des nombres et on présente une modification de l'algorithme d'Avizienis d'addition en temps constant avec des conditions moins restrictives. La seconde partie traite du probleme de la multiplication de grands entiers: on preséente une implantation efficace de l'algorithme de Pollard que l'on compare a d'autres algorithmes. La troisième partie est consacrée au calcul en-ligne (bit série poids forts en tête): on reprend les résultats de la première partie pour obtenir des bornes sur le délai des fonctions calculables en-ligne. Enfin on présente un codage original des nombres complexes, qui permet entre autre de réaliser des additions en temps constant ainsi que des opérations arithmétiques en-ligne
34

Calcul algébrique et programmation dans un tableur : le cas de Multiplan

Capponi, Bernard 21 December 1990 (has links) (PDF)
L'apprentissage des tableurs par des utilisateurs débutants, élevés de la fin de la scolarité obligatoire ou adultes du secteur tertiaire, pose un certain nombre de problèmes lies aux concepts algébriques en jeu, en particulier dans les formules du tableur; notamment la notion de références relatives. L'objet de ce travail est d'étudier la contextualisation des connaissances algébriques de ces utilisateurs dans un tableur. Nous avons particulièrement étudié le cas de multiplan#t#m. Nous avons ainsi pu mettre en évidence certains des obstacles que présente l'apprentissage a l'utilisation de ce type de logiciels. Nous avons également étudié la mise en œuvre de processus itératifs dans un tel environnement et étudie les aspects spécifiques présents dans multiplan au niveau d'itérations déroulées (replication)
35

Fonctions élémentaires : algorithmes et implémentations efficaces pour l'arrondi correct en double précision

Defour, David 09 September 2003 (has links) (PDF)
Le codage et le comportement de l'arithmétique à virgule flottante disponible dans les ordinateurs sont spécifiés par la norme IEEE-754. Cette norme impose au système de rendre comme résultat de l'une des quatre opérations (+, *, /, sqrt), l'arrondi du résultat exact. Cette propriété que l'on appelle <>, permet de garantir la qualité du résultat. Elle permet également la construction de preuves d'algorithmes, quelles que soient les machines sur lesquelles l'opération est executée. Toutefois cette norme présente des limites, puisque les fonctions élémentaires (sinus, cosinus, exponentielle...) en sont absentes. Cette abscence est liée au <> : il est, contrairement aux opérations de base, difficile de connaître la précision nécessaire pour garantir l'arrondi correct des fonctions élémentaires. Cependant, si l'on fixe le format de représentation, il est alors possible par une recherche exhaustive de déterminer cette borne; ce fut le travail de thèse de Lefèvre pour la double précision. <br /><br />L'objectif de ce mémoire est d'exploiter les bornes associées à chaque fonction, pour certifier l'arrondi correct des fonctions élémentaires en double précision pour les quatre modes d'arrondi. À cet effet, nous avons implémenté les évaluations en deux étapes : l'une rapide et juste la plupart du temps, basée sur les propriétés de l'arithmétique IEEE double précision, et l'autre juste tout le temps, composé d'opérateurs multiprécision. Pour cette deuxième phase, nous avons développé une bibliothèque d'opérateurs multiprécision optimisés pour les précisions données par ces bornes et les caractéristiques des processeurs en 2003.
36

Hypersurfaces cubiques : équivalence rationnelle, R-équivalence et approximation faible

Madore, David 08 April 2005 (has links) (PDF)
Cette thèse présente quelques résultats portant sur l'arithmétique de variétés rationnellement connexes et, plus spécifiquement, des hypersurfaces cubiques, dans trois directions principales : l'équivalence rationnelle, la R-équivalence, et l'approximation faible. Dans la première partie, on décrit de façon explicite la spécialisation de la R-équivalence. La seconde est consacrée à la nullité du groupe de Chow de 0-cycles de degré 0 sur une hypersurface cubique ayant bonne réduction sur les p-adiques. La troisième montre un résultat d'approximation faible aux places de bonne réduction sur les surfaces cubiques sur les corps de fonctions. La quatrième montre la R-trivialité des hypersurfaces cubiques de grande dimension sur les p-adiques. La cinquième partie explicite par un calcul la non-nullité du groupe de Chow de 0-cycles de degré 0 d'une hypersurface cubique de dimension 3 sur un corps de dimension 2. Enfin, on étudie la R-équivalence très libre sur les variétés toriques.
37

Une région explicite sans zéro pour les fonctions L de Dirichlet

kadiri, habiba 20 December 2002 (has links) (PDF)
Nous étudions la répartition des zéros non triviaux de la fonction Zêta de Riemann. Plus précisément, nous montrons qu'il n'y en a pas dans une région à gauche de l'axe $\Re s =1$ de la forme : \Re s \ge 1- \frac1(R_0 \log (|\Im s|+2)), où R_0=5.70175. Les méthodes élaborées dans ce cas se généralisent alors à celui des fonctions de Dirichlet et nous établissons que les fonctions L associées à un module q fixé ne s'annulent jamais dans la région~: \Re s \ge 1- \frac1(R_1 \log(q\max(1,|\Im s|))) où R_1=6.4355, à l'exception d'au plus une d'entre elles qui correspondrait alors à un caractère réel et qui aurait au plus un zéro réel dans cette zone (qu'on appelle zéro de Siegel). De plus, nous précisons que chaque fonction associée à un caractère donné possède au plus quatre zéros très proches de l'axe réel dans la région \Re s \ge 1- \frac1(R_4 \log(q\max(1,|\Im s|))) où R_4=2.58208. Enfin, nous appliquons nos résultats à la répartition des nombres premiers dans une progression arithmétique de la forme (a+nq). Nous établissons ainsi que le plus petit d'entre eux (qu'on notera P(a,q)) vérifie P(a,q) \le \exp\big(\alpha(\log q)^2\big) où \alpha=6.95015 pour q\ge10^6.
38

Fragments de l'arithmétique dans une combinaison de procédures de décision

Caminha Barbosa De Oliveira, Diego 14 March 2011 (has links) (PDF)
Les méthodes formelles pour la conception des software et hardware génèrent souvent des formules qui doivent être validées, de manière interactive ou automatique. Parmi les outils automatiques, les solveurs SMT (Satisfiabilité Modulo Théories) sont particulièrement adaptés à la résolution de ces obligations de preuve, puisque leur langage d'entrée est la logique équationnelle avec des symboles provenant de divers fragments décidables utiles tels que les symboles non interprétés, l'arithmétique linéaire et des structures de données habituelles comme les tableaux ou les listes. Dans cette thèse, nous présentons une approche pour combiner des procédures de décision et des solveurs propositionnels dans un solveur SMT. Cette approche est fondée non seulement sur l'échange d'égalités déductibles entre les procédures de décision, mais aussi sur la génération d'égalités de modèle par des procédures de décision. Cela étend très bien la procédure classique de combinaison due à Nelson-Oppen dans une simple plate-forme pour combiner sans heurts des théories convexes et non convexes. Deuxièmement, nous présentons un algorithme original pour le fragment de l'arithmétique, appelé la logique de différence, et les détails sur la façon de mettre en oeuvre une procédure de décision basée sur cet algorithme. La logique de différence est modélisée en utilisant la théorie des graphes. Les déductions et les vérification de la cohérence effectués par l'algorithme se font par des recherches de cycles négatifs et des calculs de plus courts chemins de manière incrémentale. La dernière partie de la thèse présente une variation incrémentale originale de la méthode du simplexe que nous utilisons pour construire une procédure de décision pour l'arithmétique linéaire. Comme pour la logique de différence, nous présentons les détails de la procédure de décision qui la rend approprié pour notre plate-forme de combinaison utilisée par des solveurs SMT. Les méthodes et les techniques décrites dans cette thèse ont été mises en oeuvre et sont disponibles dans notre solveur SMT open-source, veriT.
39

Matériel et logiciel pour l'évaluation de fonctions numériques :<br />précision, performance et validation

De Dinechin, Florent 28 June 2007 (has links) (PDF)
Ce mémoire reprend quelques résultats obtenus entre 2000 et 2007 au sein du projet Arénaire du LIP. La problématique centrale est l'évaluation de fonctions numériques : étant donnée une fonction réelle, par exemple un polynôme, un sinus, une exponentielle ou toute autre fonction utile, il s'agit de construire un opérateur pour l'évaluer. Pour cela, on dispose de quelques règles du jeu et de quelques briques de bases: pour le matériel, on peut utiliser, avec un parallélisme arbitraire, des additions et multiplications entières et des tables précalculées. Pour le logiciel, on dispose en plus d'opérateurs de calcul en virgule flottante, mais avec un modèle d'exécution séquentiel. Dans les deux cas, on est contraint à des approximations dont on cherche à minimiser l'erreur. La question de la précision, notamment des calculs intermédiaires, est ici intimement liée à celle de la performance. Pour gérer tous ces paramètres et obtenir des implémentations de qualité, il faut de plus en plus d'automatisation. De plus, pour que cette qualité soit garantie, il faut se rapprocher du monde de la preuve formelle. Ces différents aspects sont évoqués, ainsi que des applications de ces travaux aux accélérateurs de calcul reconfigurables et à la normalisation de la virgule flottante.
40

Améliorations de la multiplication et de la factorisation d'entier

Kruppa, Alexander 28 January 2010 (has links) (PDF)
Cette thèse propose des améliorations aux problèmes de la multiplication et de la factorisation d'entier. <p> L'algorithme de Schönhage-Strassen pour la multiplication d'entier, publié en 1971, fut le premier à atteindre une complexité de O(n log (n) log(log(n))) pour multiplier deux entiers de n bits, et reste parmi les plus rapides en pratique. Il réduit la multiplication d'entier à celle de polynôme sur un anneau fini, en utilisant la transformée de Fourier rapide pour calculer le produit de convolution. Dans un travail commun avec Gaudry et Zimmermann, nous décrivons une implantation efficace de cet algorithme, basée sur la bibliothèque GNU MP; par rapport aux travaux antérieurs, nous améliorons l'utilisation de la mémoire cache, la sélection des paramètres et la longueur de convolution, ce qui donne un gain d'un facteur 2 environ. <p> Les algorithmes P-1 et P+1 trouvent un facteur p d'un entier composé rapidement si p-1, respectivement p+1, ne contient pas de grand facteur premier. Ces algorithmes comportent deux phases: la première phase calcule une grande puissance g<sub>1</sub> d'un élément g<sub>0</sub> d'un groupe fini défini sur F<sub>p</sub>, respectivement F<sub>p^2</sub>, la seconde phase cherche une collision entre puissances de g<sub>1</sub>, qui est trouvée de manière efficace par évaluation-interpolation de polynômes. Dans un travail avec Peter Lawrence Montgomery, nous proposons une amélioration de la seconde phase de ces algorithmes, avec une construction plus rapide des polynômes requis, et une consommation mémoire optimale, ce qui permet d'augmenter la limite pratique pour le plus grand facteur premier de p-1, resp. p+1, d'un facteur 100 environ par rapport aux implantations antérieures. <p> Le crible algébrique (NFS) est le meilleur algorithme connu pour factoriser des entiers dont les facteurs n'ont aucune propriété permettant de les trouver rapidement. En particulier, le module du système RSA de chiffrement est choisi de telle sorte, et sa factorisation casse le système. De nombreux efforts ont ainsi été consentis pour améliorer NFS, de façon à établir précisément la sécurité de RSA. Nous donnons un bref aperçu de NFS et de son historique. Lors de la phase de crible de NFS, de nombreux petits entiers doivent être factorisés. Nous présentons en détail une implantation de P-1, P+1, et de la méthode ECM basée sur les courbes elliptiques, qui est optimisée pour de tels petits entiers. Finalement, nous montrons comment les paramétres de ces algorithmes peuvent étre choisis finement, en tenant compte de la distribution des facteurs premiers dans les entiers produits par NFS, et de la probabilité de trouver des facteurs premiers d'une taille donnée.

Page generated in 0.0436 seconds