• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 695
  • 319
  • 99
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Algorithmes de calcul de logarithmes discrets dans les corps finis

Thomé, Emmanuel 12 May 2003 (has links) (PDF)
Le calcul de logarithmes discrets est un problème central en cryptologie. Lorsqu'un algorithme sous-exponentiel pour résoudre ce problème existe, le cryptosystème concerné n'est pas nécessairement considéré comme disqualifié, et il convient d'actualiser avec soin l'état de l'art de la cryptanalyse. Les travaux de ce mémoire s'inscrivent dans cette optique. Nous décrivons en particulier comment nous avons atteint un record de calculs de logarithmes discrets: \GFn(607).<br /><br />Dans une première partie, nous exposons les différentes améliorations que nous avons apportées à l'algorithme de Coppersmith pour le calcul de logarithmes discrets en caractéristique 2. Ces améliorations ont rendu possible le record que nous avons atteint. La portée de ce calcul dépasse<br />le simple cadre des corps finis, à cause de l'existence de la réduction MOV d'une part, et de la récente introduction des cryptosystèmes fondés sur l'identité.<br /><br />On s'intéresse plus en détail, dans une seconde partie du mémoire, au problème classique de la résolution d'un système linéaire creux défini sur un corps fini, porté aux limites de ce que la technologie (théorique et pratique) permet. Nous montrons comment une amélioration substantielle de l'algorithme de Wiedemann par blocs a rendu celui-ci compétitif pour la résolution d'un grand système linéaire creux sur \GF p.<br /><br />Une partie de ce mémoire est consacrée au point de vue de l'expérimentateur, grand utilisateur de moyens de calcul, de la surcharge de travail humain que cela impose, et des constatations que cette position amène.
382

Grands Réseaux Aléatoires: comportement asymptotique et points fixes

Draief, Moez 24 January 2005 (has links) (PDF)
Le théorème de Burke est un résultat classique en théorie des files d'attente. Il établit que le processus de départ d'une file M/M/1 est un processus de Poisson de même intensité que le processus des arrivées. Nous présentons des extensions de ce résultat à la file d'attente et au modèle de stockage. Nous abordons ensuite l'étude de ces systèmes en tandem et en régime transitoire. Nous prouvons que les équations qui régissent la dynamique des deux systèmes (file d'attente et modèle de stockage) sont les mêmes alors que les variables pertinentes sont différentes selon le modèle qui nous intéresse. En utilisant des analogies entre ces systèmes et l'algorithme de Robinson-Schensted-Knuth, nous donnons une preuve élégante de la propriété de symétrie de chacun des deux systèmes. Nous nous intéressons également aux corrélations entre les services des clients successifs au sein d'une période d'activité. Nous revenons par la suite au théorème de Burke que l'on peut voir comme étant un résultat de point fixe: le processus de Poisson est un point fixe pour la file d'attente avec des lois de service exponentielles. Nous prouvons des résultats de points fixes dans le cadre des grandes déviations où les variables d'entrée sont décrites par le biais de leurs fonctions de taux.
383

Estimation dans les modèles linéaires généralisés à effets aléatoires

Trottier, Catherine 02 July 1998 (has links) (PDF)
Ce travail est consacré à l'étude et à la mise en place de méthodes d'estimation de paramètres dans les modèles linéaires généralisés à effets aléatoires (GL2M). Dans ces modèles, sous une hypothèse gaussienne de distribution des effets aléatoires $\xi$, la vraisemblance basée sur la distribution marginale du vecteur à expliquer $Y$ n'est pas en général explicitement calculable. Diverses approximations peuvent être appliquées. Nous distinguons pour cela deux approches : l'une conditionnelle et l'autre marginale. En suivant la première, nous proposons une méthode qui consiste en une maximisation de la distribution jointe de ($Y,\xi$) avant de procéder à l'estimation des paramètres. Ceci équivaut à une linéarisation conditionnelle du modèle. Dans la seconde approche, nous étudions une démarche marginale qui repose sur l'approximation des deux premiers moments marginaux de $Y$ puis sur l'utilisation de la quasi-vraisemblance. Nous étendons à d'autres lois et fonctions de lien la méthode développée par Gilmour et al. dans le cas d'un modèle binomial-lien probit. Nous comparons les différentes méthodes selon une échelle de déconditionnement. Dans un deuxième temps, nous introduisons une notion d'hétérogénéité dans les GL2M. Cette hétérogénéité traduit des comportements des effets aléatoires distincts selon les environnements. Elle est modélisée en attribuant à chaque environnement un paramètre de variance différent pour ces effets. Nous proposons alors une méthode d'estimation combinant à la fois la technique de linéarisation de la démarche conditionnelle précédente et l'utilisation de l'algorithme EM, bien adapté à cette situation d'hétérogénéité dans le cas linéaire.
384

Aide à l'optimisation de maintenance à partir de réseaux bayésiens et fiabilité dans un contexte doublement censuré

Corset, Franck 22 January 2003 (has links) (PDF)
La première partie traite de l'application des réseaux bayésiens en maintenance et propose une méthodologie de construction à partir d'avis d'experts. Pour évaluer les probabilités, le réseau est décrit par un modèle log-linéaire saturé. Des indices permettant l'analyse du réseau et l'identification des variables critiques sont donnés. Les actions de maintenance sont intégrées comme nouveaux noeuds du graphe. Une intégration du retour d'expérience est proposée par une inférence bayésienne, en quantifiant la confiance attribuée aux avis d'experts. La deuxième partie traite de la fiabilité dans un contexte doublement censuré. Nous étudions les propriétés asymptotiques des estimateurs du maximum de vraisemblance pour la loi de Weibull. Une inférence bayésienne est proposée avec des lois a priori informatives et non informatives. De plus, nous modélisons par des variables cachées un facteur humain, représentant des manques d'information lors d'opérations de maintenance et résolvons ce problème par maximum de vraisemblance et par une inférence bayésienne.
385

Modélisation conjointe de données longitudinales et de durées de vie

Dupuy, Jean-François 19 November 2002 (has links) (PDF)
Le modèle de régression semiparamétrique de Cox est l'un des plus utilisés pour l'analyse statistique des durées de vie issues du domaine médical ou de la fiabilité. Ses paramètres sont un paramètre de régression et une fonction de risque de base positive et inconnue. L'inférence statistique pour ce modèle, basée sur la vraisemblance partielle de Cox, est souvent compliquée par la présence de données manquantes des covariables. Dans cette thèse, nous proposons une méthode d'estimation des paramètres du modèle de Cox adaptée à cette situation, et nous étudions les propriétés asymptotiques des estimateurs obtenus. La méthode proposée consiste à modéliser conjointement les durées censurées et le processus de covariable afin d'en déduire, par intégration sur les valeurs manquantes de cette covariable, une vraisemblance conjointe permettant d'estimer les paramètres du modèle de Cox au vu des données incomplètes. Dans un premier temps, nous proposons et formalisons un modèle conjoint pour les durées de vie et la covariable longitudinale. Ce modèle est construit à partir du modèle de Cox et d'un modèle de covariable choisi comme étant une fonction en escalier. Nous établissons ensuite l'identifiabilité de ce modèle sous des conditions de régularité peu contraignantes. Puis, nous adaptons au modèle conjoint la méthode du maximum de vraisemblance semiparamétrique. Nous montrons l'existence d'estimateurs semiparamétriques de ses paramètres, et en particulier de ses paramètres d'intérêt, qui sont les paramètres du modèle de Cox. L'expression compliquée de la vraisemblance conjointe ne permet pas d'obtenir analytiquement ces estimateurs. Nous mettons alors en oeuvre l'estimation à l'aide d'un algorithme EM. Nous montrons ensuite la consistance et la normalité asymptotique de nos estimateurs. Puis, nous proposons un estimateur consistant de leur variance asymptotique. Dans une dernière partie, nous appliquons la méthode proposée sur un jeu de données réelles, et nous comparons nos résultats avec deux autres méthodes d'estimation du modèle de Cox avec covariable manquante proposées dans la littérature.
386

Quelques résultats en optimisation de forme et stabilisation

Oudet, Edouard 18 October 2002 (has links) (PDF)
Cette thèse porte sur des aspects théoriques et numériques de l'optimisation de forme ainsi que sur la stabilisation de fonctions solutions d'équations aux dérivées partielles. Dans la première partie, on s'intéresse à la minimisation des valeurs propres du laplacien avec conditions aux limites de Dirichlet. On étudie plus particulièrement la minimisation de la seconde valeur propre du laplacien sous contraintes de volume et de convexité. Après avoir démontré certaines propriétés qualitatives d'un ouvert optimal (régularité minimale et maximale, description géométrique du bord), nous répondons à une question posée par Troesh en 1973 : le stade (enveloppe convexe de deux disques tangents de memes rayons) n'est pas un ouvert optimal pour ce problème d'optimisation. Dans un deuxième chapitre, nous présentons différents résultats numériques ayant trait à la minimisation d'une valeur propre de rang donné. Dans un second temps, nous exposons certaines propriétés qualitatives d'un ensemble solution d'un problème de transport optimal. Là encore, ce travail est complété par des illustrations numériques obtenues à l'aide d'un algorithme de type stochastique. Le travail de la dernière partie est consacré à la stabilisation rapide de l'équation des ondes par des méthodes d'analyse non harmonique. Nous y présentons aussi un nouveau résultat de monotonie concernant des suites de zéros des dérivées de fonctions de Bessel.
387

Développement d'un banc ellipsométrique hyperfréquence pour la caractérisation de matériaux non transparents

Moungache, Amir 28 October 2011 (has links) (PDF)
Dans la fabrication d'un produit, la maîtrise des propriétés physiques des matériaux utilisés est indispensable. Il est donc nécessaire de déterminer leurs propriétés comportementales. On exploite en général des propriétés physiques intermédiaires telles que les propriétés électromagnétiques. Nous avons mis au point une technique de caractérisation sans contact de matériaux non transparents en transposant les concepts de base de l'ellipsométrie optique en hyperfréquence. La caractérisation se fait par résolution d'un problème inverse par deux méthodes numériques : une méthode d'optimisation classique utilisant l'algorithme itératif de Levenberg Marquardt et une méthode de régression par l'uti1isation de réseaux de neurones du type perceptron multicouches. Avec la première méthode, on détermine deux paramètres du matériau sous test à savoir l'indice de réfraction et l'indice d'extinction. Avec la deuxième, on détermine les deux indices ainsi que l'épaisseur de 1'échantillon. Pour la validation, nous avons monté un banc expérimental en espace libre à 30 GHz en transmission et en incidence oblique avec lequel nous avons effectué des mesures sur des échantillons de téflon et d'époxy de différentes épaisseurs (1 à 30 mm). Nous avons obtenu une caractérisation satisfaisante de l'indice et de l'épaisseur. Nous avons ensuite fait des mesures de trois types de papier dont la caractérisation de l'indice était satisfaisante sans toutefois les discriminer. Ces travaux ont montré la possibilité de caractériser des matériaux épais et non transparents par une technique ellipsométrique
388

Le principe de calcul stochastique appliqué au décodage des turbocodes : conception, implémentation et prototypage sur circuit FPGA

Dong, Quang Trung 20 December 2011 (has links) (PDF)
Depuis leur publication en 1993 et leur exploitation dans le domaine des communications numériques, les turbocodes ont été adoptés dans de nombreux standards de télécommunications (UMTS, CDMA2000, LTE). Avec le développement des services sans-fil, le besoin de turbo- décodeurs à débit jusqu'au Gbits/s devient incontournable. Or, les techniques conventionnelles d'exploitation du parallélisme et de réduction des chemins critiques atteignent leur limite. Une approche alternative a été explorée dans cette thèse : le décodage de codes correcteurs d'erreurs à partir d'une représentation stochastique de l'information. Le calcul stochastique fut proposé dans les années 1960 comme une méthode traitant des opé- rations arithmétiques complexes pour un faible coût matériel. Pour ce faire, les probabilités sont converties en des flux de bits aléatoires dans lesquels l'information est représentée par des statis- tiques de bits. Des opérations arithmétiques complexes sur les probabilités sont transformées en des opérations sur les bits utilisant des portes logiques. Ainsi, l'application du calcul stochastique au décodage itératif de codes correcteurs d'erreurs favorise des structures matérielles simples pour les noeuds de calcul. L'objectif principal de cette thèse fut d'étendre l'approche stochastique au décodage de tur- bocodes. Dans un premier temps, nous avons proposé une première architecture pour un turbo- décodeur stochastique. Le principal défi fut ensuite d'augmenter le débit. Pour ce faire, nous avons considéré deux techniques : le passage dans le domaine exponentiel et l'exploitation du parallélisme. La première technique consiste à remplacer l'addition stochastique par des opérations plus simples dans le domaine exponentiel. Cette technique a permis d'une part de réduire la complexité calculatoire, et d'autre part, d'améliorer le débit de décodage. La deuxième technique est de représenter une probabilité par plusieurs flux stochastiques en parallèle. Cette méthode permet en outre de pro- poser une nouvelle approche pour compenser le problème de corrélation. L'exploitation de ces deux techniques a permis d'aboutir à un décodage stochastique pour les codes convolutifs et les turbocodes ayant des performances similaires à celles de décodeurs classiques. Enfin, les architectures proposées ont été intégrées dans un circuit configurable FPGA. Le prototype de turbo-décodeur stochastique n'a pas pu nous fournir un débit de l'ordre du Gbits/s comme souhaité. Cependant, il a permis de démontrer la faisabilité matérielle d'un turbo-décodeur stochastique en assurant de bonnes performances de décodage. En outre, ce démonstrateur a fait apparaître de nombreuses perspectives pour cette solution d'intégration alternative.
389

Amélioration de la modélisation de contact pour les procédés à faible zone de contact

Hachani, Maha 02 December 2011 (has links) (PDF)
Ce travail vise Ce travail vise à améliorer la performance du code éléments finis FORGE®. En effet, la modélisation du contact dans ce code s'avère insatisfaisante pour simuler les procédés de mise en forme des matériaux à faible zone de contact. On présente dans ce mémoire les développements qui ont été réalisés pour améliorer le modèle de contact existant. Dans la première partie, partant de ce modèle, on s'intéresse à un problème spécifique qui est le procédé de laminage circulaire. Un nouveau modèle de traitement du contact dédié à ce procédé est développé. Il repose sur un schéma de réactualisation temporelle en coordonnées cylindriques, une formulation implicite et une description analytique des obstacles. La condition de contact incrémentale est alors imposée exactement en fin d'incrément. On valide ces développements sur plusieurs cas de procédé de laminage circulaire où l'on montre l'apport du nouvel algorithme en terme de précision de gestion de contact et aussi en terme d'amélioration des résultats de simulation et des temps de calcul. Dans la deuxième partie, on a généralisé cette approche à l'ensemble des procédés à faible zone pour lesquels une représentation analytique des outils n'est pas possible. On a développé alors un modèle implicite général basé sur la réactualisation de la condition de contact au cours des itérations de Newton-Raphson. Cette méthode permet de tenir compte exactement de l'évolution de la position relative de la pièce et de l'outil. Ensuite, on généralise le lissage des outils à des pièces de géométrie plus complexes. On étudie alors l'influence de la discrétisation de l'outil sur la précision de la simulation des procédés de mise en forme et particulièrement pour des procédés à faible zone de contact. Une méthode d'interpolation quadratique proposée par Nagata est alors implémentée pour le lissage de la surface des outils discrétisés par des éléments plans. La nouvelle surface interpolée est déterminée d'une façon locale à partir seulement de la position des nœuds et des normales nodales. Ces normales sont calculées à partir des normales aux facettes entourant le nœud considéré en utilisant la méthode des normales votées. L'efficacité de cette méthode combinée à schéma d'intégration implicite est testée pour plusieurs procédés de mise en forme.
390

Optimisation du test de production de circuits analogiques et RF par des techniques de modélisation statistique

Akkouche, N. 09 September 2011 (has links) (PDF)
La part dû au test dans le coût de conception et de fabrication des circuits intégrés ne cesse de croître, d'où la nécessité d'optimiser cette étape devenue incontournable. Dans cette thèse, de nouvelles méthodes d'ordonnancement et de réduction du nombre de tests à effectuer sont proposées. La solution est un ordre des tests permettant de détecter au plus tôt les circuits défectueux, qui pourra aussi être utilisé pour éliminer les tests redondants. Ces méthodes de test sont basées sur la modélisation statistique du circuit sous test. Cette modélisation inclus plusieurs modèles paramétriques et non paramétrique permettant de s'adapté à tous les types de circuit. Une fois le modèle validé, les méthodes de test proposées génèrent un grand échantillon contenant des circuits défectueux. Ces derniers permettent une meilleure estimation des métriques de test, en particulier le taux de défauts. Sur la base de cette erreur, un ordonnancement des tests est construit en maximisant la détection des circuits défectueux au plus tôt. Avec peu de tests, la méthode de sélection et d'évaluation est utilisée pour obtenir l'ordre optimal des tests. Toutefois, avec des circuits contenant un grand nombre de tests, des heuristiques comme la méthode de décomposition, les algorithmes génétiques ou les méthodes de la recherche flottante sont utilisées pour approcher la solution optimale.

Page generated in 0.0483 seconds