• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 669
  • 157
  • 51
  • 26
  • 14
  • 6
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 980
  • 372
  • 181
  • 172
  • 138
  • 106
  • 97
  • 95
  • 78
  • 71
  • 65
  • 64
  • 59
  • 56
  • 53
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Analyse et modélisation du trafic internet

Chabchoub, Yousra 12 October 2009 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de l'analyse et la modélisation du trafic Internet à l'échelle des flots. Les informations sur les flots (surtout les grands flots) sont très utiles dans différents domaines comme l'ingénierie du trafic, la supervision du réseau et la sécurité. L'extraction en ligne des statistiques sur les flots est une tâche difficile à cause du très haut débit du trafic actuel. Nous nous sommes intéressés dans cette thèse à l'étude de deux classes d'algorithmes traitant en ligne le trafic Internet. Dans la première partie, nous avons conçu un nouvel algorithme basé sur les filtres de Bloom pour l'identification en ligne des grands flots. Le point fort de cet algorithme est l'adaptation automatique aux variations du trafic. Une application intéressante est la détection en ligne des attaques par déni de service. Nous avons donc développé une version de l'algorithme qui intègre les spécificités des attaques. L'expérimentation en ligne montre que cette nouvelle méthode est capable d'identifier quasiment toutes les sources de trafic anormal avec un délai très court. Nous avons aussi étudié la performance de l'algorithme d'identification en ligne des grands flots. En considérant un modèle simplifié, nous avons pu approcher l'erreur générée par cet algorithme sur l'estimation du nombre de grands flots. Cette étude a permis en particulier d'évaluer l'impact des différents paramètres de l'algorithme sur sa performance. Les algorithmes présentés dans la première partie s'appliquent sur la totalité du trafic, ce qui n'est pas toujours possible car dans certains cas, on ne dispose que du trafic échantillonné. La deuxième partie de la thèse est consacrée à l'étude de l'échantillonnage et des algorithmes d'inférence des caractéristiques du trafic d'origine. D'abord, en utilisant un résultat d'approximations poissonniennes, nous avons montré que les deux méthodes d'échantillonnage: déterministe et probabiliste donnent des résultats équivalents du point de vue composition du trafic échantillonné en flots. Ensuite, nous avons conçu un algorithme permettant d'estimer, par un calcul asymptotique, à partir du trafic échantillonné, le nombre de flots dans le trafic réel et la distribution de leur taille sur un intervalle de temps court. Ceci permet de faire l'hypothèse à priori que cette distribution suit une loi de Pareto. Cette hypothèse a été validée sur des traces de trafic de différentes natures.
332

Puissance asymptotique des tests non paramétriques d'ajustement du type Cramer-Von Mises

Boukili Makhoukhi, Mohammed 21 June 2007 (has links) (PDF)
L'analyse statistique, prise au sens large, est centrée sur la description, et, lorsque les circonstances le permettent, la modélisation quantitative des phénomènes observés, pour peu que ces derniers possèdent une part d'incertitude, et donc, qu'ils soient soumis aux lois du hasard. Dans cette activité scientifique, le plus grand soin doit être apporté à la validation des hypothèses de modélisation, nécessaires à l'interprétation des résultats. Ce principe général s'applique d'ailleurs à toutes les sciences expérimentales, et tout aussi bien aux sciences humaines (en psychologie), qu'en économie, et dans bien d'autres disciplines. Une théorie scientifique repose, au départ, sur des hypothèses de modélisation, qui sont ensuite soumises à l'épreuve de l'expérimentation. Celle-ci est basée sur le recueil de données, dont il est nécessaire de décider la nature, compatible ou non, avec les modèles choisis, aboutissant, soit au rejet, soit à l'acceptation, de ces derniers. La statistique a développé, dans ce but, une technologie basée sur les tests d'hypothèses, dont nous nous abstiendrons de discuter dans mon mémoire de thèse les bases et les fondements. Dans cette thèse, nous avons abordé l'étude de certains tests d'ajustement (dits, en Anglais, tests of fit"), de nature paramétrique et non paramétrique. Les aspects techniques de ces tests d'hypothèses ont été abordés, dans le contexte particulier de notre étude pour les tests de type Cramer-Von Mises. On ne manquera pas de citer l'approche initialement utilisée pour les tests de type Kolmogorov-Smirnov. Enfin, l'ouvrage de Nikitin était une référence de base particulièrement adaptée à la nature de notre recherche. L'objectif principal de la thèse est d'évaluer la puissance asymptotique de certains tests d'ajustement, relevant de la catégorie générale des tests de Cramer-Von Mises. Nous avons évalué cette puissance, relativement à des suites convenables d'alternatives locales. Notre méthode utilise les développements de Karhunen-Loève d'un pont brownien pondéré. Notre travail avait pour objet secondaire de compléter des recherches récentes de P.Deheuvels et G.Martynov, qui ont donné l'expression des fonctions propres et valeurs propres des développements de Karhunen-Loève de certains ponts browniens pondérés à l'aide de fonctions de Bessel. Dans le premier temps, nous avons exposé les fondements des développements de Karhunen-Loève [D.K.L], ainsi que les applications qui en découlent en probabilités et statistiques. Le deuxième paragraphe de cette thèse a été consacré à un exposé de la composante de la théorie des tests d'hypothèses adaptée à la suite de notre mémoire. Dans ce même paragraphe, nous montrons l'intérêt qu'apporte une connaissance explicite des composantes d'un développement de Karhunen-Loève, en vue de l'évaluation de la puissance de tests d'ajustement basés sur les statistiques de type Cramer-Von Mises qui sont liées à ce D.K.L.
333

Comportement hydromécanique des sols fins : de l'état saturé à l'état non saturé

Li, Xiang-Ling 17 June 1999 (has links)
Les sols non saturés jouent un rôle important dans de nombreux domaines. En Génie Civil (stabilité des talus, fondations superficielles), en Ingénierie de l'environnement (transport de polluants par les eaux souterraines, enfouissement de déchets radioactifs), en Ingénierie des Réservoirs (subsidence suite aux pompages dans les champs pétroliers ou dans les nappes aquifères), etc. L'objet de la thèse est l'étude du comportement hydromécanique des sols fin non saturés, tels les limons et les argiles. Les phénomènes typiques du comportement de ces sols sont d'abord présentés avant d'aborder l'étude de leurs lois constitutives. Divers modèles sont passés en revue et un modèle unifié original est développé. Ensuite, une vaste gamme d'essais de laboratoire est analysée. Ils portent sur des sols saturés, quasi saturés et non saturés et concernent quatre matériaux: l'argile de Kruibeke, le limon de Gembloux, l'argile de Boom et la bentonite d'Almeria. Cette partie de la recherche conduit à une critique détaillée des procédures classiques d'essais de laboratoires sur les sols supposés saturés. Elle fournit également une base de données importante pour la calibration de la loi constitutive unifiée développée plus haut. Enfin, des simulations numériques, réalisées en aveugle, d'expériences n'ayant pas servi à la calibration permettent de valider ce modèle.
334

Finite Element Modelling in Structural and Petroleum Geology

Barnichon, Jean-Dominique 07 January 1998 (has links)
This thesis is dedicated to the study of structural and petroleum geology problems. To this purpose, a frictional elastoplastic law based on the Van Eekelen criterion is formulated, which avoids the classical drawbacks of the Drücker Prager criterion. Also, a 2D automatic adaptive re-meshing algorithm is developed for complex multidomains configurations, in order to overcome the limitation of the Lagrangian mesh. Details of the hydromechanical formulation implemented in the LAGAMINE FE code in a large strain context are presented. Application cases (reproduction of sandbox simulation, study of a hydrocarbon trap) concentrate on the study of the strain localisation and potential fracturation using different criteria. In the first case, re-meshing technique allowed to reproduce successfully analogue experiment of thrusting propagation. In the second case, a detailed study based on different initial conditions has brought new insight to the reactivated origin of some faults and has allowed to obtain information on the potential fracturing of the hydrocarbon reservoir unit. As an academic case, the study of anorthosite diapirism is carried out, which confirms the validity of the petrological model of diapirism. Eventually, the hydromechanical coupling effects between a layered porous medium and a fault are illustrated on a simple case.
335

Étude de la fiabilité et du vieillissement d'un système de stockage par supercondensateurs pour l'alimentation partielle et ponctuelle d'un trolleybus grâce à la récupération de l'énergie de freinage : approche du composant au système de stockage

Kreczanik, Paul 13 April 2011 (has links) (PDF)
Le premier objectif du projet HYBUS est d'intégrer un système de stockage par supercondensateurs dans un trolleybus permettant la récupération de son énergie de freinage afin d'assurer la continuité de l'alimentation des systèmes électriques embarqués. A terme un système de stockage plus conséquent est prévu pour permettre au trolleybus une autonomie de quelques mètres. Notre travail étudie la durée de vie de ce système. Plusieurs tests de vieillissement accéléré sur les supercondensateurs ont été mis en place au laboratoire AMPERE. Ces essais ont mis en évidence que le cyclage engendrait une forte accélération de la diminution de la capacité et de l'augmentation de la résistance série. Cependant, ces variations sont partiellement réversibles lors des phases de repos où une régénération s'opère. Une méthode se basant sur les dégradations observées en cours d'utilisation et les dégradations demeurant après régénération, a permis une mise en équation de l'évolution des paramètres internes des supercondensateurs. Un test d'endurance de systèmes complets de stockage a aussi été réalisé au laboratoire. Les résultats expérimentaux montrent une hétérogénéité du vieillissement due à l'existence d'importants gradients de température entre les composants. De ce fait, une nouvelle méthodologie d'équilibrage visant à égaliser les durées de vie de chacun des supercondensateurs a été mise au point. L'étude a donc contribué à une meilleure compréhension et évaluation du vieillissement des supercondensateurs dans le but d'améliorer la durée de vie de système de stockage de ce type. Une méthode est proposée pour estimer les dégradations en fonction des facteurs majeurs du vieillissement.
336

Modélisation numérique du procédé de frittage flash

Mondalek, Pamela 07 December 2012 (has links) (PDF)
Le SPS (Spark plasma sintering) ou frittage flash est une technique innovante de compaction de poudre. Ce procédé fait intervenir le courant électrique pour chauffer l'échantillon en appliquant simultanément une pression. Grâce à la vitesse de chauffage, le procédé SPS apparaît comme étant une technologie prometteuse dans le secteur aéronautique servant à produire des matériaux denses à microstructure fine, composés par des intermétalliques difficiles à fondre, à former et à usiner avec les procédés conventionnels. Cependant, la fabrication de formes complexes est problématique à cause des hétérogénéités en densité qui peuvent apparaître lors de la compaction et qui proviennent de la distribution de la température et des contraintes dans la poudre compactée. La distribution du courant, de la température et des contraintes, ainsi que leurs différents effets, font l'objet d'une large étude, étant responsables de l'homogénéité de la microstructure. Une modélisation numérique 3D du procédé est réalisée, dans le cadre de la librairie CimLib. Elle englobe trois problèmes physiques fortement couplés : électrique, thermique et mécanique. Nous utilisons une approche monolithique qui consiste à résoudre une équation pour chaque problème sur un maillage unique représentant outils et poudre. Tout d'abord le couplage électrique-thermique est modélisé et les simulations numériques sont validées. Une loi de comportement viscoplastique compressible s'appuyant sur un modèle d'Abouaf est utilisée pour modéliser la densification de la poudre de TiAl. Ce modèle est validé par plusieurs cas tests de compaction de poudre dans un contexte lagrangien puis eulérien avant de passer à une simulation complète de couplage électrique-thermique-mécanique. Dans ce contexte monolithique, nous développons un modèle pour prendre en compte les effets du frottement entre la poudre et le moule. Enfin, la loi de comportement utilisée est identifiée pour la poudre intermétallique de TiAl. Le frittage par SPS d'échantillons de différentes tailles est simulé. Les résultats en termes de distribution de densité et déplacement sont validés grâce à une comparaison avec l'expérience.
337

Simulation informatique d'expérience aléatoire et acquisition de notions de probabilité au lycée

Françoise, Gaydier 17 November 2011 (has links) (PDF)
Les programmes affirment que simuler une expérience aléatoire, c'est simuler sa loi de probabilité : nous montrons que ce n'est pas une nécessité. Nous avons entrepris une analyse a priori de la tâche de simulation d'une expérience aléatoire lorsqu'on ne la fait pas dériver de sa loi de probabilité ; cela nous a amenée à préciser les liens qu'entretiennent une expérience aléatoire, ses modélisations probabilistes et ses simulations. Nous proposons un modèle de ces liens, où intervient une étape de pré-modèlisation, commune aux deux tâches de simulation et de modélisation probabiliste, étape pendant laquelle sont choisies les hypothèses de modélisation. La simulation peut alors se construire à partir d'un cahier des charges qui décrit les différentes actions constituant l'expérience aléatoire et leur enchaînement, pour une imitation au plus près cette expérience. La simulation informatique apparaît alors comme une activité essentiellement de type algorithmique. Nous avons mené une expérimentation auprès de lycéens pour observer quelles techniques ils mettent en œuvre pour simuler une expérience aléatoire, et dans quelle mesure ils utilisent le modèle probabiliste ou des simulations pour résoudre un problème de prise de décision dans une situation où intervient le hasard. Une fois choisies les hypothèses de modélisation, l'imitation au plus près n'utilise pas la théorie des probabilités. Certains problèmes résolus par une exploitation statistique des simulations peuvent donc permettre d'introduire des notions de la théorie des probabilités telles que : risque, intervalle et niveau de confiance, adéquation d'un modèle probabiliste aux données expérimentales.
338

Exploration et optimisation d'architectures FPGA arborescentes

Marrakchi, Zied 28 November 2008 (has links) (PDF)
Les circuits FPGAs (Field Programmable Gate Arrays) sont devenus des acteurs importants dans le domaine du traitement numérique qui a été dominé auparavant par les microprocesseurs et les circuits intégrés spéci ques. Le plus grand dé pour les FPGAs aujourd'hui est de présenter un bon compromis entre une grande souplesse et de bonnes performances (vitesse, surface et consommation). La combinaison de trois facteurs dé nit les caractéristiques d'un circuit FPGA: la qualité de l'architecture, la qualité des outils CAO de con guration et la conception électrique du FPGA. L'objet de cette thèse est l'exploration de nouvelles architectures et de structures d'interconnexion qui pourront améliorer les performances de ces circuits. En effet, les ressources d'interconnexion occupent 90% de la surface totale et occasionnent 60% de la consommation électrique. Les architectures étudiées présentent des structures matricielles et arborescentes. Les principaux résultats sont les suivants: Au départ nous explorons différentes topologies arborescentes et nous comparons leurs surfaces à celles des architectures matricielles. Pour cela, nous développons une plateforme d'outils logiciels permettant d'implanter différents circuits logiques sur l'architecture cible. En se basant sur cette étude expérimentale, nous dé nissons une nouvelle architecture arborescente. Nous montrons, en nous appuyant sur un modèle d'estimation de surface, que cette architecture permet de réduire la surface totale de 56% par rapport à une architecture matricielle. Ceci est dû essentiellement à une meilleure utilisation des ressources d'interconnexion. Nous explorons les effets des différents paramètres de l'architecture proposée: le coef cient de Rent, la taille des groupes logiques et le nombre d'entrées par bloc logique. Ceci permet de régler l'architecture pour l'adapter à des domaines d'applications qui ont des contraintes spéci ques en terme de surface, vitesse et consommation. En n, nous proposons une architecture qui rassemble les avantages des structures arborescentes et matricielles. Nous uni ons les deux structures en construisant des groupes de blocs logiques qui ont localement un réseau d'interconnexion arborescent et qui sont connectés entre eux via un réseau matriciel. Nous montrons que l'architecture obtenue présente un bon compromis entre l'évolutivité de la vue physique et la densité de la surface.
339

Fluctuations et réponse des systèmes hors de l'équilibre

Gatien, Verley 20 September 2012 (has links) (PDF)
Au cours de ces dernières années, un ensemble de travaux a permis de mieux comprendre la nature de l'irréversibilité des phénomènes hors de l'équilibre, de redéfinir à l'échelle d'une trajectoire des quantités comme le travail ou la production d'entropie, et de faire émerger leurs symétries au travers des théorèmes de fluctuation. Pendant cette thèse, nous nous sommes intéressés à ces résultats dans un cadre purement classique et markovien. Nous avons unifié les différentes formulations de la généralisation du théorème de fluctuation dissipation autour d'un état stationnaire et non stationnaire hors de l'équilibre en identifiant les différentes sources d'irréversibilité et en les faisant apparaître dans la réponse du système. Nous avons cherché à relier les théorèmes de fluctuation à la théorie de la réponse linéaire ce qui fut possible à l'aide d'une généralisation de la relation de Hatano et Sasa. Ce faisant, nous avons constaté que différentes fonctionnelles vérifiaient des propriétés de symétrie semblables au théorème de fluctuation pour la production totale d'entropie. L'étude de la généralisation de la relation de Hatano et Sasa nous a conduit à une inégalité du même type que l'inégalité de Clausius. Cette nouvelle inégalité donne une borne inférieure pour la production d'entropie dans un système lors de transitions entre états non stationnaires, tout comme c'est le cas avec l'inégalité de Clausius pour des transitions entre états d'équilibre. Nous avons illustré ces idées sur quelques cas simples analytiques ou numériques et dans une expérience où l'on manipule des colloïdes magnétiques. Ces expériences devraient déboucher sur une vérification de la relation de Crooks pour un système à coefficient de diffusion dépendant de la position des colloïdes et permettre de nouveaux tests de la thermodynamique stochastique.
340

Analyse comparative de la forme des messages publicitaires pouvant s'adresser aux enfants

Laperrière, Jean-Philippe January 2009 (has links) (PDF)
La présente recherche s'inscrit dans un projet beaucoup plus étendu, mené par le Groupe de recherche Médias et santé (GRMS) de l'UQÀM. Ce projet vise à vérifier si les articles de la Loi sur la protection du consommateur du Québec sur la publicité destinée aux enfants de moins de 13 ans sont respectés dans les canaux de diffusion télévisuelle québécois. Notre mémoire approfondit l'analyse de la forme des messages publicitaires répertoriés par le projet. Nous avons tenté de savoir si les messages publicitaires d'aliments non diététiques produits par l'industrie agroalimentaire pourraient s'adresser davantage aux enfants sur les chaînes spécialisées destinées aux jeunes que sur les chaînes généralistes. Nous avons donc répertorié dans une analyse quantitative et à partir de résultats de recherches antérieures, référencées dans le cadre théorique, les caractéristiques visuelles et sonores sensées rejoindre les enfants dans les messages publicitaires retenus. Notre recherche nous a permis d'observer des différences notables entre la forme des messages présents sur les chaînes spécialisées et les chaînes généralistes. Nous ne prenons pas position sur l'application de la Loi sur la protection du consommateur du Québec, mais il apparaît que les messages publicitaires de l'industrie agroalimentaire sur les chaînes spécialisées utilisent des stratégies connues pour plaire et séduire les enfants. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Enfants, Publicités de l'agroalimentaire, Québec, Diététique, Formes publicitaires.

Page generated in 0.0959 seconds