• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 417
  • 175
  • 49
  • 1
  • Tagged with
  • 649
  • 241
  • 138
  • 83
  • 79
  • 79
  • 65
  • 64
  • 61
  • 51
  • 46
  • 45
  • 41
  • 40
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Approximation de problèmes fonctionnels : pseudospectre d'un opérateur différentiel et équations intégrales faiblement singulières

Guebbai, Hamza 10 June 2011 (has links) (PDF)
En utilisant des méthodes fonctionnelles et numériques, on localise le spectre d'un opérateur différentiel et on construit des solutions approchées pour des classes d'équations de Fredholm de seconde espèce, dont deux sont à noyau faiblement singulier. Dans le premier chapitre, on étudie le conditionnement pseudospectral pour un opérateur de convection-diffusion non autoadjoint défini sur un ouvert non borné. A partir du résultat de conditionnement pseudospectral, on localise le spectre de l'opérateur. Dans le deuxième chapitre, on régularise le noyau d'un opérateur intégral en utilisant un produit de convolution, puis on approche le noyau ainsi obtenu par son développement en série de Fourier tronqué. On obtient un opérateur intégral de rang fini, ce qui nous permet de construire une solution approchée
162

Piégeage de positons dans un piège de Penning Malmberg, en vue de leur accumulation avec un faisceau pulsé

Dupré, Pierre 27 September 2011 (has links) (PDF)
Le principe d'équivalence faible, pilier de la relativité générale d'Einstein, stipule que la masse gravitationnelle est égale à la masse inertielle quelque soit le corps. Ce principe d'équivalence n'a jamais été directement testé avec l'antimatière. L'expérience GBAR se propose de le tester en mesurant l'accélération d'atomes d'anti-hydrogène ultra froids en chute libre. La production de tels anti-atomes nécessite une impulsion de l'ordre de 1e10 positons en quelques dizaines de nanosecondes. Cette thèse porte sur le développement d'une nouvelle technique d'accumulation de positons dans un piège de Penning-Malmberg pour créer une telle impulsion. Cette nouvelle méthode est une amélioration de la technique d'accumulation d'Oshima et al. . Cette technique nécessite un plasma non neutre d'électrons pour refroidir les positons dans le piège afin de les confiner. Les positons sont délivrés par une source continue et l'efficacité de piégeage est de l'ordre de 0.4%. La nouvelle méthode proposée a besoin d'un faisceau pulsé de positons et son efficacité est estimée à 80%. Une partie de cette thèse a été effectuée à RIKEN (Tokyo) sur le piège d'Oshima et al. afin d'étudier le comportement de plasmas non neutres dans ce type de piège et cette méthode d'accumulation de positons. Un modèle théorique a été développé pour simuler son efficacité de confinement des positons. La description et l'étude systématique de la nouvelle méthode d'accumulation avec un faisceau pulsé de positons sont présentées, notamment l'optimisation par simulation numérique de la configuration électromagnétique du piège et des paramètres des plasmas non neutres utilisés.
163

Synthèse de haut-niveau de contrôleurs ultra-faible consommation pour des réseaux de capteurs: un flot de conception complet

Pasha, Muhammad Adeel Ahmed 15 December 2010 (has links) (PDF)
La conception d'une plate-forme matérielle pour un noeud de réseaux de capteurs (RdC) est un véritable défi car elle est soumise à des contraintes sévères. La consommation d'énergie est souvent considérée comme la contrainte la plus forte donnée la petite taille et les besoins d'autonomie d'un noeud. De nos jours, les noeuds s'appuient sur des microcontrôleurs (MCUs) faible consommation disponibles dans le commerce. Ces MCUs ne sont pas adaptés au contexte de RdC car ils sont basés sur une structure de calcul généraliste et ils consomment trop d'énergie par rapport au budget d'énergie d'un noeud. Dans cette thèse, nous proposons un flot de conception complet, depuis le niveau système, se basant sur le concept de micro-tâches matérielles avec coupure de la tension d'alimentation (Power Gating). Dans cette approche, l'architecture d'un noeud est constituée d'un ensemble de micro-tâches matérielles qui sont activées selon un principe événementiel, chacune étant dédiée à une tâche spécifique du système (ex. la couche MAC, le routage, etc.). Ces micro-tâches sont gérées par un ordonnanceur matériel (System Monitor) qui est automatiquement généré à partir d'une description système, dans un langage spécifique (DSL), du graphe des tâches d'un noeud de RdC. En combinant la spécialisation du matériel et la technique du power gating, nous réduisons considérablement les énergies dynamique et statique d'un noeud de RdC. Les résultats montrent que des gains en énergie dynamique de 1 à 2 ordres de grandeur sont possibles par rapport aux mises en oeuvre à base des MCUs (ex. le MSP430). De plus, des gains de 1 ordre de grandeur en énergie statique sont également obtenus grâce à l'utilisation du power gating.
164

Analyse expérimentale et numérique de la distribution des contraintes résiduelles induites par choc-laser dans les alliages d'aluminium.

Song, Hongbin 22 January 2010 (has links) (PDF)
L'objectif de cette étude est d'analyser le gradient des contraintes résiduelles induites par le traitement de choc laser (CL) sur 2 alliages d'aluminium (6056-T4 et 2050-T8) par la diffraction des rayons X (DRX) et par modélisation numérique en éléments finis, en portant une attention particulière à l'extrême surface du matériau. Pour étudier le gradient des contraintes résiduelles (CR) à l'extrême surface (moins de 10 μm), deux méthodes d'analyse par DRX en faible incidence (sin²ψ* et multi-réflexions) ont été adaptées et appliquées. Les deux méthodes ont été testées avec succès et ont permis pour la premières fois, d'accéder aux états mécaniques proches de la surface après CL. Un modèle de simulation numérique en 3D de l'état mécanique induit par choc-laser a également été développé au cours de cette étude. L'utilisation de chargements P=f(t) valides et de conditions aux limites réalistes (élément infinis en bord de massif) a permis d'estimer les déformations et les contraintes résiduelles introduites par un ou par plusieurs impacts laser. Différentes améliorations ont pu être apportées au modèle, comme la prise en compte de comportements distincts pour les couches superficielles, et le matériau à cœur. Le modèle a été appliqué à différentes conditions expérimentales (taux de recouvrement, diamètre d'impact et pression variables) et a pu être confronté avec succès en expérience, que ce soit pour la simulation de mono-impact laser ou pour la simulation de multi-impacts. L'approche numérique nous a également permis d'évaluer l'hétérogénéité de la distribution de contraintes résiduelles en surface du matériau.
165

Oscillateurs et architectures asynchrones pour le traitement des signaux radio impulsionnelle UWB

Hamon, J. 15 October 2009 (has links) (PDF)
Cette thèse étudie les avantages et les potentiels offerts par le style de conception asynchrone (sans horloge) pour implémenter les traitements numériques de réception des signaux radio impulsionnelle à ultra large bande (UWB), dans le contexte applicatif des réseaux de capteurs. D'une part, des oscillateurs numériques asynchrones ont été étudiés pour réaliser l'implémentation de la base de temps nécessaire aux traitements de réception des signaux radio impulsionnelle, et d'autre part, des algorithmes et des architectures asynchrones de réception de ces signaux radio ont été proposés et validés. Ces différents travaux ont permis de démontrer la pertinence de l'approche asynchrone pour l'implémentation de ce type de traitements, notamment sur le critère de faible consommation. Elles ouvrent ainsi la voie au concept de réseau de capteurs entièrement asynchrones.
166

Analyse Mathématique De Problèmes En Océanographie Côtière

Israwi, Samer 24 March 2010 (has links) (PDF)
Nous nous étudions ici le problème d'Euler avec surface libre sur un fond non plat et dans un régime fortement non linéaire où l'hypothèse de faible amplitude de l'équation de KdV n'est pas vérifiée. On sait que, pour un tel régime, une généralisation de l'équation de KdV peut être dérivée et justifiée lorsque le fond est plat. Nous généralisons ici ces résultats en proposant une nouvelle classe d'équations prenant en compte des topographies variables. Nous démontrons également que ces nouveaux modèles sont bien posés. Nous les étudions aussi numériquement. Ensuite, nous améliorons quelques résultats sur l'existence des équations de Green-Naghdi (GN) dans le cas 1D. Dans le cas de 2D, nous dérivons et étudions un nouveau système de la même précision que les équations de GN usuelles, mais avec un meilleur comportement mathématique.
167

Etude de convergences de séries aléatoires échantillonnées, mesures de Markov quasi-Bernoulli ou quasi-Bernoulli faible et temps de retour uniforme dans les systèmes exponentiellement mélangeants

Langlet, Thomas 15 October 2009 (has links) (PDF)
Dans la première partie de cette thèse, on s'intéresse à la convergence de certaines séries aléatoires. On détermine des conditions suffisantes sur la suite $(a_k)_{k\geq 1}$ et sur les variables aléatoires indépendantes $(X_k)_{k\geq 1}$, afin que pour presque tout $\omega\in\Omega$, on ait la convergence uniforme ou pour presque tout $x$ de la série $\sum_{k\geq 1}a_k f(x\cdot(X_1+\cdots+X_k)(\omega))$ pour une certaine classe de fonctions $f$. On trouve, aussi, des conditions suffisantes sur la suite $(a_k)_{k\geq 1}$ et sur les variables aléatoires indépendantes $(X_k)_{k\geq 1}$, afin que pour presque tout $\omega\in\Omega$, on ait la convergence dans $L^2(\mu)$ ou $\mu$-presque partout de la série $\sum_{k\geq 1}a_k T^{(X_1+\cdots+X_k)(\omega)}(g)(x)$ pour certaines classes de fonctions $g\in L^2(\mu)$ et de flot $\{T^{t},t\in G\}$ d'opérateurs de $L^2(\mu)$ dans $L^2(\mu)$ (où $G$ est un semi-groupe de $\mathbb{R}$). La deuxième partie porte sur des propriétés de mesures : quasi-Bernoulli et quasi-Bernoulli faible. On trouve notamment des conditions nécessaires et suffisantes pour qu'une mesure de Markov inhomogène soit quasi-Bernoulli ou quasi-Bernoulli faible. On caractèrise à l'aide de ces conditions les mesures de Bernoulli qui sont quasi-Bernoulli ou quasi-Bernoulli faible. On prouve que si une mesure de Bernoulli n'ayant que des probabilités non nulles est quasi-Bernoulli faible alors elle est quasi-Bernoulli. La dernière partie est consacrée à l'étude du problème du temps de retour uniforme dans les systèmes exponentiellement mélangeant. Il s'agit d'avoir un recouvrement aléatoire de l'espace engendré par un processus exponentiellement mélangeant. Etant donné un recouvrement aléatoire, on obtient une estimation du nombre de recouvrements en fonction de la dimension maximale locale de la mesure
168

Puissance asymptotique des tests non paramétriques d'ajustement du type Cramer-Von Mises

Boukili Makhoukhi, Mohammed 21 June 2007 (has links) (PDF)
L'analyse statistique, prise au sens large, est centrée sur la description, et, lorsque les circonstances le permettent, la modélisation quantitative des phénomènes observés, pour peu que ces derniers possèdent une part d'incertitude, et donc, qu'ils soient soumis aux lois du hasard. Dans cette activité scientifique, le plus grand soin doit être apporté à la validation des hypothèses de modélisation, nécessaires à l'interprétation des résultats. Ce principe général s'applique d'ailleurs à toutes les sciences expérimentales, et tout aussi bien aux sciences humaines (en psychologie), qu'en économie, et dans bien d'autres disciplines. Une théorie scientifique repose, au départ, sur des hypothèses de modélisation, qui sont ensuite soumises à l'épreuve de l'expérimentation. Celle-ci est basée sur le recueil de données, dont il est nécessaire de décider la nature, compatible ou non, avec les modèles choisis, aboutissant, soit au rejet, soit à l'acceptation, de ces derniers. La statistique a développé, dans ce but, une technologie basée sur les tests d'hypothèses, dont nous nous abstiendrons de discuter dans mon mémoire de thèse les bases et les fondements. Dans cette thèse, nous avons abordé l'étude de certains tests d'ajustement (dits, en Anglais, tests of fit"), de nature paramétrique et non paramétrique. Les aspects techniques de ces tests d'hypothèses ont été abordés, dans le contexte particulier de notre étude pour les tests de type Cramer-Von Mises. On ne manquera pas de citer l'approche initialement utilisée pour les tests de type Kolmogorov-Smirnov. Enfin, l'ouvrage de Nikitin était une référence de base particulièrement adaptée à la nature de notre recherche. L'objectif principal de la thèse est d'évaluer la puissance asymptotique de certains tests d'ajustement, relevant de la catégorie générale des tests de Cramer-Von Mises. Nous avons évalué cette puissance, relativement à des suites convenables d'alternatives locales. Notre méthode utilise les développements de Karhunen-Loève d'un pont brownien pondéré. Notre travail avait pour objet secondaire de compléter des recherches récentes de P.Deheuvels et G.Martynov, qui ont donné l'expression des fonctions propres et valeurs propres des développements de Karhunen-Loève de certains ponts browniens pondérés à l'aide de fonctions de Bessel. Dans le premier temps, nous avons exposé les fondements des développements de Karhunen-Loève [D.K.L], ainsi que les applications qui en découlent en probabilités et statistiques. Le deuxième paragraphe de cette thèse a été consacré à un exposé de la composante de la théorie des tests d'hypothèses adaptée à la suite de notre mémoire. Dans ce même paragraphe, nous montrons l'intérêt qu'apporte une connaissance explicite des composantes d'un développement de Karhunen-Loève, en vue de l'évaluation de la puissance de tests d'ajustement basés sur les statistiques de type Cramer-Von Mises qui sont liées à ce D.K.L.
169

Microarray-based Detection for Multidrug Resistance in Human Tumours by Expression Profiling of ABC Transporter Genes and for Small B-cell non Hodgkin's Lymphoma Characterization. <br /><br /> Damier à ADN de faible densité pour la détection des gènes ABC transporteurs dans les tumeurs humaines et pour la caractérisation des lymphomes non Hodgkiniens à petites cellules B.

Gillet, Jean-Pierre 25 April 2006 (has links)
The multiplication of new markers used for diagnosis addresses new challenges in routine medical practice. One outstanding question is; how can we profile tumor markers expression using a meaningful and practical method for clinical purposes? Over the last 6 years, the microarray technology made a significant contribution to our understanding of many medical conditions. Benefiting from EAT’s expertise, we decided to design two cutting edge low density microarrays tools to study on one hand, ATP-binding cassette genes-mediated chemotherapy resistance and on the other hand, to characterize subtypes of Small B-Cell non-Hodgkin Lymphomas. The microarray (DualChip human ABC) specificity and the reproducibility of our results were tested first by comparison of ABC gene expression in three drug-resistant sublines and their respective drugsensitive counterparts. The results that we obtained were in accordance with ABC-transporters expression previously described for these cell lines using different methods. Interestingly, we were able to report a larger diversity of ABC-transporter expression than previously established with classical molecular biology screens. To further validate the relevance of this approach for diagnostic purposes, we profiled the expression of ABC genes in clinical samples of Acute Myeloid Leukemia, T-Acute Lymphoblastic Leukemia from pediatric patients, and drug treated/untreated samples of mamma carcinoma biopsies. By doing so, we characterized the expression of new ABC transporters in pediatric leukemia and observed enrichment for ABC-transporters in breast cancers even prior drug treatment. In the second part of this work our microarray-based strategy was applied to diagnostic procedures in order discriminate between four different forms of small B cell non Hodgkin lymphomas. We applied gene expression profiling to RNA samples obtained from 71 patients. Through a supervised comparison of the various expression patterns, we isolated a group of genes that can be used to discriminate 75% of the patients investigated. As a conclusion, using a variety of cell lines and tumor samples we demonstrated that low-density microarrays can be used for molecular diagnosis in many meaningful ways including tumor classification and drug resistance profiling. <br /><br /> La diversité des marqueurs utilisés pour le diagnostic est un nouveau défi dans la pratique médicale quotidienne. Une question se pose donc; comment pouvons-nous déterminer le profil d’expression génique d’une tumeur en utilisant une approche efficace et pratique à des buts cliniques ? Au cours de ces 6 dernières années, les damiers à ADN ont contribué de façon significative à l’amélioration des connaissances dans de nombreux domaines de la recherche biomédicale. Bénéficiant de l’expertise de la société EAT, nous avons développé deux damiers à ADN de faible densité permettant d’une part, l’étude de la résistance à la chimiothérapie induite par les ABC transporteurs, et d’autre part, d’évaluer l’intérêt de ce genre d’outil pour le diagnostique clinique des lymphomes non Hodgkiniens à petites cellules B. Dans un premier temps, nous avons évalué la spécificité et la reproductibilité du damier DualChip human ABC. Pour cela, nous avons comparé le profil d'expression génique de trois lignées cellulaires résistantes à une drogue donnée avec le profil d’expression génique de leur lignée parentale sensible à cette drogue. Les résultats que nous avons obtenus étaient en accord avec ceux préalablement décrits. En outre, nous avons détecté un profil expression d’un plus grand nombre de gènes ABC transporteurs que celui établi précédemment à partir de techniques conventionnelles. Afin d’étudier davantage l’intérêt de cet outil dans le domaine diagnostique, nous avons étudié le profil d’expression des gènes ABC dans des échantillons cliniques de leucémie myéloïde aiguë, leucémie lymphoblastique aiguë de type T chez l’enfant et de carcinomes mammaires provenant de patients adultes traités et non traités. Nous avons ainsi pu mettre en évidence l’expression de nouveaux gènes ABC transporteurs dans les leucémies de l’enfant. Nous avons également observé un niveau d’expression élevé de nombreux gènes ABC transporteurs tant dans les tumeurs mammaires traitées que non traitées. Dans la seconde partie de ce travail, nous avons évalué le potentiel des damiers à ADN de faible densité dans le diagnostic de 4 sous-types de lymphomes non Hodgkiniens à petites cellules B. Nous avons étudié le profil d’expression génique d’échantillons provenant de 71 patients. Une analyse supervisée à partir du profil d’expression de tous les gènes étudiés a ensuite été entreprise. Cette étude a permis de mettre en évidence un groupe de gènes permettant de différencier 75% des patients investigués. L’ensemble de nos résultats a démontré que le damier à ADN de faible densité est un outil prometteur pour le diagnostic moléculaire dans des domaines variés incluant la classification des tumeurs et la détection de la résistance aux drogues.
170

Les indicateurs de développement durable. Fondements et applications. / Indicators of sustainable development. Fundamentals and applications

Kestemont, Bruno 28 June 2010 (has links)
Existe-t-il un consensus scientifique sur les conditions de la durabilité ? Est-il possible de construire un indicateur unique de soutenabilité faible ? Quelles sont les composantes objectives et subjectives des indicateurs ? Peut-on envisager des indicateurs objectifs de soutenabilité ? Quelles voies de recherche sont-elles nécessaires pour développer des indicateurs de développement durable ? Telles sont les questions auxquelles cet ouvrage tente de répondre. La comparaison des courants de la soutenabilité faible et de la soutenabilité forte nous sert de fil conducteur pour évaluer la part normative et la part objective du choix des paramètres et de leur méthode d'agrégation. L'agrégation arithmétique implique des hypothèses de substituabilité entre les facteurs, ce qui relève de la soutenabilité faible. La pondération, toujours normative, peut être explicite ou se traduire par le choix d'une unité ou dimension unique. Nous redéfinissons la soutenabilité faible comme étant la réduction de la complexité à une dimension unique. Il y a dès lors autant d'indicateurs de soutenabilité faible que de choix possibles de cette dimension unique. En particulier, l'empreinte écologique par habitant relève d'une forme "écologique" de soutenabilité faible. Le prix de marché est l'unité fondamentale de mesure de sa forme "économique". Nous montrons que les acteurs ne savent pas bien identifier leur intérêt et qu'ils ne sont pas parfaitement égoïstes, ce qui introduit un biais non systématique remarquable dans toute mesure en unité monétaire. La soutenabilité forte se caractérise par la multiplicité de dimensions ou "capitaux critiques" dont le dépassement d'un seul suffit à déterminer la non soutenabilité. Les différentes formes de soutenabilités faibles peuvent représenter des capitaux critiques parmi d'autres. Nous présentons une typologie des acteurs et du partage des responsabilités, également susceptible d'introduire des grandes divergences dans les résultats publiés. Quelques études de cas illustrent ces différents éléments dans des contextes contrastés. L'empreinte écologique de consommation se limite en particulier à une responsabilisation du seul consommateur, alors que les comptes nationaux permettent d'envisager la coresponsabilité de l'ensemble des acteurs. L'indicateur de "dématérialisation de l'économie" appliqué à un village indien montre la pertinence de mesurer l'utilisation absolue de matière sans pondération monétaire. Il est par ailleurs possible de minimiser le coût de dépollution sans toucher à la limite absolue d'émissions globales de centrales thermiques. Les deux dimensions, coûts sociaux et bénéfices environnementaux, peuvent donc être traitées séparément. En conclusion, il est possible d'identifier, dans chaque calcul d'indicateur de développement durable, une composante relativement objective de soutenabilité "forte" et une composante "faible", négociable, de partage des droits et responsabilités. / We study how different world views may influence how to develop sustainable development indicators. The comparison of weak sustainability and strong sustainability serves as a guide to estimate the share of objective versus normative choice of parameters and their method of aggregation. We then present a typology of actors and shared responsibilities, which may also introduce large discrepancies in the results published. Some case studies illustrate these different elements in contrasting contexts. It appears that it is possible to identify in each calculation of sustainable development indicator, a relatively objective component of sustainability and a negotiable component of shared rights and responsibilities.

Page generated in 0.0342 seconds