• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 29
  • 8
  • 1
  • 1
  • Tagged with
  • 102
  • 35
  • 27
  • 17
  • 16
  • 16
  • 16
  • 15
  • 13
  • 12
  • 10
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modèles de mélange et de Markov caché non-paramétriques : propriétés asymptotiques de la loi a posteriori et efficacité / Non Parametric Mixture Models and Hidden Markov Models : Asymptotic Behaviour of the Posterior Distribution and Efficiency

Vernet, Elodie, Edith 15 November 2016 (has links)
Les modèles latents sont très utilisés en pratique, comme en génomique, économétrie, reconnaissance de parole... Comme la modélisation paramétrique des densités d’émission, c’est-à-dire les lois d’une observation sachant l’état latent, peut conduire à de mauvais résultats en pratique, un récent intérêt pour les modèles latents non paramétriques est apparu dans les applications. Or ces modèles ont peu été étudiés en théorie. Dans cette thèse je me suis intéressée aux propriétés asymptotiques des estimateurs (dans le cas fréquentiste) et de la loi a posteriori (dans le cadre Bayésien) dans deux modèles latents particuliers : les modèles de Markov caché et les modèles de mélange. J’ai tout d’abord étudié la concentration de la loi a posteriori dans les modèles non paramétriques de Markov caché. Plus précisément, j’ai étudié la consistance puis la vitesse de concentration de la loi a posteriori. Enfin je me suis intéressée à l’estimation efficace du paramètre de mélange dans les modèles semi paramétriques de mélange. / Latent models have been widely used in diverse fields such as speech recognition, genomics, econometrics. Because parametric modeling of emission distributions, that is the distributions of an observation given the latent state, may lead to poor results in practice, in particular for clustering purposes, recent interest in using non parametric latent models appeared in applications. Yet little thoughts have been given to theory in this framework. During my PhD I have been interested in the asymptotic behaviour of estimators (in the frequentist case) and the posterior distribution (in the Bayesian case) in two particuliar non parametric latent models: hidden Markov models and mixture models. I have first studied the concentration of the posterior distribution in non parametric hidden Markov models. More precisely, I have considered posterior consistency and posterior concentration rates. Finally, I have been interested in efficient estimation of the mixture parameter in semi parametric mixture models.
72

Calcul par intervalles et outils de l’automatique permettant la micromanipulation à précision qualifiée pour le microassemblage / Calculation interval and automatic tools qualified precision micromanipulation for microassembly

Khadraoui, Sofiane 31 January 2012 (has links)
Les systèmes micro mécatroniques intègrent dans un volume très réduit des fonctions de natures différentes (électrique, mécanique, thermique, magnétique ou encore optique). Ces systèmes sont des produits finaux ou sont dans des systèmes de taille macroscopique. La tendance à la miniaturisation et à la complexité des fonctions à réaliser conduit à des microsystème en trois dimensions et constitué´es de composants provenant de processus de (micro)fabrication parfois incompatibles. L’assemblage microbotique est une réponse aux challenges de leur réalisation. Pour assurer les opérations d’ assemblage avec des précisions et des résolutions élevées, des capteurs adaptés au micro monde et des outils particuliers de manipulation doivent être utilisés. Les éléments principaux constituants les systèmes de micromanipulation sont les micro-actionneurs.Ces derniers sont souvent faits à base de matériaux actifs parmi lesquels les matériaux Piézoélectriques . Les actionneurs piézoélectriques sont caractérisés par leur très haute résolution (souvent nanométrique), leur grande bande-passante (plus du kHz pour certains micro-actionneurs) et leur grande densité de force. Tout ceci en fait des actionneurs particulièrement intéressants pour le micro-assemblage et la micromanipulation. Cependant,ces actionneurs présentent, en plus de leur comportement non-linéaire, une forte dépendance à l’environnement et aux tâches considérées. De plus, ces tâches de micromanipulation et de micro-assemblage sont confrontées à un manque de capteurs précis et compatibles avec les dimensions du micromonde. Ceci engendre des incertitudes sur les paramètres du élaboré lors de l’identification. En présence du verrou technologique lié à la réalisation des capteurs et des propriétés complexes des actionneurs, il est difficile d’obtenir les performances de haut niveau requises pour réussir les tâches de micromanipulation et de micro-assemblage. C’est notamment la mise au point d’outils de commande convenables qui permet d’atteindre les niveaux de précision et de résolution nécessaires.Les travaux de cette thèse s’inscrivent dans ce cadre. Afin de réussir les tâches de micromanipulation et de micro-assemblage, plusieurs méthodes de commande prenant en compte des incertitudes liées au modèle, comme les approches de commande robustes de type H-inf ont déjà utilisées pour commander les actionneurs piézoélectriques.L’un des inconvénients majeurs de ces méthodes est la dérivation de régulateurs d’ordre élevé qui sont coûteux en calcul et peuvent difficilement être embarqués dans les microsystèmes. Afin de prendre en compte les incertitudes paramétriques des modèles des Systèmes à commander, nous proposons une solution alternative basée sur l’utilisation du calcul par intervalles. Ces techniques du calcul par intervalles sont combinées avec les outils de l’automatique pour modéliser et commander les microsystèmes. Nous chercherons également à montrer que l’utilisation de ces techniques permet d’associer la robustesse et la simplicité des correcteurs dérivés / Micromechatronic systems integrate in a very small volume functions with differentnatures. The trend towards miniaturization and complexity of functions to achieve leadsto 3-dimensional microsystems. These 3-dimensional systems are formed by microroboticassembly of various microfabricated and incompatible components. To achieve theassembly operations with high accuracy and high resolution, adapted sensors for themicroworld and special tools for the manipulation are required. The microactuators arethe main elements that constitute the micromanipulation systems. These actuators areoften based on smart materials, in particular piezoelectric materials. The piezoelectricmaterials are characterized by their high resolution (nanometric), large bandwidth (morethan kHz) and high force density. This why the piezoelectric actuators are widely usedin the micromanipulation and microassembly tasks. However, the behavior of the piezoelectricactuators is non-linear and very sensitive to the environment. Moreover, thedeveloppment of the micromanipulation and the microassembly tasks is limited by thelack of precise and compatible sensors with the microworld dimensions. In the presenceof the difficulties related to the sensors realization and the complex characteristics ofthe actuators, it is difficult to obtain the required performances for the micromanipulationand the microassembly tasks. For that, it is necessary to develop a specific controlapproach that achieves the wanted accuracy and resolution.The works in this thesis deal with this problematic. In order to success the micromanipulationand the microassembly tasks, robust control approaches such as H∞ havealready been tested to control the piezoelectric actuators. However, the main drawbacksof these methods is the derivation of high order controllers. In the case of embedded microsystems,these high order controllers are time consuming which limit their embeddingpossibilities. To address this problem, we propose in our work an alternative solutionto model and control the microsystems by combining the interval techniques with theautomatic tools. We will also seek to show that the use of these techniques allows toderive robust and low-order controllers.
73

Développement d'un modèle particulaire pour la régression indirecte non paramétrique / Development of a particle-based model for nonparametric inverse regression

Naulet, Zacharie 08 November 2016 (has links)
Cette thèse porte sur les statistiques bayésiennes non paramétriques. La thèse est divisée en une introduction générale et trois parties traitant des aspects relativement différents des approches par mélanges (échantillonage, asymptotique, problème inverse). Dans les modèles de mélanges, le paramètre à inférer depuis les données est une fonction. On définit une distribution a priori sur un espace fonctionnel abstrait au travers d'une intégrale stochastique d'un noyau par rapport à une mesure aléatoire. Habituellement, les modèles de mélanges sont surtout utilisés dans les problèmes d'estimation de densités de probabilité. Une des contributions de ce manuscrit est d'élargir leur usage aux problèmes de régressions.Dans ce contexte, on est essentiellement concernés par les problèmes suivants:- Echantillonage de la distribution a posteriori- Propriétés asymptotiques de la distribution a posteriori- Problèmes inverses, et particulièrement l'estimation de la distribution de Wigner à partir de mesures de Tomographie Quantique Homodyne. / This dissertation deals with Bayesian nonparametric statistics, in particular nonparametric mixture models. The manuscript is divided into a general introduction and three parts on rather different aspects of mixtures approaches (sampling, asymptotic, inverse problem). In mixture models, the parameter to infer from the data is a function. We set a prior distribution on an abstract space of functions through a stochastic integral of a kernel with respect to a random measure. Usually, mixture models were used primilary in probability density function estimation problems. One of the contributions of the present manuscript is to use them in regression problems.In this context, we are essentially concerned with the following problems :- Sampling of the posterior distribution- Asymptotic properties of the posterior distribution- Inverse problems, in particular the estimation of the Wigner distribution from Quantum Homodyne Tomography measurements.
74

Synthèse de correcteurs robustes périodiques à mémoire et application au contrôle d'attitude de satellites par roues à réaction et magnéto-coupleurs / Periodic robust control with memory and application to attitude control of satellites wich reaction wheels and magnetorquers

Trégouët, Jean-François 03 December 2012 (has links)
Les travaux présentés dans ce mémoire constituent une contribution à la conception de méthodes systématiques pour l’analyse et la commande de systèmes périodiques et incertains. Une partie importante de cette thèse est également consacrée au contrôle d’attitude de satellites dont la dynamique se prête naturellement à une représentation sous forme de modèles périodiques soumis à des incertitudes. La première partie propose une présentation unifiée des résultats d’analyse et de synthèse de modèles périodiques et incertains à temps-discret via des méthodes basées sur des inégalités linéaires matricielles (LMI) et en s’appuyant sur la théorie de Lyapunov. Par la suite, l’accent est mis sur une nouvelle classe de correcteurs périodiques à mémoire pour lesquels l’entrée de commande est construite en utilisant l’historique des états du système conservés en mémoire. Des exemples numériques démontrent que ces nouveaux degrés de liberté permettent de repousser les limites des performances robustes. La seconde partie s’intéresse aux aspects de périodicité et de robustesse du contrôle d’attitude de satellite rencontrés notamment lors de l’utilisation des magnéto-coupleurs. Ces actionneurs s’appuient sur le champ géomagnétique variant périodiquement le long de l’orbite du satellite. Différentes stratégies de commande sont mises en œuvre et comparées entre elles avec le souci constant de tenir compte des principales limitations des actionneurs. Cette démarche conduit à une nouvelle loi de commande périodique régulant le moment cinétique des roues à réactions sans perturber le contrôle d’attitude dont l’effort de commande est réparti sur l’ensemble des actionneurs. / This manuscript reviews contributions to the development of systematic methods for analysis and control of periodic uncertain systems. An important part of this thesis is also dedicated to the design of attitude control systems for satellites whose dynamics is naturally represented as a periodic model subject to uncertainties. The first part is devoted to the developpement of a unifying presentation of the analysis and synthesis results of periodic, uncertain and discrete-time models via methods relying on linear matrix inequalities (LMI) and based on Lyapunov theory. Subsequently, the focus is on a new class of periodic control laws with memory for which the control input is constructed using history of the states of the system kept in memory. Numerical experiments show that these new degrees of freedom can outperformed the existing results. The second part deals with periodic and robustness aspects of attitude control of a satellite using magnetorquers. These actuators use the geomagnetic field that varies periodically along the orbital trajectory. Different control strategies are implemented and compared with one another with the constant concern of taking the main limitations of the actuators into account. This approach leads to a new control law regulating the momentum of the reaction wheels without disturbing attitude control for which the control effort is shared by all actuators.
75

Statistiques discrètes et Statistiques bayésiennes en grande dimension

Bontemps, Dominique 02 December 2010 (has links) (PDF)
Dans cette thèse de doctorat, nous présentons les travaux que nous avons effectués dans trois directions reliées : la compression de données en alphabet infini, les statistiques bayésiennes en dimension infinie, et les mélanges de distributions discrètes multivariées. Dans le cadre de la compression de données sans perte, nous nous sommes intéressé à des classes de sources stationnaires sans mémoire sur un alphabet infini, définies par une condition d'enveloppe à décroissance exponentielle sur les distributions marginales. Un équivalent de la redondance minimax de ces classes a été obtenue. Un algorithme approximativement minimax ainsi que des a-priori approximativement les moins favorables, basés sur l'a-priori de Jeffreys en alphabet fini, ont en outre été proposés. Le deuxième type de travaux porte sur la normalité asymptotique des distributions a-posteriori (théorèmes de Bernstein-von Mises) dans différents cadres non-paramétriques et semi-paramétriques. Tout d'abord, dans un cadre de régression gaussienne lorsque le nombre de régresseurs augmente avec la taille de l'échantillon. Les théorèmes non-paramétriques portent sur les coefficients de régression, tandis que les théorèmes semi-paramétriques portent sur des fonctionnelles de la fonction de régression. Dans nos applications au modèle de suites gaussiennes et à la régression de fonctions appartenant à des classe de Sobolev ou de régularité hölderiennes, nous obtenons simultanément le théorème de Bernstein-von Mises et la vitesse d'estimation fréquentiste minimax. L'adaptativité est atteinte pour l'estimation de fonctionnelles dans ces applications. Par ailleurs nous présentons également un théorème de Bernstein-von Mises non-paramétrique pour des modèles exponentiels de dimension croissante. Enfin, le dernier volet de ce travail porte sur l'estimation du nombre de composantes et des variables pertinentes dans des modèles de mélange de lois multinomiales multivariées, dans une optique de classification non supervisée. Ce type de modèles est utilisé par exemple pour traiter des données génotypiques. Un critère du maximum de vraisemblance pénalisé est proposé, et une inégalité oracle non-asymptotique est obtenue. Le critère retenu en pratique comporte une calibration grâce à l'heuristique de pente. Ses performances sont meilleurs que celles des critères classiques BIC et AIC sur des données simulées. L'ensemble des procédures est implémenté dans un logiciel librement accessible.
76

Deux tests de détection de rupture dans la copule d'observations multivariées

Rohmer, Tom January 2014 (has links)
Résumé : Il est bien connu que les lois marginales d'un vecteur aléatoire ne suffisent pas à caractériser sa distribution. Lorsque les lois marginales du vecteur aléatoire sont continues, le théorème de Sklar garantit l'existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur. La loi du vecteur aléatoire est parfaitement définie par la donnée des lois marginales et de la copule. Dans ce travail de thèse, nous proposons deux tests non paramétriques de détection de ruptures dans la distribution d’observations multivariées, particulièrement sensibles à des changements dans la copule des observations. Ils améliorent tous deux des propositions récentes et donnent lieu à des tests plus puissants que leurs prédécesseurs pour des classes d’alternatives pertinentes. Des simulations de Monte Carlo illustrent les performances de ces tests sur des échantillons de taille modérée. Le premier test est fondé sur une statistique à la Cramér-von Mises construite à partir du processus de copule empirique séquentiel. Une procédure de rééchantillonnage à base de multiplicateurs est proposée pour la statistique de test ; sa validité asymptotique sous l’hypothèse nulle est démontrée sous des conditions de mélange fort sur les données. Le second test se focalise sur la détection d’un changement dans le rho de Spearman multivarié des observations. Bien que moins général, il présente de meilleurs résultats en terme de puissance que le premier test pour les alternatives caractérisées par un changement dans le rho de Spearman. Deux stratégies de calcul de la valeur p sont comparées théoriquement et empiriquement : l’une utilise un rééchantillonnage de la statistique, l’autre est fondée sur une estimation de la loi limite de la statistique de test. // Abstract : It is very well-known that the marginal distributions of a random vector do not characterize the distribution of the random vector. When the marginal distributions are continuous, the work of Sklar ensures the existence and uniqueness of a function called copula which can be regarded as capturing the dependence between the components of the random vector. The cumulative distribution function of the vector can then be rewritten using only the copula and the marginal cumulative distribution functions. In this work, we propose two non-parametric tests for change-point detection, particularly sensitive to changes in the copula of multivariate time series. They improve on recent propositions and are more powerful for relevant alternatives involving a change in the copula. The finite-sample behavior of these tests is investigated through Monte Carlo experiments. The first test is based on a Cramér-von Mises statistic and on the sequential empirical copula process. A multiplier resampling scheme is suggested and its asymptotic validity under the null hypothesis is demonstrated under strong mixing conditions. The second test focuses on the detection of a change in Spearman’s rho. Monte Carlo simulations reveal that this test is more powerful than the first test for alternatives characterized by a change in Spearman’s rho. Two approaches to compute approximate p-values for the test are studied empirically and theoretically. The first one is based on resampling, the second one consists of estimating the asymptotic null distribution of the test statistic.
77

L'effet des inégalités d'éducation sur le développement économique : un essai d'évaluation / The effect of educational inequalitites on economic development : an evaluation assay

Benaabdelaali, Wail 20 October 2017 (has links)
Cette thèse cherche à approfondir la nature et la forme des relations entre les inégalités éducatives et le développement. Elle s’inscrit dans le prolongement des analyses engagées sur les liens éducation/croissance et inégalités/croissance, en essayant d’apporter un éclairage complémentaire sur ces deux relations. Elle vise à retracer de manière stylisée l’évolution des inégalités éducatives particulièrement dans les pays en développement et à caractériser la non-linéarité de la relation à partir de l’estimation de modèles non-paramétriques et semi-paramétriques. Cette thèse est constituée de trois chapitres auxquels correspondent des objectifs, des bases de données et des méthodologies spécifiques. Dans un premier chapitre, nous proposons une nouvelle base mondiale sur les inégalités d’éducation. La majorité des travaux sur la relation entre capital humain et développement économique ont principalement appréhendé la mesure du capital humain à travers des mesures de l’éducation en utilisant notamment la moyenne d’années de scolarisation (stock du capital humain). Notre base de données, qui présente une mesure alternative du capital humain, tend à améliorer sensiblement le mode de calcul des inégalités de l’éducation. Elle exploite toute la richesse des données désagrégées, corrige les pondérations inappropriées et affine certaines hypothèses réductrices sur les durées des cycles d’enseignement et les niveaux d’éducation retenus. Nous avons aussi généralisé la formule proposée par Berthélemy (2006) sur l’indice de Gini de l’éducation. Le domaine de variation possible de cet indice est identifié graphiquement selon la moyenne d’années de scolarisation et les durées cumulées des cycles d’enseignement. Nous mettons en évidence, dans le cadre du chapitre II, l’existence d’une relation non linéaire entre les inégalités dans l’éducation et le développement économique en utilisant des modèles non-paramétriques et semi-paramétriques qui n’exigent pas de formes fonctionnelles prédéfinies à l’avance. Plusieurs phases sont ainsi mises en évidence : les trois premières sont repérées seulement par rapport aux niveaux de développement ; deux autres sont identifiées à la fois par des seuils de développement et d’inégalité d’éducation ; une sixième et dernière phase est définie par rapport au seul niveau d’inégalité d’éducation. Nous montrons que c’est dans la troisième et cinquième phases que la réduction de l’inégalité d’éducation présente l’impact le plus bénéfique sur le développement économique.Au-delà du schéma général mis en évidence sur le plan transnational dans les chapitres I et II, nous explorons dans le chapitre III la nature de cette relation au plan régional dans le cas du Maroc, pour lequel nous disposons de données aux niveaux communal et provincial. La non-linéarité de la relation est aussi confirmée. La troisième phase repérée au chapitre II est subdivisée, dans le cas des provinces marocaines, en deux sous phases qui présentent un impact différencié selon un seuil de développement et d’inégalité d’éducation. / This thesis seeks to deepen the nature and the shape of the relationships between educational inequalities and development. It goes along with the prolongation of the analyses undertaken about the relationships between both education & growth; and inequality & growth, by trying to shed additional light on these two. It aims to retrace, in a schematic way, the evolution of educational inequalities particularly in the developing countries; and also to characterize the nonlinearity of this link using nonparametric and semiparametric estimation models.This thesis consists of three chapters that correspond to specific objectives, databases and methodologies. In the first chapter, we propose a new dataset on the inequalities of education. Most of the studies on the relationship between human capital and economic development have mainly apprehended the measurement of human capital through quantitative education indicators, using namely the average of years of schooling (human capital stock). Our database, which presents an alternative measure of human capital, tends to improve significantly the way in which inequalities in education are calculated. It employs all the abundance of disaggregated data, corrects inappropriate weightings and refines some reductive assumptions about the durations of schooling cycles and the levels of education. We have also generalized the formula proposed by Berthélemy (2006) on the Gini index of education. The possible variation range of this index is graphically identified according to the average years of schooling and the cumulative duration of the schooling cycles. In Chapter II, we reveal the existence of a nonlinear relationship between inequalities in education and economic development using nonparametric and semiparametric models that do not require predefined functional forms. Several phases are therefore highlighted: the first three are identified only according to the level of development; then two other phases are recognized by combining thresholds of both development and education inequality; the sixth and final phase is defined by the educational inequality level alone. We show that the phases during which the reduction of educational inequality presents the most beneficial impact on economic development are the third and the fifth.Beyond the general outline highlighted at the transnational level in Chapters I and II, we explore in Chapter III the nature of this relationship at the regional level in the case of Morocco, for which we have data at both the municipal and provincial levels. We also confirm the nonlinearity of the relationship. The third phase, identified in Chapter II, is divided to two sub-phases in the case of the Moroccan provinces which have a differentiated impact according to a threshold of development and inequality of education.
78

Synthèse et validation de lois de commande de vol robustes en présence d’incertitudes paramétriques et de non-linéarités / Design and validation of robust flight control laws in the presence of parametric uncertainties and nonlinearities

Lesprier, Jérémy 03 December 2015 (has links)
Les méthodes de synthèse et de validation de lois de pilotage utiliséesdans le milieu industriel aéronautique sont bien souvent longues et coûteuses àmettre en œuvre. Pourtant, des alternatives pour traiter les larges domaine d’évolutionexistent, comme l’inversion dynamique robuste. Ce travail de thèse chercheà en corriger les défauts, notamment grâce à une meilleure prise en compte desincertitudes du système et à une réjection des non-linéarités non compensées. Ceciest rendu possible grâce aux techniques de synthèse H¥ structurée multi-modèles,qui peuvent considérer plusieurs configurations pire-cas déterminées par des outilsd’analyse de robustesse. Une autre contribution est d’ailleurs l’amélioration destechniques permettant d’évaluer la marge de robustesse d’un système LTI, souventtrop conservatives ou nécessitant un temps de calcul prohibitif. Les méthodes proposéessont appliquées au pilotage automatique d’un avion civil et d’un drone àvoilure fixe, dont la modélisation est également traitée avec précision. / Control laws design and validation methods used in the aeronautical industryare generally time-consuming and costly to set up. However, alternativesexist to cope with large operating domains, such as robust dynamic inversion.This thesis work aims at fixing its drawbacks by better considering the systemuncertainties, and by rejecting the uncompensated nonlinearities. Thanks to recentadvances in structured multimodel H¥ design techniques, it is now possible toconsider multiple worst-case configurations, determined using robustness analysistools. Besides, another part of this work is devoted to the improvement of existingtechniques to evaluate the robustness margin of an LTI system, which are oftentoo conservative or computationally costly. All these contributions are applied tothe control of a civil aircraft and a small fixed-wing UAV, whose modeling is alsothoroughly described.
79

Localisation et caractérisation du déroulement de la crise d'épilepsie temporale / Localization and characterization of the seizure development of temporal lobe epilepsy

Vélez-Pérez, Hugo Abraham 21 October 2010 (has links)
L’électroencéphalogramme (EEG) est un examen incontournable pour le diagnostic, la définition des structures cérébrales responsables de l’origine de crises et la classification des épilepsies. Cependant les enregistrements recueillis à la surface du scalp sont très perturbés par des artefacts et du bruit, ce qui complique considérablement l’interprétation clinique ou l’analyse automatique.Ce travail a pour objectif d’extraire des descripteurs des signaux d’EEG de surface qui peuvent conduire à la caractérisation de la dynamique spatio-temporelle des crises partielles du lobe temporal. Les estimateurs de relations inter-voies appliqués sont les méthodes linéaires paramétriques symétriques et non symétriques telles que l’inter-spectre (S), la cohérence (C), la Directed Transfert Function (DTF) ou la Partial Directed Coherence (PDC). Les relations sont estimées sur des EEG réels contenant une crise. La détection de fortes relations inter-voies est exploitée pour latéraliser puis caractériser la crise. Toutes les méthodes sont appliquées sur des signaux EEG bruts et prétraités. Une étape de prétraitement basée sur la séparation et classification de sources et le débruitage est mise en œuvre afin d’éliminer les artefacts et le bruit avec une perte minimale d’information en diminuant le risque de fausses détections de relations de connectivité inter-signaux. Les résultats obtenus sur 51 crises montrent que le prétraitement améliore la détection et le taux de bonnes latéralisations. Une méthode de couplage entre l’IS et les méthodes paramétriques directives (PDC et DTF) permet d’améliorer la caractérisation des crises / The electroencephalogram (EEG) is the essential clinical examination for the diagnosis, the definition of brain structures responsible of seizures and epilepsy classification. However, the signals collected on the surface of the scalp are very disturbed by artifacts and noise, which complicates the clinical interpretation or the automatic analysis. This work aims to extract descriptors of surface EEG signals that can lead to the spatio-temporal characterization of the temporal lobe seizures. The inter-channel relationship estimators applied are parametric linear methods, such as cross-spectrum (S), coherence (C), Directed Transfer Function (DTF) or Partial Directed Coherence (PDC). Relations are estimated on real EEG recordings containing a crisis. The detection of strong inter-channel relationships is exploited in order to lateralize and to characterize seizures. All methods are applied to raw and preprocessed EEG signals. A preprocessing step, based on the separation and classification of sources and denoising is implemented to remove artifacts and noise with a minimal loss of information by reducing the risk of false detections of inter-signal connectivity relationships. The results on 51 crises show that a signal preprocessing improves the detection and the rate of correct lateralization. A coupling method between S and directivity parametric methods (PDC and DTF) improves the characterization of crises
80

Fab-Cell : outil d'aide à la conception de parois non standards en bois / Fab-Cell : Aided-design tool for non-standard timber walls

Gámez Bohórquez, Oscar 24 March 2017 (has links)
L’intégration du langage informatique dans l’architecture et l’ingénierie a commencé dès les années 1960, mais a connu un réel essor dans les années 1990. Les outils de modélisation ont alors progressivement fait émerger une nouvelle architecture. Tout d’abord baptisée « architecture blob », on lui a ensuite attribué le nom de « blobisme » et ses dérivés sont aujourd’hui appelés « architecture non standard ». Au cours de la dernière décennie, certains chercheurs comme Mario Carpo ou praticiens comme Patrick Schumacher ont introduit les termes de « paramétrisme », « customisation de masse », et « architecture non standard » pour définir ces nouvelles constructions complexes. Elles ne sont pas nécessairement savantes, mais ont été conçues grâce à des outils numériques et réalisées avec des méthodes de fabrication digitales. Cette thèse prend appui sur le postulat qu’une approche non standard dans un projet est loin de se résumer à une démarche purement plastique ou fonctionnelle : elle est destinée à produire des objets constructibles. Le domaine d’étude est celui des murs et enveloppes construites en bois et plus particulièrement les parois de type cellulaire. Ce travail inclut donc un outil paramétrique d’aide à la conception (ACPT, Aided-Conception Parametric Tool) et à la fabrication qui peut accompagner les concepteurs dans l’exploration de solutions non-standards pour des problèmes architecturaux spécifiques Cet outil paramétrique et intégré s’appuie sur une modélisation géométrique et technique des parois murales et des différents dispositifs cellulaires qui les composent. L’approche paramétrique autorise le développement de nombreuses variantes morphologiques. Sa dimension intégrée permet la production et l’optimisation des données tant topologiques que constructives. La production grandeur nature d’une paroi réalisée par un robot de coupe a servi de cadre expérimental pour démontrer les potentialités de notre approche mais aussi en identifier les difficultés. Les améliorations effectuées ont conduit à produire une série de clusters (groupes de fonctions) pour Rhinoceros-Grasshopper (RGH) qui ont permis de mettre en oeuvre la première version opérationnelle de cet outil, baptisée Fab-Cell / The integration of computing language into architecture and engineering has been present since the 1960s but it only proved practical by the 1990s when modeling tools started to participate in an architectural shift that has conceptually mutated through the years. By then, the trend was called “blob architecture” and thirteen years ago, trends succeeding “blobism” were named as non-standard architecture. In the last ten years, academicians like Mario Carpo and practitioners such as Patrick Schumacher nested the terms parametricism, mass customization, and nonstandard architecture to define those complex –not necessarily complicated architectures created by using of digital tools and aided-manufacturing methods. This thesis is underpinned on the fact that using the non-standard approach in any architectural project needs more than just a plastic or functional intention but the means to translate that intention into actual buildable objects. The aims of this study are therefore oriented towards architectural elements using cellular-like patterns as morphologic resource. This work brings up an Aided-Conception Parametric Tool (ACPT) that actually helps designers to explore non-standard solutions to specific architectural problems regarding timber-built walls and envelopes. This ACPT is meant then to succeed architectural intentions in which geometric patterns –as morphologic modifiers- are used to provide walls and envelopes with a particular language (a cellular structure) that might require morphologic form searching (Carpo, 2015a) and topologic optimization by means of parametric generative modeling. The previously mentioned aims were validated by means of a full-scale prototyping exercise in which the first version of the ACPT is tested. Furthermore A series of modeling improvements regarding pattern generation, jointing calculation and fabrication simulation, helped fixing the difficulties found during the first validation stage in order to produce a set of Rhinoceros-Grasshopper (RGH) functional clusters that embody the early operational state of this ACPT called Fab-Cell

Page generated in 0.0701 seconds