• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 159
  • 46
  • 12
  • 11
  • 2
  • 1
  • Tagged with
  • 417
  • 161
  • 113
  • 84
  • 70
  • 57
  • 52
  • 46
  • 46
  • 45
  • 37
  • 33
  • 32
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Concentrated patterns in biological systems

Winter, Matthias, January 2003 (has links)
Stuttgart, Univ., Habil.-Schr., 2003.
112

Algebraic study of systems of partial differential equations /

Kashiwara, Masaki, D'Agnolo, Andrea. Schneiders, Jean-Pierre. January 1995 (has links)
Texte trad. et remanié de: Master's th.--Tokyo, 1970. / Suppl. au : "Bulletin de la Société mathématique de France", t. 123, fasc. 4. Bibliogr. 71-72. Résumé en français et en anglais.
113

Paramétrisation et optimisation sans dérivées pour le problème de calage d’historique / Parametrization and derivative free optimization for the history matching problem

Marteau, Benjamin 04 February 2015 (has links)
Dans cette thèse, on s’intéresse à un problème inverse classique en ingénierie pétrolière, àsavoir le calage d’historique. Plus précisément, une nouvelle méthode de paramétrisation géostatistiqueainsi qu’un nouvel algorithme d’optimisation sans dérivées adaptés aux particularitésdu problème sont présentés ici. La nouvelle méthode de paramétrisation repose sur les principes des méthodes de déformation graduelle et de déformation de domaines. Comme la déformation graduelle locale, elle consiste àcombiner à l’intérieur de zones préalablement définies deux réalisations ou plus de modèle avec lapossibilité supplémentaire de modifier dynamiquement la forme des zones choisies. La flexibilitéapportée par cette méthode dans le choix des zones a ainsi permis de garantir l’obtention d’unbon point initial pour l’optimisation. Concernant l’optimisation, l’hypothèse que les paramètres locaux dans le modèle de réservoir n’influent que faiblement sur les données de puits distants conduit à considérer que la fonction àoptimiser est à variables partiellement séparables. La nouvelle méthode d’optimisation développée,nommée DFO-PSOF, de type région de confiance avec modèle quadratique d’interpolation,exploite alors au maximum cette propriété de séparabilité partielle. Les résultats numériquesobtenus sur plusieurs cas de réservoir valident à la fois l’hypothèse effectuée ainsi que la qualitéde l’algorithme pour le problème de calage d’historique. En complément de cette validation numérique,un résultat théorique de convergence vers un point critique est prouvé pour la méthoded’optimisation construite / We worked in this thesis on a classical inverse problem in the petroleum industry, historymatching. We proposed a new geostatistical parameterization technique as well as a new derivativefree optimization algorithm adapted to the problem specificities. The parameterization method is based on two approaches found in the literature, the local gradual deformation method and the domain deformation method. Similarly to the local gradual deformation method, our method combines two or more model realizations inside previouslydefined zones. Moreover, our method adds the possibility to dynamically update the shape ofthe zones during the optimization process. This property substantially improves its robustnesswith regard to the initial choice of the zones. Thus, the greater flexibility brought by our methodallowed us to develop an initialization methodology which garantees a good initial point for theoptimization. To reduce the number of evaluations needed to minimize the objective function, we madethe assumption that a local parameter does not influence the production data of a distantwell. With this hypothesis, the objective function is then considered partially separable. Theoptimization algorithm we developped, called DFO-PSOF, is a trust region algorithm basedon quadratic interpolation models which exploits this partial separability property. Numericalresults obtained on some reservoir test cases validate both the hypothesis and the quality of ouralgorithm for the history matching problem. Moreover, a theoretical convergence result towardsa first order critical point, is proved for this new optimization method
114

Revêtement galoisien de l’algèbre d’extension par relations partielle et sa catégorie de modules

Sanchez Mc Millan, Tanna Nicole January 2018 (has links)
Dans le but de décrire une classe d’algèbres qui, comme les algèbres inclinées amassées, admettent des tranches locales dans leur catégorie de modules, Assem, Bustamante, Dionne, LeMeur et Smith ont introduit l’algèbre B d’extension par relations partielle. Le but de ce mémoire est de définir une algèbre qu’on appelle répétitive d’extension par relations partielle et un foncteur qui est un revêtement de Galois, puis d’étudier le lien entre les catégories de modules associés.
115

Anisotropie, fusion partielle et déformation de la croûte continentale : étude expérimentale et observations de terrain / Anisotropy, partial melting and deformation of the continental crust : experimental study and field observations

Fauconnier, Julien 22 September 2016 (has links)
La localisation de la déformation est une caractéristique nécessaire de la tectonique. Pour localiser la déformation, une roche doit subir un affaiblissement. Le processus affaiblissant principal des roches est l'interconnexion de phases faibles. Dans le cas de la croûte continentale, les phases faibles étant le plus souvent responsables de la localisation sont les micas et les liquides silicatés résultant de la fusion partielle. Bien qu'il existe des études expérimentales sur la rhéologie des micas, il y a très peu d'études sur l'impact des micas sur la localisation dans les conditions de la croûte continentale inférieure. De même, les précédentes études expérimentales montrent l'effet de la fusion partielle sur la résistance des roches mais elles utilisent toutes un matériel de départ isotrope. Or la croûte subissant la fusion partielle dans les orogènes est susceptible d'être préalablement déformée et donc anisotrope. Dans le but d'apporter de nouvelles données sur le comportement mécanique et les microstructures de la croûte continentale anisotrope, ainsi que sur l'effet des micas sur la localisation de la déformation, cette thèse propose de réaliser une série d’expériences en presse de Griggs. Cette approche expérimentale est aussi couplée à un travail de terrain sur la zone de faille de Møre og Trøndelag (Norvège). Cette structure étant un zone de cisaillement d'échelle crustale dont la cinématique est partiellement synchrone de la fusion partielle, elle est adaptée à l'étude naturelle des relations entre fusion partielle et déformation. / Strain localization is a necessary feature of tectonic. To be able to localize deformation, rocks must undergo weakening. The main weakening process is weak phase interconnection. For continental crust, weak phases that are the most often responsible of strain localization are micas and melt. Although previous experimental studies exist about rheological properties of micas, none are about the effect of micas on the strain localization in the lower continental crust conditions. Previous experimental studies about the effect of partial melting were always done with isotropic starting material. But continental crust which undergo partial melting is very likely to be deformed before melting and therefore to be highly anisotropic. In the aim to bring new data about mechanical behavior and microstructures of anisotropic continental crust, as well as the effect of micas on strain localization, this thesis propose to conduct a series of experiments in a Griggs apparatus. This experimental approach is also coupled with field work on the Møre og Trøndelag Fault Zone (Norway). This crustal scale shear zone was partially synchronous with partial melting and therefore is well suited for studying relation ship between deformation and partial melting
116

Étude des modifications de connectivité cérébrale structurelle dans l'épilepsie / Structural connectivity changes in epilepsy

Besson, Pierre 28 November 2014 (has links)
L'épilepsie est une maladie fréquente affectant 0,5 à 1% de la population générale. Elle est caractérisée par des crises récurrentes responsables d'un sévère handicap médical et psychosocial. Les causes de l'épilepsie sont multiples et peuvent être liées notamment à des lésions cérébrales anténatales ou acquises, des causes génétiques ou métaboliques. L'épilepsie du lobe temporal (ELT) est la forme la plus répandue chez l’adulte, le plus souvent associée à une sclérose de l'hippocampe et réfractaire aux traitements antiépileptiques. Si pendant longtemps l'ELT a été perçue comme une pathologie focale centrée sur l'hippocampe sclérosé, de nombreux travaux montrent que les atteintes associées à l'ELT s'étendent bien au-delà de l'hippocampe et du lobe temporal, suggérant une altération plus globale du réseau cérébral structurel impactant le fonctionnement du cerveau. Toutefois, ces atteintes sont encore mal connues. Le développement récent des séquences et du traitement de l’imagerie de diffusion permettent l’acquisition d’images anatomiques du cerveau et la modélisation des fibres de substance blanche. L’architecture du réseau cérébral peut alors être représentée mathématiquement par un graphe, appelé « connectome » structurel, définissant la force des liens structurels (fibres de substance blanche) entre différentes régions du cerveau.L’objectif principal de la thèse est d’identifier les altérations du réseau structurel liées à l’épilepsie, avec un intérêt particulier à l’ELT. L’objectif secondaire est de développer de nouvelles méthodes d’extraction du connectome structurel pour en améliorer la précision anatomique et mieux identifier et localiser les altérations du réseau structurel.Ainsi, dans un premier temps, nous établissons l’état de l’art des méthodes d’extraction et d’analyse du connectome structurel et discutons leurs limites. Nous présentons alors une nouvelle méthode d’extraction du connectome structurel haute-résolution couvrant l’ensemble du cortex et incluant certaines régions sous-corticales, baptisée « high-resolution structural connectome ». L’objectif est de définir un cadre d’analyse du connectome structurel avec une très bonne précision anatomique et de fournir les outils nécessaires pour des études individuelles ou de groupe en tenant compte des contraintes de temps de calcul et d’utilisation de la mémoire et du disque.Dans un deuxième temps, nous analysons le connectome structurel de patients ELT avec sclérose hippocampique latéralisée dans le but de mettre en évidence le réseau structurel pathologique et d’en distinguer les caractéristiques en fonction de la latéralité de la lésion. Nous validons la stabilité et la reproductibilité du connectome structurel haute-résolution sur des sujets sains. La démonstration de son intérêt clinique potentiel est apportée en observant des différences structurelles subtiles entre deux groupes de sujets sains et en identifiant les sous-structures du striatum. Enfin, notre méthode est appliquée dans un contexte clinique pour identifier les altérations de connectivité structurelle du complexe hippocampo-amygdalien, impliqué dans l’ELT, en lien avec la pathologie. Nos travaux ont ainsi permis d’identifier les altérations globales et diffuses du réseau structurel liées à l’ELT, et plus particulièrement ont mis en évidence des disparités importantes selon la latéralité de la pathologie. Nous avons également présenté une nouvelle méthode d’extraction du connectome structurel augmentant considérablement sa précision anatomique et défini les outils nécessaires à l’analyse haute-résolution du connectome structurel. L’intérêt de cette méthode a été démontré par le gain de précision anatomique obtenu pour l’étude de l’architecture cérébrale du sujet sain ou pour une meilleure identification de réseaux pathologiques, ouvrant ainsi de nombreuses perspectives sur la caractérisation de l’architecture cérébrale et son lien sur le fonctionnement du cerveau. / Epilepsy is a frequent disease affecting 0.5 to 1% of the general population, characterized by recurrent seizures responsible for severe medical and psychosocial handicaps. The causes of epilepsy may be antenatal or acquired brain lesions, genetic history or metabolic disorders. Temporal lobe epilepsy (TLE) is the most common medically intractable epilepsy in adults, often associated with hippocampal sclerosis. Although TLE has been perceived for a long time as a hippocampal disorder, many studies show that the disease actually affects brain regions beyond the hippocampus and temporal lobe suggesting diffuse alteration of the brain structural network. However, these alterations are still unknown. Recent advances in diffusion weighted imaging and processing allow for the acquisition of brain anatomical images and the modeling of white matter fibers. Brain network architecture can then be represented mathematically by means of a graph, called “structural connectome”, defining the strength of the structural links (white matter fibers) across brain regions.The purpose of this thesis is to identify structural network alterations associated with epilepsy, in particular TLE. The secondary objective is to develop new methods for extracting the structural connectome in order to increase the anatomical accuracy and better localize network alterations.Therefore, we first review the state of the art of the methods used for extracting and analyzing the structural connectome and establish their limitations. We then introduce a new method to extract the structural connectome with increased anatomical accuracy, which we called “high-resolution structural connectome”. The purpose is to provide a framework to analyze brain connectivity at high-resolution and to define the necessary tools for individual and group analysis, keeping in mind processing time and memory and disk usages.Then, we analyze the structural connectome of TLE patients with hippocampal sclerosis to reveal underlying pathological network, we also highlight pathological network discrepancies between left and right sided lesions. Inter- and intra-subject stability and repeatability of the high-resolution structural connectome are assessed with a cohort of healthy subjects. We demonstrate potential clinical interest by observing subtle structural differences between two groups of healthy subjects and by delineating the sub-fields of the striatum. Finally, our method is applied to the pathological case of TLE and aims at uncover structural connectivity alterations of the hippocampo-amygdalian complex, known to be involved in TLE.In conclusion, we extend our current knowledge on TLE by showing that this is a network disease involving widespread brain regions, whose pattern largely depends on lesion laterality. We also introduce a new method for extracting the structural connectome at high-resolution, considerably increasing the anatomical accuracy. The interest of this method is demonstrated on healthy subjects to better characterize the healthy brain and on the diseased brain to localize more precisely the brain regions associated with the pathology.
117

Signal subspace identification for epileptic source localization from electroencephalographic data / Suppression du bruit de signaux EEG épileptiques

Hajipour Sardouie, Sepideh 09 October 2014 (has links)
Lorsque l'on enregistre l'activité cérébrale en électroencéphalographie (EEG) de surface, le signal d'intérêt est fréquemment bruité par des activités différentes provenant de différentes sources de bruit telles que l'activité musculaire. Le débruitage de l'EEG est donc une étape de pré-traitement important dans certaines applications, telles que la localisation de source. Dans cette thèse, nous proposons six méthodes permettant la suppression du bruit de signaux EEG dans le cas particulier des activités enregistrées chez les patients épileptiques soit en période intercritique (pointes) soit en période critique (décharges). Les deux premières méthodes, qui sont fondées sur la décomposition généralisée en valeurs propres (GEVD) et sur le débruitage par séparation de sources (DSS), sont utilisées pour débruiter des signaux EEG épileptiques intercritiques. Pour extraire l'information a priori requise par GEVD et DSS, nous proposons une série d'étapes de prétraitement, comprenant la détection de pointes, l'extraction du support des pointes et le regroupement des pointes impliquées dans chaque source d'intérêt. Deux autres méthodes, appelées Temps Fréquence (TF) -GEVD et TF-DSS, sont également proposées afin de débruiter les signaux EEG critiques. Dans ce cas on extrait la signature temps-fréquence de la décharge critique par la méthode d'analyse de corrélation canonique. Nous proposons également une méthode d'Analyse en Composantes Indépendantes (ICA), appelé JDICA, basée sur une stratégie d'optimisation de type Jacobi. De plus, nous proposons un nouvel algorithme direct de décomposition canonique polyadique (CP), appelé SSD-CP, pour calculer la décomposition CP de tableaux à valeurs complexes. L'algorithme proposé est basé sur la décomposition de Schur simultanée (SSD) de matrices particulières dérivées du tableau à traiter. Nous proposons également un nouvel algorithme pour calculer la SSD de plusieurs matrices à valeurs complexes. Les deux derniers algorithmes sont utilisés pour débruiter des données intercritiques et critiques. Nous évaluons la performance des méthodes proposées pour débruiter les signaux EEG (simulés ou réels) présentant des activités intercritiques et critiques épileptiques bruitées par des artéfacts musculaires. Dans le cas des données simulées, l'efficacité de chacune de ces méthodes est évaluée d'une part en calculant l'erreur quadratique moyenne normalisée entre les signaux originaux et débruités, et d'autre part en comparant les résultats de localisation de sources, obtenus à partir des signaux non bruités, bruités, et débruités. Pour les données intercritiques et critiques, nous présentons également quelques exemples sur données réelles enregistrées chez des patients souffrant d'épilepsie partielle. / In the process of recording electrical activity of the brain, the signal of interest is usually contaminated with different activities arising from various sources of noise and artifact such as muscle activity. This renders denoising as an important preprocessing stage in some ElectroEncephaloGraphy (EEG) applications such as source localization. In this thesis, we propose six methods for noise cancelation of epileptic signals. The first two methods, which are based on Generalized EigenValue Decomposition (GEVD) and Denoising Source Separation (DSS) frameworks, are used to denoise interictal data. To extract a priori information required by GEVD and DSS, we propose a series of preprocessing stages including spike peak detection, extraction of exact time support of spikes and clustering of spikes involved in each source of interest. Two other methods, called Time Frequency (TF)-GEVD and TF-DSS, are also proposed in order to denoise ictal EEG signals for which the time-frequency signature is extracted using the Canonical Correlation Analysis method. We also propose a deflationary Independent Component Analysis (ICA) method, called JDICA, that is based on Jacobi-like iterations. Moreover, we propose a new direct algorithm, called SSD-CP, to compute the Canonical Polyadic (CP) decomposition of complex-valued multi-way arrays. The proposed algorithm is based on the Simultaneous Schur Decomposition (SSD) of particular matrices derived from the array to process. We also propose a new Jacobi-like algorithm to calculate the SSD of several complex-valued matrices. The last two algorithms are used to denoise both interictal and ictal data. We evaluate the performance of the proposed methods to denoise both simulated and real epileptic EEG data with interictal or ictal activity contaminated with muscular activity. In the case of simulated data, the effectiveness of the proposed algorithms is evaluated in terms of Relative Root Mean Square Error between the original noise-free signals and the denoised ones, number of required ops and the location of the original and denoised epileptic sources. For both interictal and ictal data, we present some examples on real data recorded in patients with a drug-resistant partial epilepsy.
118

Four essays in econometrics / Quatre essais en économétrie

Davezies, Laurent 19 December 2013 (has links)
Cette thèse se compose de quatre travaux indépendants. Le premier concerne les modèles partiellement identifiés, c'est-à-dire des modèles dans lesquels la valeur du paramètre d’intérêt ne peut pas être déduite de la distribution des données et des hypothèses du modèle. Dans certaines situations, aucune ou au contraire plusieurs valeurs du paramètre d’intérêt sont compatibles avec les données et les hypothèses du modèle. Ce travail démontre entre autre que si l’ensemble des distributions de probabilités compatibles avec le modèle est convexe, alors les parties extrêmes de ce convexe caractérise l’ensemble des distributions compatibles avec le modèle. Le deuxième travail propose une méthode basée sur une condition d’exclusion pour corriger de l’attrition endogène dans les panels. Nous appliquons cette méthode pour estimer les transitions sur le marché du travail à partir de l’enquête emploi française. Le troisième travail propose une méthode simple pour estimer un modèle logistique avec effets fixes et dépendance d’état tel qu’étudié par Honoré et Kiriazidou. Il propose également un nouvel estimateur des écarts-types qui semble avoir de meilleures propriétés à distance finie. Le quatrième travail est une évaluation sur les collèges de la politique éducative des Réseaux-Ambition-Réussite lancée en 2006. Nous exploitons une discontinuité dans la sélection des collèges pour comparer entre eux certains collèges « identiques » avant la mise en place de la politique. Les résultats de cette évaluation laissent place à peu d’optimisme concernant l’efficacité de cette politique. / This work consists of four independent chapters. The first deals with partially identified models, i.e. models in which the parameter of interest is not uniquely identified from the data and the model’s assumptions. In some cases, no value of the parameter of interest is compatible with the data and the model’s assumption. And conversely in some cases, many values are compatible with the data and the model’s assumptions. This work demonstrates among other things that if the set of probability distributions compatible with the model is convex, then this set is characterized by its the extreme parts. The second paper proposes a method based on an exclusion restriction to correct endogenous attrition in panels. We apply this method to estimate the transitions on the labor market from the French Labour Force Survey. The third paper proposes a simple method to estimate a Logit model with fixed effects and state dependence as studied by Honoré and Kiriazidou. It also proposes a new method for inference. The fourth work is an evaluation of a French educational policy, implemented in 2006 whose objective is to provide extra resource to a subset of junior high schools. We exploit a discontinuity in treatment selection to build a credible counterfactual. Our results indicate some adverse treatment effects.
119

Efficient state-space exploration for asynchronous distributed programs ˸ Adapting unfolding-based dynamic partial order reduction to MPI programs / Exploration efficace de l'espace d'états adaptée aux programmes distribués asynchrone ˸ adaptation de la réduction d'ordre partiel basée sur les dépliages pour les programmes MPI

Pham, The Anh 27 December 2019 (has links)
Les applications de transmission de messages distribués font partie du courant dominant des technologies de l'information car elles exploitent la puissance des systèmes informatiques parallèles pour produire des performances plus élevées. La conception de programmes distribués reste difficile car les développeurs doivent raisonner sur la concurrence, le non-déterminisme, la distribution de données… qui sont les principales caractéristiques des programmes distribués. En outre, il est pratiquement impossible de garantir l'exactitude de tels programmes via des approches de test classiques, car il est possible que l'on n'atteigne jamais avec succès l'exécution qui conduit à des comportements indésirables dans les programmes. Il existe donc un besoin de techniques de vérification plus puissantes. La vérification des modèles est l'une des méthodes formelles qui permet de vérifier automatiquement et efficacement certaines propriétés des modèles de systèmes informatiques en explorant tous les comportements possibles (états et transitions) du modèle de système. Cependant, les espaces d'état augmentent de façon exponentielle avec le nombre de processus simultanés, conduisant à une «explosion de l'espace d'état» .La réduction dynamique de l'ordre partiel basée sur le dépliage (UDPOR) est une technique récente mélangeant la réduction dynamique de l'ordre partiel (DPOR) avec des concepts de théorie de la concurrence tels que dépliages pour atténuer efficacement l'explosion de l'espace d'états lors de la vérification des modèles de programmes simultanés. Il est optimal dans le sens où chaque trace de Mazurkiewicz, c'est-à-dire une classe d'entrelacements équivalents en commutant des actions indépendantes adjacentes, est explorée exactement une fois. Et elle s'applique aux programmes en cours d'exécution, pas seulement aux modèles de programmes.La thèse vise à adapter UDPOR pour vérifier les programmes distribués asynchrones (par exemple les programmes MPI) dans le cadre du simulateur SIMGRID d'applications distribuées. Pour ce faire, un modèle de programmation abstrait de programmes distribués asynchrones est défini et formalisé en langage TLA +, permettant de définir avec précision une relation d'indépendance, ingrédient principal de la sémantique concurrentielle. Ensuite, l'adaptation de l'UDPOR, impliquant la construction d'un dépliage, est rendue efficace par une analyse précise des dépendances dans le modèle de programmation, permettant des calculs efficaces d'opérations habituellement coûteuses. Un prototype d'implémentation d'UDPOR adapté aux programmes asynchrones distribués a été développé, donnant des résultats expérimentaux prometteurs sur un ensemble significatif de références. / Distributed message passing applications are in the mainstream of information technology since they exploit the power of parallel computer systems to produce higher performance. Designing distributed programs remains challenging because developers have to reason about concurrency, non-determinism, data distribution… that are main characteristics of distributed programs. Besides, it is virtually impossible to ensure the correctness of such programs via classical testing approaches since one may never successfully reach the execution that leads to unwanted behaviors in the programs. There is thus a need for more powerful verification techniques. Model-checking is one of the formal methods that allows to verify automatically and effectively some properties on models of computer systems by exploring all possible behaviors (states and transitions) of the system model. However, state spaces increase exponentially with the number of concurrent processes, leading to “state space explosion”.Unfolding-based Dynamic Partial Order Reduction (UDPOR) is a recent technique mixing Dynamic Partial Order Reduction (DPOR) with concepts of concurrency theory such as unfoldings to efficiently mitigate state space explosion in model-checking of concurrent programs. It is optimal in the sense that each Mazurkiewicz trace, i.e. a class of interleavings equivalent by commuting adjacent independent actions, is explored exactly once. And it is applicable to running programs, not only models of programs.The thesis aims at adapting UDPOR to verify asynchronous distributed programs (e.g. MPI programs) in the setting of the SIMGRID simulator of distributed applications. To do so, an abstract programming model of asynchronous distributed programs is defined and formalized in the TLA+ language, allowing to precisely define an independence relation, a main ingredient of the concurrency semantics. Then, the adaptation of UDPOR, involving the construction of an unfolding, is made efficient by a precise analysis of dependencies in the programming model, allowing efficient computations of usually costly operation. A prototype implementation of UDPOR adapted to distributed asynchronous programs has been developed, giving promising experimental results on a significant set of benchmarks.
120

Implementierung von Java-Threads in Software und rekonfigurierbarer Hardware

Endrullis, Stefan 20 October 2017 (has links)
Der Markt tragbarer Geräte gewinnt eine immer stärkere Bedeutung. Mobiltelefone, PDAs (Personal Digital Assistant), Smartphones und viele weitere Geräte werden kontinuierlich mit neuen Funktionen ausgestattet und übernehmen zunehmend klassische Aufgaben eines Personal Computers (PC), wie beispielsweise die Textverarbeitung oder die Ausführung multimedialer Anwendungen. Speziell letztere stellen an die Geräte hohe Anforderungen, die sich nicht allein durch den Einsatz leistungsstärkerer Prozessoren lösen lassen. Nicht selten werden deshalb für rechenaufwendige Arbeiten Chips zur Umsetzung der speziellen Anforderungen in Hardware eingesetzt. Diese werden als Application Specific Integrated Circuit (ASIC) bezeichnet.

Page generated in 0.0583 seconds