121 |
Engineering of Light-Gated Artificial Ion ChannelsSteller, Laura Florentina 26 January 2007 (has links) (PDF)
The goal of this project is the development of artificial ion channels that can be actuated by light and thus controlled efficiently. Our artificial system is composed of two regions: the gate and the body part. The gate part is based on light-responsive azo groups while the body part is formed by calix[4]resorcinarene. Key of controlling mechanism is the conformational change between cis and trans isomers, which is translated into movement of the gate. Light-gated artificial ion channels are aimed at eliminating of the stochastic mechanism of artificial ion channels. Such a reversible photocontrol should be a powerful tool for using artificial ion channels as the basis for the development of new pharmaceuticals and drug delivery systems, as photoswitches, and in the field of microfluidics.
|
122 |
Alternative Analysemöglichkeiten geographischer Daten in der Kartographie mittels Self-Organizing MapsKlammer, Ralf 25 August 2011 (has links) (PDF)
Die Kartographie ist eine Wissenschaft, die in ihrem Charakter starke interdisziplinäre Züge aufweist. Sie zeigt sich in den verschiedensten Facetten und wird darum in den unterschiedlichsten Wissenschaften angewandt. Markantester Charakter ist, schon per Definition, die Modellierung von geowissenschaftlichen Ereignissen und Sachverhalten. „A unique facility for the creation and manipulation of visual or virtual representations of geospace – maps – to permit the exploration, analysis, understanding and communication of information about that space.“(ICA 2003) Aus dieser Definition wird die Charakteristik einer Kommunikationswissenschaft (Brassel) deutlich. Gerade seit dem Paradigmenwechsel der 1970er Jahre fließen zahlreiche weitere Aspekte wie Informatik, Semiotik und Psychologie in das Verständnis von Kartographie ein. Dadurch wird die Karte nicht mehr als reines graphisches Mittel verstanden, sondern als Träger und Übermittler von Informationen verstanden. Der Kartennutzer und dessen Verständnis von Karten rücken dabei immer weiter in den Vordergrund und werden „Ziel“ der kartographischen Verarbeitung. Aus diesem Verständnis heraus, möchte ich in der folgenden Arbeit einen relativ neuen Einfluss und Aspekt der Kartographie vorstellen. Es handelt sich um das Modell der Self-Organizing Maps (SOM), welches erstmalig Anfang der 1980er Jahre von Teuvo Kohonen vorgestellt wurde und deshalb auch, von einigen Autoren, als Kohonenmaps bezeichnet wird. Dem Typus nach, handelt es sich dabei um künstliche neuronale Netze, welche dem Nervensystem des menschlichen Gehirns nachempfunden sind und damit allgemein als eine Art selbständiger, maschineller Lernvorgang angesehen werden können. Im Speziellen sind Self-Organizing Maps ein unüberwachtes Lernverfahren, das in der Lage ist völlig unbekannte Eingabewerte zu erkennen und zu verarbeiten. Durch diese Eigenschaft eignen sie sich als optimales Werkzeug für Data Mining sowie zur Visualisierung von hochdimensionalen Daten. Eine Vielzahl von Wissenschaftlern hat diesen Vorteil bereits erkannt und das Modell in ihre Arbeit einbezogen oder auf dessen Verwendbarkeit analysiert. Deshalb möchte in dieser Arbeit, einige dieser Verwendungsmöglichkeiten und den daraus resultierenden Vorteil für die Kartographie aufzeigen.
|
123 |
Development of Prediction Systems Using Artificial Neural Networks for Intelligent Spinning Machines / Entwicklung von Vorhersagesystemen für Intelligente Spinnmaschinen auf Basis Künstlicher Neuronaler NetzeFarooq, Assad 10 June 2010 (has links) (PDF)
The optimization of the spinning process and adjustment of the machine settings involve “Trial and Error” method resulting in the wasting of production time and material. This situation becomes worse in the spinning mills where the speed and material changes are frequent. This research includes the use of artificial neural networks to provide the thinking ability to the spinning machines to improve the yarn spinning process. Draw frame, being the central part of the spinning preparation chain and last machine to rectify the variations in the fed slivers is the main focus of the research work. Artificial neural network have been applied to the leveling action point at auto-leveler draw frame and search range of leveling action point has been considerably reduced. Moreover, the sliver and yarn characteristics have been predicted on the basis of draw frame settings using the artificial neural networks. The results of present research work can help the spinning industry in the direction of limiting of “Trial and Error” method, reduction of waste and cutting down the time losses associated with the optimizing of machines. As a vision for the future research work the concept of intelligent spinning machines has also been proposed. / Die Optimierung des Spinnprozesses und die Maschineneinstellung erfolgen häufig mittels „Trial und Error“-Methoden, die mit einem hohen Aufwand an Produktionszeit und Material einhergehen. Diese Situation ist für Spinnereien, in denen häufige Wechsel des eingesetzten Materials oder der Produktionsgeschwindigkeit nötig sind, besonders ungünstig. Die vorliegende Arbeit zeigt das Potenzial Neuronaler Netze, um die Spinnmaschine zum „Denken“ zu befähigen und damit die Garnherstellung effektiver zu machen. Die Strecke ist der zentrale Teil der Spinnereivorbereitungskette und bietet die letzte Möglichkeit, Inhomogenitäten im Faserband zu beseitigen. Der Fokus der Arbeit richtet sich deshalb auf diese Maschine. Künstlich Neuronale Netze werden an der Strecke zur Bestimmung des Regeleinsatzpunktes genutzt, womit eine beträchtliche Reduzierung des Aufwands für die korrekte Festlegung des Regeleinsatzpunkts erreicht wird. Darüber hinaus können mit Hilfe der Neuronalen Netze die Band- und Garneigenschaften auf Basis der Streckeneinstellungen vorausbestimmt werden. Die Resultate der vorliegenden Arbeit machen „Trial und Error“-Methoden überflüssig, reduzieren den Ausschuss und verringern die Zeitverluste bei der Maschinenoptimierung. Als Zukunftsvision wird eine Konzeption für intelligente Spinnmaschinen vorgestellt.
|
124 |
Neural mechanisms of information processing and transmissionLeugering, Johannes 05 November 2021 (has links)
This (cumulative) dissertation is concerned with mechanisms and models of information processing and transmission by individual neurons and small neural assemblies. In this document, I first provide historical context for these ideas and highlight similarities and differences to related concepts from machine learning and neuromorphic engineering. With this background, I then discuss the four main themes of my work, namely dendritic filtering and delays, homeostatic plasticity and adaptation, rate-coding with spiking neurons, and spike-timing based alternatives to rate-coding. The content of this discussion is in large part derived from several of my own publications included in Appendix C, but it has been extended and revised to provide a more accessible and broad explanation of the main ideas, as well as to show their inherent connections. I conclude that fundamental differences remain between our understanding of information processing and transmission in machine learning on the one hand and theoretical neuroscience on the other, which should provide a strong incentive for further interdisciplinary work on the domain boundaries between neuroscience, machine learning and neuromorphic engineering.
|
125 |
Thinking Machines: Approaches, Achievements and ConsequencesRiedel, Marion 08 May 2002 (has links)
The paper discusses the basics of Cognitive Science
and describes the achievements of research at the
field of Artificial Intelligence. / Die im Rahmen des Seminars "Language - Mind - Brain:
An Introduction to Psycholinguistics" der englischen
Sprachwissenschaft entstandene Arbeit befasst sich
mit den Grundlagen der Kognition und diskutiert
die Ergebnisse der Forschung auf dem Gebiet der
Künstlichen Intelligenz.
|
126 |
Machine Translation: A Theoretical and Practical IntroductionRiedel, Marion 08 May 2002 (has links)
The paper presents the basics and the development
of Machine Translation and explains different
methods for evaluating translation machines on the
base of a detailed example. / Die im Rahmen des Seminars "Language and Computers"
der englischen Sprachwissenschaft entstandene Arbeit
behandelt die Grundlagen und die Entwicklung der
Maschinellen Übersetzung und gibt anhand eines
ausführlichen Beispiels Einblick in Methoden zur
Evaluation von Übersetzungsmaschinen.
|
127 |
Spamerkennung mit Support Vector MachinesMöller, Manuel 22 June 2005 (has links)
Diese Arbeit zeigt ausgehend von einer Darstellung der theoretischen Grundlagen automatischer Textklassifikation, dass die aus der Statistical Learning Theory stammenden Support Vector Machines geeignet sind, zu einer präziseren Erkennung unerwünschter E-Mail-Werbung beizutragen. In einer Testumgebung mit einem Corpus von 20 000 E-Mails wurden Testläufe verschiedene Parameter der Vorverarbeitung und der Support Vector Machine automatisch evaluiert und grafisch visualisiert. Aufbauend darauf wird eine Erweiterung für die Open-Source-Software SpamAssassin beschrieben, die die vorhandenen Klassifikationsmechanismen um eine Klassifikation per Support Vector Machine erweitert.
|
128 |
Using Case-based Reasoning to Control Traffic ConsumptionSchade, Markus 30 January 2007 (has links)
Quality of service is commonly used to shape network traffic
to meet specified criteria. The various scenarios include
limiting and reserving bandwidth for a particular application,
host or user, prioritizing latency sensitive traffic or equal
distribution of unreserved bandwidth. The DynShaper software
distributes and controls a traffic quota by more
sophisticated means than fixed per user limits and simple
disconnection after the user reaches the limit.
It distributes the quota on a daily basis, where
each day receives the same share. The users are
sorted into predefined groups with different bandwidths depending on
their recent consumption. This classification is periodically updated
to ensure the sorting order is maintained. The bandwidths of these
groups is dynamically adjusted depending on the actual consumption to
provide an efficient utilization.
This thesis presents another distribution model using a case-based
reasoning approach, a method for machine learning which is classified
as conventional artificial intelligence. Case-based reasoning tries
to solve new problems based on the solutions of similar problems from the past.
Controlling the network traffic to remain within a fixed quota can be
modeled as such a problem if the traffic patterns are recurring.
Possible solutions can be derived from statistical data and altered to
suit the new problems. When an untested solution is applied, the
software supervises the execution and revises the solution accordingly,
if the actual results deviate from the precalculated schedule.
|
129 |
Jurassic Park im FührerhauptquartierEbbrecht, Tobias 06 August 2008 (has links)
Am Beispiel von zwei britischen Fernsehdokumentationen über den Zweiten Weltkrieg und den Holocaust wird untersucht, wie im Computer generierte Rekonstruktionen vergangener Ereignisse die Wahrnehmung von Geschichte verändern. Insbesondere der Status des dokumentarischen Bildes und sein indexikalischer Charakter stehen zur Disposition. Digitale Bilder gerieren sich als authentische Archivaufnahmen. Dabei oszilliert das digitale Bild zwischen Authentizitätsfiktion, digitaler Effektproduktion und virtuellem Vorstellungsbild. Denn es kann auch zur Herstellung von Vorstellungsbildern genutzt werden, die Welten oder Ereignisse rekonstruieren, die andern-falls nicht rekonstruierbar sind und so die Vorstellungskraft der Zuschauer als notwendigen Beitrag zur „Vervollständigung“ der virtuellen Rekonstruktionen aktivieren. / Digital technologies increasingly become part of filmic genres of the „real“, like in historic documentaries. By analyzing two British television documentaries the article shows how completely computer generated reconstruction of historic incidents change the perception of history. Especially the mode of documentary images and their indexical character are challenged, because the animated pictures get the look of authentic archive footage. The digital image in historical documentaries oscillates between the fiction of authenticity, the production of digital effects and a kind of virtual imagination, because it can also become part of the reconstruction of worlds and incidents that could not be reconstructed another way and activate the power of imagination of the spectator to complete these virtual reconstructions.
|
130 |
Cognitive Computing: Collected PapersPüschel, Georg, Furrer, Frank J. 11 November 2015 (has links)
Cognitive Computing' has initiated a new era in computer science. Cognitive computers are not rigidly programmed computers anymore, but they learn from their interactions with humans, from the environment and from information. They are thus able to perform amazing tasks on their own, such as driving a car in dense traffic, piloting an aircraft in difficult conditions, taking complex financial investment decisions, analysing medical-imaging data, and assist medical doctors in diagnosis and therapy. Cognitive computing is based on artificial intelligence, image processing, pattern recognition, robotics, adaptive software, networks and other modern computer science areas, but also includes sensors and actuators to interact with the physical world.
Cognitive computers – also called 'intelligent machines' – are emulating the human cognitive, mental and intellectual capabilities. They aim to do for human mental power (the ability to use our brain in understanding and influencing our physical and information environment) what the steam engine and combustion motor did for muscle power. We can expect a massive impact of cognitive computing on life and work. Many modern complex infrastructures, such as the electricity distribution grid, railway networks, the road traffic structure, information analysis (big data), the health care system, and many more will rely on intelligent decisions taken by cognitive computers.
A drawback of cognitive computers will be a shift in employment opportunities: A raising number of tasks will be taken over by intelligent machines, thus erasing entire job categories (such as cashiers, mail clerks, call and customer assistance centres, taxi and bus drivers, pilots, grid operators, air traffic controllers, …).
A possibly dangerous risk of cognitive computing is the threat by “super intelligent machines” to mankind. As soon as they are sufficiently intelligent, deeply networked and have access to the physical world they may endanger many areas of human supremacy, even possibly eliminate humans.
Cognitive computing technology is based on new software architectures – the “cognitive computing architectures”. Cognitive architectures enable the development of systems that exhibit intelligent behaviour.:Introduction 5
1. Applying the Subsumption Architecture to the Genesis Story Understanding System – A Notion and Nexus of Cognition Hypotheses
(Felix Mai) 9
2. Benefits and Drawbacks of Hardware Architectures Developed Specifically for
Cognitive Computing (Philipp Schröppe)l 19
3. Language Workbench Technology For Cognitive Systems (Tobias Nett) 29
4. Networked Brain-based Architectures for more Efficient Learning (Tyler Butler) 41
5. Developing Better Pharmaceuticals – Using the Virtual Physiological Human (Ben Blau) 51
6. Management of existential Risks of Applications leveraged through Cognitive Computing (Robert Richter) 61
|
Page generated in 0.0529 seconds