Fortsetzung der Evolution


Hausarbeit, 2003

16 Seiten, Note: 2


Gratis online lesen

Einleitung

Schon als kleiner Junge haben mich die künstlichen Wesen, Roboter genannt, fasziniert. Die Vorstellung, dass eines Tages die Menschheit ein Wesen konstruiert, das selbständig arbeiten und denken kann ist so fantastisch, das mich dieses Thema nicht mehr losgelassen und mein gesamtes bisheriges Leben geprägt und beeinflusst hat.

Dieses weitgreifende Gebiet lässt gerade Heute am meisten Freiraum für Vermutungen und Theorien zu. Eine der interessantesten Aufgaben der Arbeit ist deshalb, widersprüchliche Aussagen und Theorien miteinander zu vergleichen und abzuwägen. Sich durch solche Berge von Informationen durchzuwühlen ist anspruchsvoll und die Motivation dazu zu finden nicht immer eine leichte Aufgabe. Wenn man dann aber sieht, wie sich aus allen Berichten Gemeinsamkeiten ergeben, wie verschiedenste Wissenschaftler ähnliche Ansichten der Zukunft haben und alles auf einen „roten Faden“ hinausläuft, merkt man, dass sich der Aufwand gelohnt hat. Der Gedanke, dass die Natur ein so geniales System, wie das Gehirn erschaffen hat, dessen Funktionsweise wir bis heute nicht so richtig verstehen, dass wir sie exakt kopieren können, ist eine der faszinierendsten Tatsachen, die dieses Gebiet beinhaltet.

Auf die Frage, ob es überhaupt eine Künstliche Intelligenz geben kann, wie man versucht die Intelligenz zu kopieren und wie die Zukunft der intelligenten Roboter und die Auswirkungen auf den Menschen aussieht, darauf möchte ich in dieser Ausarbeitung eingehen.

Kleine Kulturgeschichte von Robotik und Automaten

Wie der griechische Titan Prometheus, der aus Ton Menschen formte, strebten auch Menschen in einer langen Kulturgeschichte danach, sich zum Schöpfer von Leben aufzuschwingen. Das Schicksal des Prometheus ist bekannt: Als er den Menschen das Feuer bringt, wird er von Zeus an einen Felsen gefesselt. Ein Adler frisst ihm täglich die Leber ab. Den Menschen aber schickt Zeus die Pandora mir ihrer Büchse schrecklicher Plagen.

Oder denken Sie an den Golem der jüdischen Mystik, diesen stummen künstlichen Menschen aus Lehm, den fromme Meister bauen. Golem, d. h. hebräisch ‚ seelenlose Materie’. Mit Buchstabenkombinationen des ‚Buchs der Schöpfung’ (hebr.: Sefer Jezira) kann der Golem programmiert werden – zum Schutz des jüdischen Volkes in Verfolgungszeiten. Aber wehe, wenn er sich gewalttätig und furchtbar selbständig macht: Im Stummfilmklassiker ‚Der Golem’ nach Meyrinks gleichnamigem Roman wird dieses Drama eindrucksvoll geschildert.

(Gelehrten, die sich im Mittelalter zu weit in Naturforschung und Alchemie vorwagen, sagen verängstigte Zeitgenossen die Herstellung menschenähnlicher Wesen nach: In jüdischer Tradition dem Hohen Rabbi Löw aus Prag, in christlicher Tradition Albertus Magnus, dessen sprechenden Automaten sein erschrockener Schüler Thomas von Aquin, mehr Theologe als Naturforscher, mit einem Stock zerschlagen haben soll.)

Mit Beginn der Neuzeit wird das Projekt technisch-naturwissenschaftlich angegangen. Zunächst mit den Mitteln der Mechanik: Barocke Spieluhren als Vorbild für lebendige Automaten. Schließlich Elektrizität, Licht und Strom: 1879 erscheint der Roman ‚L’Eve Nouvelle’ (Neuer Traum), in dem eine künstliche Frau durch Elektrizität belebt und mit Geist ausgestattet wird – als weibliches Pendant zu Mary Shelleys ‚Frankenstein’.

1923 erdichtet der tschechische Schriftsteller Capek eine Familie von Robotern, mit denen die Menschheit von schwerer Arbeit befreit werden soll. Schließlich werden die Roboter mit Emotionen versehen. Als Maschinenmenschen können sie ihr Sklavendasein nicht länger ertragen und proben den Aufstand gegen ihre menschlichen Herren. Bis zu Stanley Kubriks Science-Fiction-Klassiker ‚2001 Odyssee im Weltraum’ zieht sich die Vision eines intelligenten und fühlenden Automaten, der in Konflikt mit seinem menschlichen Schöpfer gerät – der alttestamentarische Paradiesmythos für Computer.

Heute geht es aber weniger um den Nachbau eines künstlichen Menschen aus Blech und Stahl. Mit Bio-, Gen-, Informations- und Computertechnologie sind wir längst dabei, neues Leben zu erzeugen, zu verändern und die Evolution mit technischen Mitteln fortzusetzen. Es geht also um eine langfristige Veränderung von uns Menschen und nicht um die bedrohlichen Blechmonster aus Science-Fiction-Filmen. Mit Bio- und Computertechnologie werden wir immer stärker in die Evolution eingreifen. Darin liegen Chancen, aber auch Gefahren. Was sind aus heutiger Sicht die Grundlagen dieser Entwicklung ?

Evolution und Leben

Werfen wir zunächst einen Blick auf unser heutiges Wissen von der Evolution der Natur, das die Computer- und Technikentwicklung zunehmend beeinflusst. Die große Zeitmaschine des Universums entsteht vor ca. 15 Milliarden Jahren aus einem winzigen Anfangszustand, der sich nach den Gesetzen der Quantenmechanik in Bruchteilen einer Sekunde im kosmischen Maßstab ausdehnt. Die Gravitation beginnt, materielle Strukturen von Galaxien und erste Sternengenerationen zu formen, die chemische Elemente erzeugen und wieder vergehen lassen, um neue entstehen zu lassen bis heute.

Leben im Universum ist nicht auf die Erde beschränkt. In einer präbiotischen Evolution entwickeln molekulare Systeme selbständig unter geeigneten planetarischen Bedingungen Fähigkeiten des Stoff- und Energieaustausches (Metabolismus), Selbstreplikation und Mutation. Diese Eigenschaften werden molekular gespeichert. Die Biochemie ist den molekularen Programmen zur Erzeugung von Leben auf der Spur. Darwins Evolutionsbaum der Arten auf Erden kann durch genetische Programmierung des DNA-Codes erklärt werden. (Mutationen sind Zufallsveränderungen des DNA-Codes, die Verzweigungen im Evolutionsbaum erzeugen. Selektionen sind die treibenden Kräfte.

In diesem Baum sind Mensch, Fliege und Hefe nur wenige Verzweigungen entfernt. Aber es gab keine stetige Evolution auf der Erde. Zufallsereignisse wie z. B. Meteoriteneinschläge oder langfristige Klimaveränderungen haben die ökologischen Nischen der Arten verändert. Gesetzmäßig wären also auch andere Lebensformen möglich, die im historischen Evolutionsverlauf nicht auftraten.) Schließlich die Evolution von intelligentem Leben, das mit der Entwicklung von Nervensystemen und Gehirnen verbunden ist: Nervenzellen spezialisieren sich, Nervensysteme ermöglichen Lernprozesse und Erinnerungsspeicher. Werkzeuge, Sprachen und Kulturen entstehen, die unabhängig vom absterbenden Individuum weitergereicht werden. Damit hat die Evolution nach der DNA eine weitere Art der Reproduktion entwickelt. (Aber auch hier wären gesetzmäßig andere intelligente Lebensformen möglich gewesen, wenn Lebens- und Umweltbedingungen sich verändert hätten.

Das menschliche Gehirn wird heute als ein komplexes System von Neuronen verstanden, die sich durch neurochemische Wechselwirkung in Zellverbänden verschalten. Computergestützte PET (Positron-Emission-Tomography)-Aufnahmen zeigen flackernde Schaltmuster von Gehirnarealen, die Wahrnehmungen, Bewegungen, Emotionen, Gedanken und Bewusstsein korreliert sind. Wir sehen in Echtzeit mit dieser Beobachtungsmethode, dass ein Patient denkt und fühlt, aber nicht, was er denkt und fühlt.

Damit hat sich in der Evolution ein hochkomplexes Daten- und Kommunikationsnetz herausgebildet. Im Zentralnervensystem organisieren Millionen von Neuronen die komplexen Signal- und Kommunikationsprozesse des menschlichen Organismus.) Feuernde und nicht feuernde Neuronen produzieren einen dichten Datenfluss von Binärsignalen, die vom Gehirn als Information (Wahrnehmungen, Gefühle, Gedanken etc.) decodiert werden.

Datennetze sind aber in der Evolution nicht auf einzelne Organismen beschränkt. Die Soziobiologie untersucht Tierpopulationen, die ihre komplexen Transport-, Signal- und Kommunikationssysteme durch Schwarmintelligenz organisieren. Es gibt keine zentrale Kommando- und Überwachungseinheit, quasi ein Zentralprozessor durch ein einzelnes Tier. Die Informationen sind in einem chemischen Diffusionsfeld gespeichert, über das die einzelnen Tiere kommunizieren. Erst dieser Superorganismus ist zu kollektiven Leistungen fähig – vom Anlegen verzweigter Ameisenstraßen bis zur Konstruktion komplizierter Ameisennester und Termitenbauten. Auch einzelne Neuronen können nicht denken und fühlen, sondern erzeugen die wunderbaren Gehirnleistungen erst in kollektiven Verbänden.

Diese Stadien der Evolution von der Urmaterie bis zur Entwicklung von Gehirnen und Gesellschaften werden heute zum Vorbild von Rechnerarchitekturen, Computerprogrammen und Robotern. Aber können Roboter jemals ein solches evolutionäres kollektives Denken zustande bringen?

Der nächste Abschnitt heißt daher:

Künstliches Leben und Künstliche Intelligenz

Mit Quantencomputing sind wir an den kleinsten Einheiten der Materie und den Grenzen von Naturkonstanten wie dem Planckschen Wirkungsquantum und der Lichtgeschwindigkeit angelangt – die ultima ratio eines Computers. (Ein Bit entspricht in einem konventionellen Computer genau einem der beiden Transistorzustände ‚geladen’ (1) oder ‚ungeladen’ (0). Ein Quantenbit entspricht mit einer Wahrscheinlichkeit einem der beiden Quantenzustände 1 oder 0, wonach z. B. ein Elektron eines Atomkerns auf einem von zwei Energieniveaus oder ein Elementarteilchen in einem von zwei möglichen Spinzuständen (‚up’ oder ‚down’) ist. Schalter aus Atomen oder Elementarteilchen wechselwirken nach den Gesetzen der Quantenmechanik und lassen Überlagerungszustände (Superpositionen) zu. Damit werden Parallelrechnungen von gigantischem Ausmaß mit Höchstgeschwindigkeit denkbar.) Da Materie auf Quantenzustände von Elementarteilchen und damit Quantenbits reduzierbar ist, stellt sie quasi ‚geronnene’ Quanteninformation dar. Die große Zeitmaschine des Universums ist also zugleich ein natürlicher Quantencomputer. Jedes Stück Materie ließe sich im Prinzip als Rechner aktivieren. Für den technischen Bau von Quantencomputern stellen sich heute allerdings noch große Probleme (, da z. B. überlagerte (kohärente) Quantenzustände sich durch Wechselwirkung mit ihrer Umwelt verändern und daher stabile Speicherung von Quanteninformation sehr schwierig ist.

In einem Mikrotransistor eines konventionellen Computers sorgt eine äußere Steuerspannung dafür, dass ein Strom fließt oder nicht und damit eine Bitsequenz erzeugt werden kann. In einem molekularen Schalter des Molecular Computing (z.B. Benzolringen mit Atomgruppen) sorgt eine Steuerspannung für eine Verdrehung der Moleküle, so dass ein Strom fließen kann oder nicht. Molekulare Schalter, Leiter und Speicher lassen eine größere Packungsdichte, Geschwindigkeit und Haltbarkeit zu. Wegen ihrer Kleinheit müssten sie allerdings durch Nanowerkzeuge gefertigt oder zur Selbstmontage (‚self-assembling’) veranlasst werden).

Schließlich die Molekularbiologie als Vorbild für DNA-Computing: In elektronischen Computern werden Daten durch Bitsequenzen aus 0 und 1 kodiert, in DNA-Computern durch DNA-Sequenzen aus vier Nukleotiden (A, C, G, T). Wegen der massiven Parallelität, bei der Milliarden von DNA-Strängen gleichzeitig in chemischen Reaktionen verarbeitet werden, wegen der großen Packungsdichte und Geschwindigkeit (z. B. 6 Gramm DNA für 1 Million Tera-Operationen pro Sekunde) könnten hochkomplexe Probleme in Angriff genommen werden.

Damit sind wir bereits beim Übergang zum Künstlichen Leben. Es war übrigens die große Vision von Leibniz, auch Lebewesen als eine Art Computer zu begreifen. “So ist jeder organische Körper eines Lebewesens“, so schreibt er in seiner Monadologie § 64, “eine Art von göttlicher Maschine oder natürlichem Automaten, der alle künstliche Automaten unendlich übertrifft.“ Eine mathematische Präzisierung dieser Ideen sind John von Neumanns zelluläre Automaten. (Sie bestehen aus Zellen mit endlich vielen Zuständen, die man sich anschaulich z.B. durch Färbung der Zellen eines Schachbretts vorstellen kann. In welchem Zustand eine Zelle ist, hängt von ihrer Umgebung und lokalen Wechselwirkungsregeln ab. So organisieren sich ohne Zentralsteuerung komplexe Muster, deren “Wachsen“ und “Vergehen“ an organische Gestalten erinnern.

Jeder Computer (im Sinne einer Turing-Maschine) ist durch einen geeigneten zellulären Computer simulierbar und umgekehrt. John von Neumann konnte bereits Ende der 50er Jahre in einem mathematischen Beweis zeigen, dass zelluläre Automaten unter bestimmten Bedingungen sich selbst reproduzieren können.)

Tatsächlich lassen sich mit zellulären Automaten und genetischen Algorithmen wesentliche Aspekte der Evolution erfassen. (Es geht aber weniger um die Simulation der Evolution, als um die Anwendung ihrer Schlüsselmechanismen in der Programmierung. Der Genotyp eines zellulären Automaten ist in einer Bitsequenz kodiert, die seinen lokalen Regeln für die Veränderung von Zellzuständen entspricht. Mutation bedeutet Zufallsveränderungen einzelner Bits und damit Regeln. Bitsequenzen können in einer Art virtueller Gentechnologie zerlegt werden. Selektionen erfolgen nach den Leistungen zellulärer Automaten zur Lösung gestellter Aufgaben. Genetische Algorithmen sorgen dafür, dass sich Generationen von zellulären Automaten für bestimmte Aufgaben in einer virtuellen Evolution optimieren.)

Genetische Algorithmen werden bereits eingesetzt, um z. B. für einen Roboterarm eine optimale Bewegung (zwischen einer Start- und Zielposition) zu finden. In der ersten Generation sind noch zufällige Bewegungsprogramme vorgegeben. Jede neue Generation testet die Fitnessgrade der neuen Programme und wählt die besten aus.

Es gibt auch bereits Spielzeugwelten, in denen sich Populationen von einfachen Automaten aus vorgegebenen Bausteinen selber zusammensetzen, umbauen und in nachfolgenden Generationen für bestimmte Aufgaben optimieren. Noch ist das Spielerei...

Im nächsten Schritt werden Ergebnisse der Gehirn- und Kognitionsforschung zum Vorbild von Künstlicher Intelligenz und Neurocomputing.

Die Rede ist von künstlichen neuronalen Netzen. Wie im Cortex des menschlichen Gehirns können mehrere Schichten von feuernden und nicht feuernden Neuronen übereinander geschichtet und miteinander vernetzt sein. (Lernalgorithmen nach dem Muster der Hebbschen Lernregeln sorgen dafür, dass sich synaptische Verbindungen nach einem einmal gelernten und gespeicherten Verschaltungsmuster verstärken oder abbauen. In diesem Fall sprechen wir von überwachtem Lernen, da sich ein VeränderungsProzess an einem vorgegebenen Prototypen orientiert. Beim nicht-überwachten Lernen richtet das Gehirn spontan seine Aufmerksamkeit auf ein Merkmal oder Kriterium und klassifiziert danach z. B. Gegenstände unserer Wahrnehmung.)

In der Robotik werden bereits neuronale Netze eingesetzt, um Bewegung in unbekanntem Gelände zu lernen. Eine einfache Stabheuschrecke organisiert die Bewegungsabläufe ihrer sechs Beine dezentral über rückgekoppelte Netze und passt sie immer neu den Umweltbedingungen an.

Lernalgorithmen im Neurocomputing sind nicht alle den Lernregeln der Natur nachgebildet. Es kommt auf ihre technische Brauchbarkeit an. So werden in der Prothesenmedizin lernfähige neuronale Netzencoder eingesetzt, um Bewegungssteuerungssignale in Nervenimpulse zu übersetzen und Bewegungsmuster zu erzeugen. (Umgekehrt werden registrierte Nervengewebssignale von einem neuronalen Netz decodiert und zur Ansteuerung einer Bewegungsprothese verwendet. Neuronale Netze sind stark in der Mustererkennung von komplexen Datenmassen.) Typische kognitive Leistungen sind z. B. Mustererkennung bei Wahrnehmungsprozessen oder Lernverfahren beim Lesen (z. B. NETalk).

Im ‚Affective Computing’ werden neuronale Netze auf das Erkennen emotionaler Reaktionen trainiert. Ziel ist eine Verbesserung des Interface, der Interaktion von Netz und Nutzer ohne Maus und Keyboard (z. B. für Behinderte). Emotionen lassen sich nämlich durch komplexe physiologische Lernmuster charakterisieren. Der Einsatz entsprechender Geräte in Medizin und Psychiatrie liegt auf der Hand.

Damit sind wir bei den offenen Fragen und Hypothesen der Neurobiologie, Psychologie und Neuroinformatik angelangt. Können neuronale Netze Bewusstsein erzeugen? Tatsächlich gibt es so etwas wie “das“ Bewusstsein nicht. Unter Bewusstsein wird heute in der Gehirnforschung eine Skala von Graden der Aufmerksamkeit, Selbstreferentialität, Selbstwahrnehmung und Selbstbeobachtung verstanden. Wir unterscheiden visuelles, auditives, taktiles oder motorisches Bewusstsein und meinen damit, dass wir uns selbst bei diesen physiologischen Abläufen wahrnehmen. Wir wissen, dass wir jetzt sehen, hören, fühlen etc. Schließlich denken wir über uns selbst nach und entwickeln zusammen mit der Speicherung von Erinnerungen Selbst-Bewusstsein.

Einfache Vorformen des Selbstmonitoring sind bereits in existierenden Computer- und Informationssystemen realisiert. Bei Tieren und Menschen haben sich Bewusstseinsformen wachsender Komplexität in der Evolution ausgebildet. Beim Menschen kommen historische, soziale, kulturelle und persönliche Erfahrungen hinzu, die zu seinem individuellen Selbst-Bewusstsein führen. Eine technische Entwicklung ähnlicher Systeme lässt sich prinzipiell nicht ausschließen. Es ist allerdings eine ethische Frage, bis zu welchem Grad wir solche Entwicklungen zulassen sollten.

In der Evolution geht es, wie wir gehört haben, nicht so sehr um den einzelnen Organismus, sondern die Population. Der nächste Abschnitt lautet daher:

Schwarmintelligenz und Superorganismen

Stellen Sie sich eine Population einfacher Roboter vor, die wie Gabelstapler nur Hindernisse (z. B. kleine Teelichter) schieben können (solange die Reibung einen Schwellenwert nicht überschreitet) und Hindernissen ausweichen können. Obwohl die Roboter nicht entsprechend programmiert wurden und untereinander nicht (wie z. B. Insekten) kommunizieren können, haben sie nach einer gewissen Zeit ihre Hindernisobjekte nach bestimmten Ordnungsmustern zusammengeschoben. Beim Roboterfußball soll schließlich Schwarmintelligenz durch verteilte künstliche Intelligenz im Team realisiert werden. Ziel ist, dass die Fußballroboter während des Spielverlaufs wie menschliche Spieler ohne Zentralsteuerung eine gemeinsame Spielstrategie entwickeln, die sich selbständig auf neue Situationen einstellt. Wir sind noch weit davon entfernt. Aber technisch ausschließen lässt es sich nicht mehr.

Realität sind bereits die Computernetze, in denen wir Menschen weltweit kommunizieren. In einer technischen Evolution entsteht ein globales Kommunikationsnetz (‚World Wide Web’), dessen Knoten sich beim ‚Weiterleiten’ von Datenpaketen dezentral wie Neuronen im Gehirn verschalten. Diese Analogien zwischen Gehirn, neuronalen Netzen und World Wide Web werden mittlerweile gezielt für technische Innovationen genützt.

(So können Lernalgorithmen selbständig häufig vom Nutzer gewünschte Verbindungen verstärken und abbauen, um damit das World Wide Web mit ‚ synaptischer Plastizität ’ zu versehen.) Im ‚ Soft Computing ’ wird die Anpassungsfähigkeit (Adaptivität), Lernfähigkeit und Fehlertoleranz des Gehirns zum Vorbild von evolutionären Lernalgorithmen und Fuzzy Logik. Die bisherige Unterstützung von Informationssuchen im Netz durch unflexible Suchmaschinen führt zu hoffnungsloser Informationsüberflutung und Orientierungslosigkeit.

In Zukunft wird Schwarmintelligenz von mobilen Agentenpopulationen im Netz unverzichtbar sein, um mit der Informationsflut fertig zu werden. Wir werden Agentenpopulationen mit genetischen Algorithmen in einer virtuellen Evolution künstlichen Lebens züchten. (In nachfolgenden Generationen verbessern sie ihre Fitnessgrade, um interessante Informationen entsprechend den jeweiligen Nutzerbedürfnissen zu finden. Zunächst lernen sie die Nutzerpräferenzen aus Informationsbeispielen. Dann suchen sie im WWW ähnliche Informationen. Schließlich pflanzen sie sich durch Mutation und Rekombination ihrer virtuellen genetischen Codes fort, falls sie erfolgreiche Problemlöser waren.) Wie bei natürlichen Populationen werden sich auf der freien Wildbahn des Internets Kooperationen, Konflikte und Symbiosen von Agenten ergeben. Mit Hilfe der Spieltheorie wird daher derzeit eine Soziologie von Multiagentensystemen (‚Sozionik’) untersucht.

Schwarmintelligenz entsteht keineswegs nur in virtueller Realität. Tatsächlich sind wir Menschen, die in der Evolution aus “Fleisch und Blut“ entstanden sind, keine virtuellen Agenten. Im Laufe unserer Technik- und Kulturgeschichte haben wir uns Werkzeuge und Technologien geschaffen, die unsere Anlagen und Fähigkeiten der Wahrnehmung, Bewegung und Arbeit unterstützen, verstärken und erweitern. Die besten Technologien sind diejenigen, die in den Hintergrund treten, und mit den Abläufen, die sie unterstützen, eins werden. Wir befolgen Verkehrszeichen, ohne uns über den Vorgang des Lesens oder den Ablauf von Verkehrsleitsystemen bewusst zu werden. Wir betätigen Lichtschalter, Toaster, Wecker, Radios, Fernsehgeräte und Telefone, ohne etwas von Elektrotechnik zu verstehen.

Hier setzen ubiquitäre Informationssysteme an. Informationstechnologie ist aber erst dann ‚ubiquitär‘ (d. h. überall verbreitet), wenn ihre Verbindung an Standardrechner wie PC’s und Notebooks überwunden wird und die gebündelten Funktionen in die eigentliche Anwendungen zurück verlagert werden.

Smart Devices sind winzige intelligente Mikroprozessoren, die in Wecker, Mikrowellenöfen, Fernsehgeräten, Stereoanlagen oder Kinderspielzeug eingebaut werden. Über Sensoren können sie untereinander oder mit uns telematisch kommunizieren. Sie benötigen kein Computerinterface mit Maus und Keyboard, sondern nur eine geeignete Benutzeroberfläche für den jeweiligen Zweck, wie wir ihn von Alltagsgegenständen gewohnt sind. Als ‚ Information Appliances ‘ werden sie in Arbeits- und Wohnumgebungen eingebettet. Die Rede ist bereits von ‚intelligenten‘ Haushalten, Büros und Autos.

Daher erzeugen ‚Information Appliances‘ keine virtuelle Realität (virtual reality) im Computer, sondern erweitern die Möglichkeiten unserer physischen Alltagsgegenstände (augmented reality). Nicht wir Menschen allein oder die einzelnen Computerfunktionen in den Dingen sind in diesem Fall intelligent, sondern das Zusammenwirken von Mensch und Technik bringt das intelligente System hervor.

Wenn diese Technik sich durchsetzt, dann werden nicht nur Millionen PC-Teilnehmer virtuell kommunizieren. Milliarden von kleinen und kleinsten Dingen der physischen Welt werden im Internet zu verwalten sein. Sie werden aber massenhaft Datenschattenim Internet erhalten. Datenschatten sind nicht nur ein technisches Problem, sondern werfen grundlegende soziale, rechtliche und ethische Fragen auf. Ängsten vor dem gläsernen Kunden, Patienten oder Staatsbürger ist daher durch geeignete Sicherheitsverfahren zu begegnen.

Zusammen gefasst ist Ubiquitous Computing also eine fachübergreifende Aufgabe. Mit den technischen Entwicklungen von Informatik, Mikroelektronik und Materialwissenschaft und der Wirtschaft als treibendem Motor sind die Humanwissenschaften in besondere Weise herausgefordert, um Informationsumgebungen zu finden, die der Natur des Menschen entsprechen und ihn nicht vergewaltigen.

Der telematisch vernetzte Superorganismus mit seinen übiquitären Technologien könnte sich als Technikutopie erweisen, in der wir Menschen Maßstab der Technik bleiben. Sie könnte sich aber ebenso in einem kollektiven Ameisenstaat realisieren, essen Schwarmintelligenz im Dschungel virtueller Datenschatten und Viren abstürzt.

Evolution und Robotik – Quo vadis?

Was sind unsere Aussichten in diesen Technikszenarien? Werden sich Menschen schrittweise mit neuro- und biotechnischen Implantaten und Prothesen in glückliche Roboter verwandeln, wie Marvin Minsky vermutet? Computergestützte Techniken verändern das Verhältnis zu unserem Körper und zu unserer Umwelt immer tiefgreifender. Nicht nur durch spektakulärer Fortschritte in der Gen- und Neurotechnologie, sondern auch durch neue Medien wie Virtuelle Realität und Intelligente Computernetzwerke, die auf immer neuen Schnittstellen mit unserem Körper basieren, ihn immer direkter an technologische Systeme anschließen. Man spricht von Cyborgs, von Mischwesen aus biologischen Menschenkörpern und technischen Apparaturen, die diese ergänzen, von Mensch-Maschine-Systemen, die beide Komponenten untrennbar miteinander verbinden. Wie auch immer die weitere Entwicklung verläuft, so werden die Vernetzung des menschlichen Körpers mit externen oder implantierten Systemen, die interaktive Repräsentation des Körpers in virtuellen Räumen, die Verselbstständigung von virtuellen Agenten und „realen“ Robotern zu einem neuen Verständnis dessen führen,was menschlich und was ein menschlicher Körper ist. Jetzt schon wird der Körper immer weniger als Substanz und immer mehr als Schnittstelle mit der Welt und mit Maschinen verstanden, die sich verändern, die sich neu designen konstruieren lässt. Die durch unseren Körper, durch dessen sensorische und motorische Beschränkungen verursachte Verankerung im räumlichen und zeitlichen „Hier“ wird immer weiter aufgeweicht. Auch ohne Roboter-Fernlinge oder virtuelle Puppen überschreiten wir unsere sensorischen und motorischen Beschränkungen durch jede neue Form der Technologie, durch jedes neue Mensch-Maschine-System. Unsere durch Evolution entstandener Erfahrungsschatz, der stets von unserem Körper abhängig ist, verändert sich durch diese Erweiterungen oder Prothesen.

„Irgendwann werden wir an jedem Ort der Erde Cyborgs begegnen", so Prof. Cochrane. "Menschen mit künstlichen Herzen, Schrittmachern, künstlichen Augen und Ohren, künstlichen Gelenken, mit allen nur erdenklichen technischen Hilfsmitteln."

In 50 Jahren werde es ganz normal sein, dass wir elektronische oder genetische Einbauten in unserem Körper haben. "Sie werden uns ermöglichen, länger und glücklicher zu leben. Vielleicht können wir so dem Altern ein Schnippchen schlagen."

Wir werden uns damit abfinden müssen, dass unser Körper nicht an unserer Haut aufhört, wenn wir in Zukunft ein Fahrzeug, oder gar einen Roboter in der Ferne steuern, uns virtuell auf einem anderen Kontinent bewegen und Dinge verrichten. Plötzlich kann ein Auge oder eine Hand über Tausende von Kilometern reichen und wirklich etwas vollbringen ohne wirklich dort zu sein. Zwischen der Bewahrung und Perfektionierung des alten Körpermodells und dem Begehren nach einem neuen, das sich den Veränderungen anpasst, schwanken wir hin und her, wohlwissend, dass eine Rückkehr zur „Natürlichkeit“ nur noch ein größerer Schritt in die Künstlichkeit hinein wäre.

Entwickelt sich die Menschheit zu einem Superorganismus mit Datennetzwerken und virtuellen Körpern ?Erwachen wir schließlich als perfekte Kopie im Internet? Hinter solchen Überschussfantasien, die von technisch absehbaren Entwicklungen abheben und sich in Science-Fiction-Szenarien entladen, verbergen sich verdrängte Ängste und pseudo-religiöse Heilserwartungen, die heute in technischen Metaphern verbrämt werden. Entgegen den bunten Langzeitprognosen aus USA, die uns in immer neuen Bestsellerauflagen smart oder shocking exponentielle Fortschrittsgläubigkeit oder finalen Untergang prophezeien, sollten wir uns auf unsere europäische Aufklärungstradition besinnen, um hier und heute die Weichen für eine von uns gewünschte Gesellschaftsentwicklung zu stellen.

Nur so haben wir eine Chance, Technikentwicklung zu gestalten und nicht in einer quasi-naturwüchsigen Evolution zu entfesseln. Die Ordnung der Natur kann uns dabei keineswegs als uneingeschränktes Vorbild dienen.

Für menschliche Maßstäbe arbeitet die Natur nämlich als Evolution mit ungeheuren Verlusten (von Pflanzen- und Tierarten bis zu menschlichen Embryonen) chaotisch, blind und nicht mit jedem Versuch erfolgreich. Krebstumore, schwere genetische und neuronale Defekte sind Beispiele, die uns bis heute schockieren.

Wenn wir daher KI-, Bio- und Internettechnologie als Dienstleistung am Menschen entwickeln wollen, um in der medizinischen Tradition des Hippokrates heilen und helfen zu können, dann bedarf es einer Wertorientierung, die uns Natur, Wissenschaft und Technik alleine nicht liefern können.

Welche Schlüsselkompetenzen sind notwendig, damit uns die virtuellen Netzwelten nicht in einer quasi-naturwüchsigen Evolution aus der Hand gleiten? Neben Fachkompetenz ist die Fähigkeit zu vernetztem und fachübergreifendem Denken von überragender Bedeutung. Bei zunehmend projektorientierter Arbeit in Betrieb und Forschung heißt das ganz konkret, dass ich z. B. als Informatiker auch die Denkweise eines Medienpädagogen, Betriebswirts oder Juristen verstehen muss, um ein marktgerechtes und vom Kunden akzeptiertes Produkt anbieten zu können.

Vernetztes Denken ermöglicht erst Teamkompetenz. (Sprachlich-kommunikative Kompetenzen müssen in der Informations- und Wissensgesellschaft hinzutreten. Den verschiedenen Kulturen im Netz muss mit interkultureller Kompetenz begegnet werden. Was nützt aber alles Wissen, wenn wir nicht gelernt haben, es in der Gruppe sozial zu vermitteln und mit Mut zur Entscheidung und Verantwortung zu realisieren, d.h. Entscheidungskraft und soziale Kompetenz zu zeigen.)

Toughness und Smartness im Sinne von Unternehmensberatern reichen dazu allerdings nicht aus. In alteuropäischer Tradition spreche ich daher von Wertorientierung als Basis der Persönlichkeitsbildung. In der griechischen Philosophie heißt die Verbindung von Wissen mit Wertorientierung Weisheit (sophia). Sollte uns diese Verbindung nicht gelingen, dann wären wir nämlich trotz allem Wissen und Können, trotz aller Zukunfts- und High Tech Orientierung am Ende die wahren Verlierer der Evolution.

Philosophie ist daher dringender notwendig denn je. Sie dokumentiert das Ringen des Menschen um die Maßstäbe seiner Entwicklung. In griechisch-römischer und jüdisch-christlicher Tradition gipfelt diese Entwicklung in der Aufklärung in der Forderung nach der Unverfügbarkeit des Menschen: Er ist Selbstzweck oder wie es im Grundgesetz Artikel 1 schlicht heißt: “Die Würde des Menschen ist unantastbar!“ Wir haben gute Gründe, an dieser Tradition festzuhalten, auch wenn wir uns nicht länger einer blinden Evolutionsdynamik überlassen wollen. Wir sollten das Feuer des Prometheus nutzen, ohne die Büchse der Pandora zu öffnen.

Zukunftsszenarien

Bis zum Jahr 2020 wird es Computer geben, die wir zwar noch nicht in uns, aber dicht an uns tragen. Die ersten Computer füllten noch ein ganzes Hochhaus, der Computer der 70er „nur“ noch eine Zimmerflucht. Der Desktop, das Notebook, die Palmtops und Handys – die Technologie wird immer kleiner und handlicher, bis sie ganz verschwindet, Computer werden unsichtbar. Computer werden Werkstoff.

Von unseren Brillen und Kontaktlinsen werden Bilder direkt auf unsere Netzhaut projiziert, Klänge aus Minigeräten direkt in unsere Ohren gefüttert. Wir werden durch Verbindungen mit sehr großen Bandbreiten ständig kabellos mit dem Internet vernetzt sein. Die Elektronik für die Verbindung mit dem Internet, die Recheneinheiten und Displays, werden so klein sein, dass sie in unseren Brillen eingebettet und in unserer Kleidung verwoben sein werden. Man wird sie nicht sehen können. Wir werden ständig an das Internet angeschlossen herumlaufen, und der Besuch einer Website wird heißen, eine virtuelle Umgebung zu betreten, die zumindest das Seh- und Hörvermögen einschließt. Wir erleben heute eine sehr primitive Version der visuellen virtuellen Realität. Es ist kein völliges Eintauchen, es ist keine hohe Auflösung, aber das kommt noch. Und es gibt heute experimentelle Technologien, die ich schon benutzt habe, die teuer und umständlich sind, die jedoch ein volles Eintauchen in eine visuelle virtuelle Realität ermöglichen. Selbstverständlich haben wir schon seit einhundert Jahren die gehörte virtuelle Realität – man nennt sie das Telefon. Bis zum Ende dieses Jahrzehnts werden wir virtuell zusammentreffen können und das Gefühl haben, dass wir wahrhaftig beieinander sind, wird ein alltägliches Erlebnis sein.

Bis zum Jahr 2040 werden wir mit Hilfe von Nanobots – dies sind mikroskopisch kleine Roboter so groß wie Blutzellen, die in den Blutkreislauf gelangen und durch die Kapillargefäße unseres Gehirns reisen können – in der Lage sein, das volle Eintauchen mit allen unseren Sinnesorganen in eine virtuelle Realität zu erleben. Und das ist eigentlich ein konservatives Szenario, wenn man all die verschiedenen Trends, die ich beschrieben habe, zusammenfasst: die Elektronik, die Miniaturisierung, die Hochleistungsrechner, das Gehirnscanning und so weiter. Wir schicken Milliarden Nanobots in die Kapillargefäße des Gehirns, sie nehmen Schlüsselpositionen in diesen Kapillargefäßen ein, und sie können miteinander kommunizieren und mit unseren biologischen Neuronenschaltkreisen direkt und nicht-invasiv interagieren. Diese Technologie, existiert heute schon, leider noch nicht in ausreichend raffinierter Form.

Aber es gibt schon einen Prototypen für dieses Konzept, den Neuronentransistor, der mit Neuronen nicht-invasiv kommunizieren kann. Er muss kein Kabel in das Neuron stecken. Wenn das Neuron feuert, wird der elektromagnetische Impuls – quasi die Sprache des Gehirns – vom Neuronentransistor registriert, er liest die Kommunikationssignale des Gehirns. Umgekehrt kann der Neuronentransistor das Neuron zum Feuern bringen oder es vom Feuern abhalten: das ist die Kommunikation in die andere Richtung. Wenn Nanobots Positionen zum Beispiel neben ausgewählten Nervenfasern beziehen, können Sie eine virtuelle Realität von innen heraus erzeugen, indem sie Signale ersetzen, auf die das Gehirn reagiert. Signale, die anscheinend von unseren echten Sinnesorganen, unserem Tastsinn, unseren Augen, unseren Ohren, ausgehen, sendet in Wahrheit der Computer. Er ersetzt diese Signale mit den Signalen, die der Mensch erhalten würde, wenn er sich in der von all den zusammenarbeitenden Computern berechneten virtuellen Umgebung befinden würde. Er könnte in dieser Umgebung herumlaufen und so weiter, und könnte Aktionen ausführen. Wenn er seinen Arm vor sein Gesicht bewegen will, würde selbstverständlich sein echter Arm von der Bewegung abgehalten und sein virtueller Arm bewegt. Der Mensch wird den Eindruck haben, dass er sich in dieser virtuellen Umgebung frei bewegt.

Und dies sind gemeinsame Umgebungen. in diesen gemeinsamen virtuellen Umgebungen kann man mit anderen Menschen dorthin gehen und sich gegenseitig sehen, sich berühren und jede Art von Erlebnis haben, von einer sinnlichen Begegnung bis zu einem Geschäftstreffen. Nanobots können die Sinne stimulieren und unsere Empfindungen intensivieren, wenn nicht gar modifizieren. Genau wie jede andere Technologie wird diese nicht über Nacht in voller Perfektion entstehen. Anfangs wird es primitive Versionen geben. Aber schließlich wird sie eine genau so hohe Auflösung haben, sie wird genau so bezwingend und überzeugend sein wie die echte Realität, und sie wird viele Vorteile haben, indem es Millionen verschiedener virtueller Umgebungen geben wird. Manche werden Emulationen echter Umgebungen sein: Man wird sich mit einem Freund in einem virtuellen Café in Hamburg treffen können, oder an einem virtuellen Strand spazieren gehen, etc. Einige dieser Umgebungen werden imaginäre Umgebungen sein, die kein irdisches Gegenstück haben – die in der Welt nicht existieren könnten. Selbstverständlich muss man in der virtuellen Realität nicht die gleiche Person sein, man kann eine andere Person sein, man muss nicht das gleiche Aussehen oder die gleiche Persönlichkeit haben.

Unser Denken findet in den Verbindungen zwischen den Neuronen statt. Wir haben hundert Trillionen Verbindungen, und sie alle rechnen simultan. Das ist ein Paradigma, das sich von den Computern, an die wir gewöhnt sind, sehr unterscheidet.

Aber weil sie miteinander kabellos kommunizieren können, können Nanobots auch neue Verbindungen schaffen. Wir werden in Zukunft eine Million oder Trillion Mal so viel unser Eigen nennen. Dadurch können wir unser Gedächtnis und unsere Denkleistung vergrößern und grundsätzlich eine Kreuzung unserer biologischen Intelligenz mit dieser werdenden nichtbiologischen Intelligenz schaffen. Menschliche Intelligenz wird steigen. Sogar diese nichtbiologische Intelligenz, obwohl sie aus anderen Materialien aufgebaut ist und auf anderen Paradigmen und Methoden als unser biologisches Denken basiert, ist trotzdem vom menschlichen Denken abgeleitet, weil sie in vielen Fällen auf biologisch inspirierten Mustern aufbaut.

Daran arbeiten wir schon heute.In meiner Forschungsarbeit zur Spracherkennung zum Beispiel benutzen wir das Spiegelbild der Konstruktion des menschlichen Hörsystems, das viel ausgefeilter ist, als man es sich vorstellt. Man hat beispielsweise detaillierte Modelle für die Art und Weise geschaffen, wie das menschliche Hörsystem Geräusche verarbeitet. Sie basieren auf der tatsächlichen Konstruktion der biologischen Neuronen und echtem Gehirnscanning, welches zeigt, wie diese Neuronen miteinander verbunden sind. Das Gehirn besteht es aus Hunderten von spezialisierten Regionen.

Jede Region ist sehr unterschiedlich organisiert. Das Gehirn ist im Grunde eine Sammlung von Hunderten spezialisierter Organe zur Bearbeitung von Informationen.

Wir haben schon das Spiegelbild der Konstruktion von mehreren dieser Organe ausgearbeitet. Und bis zum Jahr 2030 werden wir solche Spiegelbilder für sie alle ausgearbeitet haben. Wir werden sehr detaillierte Scans des gesamten Gehirns haben, und wir werden verstehen, wie das Gehirn funktioniert. Und wir werden nichtbiologische Systeme schaffen, die von der Biologie inspiriert sind, die Kopien bzw. Emulationen biologischer Systeme sind. Die wesentliche Implikation davon ist, meiner Meinung nach, die Erweiterung unserer menschlichen Erfahrung und die Erweiterung der menschlichen Intelligenz, damit wir größere Erfahrungen, komplexere Gedanken haben können – jedoch in einer menschlichen Art und Weise, da die ganze Technologie von der menschlichen Intelligenz abgeleitet wird.

Lassen Sie mich eine Zeitlang auf die so genannte Bill Joy-Frage zurückkommen. Die Gefahren, die er beschreibt, sind reale Gefahren. Eigentlich hat er drei Schreckgespenster beschrieben. Das nächstliegende stellen die biologischen Wissenschaften dar. In fortgeschrittenen Labors ist es jetzt schon möglich – und eigentlich wird es innerhalb von vier oder fünf Jahren in jedem gewöhnlichen Biotech- Labor einer Universität möglich sein – Designer-Pathogene zu schaffen. Diese sind potenziell zerstörerischer als eine Atombombe, weil eine Atombombe wenigstens relativ begrenzte Auswirkungen hat. Das ist selbstverständlich eine sehr große Gefahr, und wir haben schon heute ein Verständnis der biologischen Mechanismen, die solche Szenarien möglich machen.

Das nächste Szenario, das er beschreibt, ist die Nanotechnologie, die den biologischen Gefahren sehr ähnelt, jedoch Mechanismen und Systeme enthält, die – genau genommen –nicht biologisch sind. Nanotechnologie ist die Fähigkeit, physische Objekte nicht nur Teil für Teil, sondern Atom für Atom – also quasi identisch – zu erschaffen. Das bedeutet, jede Art von Produkt könnte zumindestens theoretisch geschaffen werden. Es gibt heute schon viele hybride Bildungen. So gab es in den vergangenen Wochen Zeitungsartikel über kleine Maschinen, die erschaffen werden, indem man biologische Bakterien nimmt und eine bestimmte Menge an Elektronik hinzufügt, wobei man Mischwesen zwischen biologischen und nichtbiologischen Systemen kreiert. Andere nicht-biologische Systeme können sich potenziell selbst replizieren. Und dann sehen wir uns der Gefahr gegenüber, einerseits der grundsätzlich unintelligenten, sich selbst replizierenden Gebilde und andererseits der sehr intelligenten, sich selbst replizierenden Gebilde. Die dummen, sich selbst replizierenden Gebilde, bzw. das, was manchmal das „Graue-Schleim-Problem“ genannt wird, wird eine Art biologisches Pathogen bzw. biologischer Krebs, der sich jedoch nicht auf biologisches Material beschränkt. Da biologische Materialien eigentlich nicht sehr stark sind und nur innerhalb eines begrenzten Temperaturbereichs funktionieren, ist die Nanotechnologie potenziell gefährlicher als die Biotechnologie.

Denn Nanoboter können physisch stärker und intelligenter sein als proteinbasierte Entitäten.

Schließlich hat man die sich selbst replizierenden intelligenten Gebilde, d.h. die Roboter. Wenn sie wesentlich intelligenter als die Menschen werden – ich meine „werden“ – sind sie dann unsere treuen Diener oder werden sie unfreundlich? Werden sie zu dem Schluss kommen, dass sie die Menschen nicht gebrauchen können? Manche Beobachter resümieren unsere menschlichen Verhaltensweisen und wie wir uns gegenseitig in der Geschichte behandelt haben, und dieser Gedanke in Verbindung mit intelligenten Gebilden behagt ihnen nicht. Aber die komplexesten Maschinen, die wir nun haben, sind immer noch eine Million Mal einfacher gebaut als Menschen. Für uns sind folglich Maschinen spröde, mechanische, voraussehbare Geräte, die nichts menschliches an sich haben. Unser Konzept von einer Maschine wird sich aber wandeln. wenn eine Maschine die Komplexität des Menschen erreicht, oder sogar übertrifft, werden wir anders denken. Ich betrachte dies als Expansion unserer Zivilisation. Zwischen Maschine und Mensch wird es keine klaren Unterschiede mehr geben.

Ich komme zurück auf die eng miteinander verknüpften Verheißungen und Gefahren dieser Technologien. Meiner Meinung nach müssen wir zuerst erkennen, dass wir den Fortschritt der Technologie nicht aufhalten können. Die einzige auch nur theoretische Weise, sie aufzuhalten, wäre die Ausschaltung der freien Marktwirtschaft, da wir diese Schreckgespenster nicht als bestimmte Projekte schaffen. Sie sind lediglich das unausweichliche Endresultat anderer Projekte, die sehr lohnende Vorteile mit sich bringen. Projekte, um Krebs auszurotten, Krankheiten zu überwinden, um einen Großteil menschlichen Leidens zu beseitigen, das wegen unserer biologischen Probleme immer noch existiert, schaffen genau die Technologien, die zu biologischen Designer-Pathogenen und dem Missbrauch dieser Technologien durch Terroristen führen können.

Die Nanotechnologie ist nicht ein einziger eng umgrenzter Bereich; sie ist nur ein Teil der allgegenwärtigen Miniaturisierung der Technologie, die heute im Gange ist. Heute läuft die Miniaturisierung auf einer Ebene, die einhundert Mal größer ist als das, was man Nanotechnologie nennt, aber wenn man die Entwicklung verfolgt, werden wir innerhalb von fünfundzwanzig Jahren mit Größenordnungen arbeiten, in denen die Schlüsselelemente nur ein paar Nanometer groß sind. Das ist dann Nanotechnologie.

Dann werden die von Bill Joy beschriebenen Gefahren real werden. Jedoch gibt es keine Möglichkeit, diese Entwicklung aufzuhalten, es sei denn, wir schalten die gesamte Technologie aus.

Ich gebe Ihnen ein Beispiel der Art von Projekten, die heute durchgeführt werden. Texas Instruments kreiert einen Projektor mit einer höheren Auflösung, als die, mit der Sie mich jetzt per Videokonferenz ziemlich genau sehen können. Keiner würde sagen, das sei eine gefährliche Technologie. Aber das ist ein kleiner Schritt unter Zehntausenden von Schritten, die die Technologie vorantreiben. Bill Joys eigene Firma, Sun Microsystems, ist ständig dabei, schnellere Computer zu schaffen, und auch das bringt uns stufenweise näher zu Gefahren wie diejenigen, die er beschrieben hat. Wenn aber Sun Microsystems aufhören würde, das zu tun, würde die Firma Pleite gehen. Es ist eine wirtschaftliche Notwendigkeit, den Fortschritt voranzutreiben. Und alle diese Projekte sind sinnvoll, weil sie die Marktbedürfnisse erfüllen, d.h. sie erfüllen menschliche Bedürfnisse. Aber sie schaffen auch größere Gefahren, die diese Konsequenzen beinhalten.

Wie können wir mit dieser neuen Art von Problemen fertig werden, die vor ein paar Jahrzehnten noch nicht existierten? All die Probleme, die Bill Joy anspricht, haben mit den sich selbst replizierenden Technologien zu tun. Es ist die Selbst-Replizierung, die gefährlich ist, weil sie das Schreckgespenst von etwas außer Kontrolle Geratenem in sich birgt. Von etwas, das Amok läuft, das alleine weitermacht, das man nicht rückgängig machen kann. Es existiert schon heute eine Spielart selbstreproduktiver, nichtbiologischer Entitäten, die erst wenige Jahrzehnte jung sind: das Computervirus.

Es ist ein vom Menschen geschaffenes Pathogen. Es lebt in einem bestimmten Medium der Computer-Netzwerke.

Als diese Computer-Viren vor ein paar Jahrzehnten zum ersten Mal erschienen, schlugen Beobachter Alarm und sagten, diese ersten Viren wären nicht sehr gefährlich. Sie wären etwas primitiv, würden sie aber ausgeklügelter werden, würden sie die Computer-Netzwerke stilllegen, und Netzwerke sowie Computer zerstören und das Internet lahm legen. Wie effektiv sind wir mit dieser Gefahr fertig geworden? Wir sorgen uns immer noch um Computer-Viren, abund zu verursachen sie Schäden in Höhe von Milliarden Dollar. Jedoch würden nur wenige vorschlagen, dass wir wegen Computer-Viren die Netzwerke und das Internet und das Web abschaffen. Die Computer-Viren sind eher eine Art Störfaktor. Die Schäden durch Computer-Viren stellen weniger als 0,1 % des Nutzens der Netzwerke, in denen sie wohnen, dar. Wir sind sehr gut damit zurechtgekommen – und wie haben wir das geschafft? Zuerst haben wir es mit Selbstregulierung und ethischen Standards geregelt, mit einem bestimmten Maß an technologischen Immunsystemen, mit Anti-Viren-Programmen und raffinierteren Schutzmaßnahmen, die heute entwickelt werden, und in bestimmten Fällen durch gesetzliche Maßnahmen.

Man mag dagegen halten, dass Computer-Viren nicht das tödliche Potenzial von biologischen Viren oder einer destruktiven Nanotechnologie besitzen. Dies unterstützt jedoch eigentlich mein Argument. Die Tatsache, dass Computerviren normalerweise nicht für den Menschen tödlich sind, bedeutet nur, dass Menschen leichter geneigt sind, sie zu erschaffen und zu verbreiten. Es gibt Hacker, die Computer-Viren verbreiten, weil sie meinen, es sei nur ein Streich. Wenn sie der Meinung wären oder wüssten, dass sie damit Menschen töten würden, würden die meisten dieser Leute dies unterlassen, da sie nicht zu Mördern werden wollten. Zweitens würde unsere Reaktion auf Computerviren, unser Eifer in ihrer Bekämpfung, die Anwendung der Gesetze, die technologische Reaktion, einhundert Mal größer sein, wenn sie tödlich wären. Es hat einen bestimmten Reiz, wenn Bill Joy sagt, nun, lass uns diese Technologie als gefährlich einstufen und jene als nicht gefährlich; die Nanotechnologie birgt bestimmte Gefahren, also lassen wir das mit der Nanotechnologie. Aber das ist nicht die Art und Weise, wie Technologie funktioniert, sie ist nicht so leicht einteilbar. Viele Projekte, die sehr harmlos scheinen – einschließlich derjenigen, mit denen ich mich beschäftige, mit denen Bill Joy sich beschäftigt – treiben die Technologie voran und verursachen solche gefährlichen Fähigkeiten. Wir nähern uns diesen gefährlichen Fähigkeiten, während wir uns gleichzeitig vielen der enormen Vorteile der Technologie nähern. Die Technologie bleibt weiterhin ein zweischneidiges Schwert.

Ihre Macht, ihre Leistungs- und Einsatzfähigkeit auf allen möglichen Gebieten äußert sich in einer doppelten Weise mit kreativen und zerstörerischen Impulsen. Die einzige Art, wie wir mit dieser Macht umgehen können, liegt in der Kombination von ethischen Richtlinien, technologischen Schutzmaßnahmen und einer entsprechenden Gesetzgebung. Die Technologie selbst kann alle diese Elemente verstärken. Die Biotechnologie z.B. ist bestimmt nicht unreguliert. Sie wird extrem streng gesteuert.

Und die Nanotechnologie-Gemeinschaft – zum Beispiel das von Eric Drexler gegründete Foresight-Institute – hat sehr detaillierte ethische Richtlinien formuliert, die auf biologischen Richtlinien basieren. Das Grundgesetz dieses Instituts ist eine Forderung, die in Europa noch kaum bekannt ist und die die zentralste aller Gefahren benennt: Alle Wissenschaftler, die sich mit Nanotechnologie befassen, sollen vollständig verzichten auf die Entwicklung von physischen Entitäten, die einen eigenen Code zur Selbstreproduktion enthalten. Es hat viele detaillierte Vorschläge für technologische Schutzmaßnahmen gegeben. Ein weiteres Beispiel ist das Verbot physikalischer Artefakte, die ihre eigenen Codes für Selbst-Replizierung enthalten. In dem was der Nanotechnologe Ralph Merkle „Broadcast Architecture“ nennt, würden solche Artefakte ihre Codes von einem zentralisierten sicheren Server erhalten, der vor unerwünschter Replikation schützt. „Broadcast Architecture“ ist ein Weg, auf dem die Nanotechnologie sicherer gemacht werden kann als Biotechnologie. Wenn in biologischen Systemen eine Zelle einen Virus bzw. ein Bakterium repliziert, trägt sie sein ganzes Programm, seine Software, zum Zweck der Selbst-Replizierung mit sich. Somit ist das ein unkontrollierbares Phänomen. Wir können jedoch – und dies ist tatsächlich Teil der vom Foresight-Insitute vorgeschlagenen ethischen Richtlinien – sich selbst replizierende nanotechnologische Gebilde bauen, die keine eigenen „Replication Codes“ haben. Jedes Mal, wenn sie sich replizieren, müssen sie sich an einen zentralisierten sicheren Server wenden, um die Genehmigung zur Selbst- Replizierung zu erhalten. Erst dann können sie ihre Codes herunterladen und sich replizieren. Sollte diese Prozedur schief laufen, kann sie gestoppt und umgekehrt werden. Es gibt Methoden, die Bedingungen für solche unkontrollierbaren Phänomene extrem schwierig zu machen. Irgendwann wird es sogar machbar sein, biologische nanotechnologische Mischsysteme zu erschaffen, wo wir die DNA-Funktion mit einem nanotechnologischen Gebilde ersetzen, das im Wesentlichen den biologischen DNA-Code darstellt, jedoch diese „Broadcast Architecture“ implementiert, indem es ohne die Genehmigung des sicheren Servers seine Codes für weitere Selbst- Replizierung nicht verwenden würde.

Es gibt keine Möglichkeit, den Fortschritt der Technologie aufzuhalten. Meiner Meinung nach ist es ein Irrtum, nur die negative Seite oder nur die positive Seite zu betrachten. Ich denke, dass die Gefahren, die Bill Joy beschrieben hat, solange eine nützliche Diskussion auslösen solange sie nicht zu einer gedankenlosen, automatisch anti-technologischen Reaktion in der Öffentlichkeit führt, die destruktiv wäre. Weiterhin müssen wir daran denken, dass es immer noch viel Leiden in der Welt gibt.

Die Millionen Patienten mit Krebs wären meines Erachtens nicht froh zu hören, dass wir die gesamte Krebsforschung abschaffen werden, weil sie ihnen zwar helfen könnte, aber andererseits Technologien schafft, die künftig missbraucht werden könnten. Ich meine nicht, dass die Öffentlichkeit so reagieren würde. Der Druck, die Kräfte, die die Sache vorantreiben, die im Grunde genommen sehr positiv sind, die Möglichkeit, die menschliche Lebenserwartung weiter zu verlängern, sind allgegenwärtig. Ich werde hier einen weiteren exponentiellen Trend nur erwähnen, nämlich die menschliche Lebenserwartung. Im 18. Jahrhundert haben wir jedes Jahr die menschliche Lebenserwartung um ein paar Tage verlängert. Im 19. Jahrhundert haben wir jedes Jahr die menschliche Lebenserwartung um ein paar Wochen verlängert. Nun, heute verlängern wir die menschliche Lebenserwartung jedes Jahr um 120 Tage. Wegen der Revolutionen in Genomik, Proteomik, rationellem Arzneimittel- Design und therapeutischem Klonen erwarten viele Beobachter, auch ich selbst, dass wir innerhalb von zehn Jahren die menschliche Lebenserwartung jedes Jahr um mehr als ein Jahr verlängern. Also, wenn Sie es schaffen, noch ein paar Jahre dabei zu sein, werden wir alle möglicherweise diese eng miteinander verknüpften Verheißungen und Gefahren dieses Jahrhunderts tatsächlich erleben. Ich glaube, dass wir die Aussicht haben, das menschliche Wohlergehen weiterhin sehr zu fördern und Probleme, die die Menschheit seit Jahrhunderten plagen, zu überwinden. Und ich glaube auch, dass wir der Auseinandersetzung mit diesen Gefahren und diesen Herausforderungen nicht aus dem Weg gehen dürfen. Wir brauchen Regulierung, wir brauchen ethische Standards, wir müssen viel Zeit damit verbringen, die technologischen Strukturen auszuarbeiten, die uns vor diesen Gefahren schützen. Meines Erachtens ist das die größte Herausforderung für die Menschheit im 21. Jahrhundert. Ich bin optimistisch, dass wir ihr begegnen können und in der Lage sein werden, diese Vorteile ohne große Katastrophen zu nutzen. Allerdings kann ich das nicht wissenschaftlich belegen, das sagt mir meine eigene optimistische Natur.

Literaturhinweise:

- Mainzer, Computer-Neue Flügel des Geistes ? De Gruyter 2. Aufl. 1995;
- ders., Gehirn Computer, Komplexität, Springer 1997;
- ders.; Computernetze und virtuelle Realität, Springer 1999;
- ders., Ubiquitous Computing- Perspektiven für Wirtschaft und Gesellschaft, in: Wirtschaftsinformatik 5/2000, 466-467.

16 von 16 Seiten

Details

Titel
Fortsetzung der Evolution
Hochschule
Hochschule für Wirtschaft Zürich
Veranstaltung
Robotik
Note
2
Autor
Jahr
2003
Seiten
16
Katalognummer
V108417
Dateigröße
390 KB
Sprache
Deutsch
Schlagworte
Fortsetzung, Evolution, Robotik
Arbeit zitieren
Michele Spatola (Autor), 2003, Fortsetzung der Evolution, München, GRIN Verlag, https://www.grin.com/document/108417

Kommentare

  • Gast am 24.10.2008

    Da kriegt man ja schon etwas Angst....

    Klasse Zusammenfassung des so großen Themas.

Im eBook lesen
Titel: Fortsetzung der Evolution



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden