Dienstag, 20. Oktober 2015

Auslaufmodell Mensch


Wenn Nanotechnologie und technologische Singularität eine Liaison eingehen und den Übergang von der biologischen zur technologischen Evolution einleiten

Ein Gastbeitrag des Altautonomen


Eine Frage vorab: Warum investieren die Reichen und Superreichen nicht im Interesse ihrer Nachkommen in die Verhinderung des Klimawandels, in die Beseitigung des Verkehrsinfarktes, in die Zuwachsbegrenzung der Weltbevölkerung - insbesondere auf der nördlichen Halbkugel -, in die Erhaltung klimatisch wichtiger Ökosysteme und in die Bekämpfung des Welthungers und den langfristig schonenden Umgang mit Ressourcen?

Eine der möglichen Antworten könnte in ihrer Hoffnung (Stichwort "Allmachtsfantasien") liegen, dass es in Zukunft technische Möglichkeiten geben werde, geistig unsterblich zu werden. Die Theorie, die hinter der Forschung über derartige Aussichten steckt, soll im Übergang von der biologischen zur technischen Evolution den "Zellhaufen Mensch" eines Tages überflüssig werden lassen, so wie es bereits der Gorilla als Vorstufe des Homo sapiens derzeit für die Menschheit als Gattung ist. Der Kapitalismus hat kein materielles Interesse an Eisbär, Panda, Gorilla & Co.

Der Begriff "Nanotechnologie" umfasst die entsprechende Forschung in der Cluster-, Halbleiter- und Oberflächenphysik, der Oberflächen- und anderen Gebieten der Chemie sowie in Teilbereichen auch des Maschinenbaus und der Lebensmitteltechnologie ("Nano-Food"). Unter "technologischer Singularität" werden verschiedene Theorien in der Zukunftsforschung zusammengefasst. Überwiegend wird darunter ein Zeitpunkt verstanden, bei dem sich Maschinen mittels künstlicher Intelligenz (KI) rasant selbst verbessern und damit den technischen Fortschritt derart beschleunigen, dass die Zukunft der Menschheit hinter diesem Ereignis nicht mehr vorhersehbar ist.

Konkret bedeutet dies, dass Computer immer weiter entwickelt werden, bis sie eines Tages selber ethisch unabhängige Entscheidungen treffen, die den Menschen überflüssig machen. Ob hierzu ein Bewusstsein über die eigene Identität erforderlich ist bzw. dann bereits existiert, kann ich als Laie nicht beurteilen. In der Tierwelt beispielsweise wurde lange Zeit ein Bewusstsein des Individuums verneint, bis Experimente mit Primaten diese Annahme widerlegten.

Während dieses Thema noch vor einigen Jahrzehnten in die Kategorie Science Fiction fiel (vgl. z.B. Hollywood-Streifen wie "Terminator" oder "A.I."), terminieren voreilige Wissenschaftler heute den Eintritt dieses Ereignisses auf die Mitte dieses Jahrhunderts. Treibende Kräfte sind z.B. Google, facebook und dahinter agierende mächtige Investoren. Im Weißen Haus in Washington gibt es wöchentlich Termine mit Vertretern aus dem Silicon-Valley.

Dort haben Apple, Intel, Google, AMD, Adobe, Symantec, Yahoo, eBay, Nvidia, Hewlett-Packard, Oracle, Cisco, Facebook, Tesla, Amazon und Dell ihren Sitz. Diese Forscher gehen davon aus, dass die künftigen Megamaschinen es nicht nötig haben werden, den Menschen gegenüber aggressiv zu sein, da sie um das "nahende Ende dieser Spezies" wissen.

Denkschmiede dieses Singularitätsgedankens ist die "Singularity University": "Die Menschheit auf den Wandel vorzubereiten, der immer schneller kommt" - so lautet das Motto dieser erst vor wenigen Monaten gegründeten kalifornischen Privat-Uni, die unter anderem von Google Startkapital kassierte und sich auf dem Gelände der NASA in Mountain View einquartiert hat.

Als Zwischenstufe wird es in der Arbeitswelt den "Cyborg" geben, der jedoch mangels Empathie und "KI" niemals die Funktion eines Pflegers oder Erziehers allein übernehmen, sondern lediglich der menschlichen Arbeitskraft assistieren kann, indem er beispielsweise Pflegebedürftige in den Rollstuhl oder ins Bett hebt bzw. andere "Service"-Arbeiten erledigt.

Den Impuls für diesen Beitrag gab mir ein Artikel aus der Jungen Welt vom 17.10.2015, in dem zu lesen ist:

Nick Bostrom ist Professor für Philosophie an der Oxford University. Er gilt als Experte in Sachen "existentieller Risiken". Was ist damit gemeint? Bostrom definiert existentielle Risiken als solche, bei denen das Überleben der gesamten Menschheit in Frage stünde. Einen Atomkrieg zählt er übrigens nicht dazu. Den könnte ja jemand überleben. Ein "existentielles Risiko" stelle dagegen ein zu Bewusstsein und eigenem Willen gekommener Computer mit intellektuellen Superkräften dar. Wenn dieser sich vornimmt, zum Terminator zu werden, wird es zappenduster.

Für einen tieferen Einstieg in das Thema empfehle ich eines der unter jenem Artikel verlinkten Videos.

---


(Eine derartig "menschliche Maschine" wird der Kapitalismus zu verhindern wissen.)

3 Kommentare:

Unknown hat gesagt…

Dein Beitrag erinnerte mich an diesen Artikel und dieses Interview auf Telepolis zum Thema autonome Waffensysteme und KI. So voreilig wie du denkst sind diese Wissenschaftler vielleicht gar nicht.

Wahrlich interessante Zeiten in denen wir leben...

altautonomer hat gesagt…

Kleine Ergänzung:
Ich bin mir nicht sicher, ob die Genforschung (Stichwort Designerbaby) eine Ergänzung der Singularitätsidee ist oder eine Konkurrenz darstellt.



HF hat gesagt…

Dieser Blogger übt seit Jahren scharfe Kritik an Transhumanisten, vor allem aber an ihren naiven Anhängern. Unterhaltsame Lektüre