• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank

Transhumanismus?

Ajkula

Gelegenheitsspieler/in
Mitglied seit
10.02.2002
Beiträge
425
Reaktionspunkte
30
Was denkt ihr über den Transhumanismus und die Idee der technologischen Singularität?

Die Idee KIs zu schaffen, und den Menschen upzudaten so dass der technologische Fortschritt so schnell stattfindedt dass ein normaler Mensch dies alles nicht mehr nachvollziehen kann.
Eines der Ziele den Menschen Grenzen überschreiten zu lassen die ihm seine Biologie bisher diktiert hat (durch deren Aufgabe oder Verbesserung) etwa Intelligenz, Sterblichkeit, Kraft, Sinneswahrnehmungen usw.

Eine großartige Idee oder der erste Schritt zu einer chromskelletbewohnten Nuklearwüste?
 
Was denkt ihr über den Transhumanismus und die Idee der technologischen Singularität?

Die Idee KIs zu schaffen, und den Menschen upzudaten so dass der technologische Fortschritt so schnell stattfindedt dass ein normaler Mensch dies alles nicht mehr nachvollziehen kann.
Eines der Ziele den Menschen Grenzen überschreiten zu lassen die ihm seine Biologie bisher diktiert hat (durch deren Aufgabe oder Verbesserung) etwa Intelligenz, Sterblichkeit, Kraft, Sinneswahrnehmungen usw.

Eine großartige Idee oder der erste Schritt zu einer chromskelletbewohnten Nuklearwüste?

When your day is done, and you want to ride on...COCAINE !!!
 
Von beiden Ausdrücken hatte ich bisher nichts gehört, wobei die Konzepte dahinter in der ein oder anderen Form ja durchaus bekannt sind.


Die zwei Bücher "Wired" und "Amped" von Douglas E. Richards fand ich sehr spannend und gehen zumindest teilweise auf das Thema ein. Nämlich wie sich verlängerte Lebenserwartung, aber speziell größere Intelligenz auswirken könnte. Mit verdoppelter Lebenszeit würde sich die Menscheit innerhalb kürzester Zeit selbst auslöschen. Zu wenig Raum, Ressourcen, Arbeit.... da müsste man zeitgleich anfangen die Meere und das All zu besiedeln.

Bei der Intelligenz brachte er zwei Ansätze. Ohne zu sehr zu spoilern gäbe es als ein Extrem psychotisch egoistisches Verhalten ohne jegliche Rücksicht oder Zurückhaltung Anderen gegenüber. Die andere Variante wäre absoluter Altruismus.

Ganz persönlich fände ich es ungemein praktisch, sich einen USB-Stick in's Ohr zu schieben um eine neue Sprache zu können.
Aber wenn ich mir unsere Vergangenheit so ansehe fürchte ich eher, dass wir einen Turboboost Richtung Untergang hinlägen. Es würden ja nicht alle Menschen gleichschnell aufgewertet und die Wahrscheinlichkeit wäre hoch, dass sich egomanische Psychopaten die Technik zuerst sicherten.

Zum Thema KI fand ich William Hertling's "Avogadro Corp" und "A.I. Apocalypse" sehr lesenswert. Auch hier mit zwei Gedankengängen, von der unkontrollierbaren aber symbiotisch denkenden KI bis zur agressiv feindlichen.
 
Beim Transhumanismus gibt es aber ein grundsätzliches, ethisches Problem: gesunde Körperteile zu entfernen um sie durch "bessere" künstliche zu ersetzen. Das sorgt schon bei einer einbeinigen Sportlerin für Diskussionen die sich ihr gesundes Bein amputieren lassen will um besser laufen zu können. Mit dem wichtigsten medizinischen Leitsatz, du sollst keinen Schaden zufügen, eigentlich nicht zu vereinbaren.

Ein gesundes Gehirn zu verändern um die Intelligenz zu steigern, also irgendwie auch den Geist zu verändern, ist da noch um viele Klassen darüber.
 
Also alles wird negativ bewertet ;)

Nun beim auswechseln von Körperteilen scheinen einige noch antiquierte Vorstellungen aus SF-Filmen der 70er und 80er zu haben.
Um den Menschen zu verbessern bräuchte man ja keine Arme und Beine abzutrennen und gegen "stählerne" Prothesen zu ersetzen, man müßte einfach nur Nanomaschinen damit beauftragen Zellen zu verbessern, Knochen widerstandsfähiger zu machen und jeden Schaden sofort, schnell und dauerhaft zu beseitigen.

Was die Intelligenz angeht, nun die ersten "Upgrades" würden sicher sehr viel Kosten doch dann könnte sie sich jeder leisten, und wieso diese verbesserte Intelligenz zu extremen Verhalten führen solten also entweder Atruismus oder Egosimus, und nicht etwas von beidem wie das heute auch ist, leuchtet mir nicht ganz ein.
es wurde auch berechnet dass selbst wenn heute keiner mehr sterben würde, die Menschheit fast 100 Jahre benötigen würde um sich zu verdoppeln, natürlich unter der Voraussetzung dass diese Unsterblichen dann noch Kinder haben möchten, und nicht lieber in sich selbst investieren.
 
Zurück