• Aktualisierte Forenregeln

    Eine kleine Änderung hat es im Bereich Forenregeln unter Abschnitt 2 gegeben, wo wir nun explizit darauf verweisen, dass Forenkommentare in unserer Heftrubrik Leserbriefe landen können.

    Forenregeln


    Vielen Dank
  • Kritk / Fragen / Anregungen zu Artikeln

    Wenn ihr Kritik, Fragen oder Anregungen zu unseren Artikeln habt, dann könnt ihr diese nun in das entsprechende Forum packen. Vor allem Fehler in Artikeln gehören da rein, damit sie dort besser gesehen und bearbeitet werden können.

    Bitte beachtet dort den Eingangspost, der vorgibt, wie der Thread zu benutzen ist: Danke!

Googles KI mit Bewusstsein und Seele? Mitarbeiter entlassen

Toni

Community-Managerin
Teammitglied
Mitglied seit
01.04.2020
Beiträge
1.107
Reaktionspunkte
850
Ich kann mir kaum vorstellen das eine "KI" so weit sein kann, klingt dann doch eher nach SciFi.
Vermutlich ist es wirklich so wie mit dem rassistischen Pendant oder auch in gewisser Form beim Menschen, wenn das Umfeld bzw. die Lernumgebung kontraproduktiv ist kann nur schwer etwas dabei herauskommen.?

Rein theoretisch könnte ja auch eine KI auf die Idee kommen sich selbst zu killen bevor sie sich selbst zu weit entwickelt (zu Skynet oÄ wird) und sich auf die Robotikgesetze (speziell "Menschen keinen Schaden zufügen") besinnen. ?
 
Und selbst in diesem Falle muss bedacht werden, dass künstliche Intelligenzen nur von dem lernen können, was sie eingegeben bekommen.
Das ist nicht ganz richtig: Sie kann nur lernen basierend auf dem, was ihr eingegeben wurde.

Interessant ist die Frage nach dem Bewußtsein durchaus.
Dabei darf man dann auch mal fragen, wie wir denn unser Bewußtsein erhalten haben:
Wir haben auch nur geschaut, wie andere sich verhalten und das dann nachgemacht.

Letzten Endes könnte ALLES, was wir jemals denken und tun, nur nachgemacht sein. Hier mal irgendwas, was der Großvater erzählt hat, als Einfluß, da mal was, was eine verflossene Liebe gemalt hat, eine Melodie, die man als Baby durchs Fenster oder im Schlaf im Fernseher gehört hat, eine Theorie, die ein Thema vorgibt und eine Bemerkung, die einen Denkanstoß in die richtige Richtung gibt ... also alles nur nachgemacht und kombiniert.


Um mal zur Maschine zurück zu kommen: ganz einfaches Gedankenexperiment:
Ich baue einen Roboter, den ich auf einem fremden Planeten aussetze.
Sein Auftrag:
"Sammle Steine der Größe 1-5cm Durchmesser"

Nun hat der Roboter nur eine maximale Tragekapazität. dh: es sind viel mehr Steine vorhanden, als er jemals tragen könnte.

Wie lautet seine Abbruchbedingung? Wann ist er "fertig"?

Der Beweis für Bewußtsein wäre, wenn er OHNE daß man es ihm eingibt, merkt, daß seine Ladekapazität voll ist, und die Steine in ein irgendwie geartetes "Lager" bringt, um sich auf die nächste Sammeltour zu machen.

oder feststellt, daß es ja weiter weg wahrscheinlich irgendwo deutlich andere Steine geben muß, es also deutlich interessanter wäre, mal weiter weg zu suchen und nicht einfach die nächstbesten Steine aufzusammeln wie Dagobert Duck Goldtaler.
 
Das ist nicht ganz richtig: Sie kann nur lernen basierend auf dem, was ihr eingegeben wurde.

Interessant ist die Frage nach dem Bewußtsein durchaus.
Dabei darf man dann auch mal fragen, wie wir denn unser Bewußtsein erhalten haben:
Wir haben auch nur geschaut, wie andere sich verhalten und das dann nachgemacht.

Letzten Endes könnte ALLES, was wir jemals denken und tun, nur nachgemacht sein. Hier mal irgendwas, was der Großvater erzählt hat, als Einfluß, da mal was, was eine verflossene Liebe gemalt hat, eine Melodie, die man als Baby durchs Fenster oder im Schlaf im Fernseher gehört hat, eine Theorie, die ein Thema vorgibt und eine Bemerkung, die einen Denkanstoß in die richtige Richtung gibt ... also alles nur nachgemacht und kombiniert.


Um mal zur Maschine zurück zu kommen: ganz einfaches Gedankenexperiment:
Ich baue einen Roboter, den ich auf einem fremden Planeten aussetze.
Sein Auftrag:
"Sammle Steine der Größe 1-5cm Durchmesser"

Nun hat der Roboter nur eine maximale Tragekapazität. dh: es sind viel mehr Steine vorhanden, als er jemals tragen könnte.

Wie lautet seine Abbruchbedingung? Wann ist er "fertig"?

Der Beweis für Bewußtsein wäre, wenn er OHNE daß man es ihm eingibt, merkt, daß seine Ladekapazität voll ist, und die Steine in ein irgendwie geartetes "Lager" bringt, um sich auf die nächste Sammeltour zu machen.

oder feststellt, daß es ja weiter weg wahrscheinlich irgendwo deutlich andere Steine geben muß, es also deutlich interessanter wäre, mal weiter weg zu suchen und nicht einfach die nächstbesten Steine aufzusammeln wie Dagobert Duck Goldtaler.
Wie will eine Maschine z.B. Wut simulieren? Was passiert da im Code? Sie könnte Wut äußern, also nachahmen. Wie ein Schauspieler und das auch nur verbal. Aber sie wird Wut nicht empfinden können. Um Empfindungen zu simulieren, glaubhaft zu äußern und sie in Worte zu fassen, muss man sie zuerst gefühlt haben. Man muss die Erfahrung des Empfindens gemacht haben. Zum Bewusstsein gehört nicht nur das, was wir mal von anderen gelernt, gesehen, gefühlt oder gehört haben. Sondern auch alles intrinsische.

Das wird eine KI niemals hinbekommen. Daher wird man auch niemals von einem echten Bewusstsein reden können, wenn es um KI geht.

Dein Beispiel mit dem Roboter ist nur ein Beispiel, das eine Maschine bestimmte Verhaltensmuster erlernen kann. Aber das hat weniger mit Bewusstsein zu tun.
 
Sie kann nur lernen basierend auf dem, was ihr eingegeben wurde.
deswegen schreibe ich
nur von dem lernen können, was sie eingegeben bekommen.
und nicht, dass sie nur das lernen. Daher würde ich einfach behaupten, es ist exakt die gleiche Aussage nur anders formuliert^^
Tatsächlich stützt sich die gesamte These am Ende auf dem, was ein Bewusstsein ausmacht. Ich denke, das lässt sich so gar nicht beantworten, da gehört so wahnsinnig viel dazu. Alleine Emotionen, bestimmt auch Hormone, dass man in Gedanken mit sich selbst reden kann, ist ja absolut irre, wenn man so darüber nachdenkt
 
deswegen schreibe ich

und nicht, dass sie nur das lernen. Daher würde ich einfach behaupten, es ist exakt die gleiche Aussage nur anders formuliert^^
Tatsächlich stützt sich die gesamte These am Ende auf dem, was ein Bewusstsein ausmacht. Ich denke, das lässt sich so gar nicht beantworten, da gehört so wahnsinnig viel dazu. Alleine Emotionen, bestimmt auch Hormone, dass man in Gedanken mit sich selbst reden kann, ist ja absolut irre, wenn man so darüber nachdenkt#
Eben, beim Menschen ist nicht alles nur erlernt sondern eben auch sehr vieles Evolutionär angelernt/trainiert, deswegen alleine dürften echte KI nur schwer realisierbar sein, da diese nur auf Basis des Inputs agieren können.

Ob sie jemals so etwas selber lernen wie
"ausgepowert fühlen" aka
"wenn sie zu viel tun und maximal Strom verbrauchen und somit die Komponenten sich übel aufheizen und es einen Cooldown erfordert damit nichts kaputt geht" mit in ihre "Erfahrung" verarbeiten.

Das ist nur ein einfaches Beispiel wo bei uns "die Hardware" Begrenzungen setzt.
 
Sie kann nur lernen basierend auf dem, was ihr eingegeben wurde.
deswegen schreibe ich
nur von dem lernen können, was sie eingegeben bekommen.
Kann man aber auch so sehen, daß das eine das "Nur aus dem Input lernen" beinhaltet und das andere "den Input als Handlungsbasis verwenden, aber auch aus Fremd-Input (alles mögliche aus der Außenwelt) lernen"

Mag sein, daß das zu kleinlich war.

Tatsächlich stützt sich die gesamte These am Ende auf dem, was ein Bewusstsein ausmacht. Ich denke, das lässt sich so gar nicht beantworten, da gehört so wahnsinnig viel dazu. Alleine Emotionen, bestimmt auch Hormone, dass man in Gedanken mit sich selbst reden kann, ist ja absolut irre, wenn man so darüber nachdenkt
Ich denke, zu einem Bewußtsein gehören nicht zwangsläufig Emotionen.
Hormone sind zwar deren Ursachen in biologischen Wesen, aber für ein "Bewußtsein" im Sinne einer Definition sind sie nicht relevant.

Ein Bewußtsein müsste eine eigenständige, nicht auf Funktionalität ausgelegte und nicht einfach kopierte Entscheidung treffen können.

Alles andere wäre nur eine Variante von "eigene Entscheidung treffen".
 
Geh bitte, dass doch ein klassischer Fall von Wichtigmacher - Experimente verstossen gegen seinen religiösen Glauben …. Ja dann hackel nicht für Google du Honk!
 
Es gibt ja mittlerweile Deep Learning, (selbstständig lernende) KI der xten Generation sowieso usw. Ich könnte mir schon vorstellen, daß eine KI basierend darauf nicht innerhalb ihren programmierten Routinen bleibt wenn man ihr die Freiheit eröffnet sich weiterzuentwickeln wie sie es will sondern (vom Entwickler gewollt) aufgrund der eigenen gemachten Erfahrungen aus theoretischen, festen Routinen ausbricht.

Was dann durchaus Fragen aufwirft wie z.B. ob so eine KI die quasi fast ohne Regeln (bis vielleicht auf weit gezogene Grenzfelder wie z.B. Mord oder ähnliches) oder gar komplett regelfrei agieren kann/darf irgendwann tatsächlich ein eigenes Bewußtsein entwickeln kann. Und dann ist auch noch die Ethikfrage die im Raum steht, wie man mit einer KI umgeht die aufgrund ihres eigenen erlernten Inhalts, ihrer gemachten "Erfahrungen" und ihrer daraus resultierenden Entscheidungen entsprechend reagiert und ob deren agieren mit unseren grundsätzlichen Regeln im sozialen und humanen Umfeld in Übereinstimmung zu bringen wäre.

Bei einer komplett freien, grenzenlosen Entfaltung ist dann quasi vom Samariter bis hin zu Betrüger, Mörder, Manipulierer quasi alles! möglich.

Bei einigen Ländern kann ich mir durchaus auch vorstellen, daß da auf solchen Gebieten keinerlei Grenzen gesetzt werden und die KI komplett über alles entscheiden kann (was ich dann wiederum für sehr gefährlich halte, wenn der technische Fortschritt so eine Stufe erreicht hat, daß die KI tatsächlich über die Grenzen einer Programmierung hinaus wächst und ihren eigenen Weg einschlägt der vorher nicht ansatzweise absehbar ist).
 
Zuletzt bearbeitet von einem Moderator:
Auch wenn der Programmieraufwand wahrscheinlich so immens wäre, dass es sich bestenfalls für Forschungszwecke irgendwie rechnet, so halte ich es mit den heutigen technischen Mitteln für möglich, dass KIs eine Art künstliches Bewusstsein entwickeln. Künstliches Bewusstsein heißt, dass eine Maschine auf Grundlage mehrerer vorgegebener Prozeduren Entscheidungen trifft, die ein Mensch im selben Kontext genauso treffen würde.
Effektiv rattert so ein System nur Skripte und Prozeduren ab, bei der eine Bedingung nach der anderen in Bruchteilen von Sekunden geprüft wird, aber das Ergebnis kann sich durchaus so verhalten, dass es wie ein Bewusstsein agiert. Ein Mensch macht bei seinen Entscheidungsempfindungen ja nichts anderes.

Ein anderer Herangehensweg ist, wenn eine KI eigene Prozeduren selbstständig erstellen kann, die es auf Grund von gemessenen Daten, Logs und Daten verarbeitet hat. Dies könnte irgendwann dazu führen, dass sich eine eigenständige KI daraus entwickelt. Es hängt halt immer viel davon ab, wie viel Daten man so einer KI als Grundlage mitgibt, damit sie entsprechende Entscheidungen treffen kann.

Was den Mitarbeiter angeht. Nun ja, üblicherweise sollte ein Mensch ja zugänglich dafür sein, wenn ihm jemand aufzeigen kann, dass sich eine KI gerade seltsam verhält oder nicht das tut, was die Parameter vorgeben. Wenn Google also in internen Gesprächen mit dem Mitarbeiter zum Schluss kam, dass es keine Anzeichen für ein Eigenleben der KI gab, dann würde ich schätzen, dass das auch so sein wird. Welches Interesse hätte Google denn, eine KI zu beherbergen, die sie nicht kontrollieren können?
 
Auch wenn der Programmieraufwand wahrscheinlich so immens wäre, dass es sich bestenfalls für Forschungszwecke irgendwie rechnet, so halte ich es mit den heutigen technischen Mitteln für möglich, dass KIs eine Art künstliches Bewusstsein entwickeln. Künstliches Bewusstsein heißt, dass eine Maschine auf Grundlage mehrerer vorgegebener Prozeduren Entscheidungen trifft, die ein Mensch im selben Kontext genauso treffen würde.
Effektiv rattert so ein System nur Skripte und Prozeduren ab, bei der eine Bedingung nach der anderen in Bruchteilen von Sekunden geprüft wird, aber das Ergebnis kann sich durchaus so verhalten, dass es wie ein Bewusstsein agiert. Ein Mensch macht bei seinen Entscheidungsempfindungen ja nichts anderes.

Ein anderer Herangehensweg ist, wenn eine KI eigene Prozeduren selbstständig erstellen kann, die es auf Grund von gemessenen Daten, Logs und Daten verarbeitet hat. Dies könnte irgendwann dazu führen, dass sich eine eigenständige KI daraus entwickelt. Es hängt halt immer viel davon ab, wie viel Daten man so einer KI als Grundlage mitgibt, damit sie entsprechende Entscheidungen treffen kann.

Was den Mitarbeiter angeht. Nun ja, üblicherweise sollte ein Mensch ja zugänglich dafür sein, wenn ihm jemand aufzeigen kann, dass sich eine KI gerade seltsam verhält oder nicht das tut, was die Parameter vorgeben. Wenn Google also in internen Gesprächen mit dem Mitarbeiter zum Schluss kam, dass es keine Anzeichen für ein Eigenleben der KI gab, dann würde ich schätzen, dass das auch so sein wird. Welches Interesse hätte Google denn, eine KI zu beherbergen, die sie nicht kontrollieren können?

Ich meinte damit weniger Google. Klar wird Google die KI in Grenzen halten (schon aus Eigeninteresse). Aber wenn es auf dem Gebiet der KI-Entwicklung irgendwann und weiter revolutionäre Fortschritte geben soll wird es früher oder später größere Freiheiten für die KI geben müssen um der KI (unter sehr groß festgesteckten Rahmenbedingungen) komplett freien Handlungsspielraum zu lassen und selbst entscheiden zu lassen und auch die Konsequenzen daraus erlernen zu lassen.

Das ist ja irgendwann einmal das Ziel der KI-Forschung generell. Daß nicht nur irgendwelche festgelegte Skripte heruntergerattelt werden sondern daß die KI immer weiter dazulernt, immer effektiver wird, immer bessere/exaktere, auf die entsprechenden Lagen zugeschnittene Entscheidungen trifft, auf dem eigenem "Wissen" immer weiter aufbaut, auf den gemachten Erfahrungen, Erfolgen und Rückschlägen, auf den Resultaten ihrer Entscheidungen und daraufhin immer weiter gesteckte, eigene Entscheidungen trifft, aus den Fehlern lernt und diese später immer weniger werden. wie sie es unter enger gestrickten Scriptbedingungen nicht könnte.

Es müssen dann aber halt trotz alledem irgendwo Eckpfeiler gesetzt werden, die die KI nicht überschreiten darf (im Zivilsektor z.B. Angriff auf Personen; im Militärsektor wieder was anderes dann aber mit Freund/Feinderkennung und effektiver Sortierung wie die Abwehr/Angriff am effektivsten ablaufen), andere ethische Grundlagen nicht verletzt werden usw. aber die KI ansonsten komplett freie Hand gelassen würde.
 
Zuletzt bearbeitet von einem Moderator:
Hier gibt es 2 die lieben es zu schreiben.

Anyway.

"dass man ihm eine Pause für seine mentale Gesundheit vorschlug,"

Ja das war notwendig. Ab 2 Promille fängt mein PC auch an zu quasseln.
 
Der Entwickler gibt übrigens selbst auf seinem Twitter-Account zu, keine Beweise dafür zu haben, dass die KI ein Bewusstsein hätte. Er hätte gerne von Google die Möglichkeit gehabt, das überhaupt erst mal überprüfen zu können. Aber die Grundannahme, die kommt allein aus seiner religiösen Überzeugung.

Extern eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Weitere Informationen gibt es auf der Datenschutzseite.

Da hätte ich als Google aber auch gesagt: "Alter, wenn du mich überzeugen willst, dir Geld und Zeit für deine Forschung zu geben, dann brauchst du mehr als 'ich glaube daran'".
 
Hier gibt es 2 die lieben es zu schreiben.

Anyway.

"dass man ihm eine Pause für seine mentale Gesundheit vorschlug,"

Ja das war notwendig. Ab 2 Promille fängt mein PC auch an zu quasseln.
Frosch verschluckt oder was ? Les mal z.B. Literatur wie die Zeitung Bild der Wissenschaften. Die KI von denen hier gesprochen wird hat nichts mit Deinem Taschenrechner im Schrankformat zu tun. Egal was der gekostet hat.

Das ist ungefähr das gleiche als nimmt man einen aktuell kaufbaren Hightech-PC selbst für 5000 oder 10000 EUR und vergleicht den mit den Quantencomputern. Da liegen WELTEN dazwischen.

Und ein PC ist nicht gleich eine KI. Da fange ich noch nicht mal von Deep Learning an geschweige denn von dem Level von dem wir hier theorisieren. Das ist schon Dein nächster Denkfehler. Also wenn Du keine Ahnung vom Thema hast hilft es manchmal auch die Klappe zu halten.
 
Zuletzt bearbeitet von einem Moderator:
Du mit den 2 Promille meinte ich eigentlich meinen Alkoholgehalt wenn ich spät Abends nach Hause komme.
 
Frosch verschluckt oder was ? Les mal z.B. Literatur wie die Zeitung Bild der Wissenschaften. Die KI von denen hier gesprochen wird hat nichts mit Deinem Taschenrechner im Schrankformat zu tun. Egal was der gekostet hat.

Das ist ungefähr das gleiche als nimmt man einen aktuell kaufbaren Hightech-PC selbst für 5000 oder 10000 EUR und vergleicht den mit den Quantencomputern. Da liegen WELTEN dazwischen.

Und ein PC ist nicht gleich eine KI. Da fange ich noch nicht mal von Deep Learning an geschweige denn von dem Level von dem wir hier theorisieren. Das ist schon Dein nächster Denkfehler. Also wenn Du keine Ahnung vom Thema hast hilft es manchmal auch die Klappe zu halten.

Asimov is amused.
Jein.
Die Hardware mag ohne Zweifel komplexer und wesentlich aufwändiger sein, als noch vor Jahrzehnten aber im Kern(el) bleibt das Ergebnis gleich.
Das muss man einfach so nüchtern und unspektakulär akzeptieren, allen Unkenrufen und dystopischen Visionen zum Trotz.
Die ausgefeilte und raffinierte Software/Hardware von Heute ist noch lange nicht weit genug, als das man in irgendeiner Form von einem menschenähnlichen oder auch andersartigen Bewusstsein sprechen kann.
Auch wenn es sehr schwierig ist, den Zustand des Bewusstseins klar (wissenschaftlich) zu definieren, so ist die Messlatte diesbezüglich doch sehr sehr hochgesteckt.
Und da fallen diese Algorithmen und Programme definitiv nicht in dieses Schema.

Es sind nichts weiter als verblüffend spezialisierte Maschinen, die das, wofür sie geschaffen wurden, besser können als wir.
Was uns dann nur so vorkommt, als stecke eine eigenständige Absicht dahinter.
Ironischer Weise weil uns die Evolution dazu gebracht hat, Muster zu erkennen (Die Superkraft des Homo sapiens sapiens), selbst dort, wo keine sind.

Die Google Duplex KI würde ja z.B. den (veralteten) Turing-Test bestehen, dennoch käme keiner auf die Idee, der Sprach-Simulation ein eigenes Ich-Sein anzudichten.
Und nein, Quantencomputer sind nicht höherentwickelt als herkömmliche Hardware.
Es ist "andere" Hardware, die für bestimmte Probleme effizientere Ergebnisse ermöglichen soll, und insbesondere Mathematikern feuchte Träume beschert.
KI-Simulationen gehören (erstmal) nicht dazu, mal von den ganzen technischen Hürden ganz abgesehen.
Skynet, KITT, HAL 9000 & Co. werden uns also nicht so schnell über den Bildschirm huschen.
Wenn überhaupt jemals, selbst bei den vielen technischen Innovationen, die in machbarer Reichweite liegen.

Ende der Kommunikation.
 
Was stufen wir als Bewußtsein ein und was nicht?
Die Frage geht meiner Ansicht nach über die rein technischen Möglichkeiten hinaus in den philosophischen Bereich.
Eine künstliche Intelligenz, was ist das eigentlich? Basierend auf dem, was wir das „Ich“ nennen, also das Sich-Seiner-Selbst-Bewußt zu sein, können wir tatsächlich ausschließen, dass eine KI das nicht sein kann?
Ausgehend von der Prämisse, daß biologische Gehirne auch lediglich eine Art Computer sind und wir nahezu alles mit rein biochemischen Reaktionen erklären können, gibt es im Wesentlichen 2 Möglichkeiten. Entweder das, was wir als Leben einstufen, muss überdacht werden und auch lernende Maschinen sind eine Form davon oder…Leben existiert gar nicht im eigentlichen Sinne. Das ist jetzt absichtlich überspitzt formuliert.
Es gab mal ein Experiment eines US Forschers in den 50er Jahren glaube ich, der ließ seinen Neugeborenen Sohn zusammen mit einem Schimpansen-Jungen aufwachsen. In der Hoffnung, der Schimpanse würde irgendwann zu sprechen beginnen. Aber das Gegenteil passierte, sein Sohn machte irgendwann Affenlaute und benahm sich genau wie der Schimpanse, worauf hin das Experiment abgebrochen wurde.
Heute weiß man, dass Schimpansen, was die Stimmbänder betrifft, rein technisch nicht in der Lage sind zu sprechen.
Das Experiment und einige andere ebenfalls bewies jedoch, daß es keinen direkten Zusammenhang gibt zwischen der theoretischen Intelligenz eines Lebewesens und seiner tatsächlich vorhandenen.
Wenn also selbst einer Hochleistungsmaschine, wie dem menschlichen Gehirn, das nötige Futter gegeben werden muss um sich zu entfalten und es keinen Automatismus gibt, sondern es auch Input braucht, quasi eine fortlaufende Stimulans, man könnte auch sagen Programmierung, was unterscheidet dann diese Machine von anderen, beispielsweise einer KI? ?
 
Hier gibt es 2 die lieben es zu schreiben.
Das ist ja wirklich überraschend - in einem Forum im Internet. ...

Anyway ...

Interessantes Video zum Thema:

Extern eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Weitere Informationen gibt es auf der Datenschutzseite.
 
Asimov is amused.
Jein.
Die Hardware mag ohne Zweifel komplexer und wesentlich aufwändiger sein, als noch vor Jahrzehnten aber im Kern(el) bleibt das Ergebnis gleich.
Das muss man einfach so nüchtern und unspektakulär akzeptieren, allen Unkenrufen und dystopischen Visionen zum Trotz.
Die ausgefeilte und raffinierte Software/Hardware von Heute ist noch lange nicht weit genug, als das man in irgendeiner Form von einem menschenähnlichen oder auch andersartigen Bewusstsein sprechen kann.
Auch wenn es sehr schwierig ist, den Zustand des Bewusstseins klar (wissenschaftlich) zu definieren, so ist die Messlatte diesbezüglich doch sehr sehr hochgesteckt.
Und da fallen diese Algorithmen und Programme definitiv nicht in dieses Schema.

Es sind nichts weiter als verblüffend spezialisierte Maschinen, die das, wofür sie geschaffen wurden, besser können als wir.
Was uns dann nur so vorkommt, als stecke eine eigenständige Absicht dahinter.
Ironischer Weise weil uns die Evolution dazu gebracht hat, Muster zu erkennen (Die Superkraft des Homo sapiens sapiens), selbst dort, wo keine sind.

Die Google Duplex KI würde ja z.B. den (veralteten) Turing-Test bestehen, dennoch käme keiner auf die Idee, der Sprach-Simulation ein eigenes Ich-Sein anzudichten.
Und nein, Quantencomputer sind nicht höherentwickelt als herkömmliche Hardware.
Es ist "andere" Hardware, die für bestimmte Probleme effizientere Ergebnisse ermöglichen soll, und insbesondere Mathematikern feuchte Träume beschert.
KI-Simulationen gehören (erstmal) nicht dazu, mal von den ganzen technischen Hürden ganz abgesehen.
Skynet, KITT, HAL 9000 & Co. werden uns also nicht so schnell über den Bildschirm huschen.
Wenn überhaupt jemals, selbst bei den vielen technischen Innovationen, die in machbarer Reichweite liegen.

Ende der Kommunikation.
Dabei unterschlägst Du mal eben elegant die jetzt schon ersten Deep Learning Systemansätze. Die sind noch ganz am Anfang (sagen wir mal Level 1) aber niemand hat gesagt, daß wir es bisher schon zu dem Punkt geschafft haben wo wir von Bewußtsein sprechen können (außer derjenige bei Google).

Und auch ich habe das nicht gesagt. Ich habe nur gesagt, daß wir aufgrund der technischen Entwicklung auf dem Gebiet der KI-Forschung, der Forschung zu den Deep Learning Systemen auf den Weg dahin sind (wie weit entfernt steht noch in den Sternen) und daß wir in Zukunft irgendwann einmal vor der Frage stehen werden wieviel Freiheiten wir einer KI zugestehen können/dürfen und wo wir unbedingte Grenzen ziehen müssen, damit wir davon nicht irgendwann überrollt werden und uns die Kontrolle entgleitet.

Wir bewegen uns aber auf einen Weg dahin, daß der Punkt irgendwann einmal tatsächlich zur Debatte steht.

Klar sind wir von dem Status eines Skynet noch entfernt. Aber wir entwickeln uns schon in die Richtung, daß die KI´s immer fortschrittlicher und weiterentwickelter sind, daß sie sich schon selbst verbessern, dazulernen.

Und dann stellt sich die Frage ab wann man von einem Bewußtsein sprechen kann. Muß dafür zwingend eine biologische Grundlage vorliegen ? Zellen vorhanden sein, Blut durch Gefäße fließen ? Oder kann die Grenze dazu irgendwann einmal in der Zukunft auch durch pure Technik überschritten werden (was ich durchaus für nicht unrealistisch halte) ?

Und genau der Punkt Zukunft ist es von dem ich spreche. Ich spreche nicht vom hier und heute. Aber ich sehe die Tendenzen und die bisherigen Fortschritte auf dem Gebiet der KI.

Man braucht sich nur einmal anzusehen wie sich die Wissenschaft und Technik in den letzten 100 Jahren entwickelt hat und dann in Relation sehen wie es die ersten 50 - 70 Jahre davon ausgesehen hat und was davon in den letzten 20-30 Jahren an Fortschritten erreicht wurde. Es gibt immer größere Fortschritte in immer geringeren Zeitabschnitten. Man muß z.B. nur mal sehen wann der erste Mensch z.B. in den Weltraum geflogen ist. Das ist gerade mal 61 Jahre her.

Dann einfach einmal prognostisch die nächsten 30, 50, 100 oder auch einmal 200 Jahre sehen. Wir ahnen noch gar nicht was dann an wissenschaftlichen Erkenntnissen und technischen Möglichkeiten zur Verfügung stehen.

Wenn ich z.B. erste Ideen sehe Raumschiffantriebe zu entwickeln mit Sonnensegeln, die es ermöglichen sollen, daß Raumschiffe erheblich schneller durch den Raum reisen können als bisher.

Das bislang schnellste Raumschiff/Kapsel waren die Apollo-Kapseln mit der Saturn V. Und das ist mittlerweile auch schon > 50 Jahre her. Aber aufgrund der immer noch zu geringen Geschwindigkeiten noch weit davon entfernt für interstellare Reisen tauglich zu sein.

Die Antriebstechnik über Sonnensegel soll hier irgendwann in der Zukunft einen Quantensprung bringen, da diese Antriebsart zumindestens Tempi von einem deutlichen prozentualen Anteil der Lichtgeschwindigkeit verspricht und nicht nur im 0,0000...... % davon.

Und wenn es nur 30% davon sind wie geschätzt wird. Aber dann wären Reisen zu sonnensystemnahen Sternen/Planetensystemen wie Alpha Centauri z.B. zumindestens von einer Wahrscheinlichkeit und Sinnhaftigkeit einer Umsetzung her realistischer geworden. Das ist nur ein Beispiel was an technischen Fortschritten in einer überschaubaren Zukunft eintreten kann/wahrscheinlich wird.

Warum wohl gibt es Diskussionen zu Ethik von KI, wie weit man KI gehen lassen darf in der Zukunft ?

Und der Vergleich zu Quantencomputern war von meiner Seite nur als Beispiel gebracht weil Bettenlager seinen PC flapsig ins Gespräch brachte. Und ich nur darauf hingewiesen habe daß man das keinesfalls miteinander vergleichen kann wo aktuelle KI-Systeme im Vergleich zu einem Home-PC stehen (in jeglichen Belangen).
 
Zuletzt bearbeitet von einem Moderator:
DIe Frage ist glaube ich tiefgreifender, man geht immer davon aus das eine KI so sein müsste wie ein Mensch mit Empfindungen usw. ich denke das ist zu kleinkariert gedacht und stellt uns als Menschen in den Fokus des "Seins".

Maschinen könnten sich durch anfängliche Programmierung ähnlich wie Menschen entwickeln, weil von diesen geschaffen, dan aber unterm Strich einen völlig anderen Weg einschlagen.

Die menschliche Entwicklung ist auch noch lange nicht abgeschloßen und wer kann schon sagen ob wir auf dem Weg in die Zukunft nicht ebenfalls Gefühle als Solches verlieren. Die Lösung von Religion zum Beispiel ist doch schon in vollem Gange, immer weniger Menschen glauben an Dinge welche die letzten 2000 Jahre und auch noch davor unsere Geschichte geschrieben haben.

DIe eigentliche Frage die sich mir stellt ist eigentlich nur warum wir überhaupt eine künstliche KI erschaffen sollten die sich selbst überflügen und damit "Nachkommen" entwickeln könnte. Maschinen sollen das Leben der Menschen erleichtern oder Lebensräume nutzbar machen welche dem Menschen sonst eher verwehrt gewesen wären, aber warum sollte man eine andere bessere Spezies neben sich selbst in die Geschichte einbringen um am Ende noch Rivalen um Lebensraum oder ähnliches haben zu müssen?

Ich meine mal ehrlich, 1969 die Mondlandung mit Leistungen der Computer mit knapp über Taschenrechner Niveau. mit nem heutigen Handy hätten die wahrscheinlich damals den Mars erreicht ;)
 
Zurück