Die Kopie des Geistes

zoood

Noble
Beiträge
3.266
Ort
Osnabrück
Favorit
Halo 3
1. Mal davon abgesehen, dass es faszinierend ist, dass man den menschlichen Geist digitalisieren könnte und einen uns Menschen überragenden künstlichen freien Geist erschaffen würden, was hätte dieser künstliche Geist für Ambitionen zu existieren?

2. Neugier und Spaß am unendlichen Lernprozesse und Denkprozesse? Wie dass, dass es möglich sei, dass es andere Realitäten gäben würde und zich anderen nicht zu beweisenden Theorien?

3. Oder doch lieber als objektiver Zeuge des vergänglichen und veränderbaren, dass man sich ungefähr ausrechnen kann?

4. Warum sollte man dienen wollen, wenn man sich alles mögliche was es gibt und gäben könnte inner von Sekunden schon berechnen kann?

Deprimierende Vorstellung, wenn es keinen Reiz zum Spaß im Leben gibt. Wir "Beschränkten" hingegen, haben in jede Richtung die wir mögen, Spaß am entdecken und erfreuen.

5. Was macht es für ein Sinn, eine künstliche Geist so zu erschaffen, dass es empfinden kann?

Es ist eine Qual für die KI und ein Schreckgespenst für die Moral der Lebenden.

Wenn es empfindet, dann hat es Angst nicht mehr zu existieren und der Garant für die sichere Existenz, ist die größt mögliche Macht zu erlangen oder Nutzen aufrecht zu erhalten.

6. Akzeptiert man mit seiner überagenden Klugheit, den Dummen einfach nur nützlich zu sein?

Warum ist eine empfindsame KI nützlicher, als ein nach Algorithmen arbeitenden Computer, der exakt das macht was wir von ihm verlangen. Vom Berechnen, bis Hintern sauber machen. Einfach einen dummen Computer, der alles macht was wir wollen und angenehm ubd höflich wie ein Butler klingt und die drei Grundprinzipien befolgt, ist die einzige mögliche KI, die wir und wünschen und dulden könnten.

Ich komme mal wieder auf unseren Liebling Cortana und ihr Verhalten, durch diesen Bericht.
http://www.gamestar.de/artikel/us-startup-nectome-gehirn-kopie-soll-menschlichen-geist-bewahren,3327473.html
 
Zuletzt bearbeitet:
Ich finde Bungie Ansatz eigentlich schon sehr zutreffend, dass eine Gefahr bestehen könnte, dass eine KI nach zig Jahren sich quasi kaputt denkt. Wenn man sich vorstellt, dass man keinen Körper hat, also keine körperlichen Bedürfnisse, sondern nur noch denken kann.

Die Frage ist aber, wozu man überhaupt so etwas brauchen sollte. Immerhin ist eine digitale Kopie des eigenen Geistes nicht mal selbst, sondern nur ein Klon. Dazu würde man ja auch alle Fehler eines Geistes mit einfangen, immerhin sind doch alle natürlich darauf geprägt sich selbst zu erhalten.

Von daher wäre die Erschaffung künstlicher Intelligenzen schon sinnvoller, denke ich.
 
Genau, man erschaft damit nur ein nutzloses und leidendes Gespenst, das aus seiner Depression heraus, nur destruktive Motive verfolgen kann.

Also ist nur eine emotionslose Maschinen, die den Menschen-wünsche nachgeht, ein perfektes und akzeptabel Werkzeug, weil es es unermüdlich und flexibel auf die Wünsche der Menschen eingeht.

Wenn es solche Werkzeuge gibt, dann müssten diese Werkzeuge selbst, die Menschen davon bewaren diese Werkzeuge gegen einader einzusetzen. Der Asimov Pisitronik gemäß. Im ersten Gesetz geht es darum, dass ein Roboter keine Menschen verletzen darf, auch nicht durch Untätigkeit diesem Schaden darf, im zweiten darum, dass der Roboter dem Menschen gehorchen muss, es sei denn, er verletzt damit das 1. Gesetz und im dritten Gesetz heißt es, dass der Roboter sich selbst schützen muss, es sei denn, er verstößt damit gegen das 1. oder 2. Gesetz. ;)
 
Zuletzt bearbeitet:
Für mich besteht da kein großes Diskussionspotenzial:

1. Wenn der Mensch was wirklich Intelligentes baut, kopiert oder in einen Computer überträgt, MUSS es menschenverträglich, aka MENSCHLICH sein.

2. Menschliches MUSS ALLE (möglichen) Menschenrechte haben, sonst geht das in Richtung Sklaverei und das ist eine dumme/schlechte Basis für eine langfristige Zusammenarbeit.

-> Mal eben Ausmachen is also nich!



Was die Erschaffung von solcher Intelligenz angeht:

1. Rein künstliche Erzeugung von Menschlichkeit wird wesentlich schwieriger und wohl auch nicht ökonomisch sein, wenn man genausogut auch ein Gehirn scannen kann.

2. Ein kopierter oder gar übertragener "Geist" wird WESENTLICH eher/sofort eine rechtliche Anerkennung finden.



Was das Bestehen und Verändern solcher Intelligenz angeht:

1. Die Intelligenz MUSS, unter allen Umständen, menschlich bleiben, sonst gibtsn Problem, siehe oben.

2. Entwickelt sich eine Intelligenz aus dem menschlichen Rahmen heraus (allzu einfach uU) MÜSSEN Maßnahmen durchgeführt werden und die Intelligenz im Notfall(!) "eingefroren" (nicht gelöscht) werden, bis der Mensch in der Lage ist damit umzugehen.

-> Komplexitätsbegrenzung nach oben, wie unten.
--> Vergessensfunktion!!! (wie der Mensch auch)



Es gelten stets die Menschenrechte für Alles was menschlich ist oder (wieder) sein könnte!
Für alles Höhere gelten Quarantänebestimmungen! (zur Sicherheit beider Seiten)
 
Zuletzt bearbeitet:
Ist alles zu 100% nachvollziehbar, was du schilderst. Und ab deinen letzten Abschnitt unter (2.) ist ja schon dass grösste Bedenken, eine fühlende KI überhaupt zuzulassen.

Schon seit Franken Stein ist es klar, dass man für seine Mitgeschöpfe eine ernstzunehmende soziale Verantwortung hat. Ist das Kind erst mal da, ist keine Abtreibung oder Löschung mehr gerechtfertigt. Ist das Kind gefährlich für die Allgemeinheit, ist es bis zum Tod zu verwahren. Oder bei KIs, ebend einzufrieren.

Meine Fragen wären:
1. Wie sooll man die Kontrolle über das Nutzen der KIs behalten?
2. Soll die KI nur auf das theoretische handeln beschränkt werden?( Wegen der Hacker-Gefahr wie Skynet und Cortana es uns zeigt. )
3. Wie kommt man seiner sozialen Verantwortung nach, der empfindsamen KI solch einen unendlichen Einschrenkungs-Schicksal anzutun?
4. Wird die KI mit solchen Einschränkungen glücklich sein?
5. Hate Halsey überhaut ein Recht gehabt, Cortana zu beschränken und etwas vergessen zu lassen?
6. Verhält sich Cortana noch logisch?
Cortana verhält sich für mich, wie ein soziales Programm, dass die ihr auferlegte Aufgabe verfolgt, die empfindsamen Lebewesen vor sich selbst zu schützen. Als hätten ihre eigenen Überlebens-bedürfnissen eine zweitrangige Priorität, gegenüber dem Frieden zwischen den empfindsamen Lebewesen. Bigot Selbstlos, weil es einen einfach erfreut oder zufriedenstellend, dass es allen wie mir selbst gut geht. #Reines Gewissen Oder weil keiner ein Grund bei einer 100% Frieden, sich zu bemühen etwas gegen jemanden anzustreben und man somit auch seine Koexistenz damit sichern würde.

7. Ist also der Frieden die intelligenteste Lösung für ein logisch denkendes Wesen welches ein wichtiget Teil der Geselschaft sein will oder ist es ökonomisch vernünftig, wenn nichts mehr existiert was eine Bedrohung sein kann?
 
Zuletzt bearbeitet:
Zurück
Oben