Discussion:
Umfrage
(zu alt für eine Antwort)
Walter Schmid
2016-03-31 09:55:10 UTC
Permalink
Würdet Ihr ein Buch lesen, das nur für Euch geschrieben wurde?

Ihr müsstet einen Fragebogen ausfüllen, (oder Googel macht das
für Euch, die kennt Euch besser als Ihr selbst) und dann bekommt
Ihr einen absolut exklusiven, individuell zugeschnittenen Roman.
Wer würde das lesen? Technisch sollte das bald möglich sein:

http://www.nzz.ch/feuilleton/schauplatz/kommt-die-zeit-der-computergenerierten-literatur-wenn-algorithmen-dichter-werden-ld.10562

Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Andreas Karrer
2016-03-31 11:46:20 UTC
Permalink
Post by Walter Schmid
Würdet Ihr ein Buch lesen, das nur für Euch geschrieben wurde?
Ihr müsstet einen Fragebogen ausfüllen, (oder Googel macht das
für Euch, die kennt Euch besser als Ihr selbst) und dann bekommt
Ihr einen absolut exklusiven, individuell zugeschnittenen Roman.
Kommt auf das Genre an. Für Wort-Pornos oder Arztromane scheint mir
diese Herangehensweise ideal. Im Bereich SF/Fantasy ginge das auch,
aber dort gibt es schon so viel Schund, dass es mMn besser wäre, das
*Lesen* den Maschinen zu überlassen, da gibt es ja bisher wohl mehr
Autoren als Leser.

Für richtige Romane oder Erzählungen ist das kompletter Quatsch und
eine groteske Verkennung dessen, was ein gutes Buch ausmacht. In
derselben NZZ war gestern ein Interview mit Emanuel Bergmann. In seinem
Buch "Der Trick" geht es um einen Zauberkünstler:

Ist die Literatur insgesamt eine Zauberei?

Die Zauberei steht hier als Metapher für die Literatur.

Die Trickserei gehört also ins Arsenal der Literatur?

Absolut, ja, ich sage das auch sehr klar in dem Buch. Zauberei
ist eine Form der schönen Lüge, und ebenso ist es das
Geschichtenerzählen. Wir brauchen diese Lüge, um an der
Wahrheit nicht zu verzweifeln. Darum liegt in der Lüge eine
tiefere emotionale Wahrheit. Darin besteht die Grundlage des
Geschichtenerzählens.



- Andi
Ignatios Souvatzis
2016-04-01 22:01:34 UTC
Permalink
Post by Andreas Karrer
Kommt auf das Genre an. Für Wort-Pornos oder Arztromane scheint mir
diese Herangehensweise ideal. Im Bereich SF/Fantasy ginge das auch,
aber dort gibt es schon so viel Schund, dass es mMn besser wäre, das
*Lesen* den Maschinen zu überlassen, da gibt es ja bisher wohl mehr
Autoren als Leser.
In der Literatur gibt's das schon - nennt sich "Elektrischer Mönch".

-is
--
A medium apple... weighs 182 grams, yields 95 kcal, and contains no
caffeine, thus making it unsuitable for sysadmins. - Brian Kantor
Peter J. Holzer
2016-04-02 08:32:46 UTC
Permalink
Post by Ignatios Souvatzis
Post by Andreas Karrer
Kommt auf das Genre an. Für Wort-Pornos oder Arztromane scheint mir
diese Herangehensweise ideal. Im Bereich SF/Fantasy ginge das auch,
aber dort gibt es schon so viel Schund, dass es mMn besser wäre, das
*Lesen* den Maschinen zu überlassen, da gibt es ja bisher wohl mehr
Autoren als Leser.
In der Literatur gibt's das schon - nennt sich "Elektrischer Mönch".
Wenn ich mich recht erinnere, war die Aufgabe des elektrischen Mönchs
nicht, Menschen das Lesen abzunehmen, sondern das Glauben. (Eine
Weiterentwicklung des Videorekorders, der Menschen das Fernsehen
abnimmt).

hp
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Werner Tann
2016-04-02 08:58:43 UTC
Permalink
Post by Andreas Karrer
Kommt auf das Genre an. Für Wort-Pornos oder Arztromane scheint mir
diese Herangehensweise ideal. Im Bereich SF/Fantasy ginge das auch,
aber dort gibt es schon so viel Schund, dass es mMn besser wäre, das
*Lesen* den Maschinen zu überlassen, da gibt es ja bisher wohl mehr
Autoren als Leser.
Für richtige Romane oder Erzählungen ist das kompletter Quatsch und
eine groteske Verkennung dessen, was ein gutes Buch ausmacht.
Es ist für absolut jede Literatur Quatsch, sogar für Sachbücher.
Warum? Wenn man ständig das liest, was man eh schon weiß, worfür man
sich eh schon interessiert, entsteht aus dieser intellektuellen
Inzucht ein Tunnelblick auf die Welt, der das Verständnis auf das
"andere" erschwert.

In Form der maßgeschneiderten, personalisierten Link-Tips ("Das könnte
Sie auch interessieren") bei Google, Amazon usw. gibt es das doch
schon. Damit ißt man jeden Tag dasselbe Futter und wird am Ende
monoman.

Angeblich soll dieses Bedientwerden mit immer dem, was man bereits ist
und möchte, in den USA dazu geführt haben, daß Demokraten und
Republikaner einander kaum mehr verstehen (nicht: akzeptieren), weil
sie als geschlossene Systeme fungieren, die sich ihre Anregungen und
Impulse nur mehr von "innen" holen.
Post by Andreas Karrer
Absolut, ja, ich sage das auch sehr klar in dem Buch. Zauberei
ist eine Form der schönen Lüge, und ebenso ist es das
Geschichtenerzählen. Wir brauchen diese Lüge, um an der
Wahrheit nicht zu verzweifeln. Darum liegt in der Lüge eine
tiefere emotionale Wahrheit. Darin besteht die Grundlage des
Geschichtenerzählens.
Das klingt lieb poetisch, verkennt aber den entscheidenden Unterschied
zwischen Dichtung und Lüge. Erstere behauptet nicht, wahr zu sein. Ja,
es gibt Graubereiche, wo echte Ereignisse die Basis einer Dichtung
bilden oder wenn der Autor etwa behauptet, Old Shatterhand zu sein.
:-) Aber grundsätzlich ist es pervers, Homers Odyssee als "schöne
Lüge" zu bezeichnen. Das ist, als würde man glauben, einen
Schauspieler, der einen Bühnenmord begeht, hintennach verhaften zu
müssen.
Walter Schmid
2016-04-03 14:03:20 UTC
Permalink
Post by Werner Tann
Post by Andreas Karrer
Kommt auf das Genre an. Für Wort-Pornos oder Arztromane scheint mir
diese Herangehensweise ideal. Im Bereich SF/Fantasy ginge das auch,
aber dort gibt es schon so viel Schund, dass es mMn besser wäre, das
*Lesen* den Maschinen zu überlassen, da gibt es ja bisher wohl mehr
Autoren als Leser.
Für richtige Romane oder Erzählungen ist das kompletter Quatsch und
eine groteske Verkennung dessen, was ein gutes Buch ausmacht.
Es ist für absolut jede Literatur Quatsch, sogar für Sachbücher.
Warum? Wenn man ständig das liest, was man eh schon weiß, worfür man
sich eh schon interessiert, entsteht aus dieser intellektuellen
Inzucht ein Tunnelblick auf die Welt, der das Verständnis auf das
"andere" erschwert.
Wenn der Computer meine Bibliothek kennt, weiss er, dass ich mich
so gut wie nie zweimal mit dem selben Thema befasse.

Also will er mich überraschen - und das ist für einen Computer
leichter als für einen Menschen.


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Peter J. Holzer
2016-04-03 16:29:33 UTC
Permalink
Post by Walter Schmid
Wenn der Computer meine Bibliothek kennt, weiss er, dass ich mich
so gut wie nie zweimal mit dem selben Thema befasse.
Also will er mich überraschen -
Das halte ich für unwahrscheinlich. Wahrscheinlich versucht er eher
verzweifelt[1], irgendein Muster in deinen Lesegewohnheiten zu finden.
Post by Walter Schmid
und das ist für einen Computer leichter als für einen Menschen.
Das Ergebnis eines Algorihtmus', der an seine Grenzen stößt, kann
manchmal überraschend sein, ja. Vor allem, wenn man den Algorithmus
nicht kennt, sondern ihm menschliche Ziele unterstellt.

hp

[1] Ja, ja. Unzulässige Anthropomorphisierung.
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Oliver Jennrich
2016-04-03 18:08:30 UTC
Permalink
Post by Peter J. Holzer
Post by Walter Schmid
Wenn der Computer meine Bibliothek kennt, weiss er, dass ich mich
so gut wie nie zweimal mit dem selben Thema befasse.
Also will er mich überraschen -
Das halte ich für unwahrscheinlich. Wahrscheinlich versucht er eher
verzweifelt[1], irgendein Muster in deinen Lesegewohnheiten zu finden.
Warum sollte er das tun? Für den Buchhändler ist es sinnvoller, wenn
dem Leser auch mal neue Genres oder Themen erschlossen werden, dann
werden nämlich mehr Bücher gekauft.

Da werden auch ziemlich sicher keine Muster gesucht, sondern es wird
irgendeine Zielfunktion mit vielen Parametern (Sprache, Autor, Genre,
Themen, Seitenzahl, Stil, ...) minimiert - es werden einfach Bücher
gesucht die in einem gewissen Sinne 'ähnlich' sind. Bei manchen ist das
Minimum besser definiert, bei anderen schlechter.
--
Space - The final frontier
Peter J. Holzer
2016-04-03 19:28:28 UTC
Permalink
Post by Oliver Jennrich
Post by Peter J. Holzer
Post by Walter Schmid
Wenn der Computer meine Bibliothek kennt, weiss er, dass ich mich
so gut wie nie zweimal mit dem selben Thema befasse.
Also will er mich überraschen -
Das halte ich für unwahrscheinlich. Wahrscheinlich versucht er eher
verzweifelt[1], irgendein Muster in deinen Lesegewohnheiten zu finden.
Warum sollte er das tun?
Weil der Programmierer glaubt, dass das die Wahrscheinlichkeit erhöht,
dass der Kunde das Buch kauft.
Post by Oliver Jennrich
Für den Buchhändler ist es sinnvoller, wenn dem Leser auch mal neue
Genres oder Themen erschlossen werden, dann werden nämlich mehr Bücher
gekauft.
Oder auch nicht. Amazons Versuche, mich zum Kauf der Proceedings einer
Konferenz über Sanskrit in Computational Linguistics zu bewegen, waren
nicht erfolgreich. Auch die vielen Bücher über Jesuiten, die mir
vorgeschlagen wurden, habe ich nicht gekauft.

Auf der anderen Seite hat mir Amazon viele Bücher vorgeschlagen, die ich
schon hatte (teilweise sogar bei Amazon gekauft).
Post by Oliver Jennrich
Da werden auch ziemlich sicher keine Muster gesucht, sondern es wird
irgendeine Zielfunktion mit vielen Parametern (Sprache, Autor, Genre,
Themen, Seitenzahl, Stil, ...) minimiert - es werden einfach Bücher
gesucht die in einem gewissen Sinne 'ähnlich' sind.
Du hast "versucht, ein Muster zu finden" jetzt nur anders formuliert.
Diese Zielfunktion baut auf der Annahme auf, dass ein Leser gewisse
Vorlieben hat, und versucht, diese abzubilden. Hat eine Benutzer keine
Vorlieben (was ich, mit Verlaub, Walter nicht wirklich abnehme), oder
gibt es zu wenig Daten (was bei mir offenbar der Fall war), wird die
Zielfunktion zu flach und das Optimum von kleinen, zufälligen
Fluktuationen bestimmt.

hp
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Walter Schmid
2016-04-04 14:55:57 UTC
Permalink
Post by Peter J. Holzer
Du hast "versucht, ein Muster zu finden" jetzt nur anders formuliert.
Diese Zielfunktion baut auf der Annahme auf, dass ein Leser gewisse
Vorlieben hat, und versucht, diese abzubilden. Hat eine Benutzer keine
Vorlieben (was ich, mit Verlaub, Walter nicht wirklich abnehme),
Meine Vorliebe ist es, einen möglichst breiten Horizont zu haben.
Was soll daran unglaubwürdig sein?

Andere suchen einen tiefen 'Horizont', weil sie davon leben
müssen. Ich bin pensioniert. :-)


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Peter J. Holzer
2016-04-04 20:34:19 UTC
Permalink
Post by Walter Schmid
Hat ein Benutzer keine Vorlieben (was ich, mit Verlaub, Walter nicht
wirklich abnehme),
Meine Vorliebe ist es, einen möglichst breiten Horizont zu haben.
Was soll daran unglaubwürdig sein?
Die meisten Menschen tendieren dazu ...

... von einem Autor, von denen ihnen ein Buch gefallen hat, weitere
Bücher zu kaufen
... Autoren, deren Bücher ihnen nicht gefallen haben, in Zukunft zu
meiden
... zu einem Thema, das sie interessiert, mehrere Bücher zu kaufen
... zu Themen, die sie nicht interessieren, keine Bücher zu kaufen
... Bücher zu kaufen, die ihnen von Bekannten empfohlen wurden
... Bücher zu kaufen, von denen sie positive Kritiken gelesen haben

Wenn Du das alles nicht machst, bist Du kein Mensch, sondern ein
Zufallszahlengenerator. Das halte ich aber für unwahrscheinlich.

hp
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Walter Schmid
2016-04-05 07:18:04 UTC
Permalink
Post by Peter J. Holzer
Post by Walter Schmid
Hat ein Benutzer keine Vorlieben (was ich, mit Verlaub, Walter nicht
wirklich abnehme),
Meine Vorliebe ist es, einen möglichst breiten Horizont zu haben.
Was soll daran unglaubwürdig sein?
Die meisten Menschen tendieren dazu ...
... von einem Autor, von denen ihnen ein Buch gefallen hat, weitere
Bücher zu kaufen
... Autoren, deren Bücher ihnen nicht gefallen haben, in Zukunft zu
meiden
... zu einem Thema, das sie interessiert, mehrere Bücher zu kaufen
... zu Themen, die sie nicht interessieren, keine Bücher zu kaufen
... Bücher zu kaufen, die ihnen von Bekannten empfohlen wurden
... Bücher zu kaufen, von denen sie positive Kritiken gelesen haben
Wenn Du das alles nicht machst, bist Du kein Mensch, sondern ein
Zufallszahlengenerator. Das halte ich aber für unwahrscheinlich.
Es ist schon ein gewisser Zufall im Spiel. Aber er dient einem
klaren Ziel: Nicht einseitig werden! Ich las
Vorlesungsverzeichnisse und kaufte dann Einsteiger-Lehrbücher
derjenigen Fächer, die ich noch am wenigsten kannte und die ich
aber verstehen konnte.

Uebrigens: Mein Lebensinhalt ist klassische Musik. Beethoven
spiele ich jetzt seit 59 Jahren. Aber ich las auch mal ein Buch
über Pop-Musik.


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Werner Tann
2016-04-05 09:02:37 UTC
Permalink
Post by Walter Schmid
Uebrigens: Mein Lebensinhalt ist klassische Musik. Beethoven
spiele ich jetzt seit 59 Jahren. Aber ich las auch mal ein Buch
über Pop-Musik.
Ich glaube, wir reden hier konsequent aneinander vorbei. Erkannte
"Muster" von Konsumentenvorlieben beziehen sich immer auf den
Mainstream des Bevorzugten. Fast jeder Mensch wildert ab und an in
fremden Gefilden, probiert neue Speisen, zieht sich mal "anders" an
oder hört auf die Empfehlung eines Bekannten von irgendwas. Das ändert
nichts an seinem Grundgeschmack. Auf diesen Grundgeschmack zielt die
Werbung ab, weil zu dessen Befriedigung der Konsument am ehesten
bereit ist, Geld auszugeben.

Auch ist der Grundgeschmack bei jedem Menschen unterschiedlich weit
gefächert. Es soll Vielleser geben, die allerdings nur Krimis lesen
oder nur 3 bis 4 Autoren, dafür aber alles von denen. Andere
verschlingen alles, was ihnen im sog. geisteswissenschaflichen Segment
begegnet und sind auch an Quantentheorie und Neurowissenschaft
interessiert, während sie etwa Musik ziemlich unberührt läßt.
Walter Schmid
2016-04-05 11:20:21 UTC
Permalink
Post by Werner Tann
Post by Walter Schmid
Uebrigens: Mein Lebensinhalt ist klassische Musik. Beethoven
spiele ich jetzt seit 59 Jahren. Aber ich las auch mal ein Buch
über Pop-Musik.
Ich glaube, wir reden hier konsequent aneinander vorbei. Erkannte
"Muster" von Konsumentenvorlieben beziehen sich immer auf den
Mainstream des Bevorzugten.
"Mainstream des Bevorzugten" - Ist das nicht ein Widerspruch?
Oder wolltest Du "das Bevorzugte des Mainstreams" sagen?
Post by Werner Tann
Fast jeder Mensch wildert ab und an in
fremden Gefilden, probiert neue Speisen, zieht sich mal "anders" an
oder hört auf die Empfehlung eines Bekannten von irgendwas. Das ändert
nichts an seinem Grundgeschmack. Auf diesen Grundgeschmack zielt die
Werbung ab, weil zu dessen Befriedigung der Konsument am ehesten
bereit ist, Geld auszugeben.
Auch ist der Grundgeschmack bei jedem Menschen unterschiedlich weit
gefächert. Es soll Vielleser geben, die allerdings nur Krimis lesen
oder nur 3 bis 4 Autoren, dafür aber alles von denen. Andere
verschlingen alles, was ihnen im sog. geisteswissenschaflichen Segment
begegnet und sind auch an Quantentheorie und Neurowissenschaft
interessiert, während sie etwa Musik ziemlich unberührt läßt.
Sonst keine Einwände.


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Werner Tann
2016-04-05 13:44:22 UTC
Permalink
Post by Walter Schmid
"Mainstream des Bevorzugten" - Ist das nicht ein Widerspruch?
Oder wolltest Du "das Bevorzugte des Mainstreams" sagen?
Nein, Mainstream soll hier den Hauptstrom der jeweiligen
Konsumenteninteressen bezeichnen. Nebenarme wären Ausreißer, Sidesteps
zu den gewöhnlichen Interessen.

Widerspruch ist es also keiner, eher ein Pleonasmus, weil das
Bevorzugte den persönlichen Mainstream bildet. Gemeint war das im
aktuellen Entscheidungsprozeß aus der Masse des Angebots Bevorzugte,
Ausgewählte.
Ignatios Souvatzis
2016-04-05 19:16:32 UTC
Permalink
Post by Peter J. Holzer
Post by Oliver Jennrich
Post by Peter J. Holzer
Post by Walter Schmid
Wenn der Computer meine Bibliothek kennt, weiss er, dass ich mich
so gut wie nie zweimal mit dem selben Thema befasse.
Also will er mich überraschen -
Das halte ich für unwahrscheinlich. Wahrscheinlich versucht er eher
verzweifelt[1], irgendein Muster in deinen Lesegewohnheiten zu finden.
Warum sollte er das tun?
Weil der Programmierer glaubt, dass das die Wahrscheinlichkeit erhöht,
dass der Kunde das Buch kauft.
Nein. Weil der Programmierer glaubt, dass der Auftraggeber glaubt, dass das
die Wahrscheinlichkeit erhöhe, dass der der Kunde das Buch kauft.

-is
--
A medium apple... weighs 182 grams, yields 95 kcal, and contains no
caffeine, thus making it unsuitable for sysadmins. - Brian Kantor
Peter J. Holzer
2016-04-06 10:27:53 UTC
Permalink
[Amazons Vorschlagssystem]
Post by Ignatios Souvatzis
Post by Peter J. Holzer
Post by Oliver Jennrich
Warum sollte er das tun?
Weil der Programmierer glaubt, dass das die Wahrscheinlichkeit erhöht,
dass der Kunde das Buch kauft.
Nein. Weil der Programmierer glaubt, dass der Auftraggeber glaubt,
dass das die Wahrscheinlichkeit erhöhe, dass der der Kunde das Buch
kauft.
Vielleicht glaubt der Programmierer nicht mal das, sondern macht halt,
was in der Spezifikation steht ...

Ich fasse die Rolle des Programmierers[1] durchaus weit: Dazu gehört für
mich auf jeden Fall das Finden von Lösungen für ein gestelltes Problem.
Wenn das Problem also lautet, die Wahrscheinlichkeit von Käufen zu
erhöhen, dann sollte der Programmierer Lösungen anbieten, die dieses
Ziel erreichen. Wenn er hingegen eine Lösung anbietet, von der er weiß,
dass sie untauglich ist, aber annimmt, dass der Auftraggeber die
Untauglichkeit nicht erkennen kann, dann ist das Betrug. (Wenn der
Auftraggeber natürlich auf einer "Lösung" beharrt, nachdem er darauf
hingewiesen wurde, dass sie das Problem nicht löst, ist er selber
schuld).

Ich gehe davon aus, dass die Leute bei Amazon, die das entwickelt haben,
angenommen haben, dass es etwas bringt.

hp

[1] In der Praxis ist das natürlich oft ein Team und innerhalb des
Teams gibt es oft eine Rollenteilung. Kann sein, dass der, der den
Grobentwurf macht, keine Zeile Code in der Zielsprache schreibt.
Trotzdem ist er für mich ein Programmierer.
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Werner Tann
2016-04-04 07:40:17 UTC
Permalink
Post by Oliver Jennrich
Da werden auch ziemlich sicher keine Muster gesucht, sondern es wird
irgendeine Zielfunktion mit vielen Parametern (Sprache, Autor, Genre,
Themen, Seitenzahl, Stil, ...) minimiert - es werden einfach Bücher
gesucht die in einem gewissen Sinne 'ähnlich' sind. Bei manchen ist das
Minimum besser definiert, bei anderen schlechter.
Kannst Du bitte Deine Programmiersprache auf verständliches
Alltagsdeutsch minimieren?

Was immer Du sagen willst, natürlich liegt den Vorschlägen immer eine
Mustererkennung zu Grunde. Das schließt ja nicht aus, daß manchmal
zusätzlich und willkürlich irgendwelche Bestseller empfohlen werden.

Wenn ich eine Unmenge Daten darüber habe, was meine Kunden kaufen,
erstelle ich geschickterweise Kundenprofile, um sie mit paßgenauer
Werbung zu beglücken. Das ist aber nur ein 1:1-Verhältnis: Verkäufer
weiß, was Konsument mag. Erst wenn der Verkäufer alle seine Kunden
miteinander vergleicht, wird das Ganze vernetzt, und es entstehen -
allgemeine - Käuferprofile, die man dann versuchen kann, einzelnen
(weniger erforschten) Kunden zuzuordnen. Dahinter steckt eine
regelrechte Wissenschaft. Das beschränkt sich bestimmt nicht auf einen
simplen "Parameter"-Vergleich: Kunde X liest gern dicke englische
Bücher, bisher nur Krimis, gut, dann empfehlen wir ihm mal dicke
englische Fantasy. Das wäre, wie gesagt, eine primitive 1:1-Analyse,
die die riesige Datenmenge über andere Kunden außer acht ließe.
Oliver Jennrich
2016-04-04 13:22:26 UTC
Permalink
Post by Werner Tann
Post by Oliver Jennrich
Da werden auch ziemlich sicher keine Muster gesucht, sondern es wird
irgendeine Zielfunktion mit vielen Parametern (Sprache, Autor, Genre,
Themen, Seitenzahl, Stil, ...) minimiert - es werden einfach Bücher
gesucht die in einem gewissen Sinne 'ähnlich' sind. Bei manchen ist das
Minimum besser definiert, bei anderen schlechter.
Kannst Du bitte Deine Programmiersprache auf verständliches
Alltagsdeutsch minimieren?
Was immer Du sagen willst, natürlich liegt den Vorschlägen immer eine
Mustererkennung zu Grunde.
Für jemanden, der meinen Absatz da oben für eine 'Programmiersprache'
hält, bist du dir über die Details des Algorithmus erstaunlich sicher.
--
Space - The final frontier
Werner Tann
2016-04-03 18:26:23 UTC
Permalink
Post by Walter Schmid
Wenn der Computer meine Bibliothek kennt, weiss er, dass ich mich
so gut wie nie zweimal mit dem selben Thema befasse.
Was verstehst Du unter "Thema"?

Kreuzzüge, Wallenstein und Hitler sind verschiedene Themen, aber
allesamt aus dem Bereich der Geschichte.

Daß Du Dich tatsächlich jeden Tag mit einer anderen *Form* von
Belletristik oder einem anderen Sachgebiet beschäftigst, glaube ich
Dir nicht. Kaum jemand ist so vielseitig. Leonardo da Vinci war
gestern.

Und wenn doch ... dann scheint mir das der beste Weg zu sein, von
allem ein bißchen Ahnung zu haben und über nichts richtig Bescheid zu
wissen.
Post by Walter Schmid
Also will er mich überraschen - und das ist für einen Computer
leichter als für einen Menschen.
Google überrascht Dich mit "ungewöhnlichen" Vorschlägen nicht deshalb,
weil Du die Abwechslung liebst, sondern weil andere Menschen, die X
lieben (so wie Du), auch häufig Y lieben (was Du Google bisher
verheimlicht hast). Also bekommst Du Y vorgeschlagen. Man nimmt an, Du
entsprichst dem XY-Abwechslungsmuster. ;-) Oder anders: Gib Dich nicht
der Hoffnung hin, Du wärst so einzigartig.
Walter Schmid
2016-04-04 12:38:06 UTC
Permalink
Post by Werner Tann
Post by Walter Schmid
Wenn der Computer meine Bibliothek kennt, weiss er, dass ich mich
so gut wie nie zweimal mit dem selben Thema befasse.
Was verstehst Du unter "Thema"?
Buchstäblich alles, worüber man ein Buch schreiben kann.
Natürlich mit der Einschränkung, dass ich die notwendigen
Vorkenntnisse besitze. Sinologie usw. fällt deshalb leider weg,
weil ich altersbedingt kein Chinesisch mehr lernen kann.
Post by Werner Tann
Kreuzzüge, Wallenstein und Hitler sind verschiedene Themen, aber
allesamt aus dem Bereich der Geschichte.
Daß Du Dich tatsächlich jeden Tag mit einer anderen *Form* von
Belletristik oder einem anderen Sachgebiet beschäftigst, glaube ich
Dir nicht. Kaum jemand ist so vielseitig. Leonardo da Vinci war
gestern.
Nicht jeden Tag, sondern jedes Buch. Ich bin kein Schnellleser.
Ich bin ein serieller Monomane ohne lebenslanges Hauptinteresse.
Post by Werner Tann
Und wenn doch ... dann scheint mir das der beste Weg zu sein, von
allem ein bißchen Ahnung zu haben und über nichts richtig Bescheid zu
wissen.
Mit abendländischer Philosophie hatte ich mich vor etwa 25 Jahren
sehr intensiv über mehrere Jahre befasst. Später begann ich das
Mosaik des Welt-Wissens gleichmässig aufzufüllen, d.h. je
unbekannter, desto wichtiger war ein Thema für mich. Hauptsache
wissenschaftlich. Religion und Esoterik waren meine Jugend und
davon wollte ich wegkommen.
Post by Werner Tann
Post by Walter Schmid
Also will er mich überraschen - und das ist für einen Computer
leichter als für einen Menschen.
Google überrascht Dich mit "ungewöhnlichen" Vorschlägen nicht deshalb,
weil Du die Abwechslung liebst, sondern weil andere Menschen, die X
lieben (so wie Du), auch häufig Y lieben (was Du Google bisher
verheimlicht hast). Also bekommst Du Y vorgeschlagen. Man nimmt an, Du
entsprichst dem XY-Abwechslungsmuster. ;-) Oder anders: Gib Dich nicht
der Hoffnung hin, Du wärst so einzigartig.
Amazons Vorschläge beziehen sich bei mir nur auf die letzten
Bestellungen, und sind deshalb für mich unbrauchbar.


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Walter Schmid
2016-04-03 14:13:29 UTC
Permalink
Post by Andreas Karrer
Post by Walter Schmid
Würdet Ihr ein Buch lesen, das nur für Euch geschrieben wurde?
Ihr müsstet einen Fragebogen ausfüllen, (oder Googel macht das
für Euch, die kennt Euch besser als Ihr selbst) und dann bekommt
Ihr einen absolut exklusiven, individuell zugeschnittenen Roman.
Kommt auf das Genre an. Für Wort-Pornos oder Arztromane scheint mir
diese Herangehensweise ideal. Im Bereich SF/Fantasy ginge das auch,
aber dort gibt es schon so viel Schund, dass es mMn besser wäre, das
*Lesen* den Maschinen zu überlassen, da gibt es ja bisher wohl mehr
Autoren als Leser.
Für richtige Romane oder Erzählungen ist das kompletter Quatsch und
eine groteske Verkennung dessen, was ein gutes Buch ausmacht.
Dann wäre Buddenbrooks ein schlechtes Buch. TM sagte
ausdrücklich, dass er nichts erfunden habe. Er hat einfach gut
beobachtet und zugehört und besser formuliert als andere. Und
warum soll ein Computer nie besser formulieren als der
Durchschnittsautor? Der Computer kann schon heute alle Klassiker
in allen wichtigen Sprachen auswendig. Er versteht sie nur noch
nicht. Aber das kommt auch noch.


Meine Bedenken gegen individuelle Dichtung und solche ernste
Literatur liegen ganz wo anders. An wen soll ich denken, wenn ich
ein Buch lese, das sonst niemand liest, weil ja jeder sein
persönliches Buch hat? Literatur dient dann der Vereinzelung
statt der Verständigung. Und gerade Leser suchen Anschluss.
Anschluss an ein gespiegeltes Selbst ist nicht attraktiv.

Bestseller werden ja gerade deshalb von vielen gelesen, *weil*
sie von vielen gelesen werden - und nicht weil sie gut sind. Dass
sie gut ist, setzt man bei gedruckter Ware ohnehin voraus.


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Peter J. Holzer
2016-04-03 16:31:14 UTC
Permalink
Dass sie gut ist, setzt man bei gedruckter Ware ohnehin voraus.
Ich halte es da eher mit Sturgeon.

hp
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Walter Schmid
2016-04-04 12:39:29 UTC
Permalink
Post by Peter J. Holzer
Dass sie gut ist, setzt man bei gedruckter Ware ohnehin voraus.
Ich halte es da eher mit Sturgeon.
Mit welchem? Oder mit allen?


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Peter J. Holzer
2016-04-04 15:00:51 UTC
Permalink
Post by Walter Schmid
Post by Peter J. Holzer
Dass sie gut ist, setzt man bei gedruckter Ware ohnehin voraus.
Ich halte es da eher mit Sturgeon.
Mit welchem? Oder mit allen?
Theodore Sturgeon. Der, nach dem "Sturgeon's Law" benannt ist:
"90 percent of everything is crud".

hp
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Ignatios Souvatzis
2016-04-05 18:59:49 UTC
Permalink
Post by Walter Schmid
Würdet Ihr ein Buch lesen, das nur für Euch geschrieben wurde?
Ihr müsstet einen Fragebogen ausfüllen, (oder Googel macht das
für Euch, die kennt Euch besser als Ihr selbst) und dann bekommt
Ihr einen absolut exklusiven, individuell zugeschnittenen Roman.
http://www.nzz.ch/feuilleton/schauplatz/kommt-die-zeit-der-computergenerierten-literatur-wenn-algorithmen-dichter-werden-ld.10562
Fuer Kleinkinder mag sowas passen, ja. Die "Pu der Baer"- Geschichten
werden in der Rahmenhandlung Christopher erzählt, der mit seinem
Stoffteddy "Pu" zuhört.

Aber letztendlich ist das obige nur die Überspitzung der Algorithmen
der Werbebannervermieter. Einmal einen 8port-Heimswitch einer
gewissen Firma online gekauft, 500mal bekommt man das gleiche oder
ein verwandtes Modell angezeigt. Genauso bei anderen Dingen, ob man
sie kauft oder sich nur über Angebote informiert.

Wann kapieren die Marketingfritzen endlich, dass man vielleicht
Brötchen, Käse und Obst mehrmals wöchentlich und Zahnpasta alle
paar Wochen praktisch identisch kauft, sonst aber nichts so überflüssig
ist wie Werbung für das letztgekaufte Produkt?

Dieser Aspekt gehörte eigenltich nach de.alt.fan.konsumterror...

-is
Walter Schmid
2016-04-06 08:10:40 UTC
Permalink
Post by Ignatios Souvatzis
Post by Walter Schmid
Würdet Ihr ein Buch lesen, das nur für Euch geschrieben wurde?
Ihr müsstet einen Fragebogen ausfüllen, (oder Googel macht das
für Euch, die kennt Euch besser als Ihr selbst) und dann bekommt
Ihr einen absolut exklusiven, individuell zugeschnittenen Roman.
http://www.nzz.ch/feuilleton/schauplatz/kommt-die-zeit-der-computergenerierten-literatur-wenn-algorithmen-dichter-werden-ld.10562
Fuer Kleinkinder mag sowas passen, ja. Die "Pu der Baer"- Geschichten
werden in der Rahmenhandlung Christopher erzählt, der mit seinem
Stoffteddy "Pu" zuhört.
Aber letztendlich ist das obige nur die Überspitzung der Algorithmen
der Werbebannervermieter. Einmal einen 8port-Heimswitch einer
gewissen Firma online gekauft, 500mal bekommt man das gleiche oder
ein verwandtes Modell angezeigt. Genauso bei anderen Dingen, ob man
sie kauft oder sich nur über Angebote informiert.
Wann kapieren die Marketingfritzen endlich, dass man vielleicht
Brötchen, Käse und Obst mehrmals wöchentlich und Zahnpasta alle
paar Wochen praktisch identisch kauft, sonst aber nichts so überflüssig
ist wie Werbung für das letztgekaufte Produkt?
Dieser Aspekt gehörte eigenltich nach de.alt.fan.konsumterror...
Ich bin Atheist und glaube nicht, dass es jenseits der Materie
und deren Strukturen und Interaktionen noch eine andere Welt
gibt. Daraus folgt für mich zwingend, dass Computer irgendwann
klüger sein werden als menschliche Gehirne, also auch klüger als
jeder Literatur-Nobelpreisträger.

Meine Frage bezog sich auf solche Computer - nicht auf aktuelle.

Das ist übrigens keine Spinnerei, man arbeitet bereits konkret
daran, das Gehirn 1:1 zu simulieren. Siehe "Human Brain Project".
Es dürfte aber länger dauern als einige Beteiligte meinen. Wenn
ich nicht überzeugt wäre, dass das irgendwann Realität wird,
müsste ich jetzt sofort katholisch werden, denn dann gibt es eine
Hinterwelt, und dorthin ist die katholische Kirche der beste
Begleiter. Andere mögen dann Buddhist werden usw.

Aber auch von solchen Computern einer möglicherweise noch sehr
fernen Zukunft möchte ich keine individuell auf mich
zugeschnittenen Romane lesen, weil mich diese in eine neuartige
extreme Vereinzelung führen würden. Mit Niveau, Qualität und
Kreativität hat das nichts zu tun.

Diese Computer sind das Ende aller Kunst, aber auch der Arbeit
und Politik. Dann wird der Mensch überflüssig.


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Peter J. Holzer
2016-04-06 10:55:52 UTC
Permalink
[Vorbemerkung: Ich bleibe bei Deiner Bezeichnung "Computer", obwohl sie
mir als Informatiker gegen den Strich geht.]
Post by Walter Schmid
Ich bin Atheist und glaube nicht, dass es jenseits der Materie
und deren Strukturen und Interaktionen noch eine andere Welt
gibt. Daraus folgt für mich zwingend, dass Computer irgendwann
klüger sein werden als menschliche Gehirne, also auch klüger als
jeder Literatur-Nobelpreisträger.
Meine Frage bezog sich auf solche Computer - nicht auf aktuelle.
Das ist übrigens keine Spinnerei, man arbeitet bereits konkret
daran, das Gehirn 1:1 zu simulieren.
Wo sind sie da jetzt? Bei Fadenwürmern?
Post by Walter Schmid
Siehe "Human Brain Project".
Es dürfte aber länger dauern als einige Beteiligte meinen.
Das meine ich auch.
Post by Walter Schmid
Wenn ich nicht überzeugt wäre, dass das irgendwann Realität wird,
müsste ich jetzt sofort katholisch werden, denn dann gibt es eine
Hinterwelt, und dorthin ist die katholische Kirche der beste
Begleiter. Andere mögen dann Buddhist werden usw.
Ich sehe keinen Grund dafür. Aus der Überzeugung, dass die menschliche
Psyche allein aus den physikalischen und chemischen Vorgängen im
menschlichen Körper (zum Großteil, aber nicht nur, im Gehirn) herrührt,
folgt für mich nicht, dass es irgendwann möglich sein, wird diese
Vorgänge mit hinreichender Genauigkeit zu simulieren, und schon gar
nicht, dass es jemand tun wird.

Und selbst wenn ich aus der praktischen Unmöglichkeit einer solchen
Simulation schließen würde, dass es eine "Seele" im immateriellen Sinn
gibt, sähe ich nicht wirklich einen Grund, deren Existenz über den Tod
des Körpers hinaus anzunehmen (ich nehme an, das meintest Du mit
"Hinterwelt" - das Wort ist mir unbekannt) und schon gar nicht die
Existenz des abrahamitischen Gottes.
Post by Walter Schmid
Aber auch von solchen Computern einer möglicherweise noch sehr
fernen Zukunft möchte ich keine individuell auf mich
zugeschnittenen Romane lesen, weil mich diese in eine neuartige
extreme Vereinzelung führen würden. Mit Niveau, Qualität und
Kreativität hat das nichts zu tun.
Die Existenz einer übermenschlichen KI vorausgesetzt:

Es wäre meiner Meinung nach genauso kreativ, wie wenn ein menschlicher
Erzähler eine Geschichte für Dich erfinden würde, und da dieser
hypothetische Computer ja per definitionem "klüger als jeder
Literatur-Nobelpreisträger" sein soll, wären Niveau und Qualität höher
als bei den Geschichten von menschlichen Nobelpreisträgern.
Post by Walter Schmid
Diese Computer sind das Ende aller Kunst, aber auch der Arbeit
und Politik.
Nein.
Post by Walter Schmid
Dann wird der Mensch überflüssig.
Das möglicherweise. Ziemlich sicher werden dann Computer der Meinung
sein, dass Menschen sowieso nie zu wirklicher Kunst fähig waren.
Menschliche Kunstwerke werden dann belächelt wie die Gemälde des
Orang-Utan-Weibchens Nonja. Menschliche Arbeit wäre vielleicht in
Nischen zurückgedrängt, wie die Arbeit von Tieren heute. Und von der
Politik von Computern können wir uns noch keine Vorstellung machen.

hp
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Walter Schmid
2016-04-06 11:57:31 UTC
Permalink
Post by Peter J. Holzer
[Vorbemerkung: Ich bleibe bei Deiner Bezeichnung "Computer", obwohl sie
mir als Informatiker gegen den Strich geht.]
Man kann neuronale Netze auch mit digitalen Rechnern simulieren.
Deshalb braucht es theoretisch keine neue Hardware-Technik um das
Gehirn 1:1 zu simulieren. Allerdings ist auch der grösste
Supercomputer von heute noch um etliche Dimensionen zu klein, um
das für ein Menschenhirn zu schaffen. Hinzu kommt, dass das Hirn
auch noch nicht ausreichend *verstanden* wird. Es zu simulieren,
wäre deshalb auch mit einem genügend grossen Rechner heute völlig
unmöglich. Aber für mich sicher nicht auf alle Zeit unmöglich,
weil das Gehirn ohne jeden Zweifel eine *endliche* Maschine ist.
Post by Peter J. Holzer
Post by Walter Schmid
Ich bin Atheist und glaube nicht, dass es jenseits der Materie
und deren Strukturen und Interaktionen noch eine andere Welt
gibt. Daraus folgt für mich zwingend, dass Computer irgendwann
klüger sein werden als menschliche Gehirne, also auch klüger als
jeder Literatur-Nobelpreisträger.
Meine Frage bezog sich auf solche Computer - nicht auf aktuelle.
Das ist übrigens keine Spinnerei, man arbeitet bereits konkret
daran, das Gehirn 1:1 zu simulieren.
Wo sind sie da jetzt? Bei Fadenwürmern?
Ungefähr, und man versteht auch dies 1:1 simulierte 'Hirn' nicht.

Auch neuronale Rechner, die man *nicht versteht*, z.B. für
Gesichtserkennung und Fingerabdrücke, funktionieren heute schon
besser als Menschen!

Es ist nicht notwendig, dass man die Natur versteht, um sie
verbessern zu können. Diese alte Viehzüchterweisheit lässt sich
auch auf Rechner anwenden. Man lässt ihn Neuro-Netzvarianten
selber erfinden, sie testen und am vorgegebenen Erfolg bewerten.
Post by Peter J. Holzer
Post by Walter Schmid
Siehe "Human Brain Project".
Es dürfte aber länger dauern als einige Beteiligte meinen.
Das meine ich auch.
Post by Walter Schmid
Wenn ich nicht überzeugt wäre, dass das irgendwann Realität wird,
müsste ich jetzt sofort katholisch werden, denn dann gibt es eine
Hinterwelt, und dorthin ist die katholische Kirche der beste
Begleiter. Andere mögen dann Buddhist werden usw.
Ich sehe keinen Grund dafür. Aus der Überzeugung, dass die menschliche
Psyche allein aus den physikalischen und chemischen Vorgängen im
menschlichen Körper (zum Großteil, aber nicht nur, im Gehirn) herrührt,
folgt für mich nicht, dass es irgendwann möglich sein, wird diese
Vorgänge mit hinreichender Genauigkeit zu simulieren, und schon gar
nicht, dass es jemand tun wird.
Dann lebst Du hinter dem Mond. Man arbeitet intensiv daran. Denn
genau so lange es etwas gibt, das nur der Mensch kann, wird es
die attraktivste Herausforderung für Informatiker sein, das
mittels Chips zu simulieren. Und sobald dies Ziel erreicht ist,
ist diese Maschine jedem Menschen überlegen, weil nur ihr
Gedächtnis und Wissen praktisch unbegrenzt ist. Der Rechner ist
in keinen Schädel eingesperrt und kann deshalb fast beliebig wachsen.

Am Geld wird es nicht fehlen, denn autonome Roboter sind die
idealen Soldaten. Zum Soldaten gehören fiese Tricks, also
Kreativität, ein kreativer Computer ist sehr wünschenswert.
Post by Peter J. Holzer
Und selbst wenn ich aus der praktischen Unmöglichkeit einer solchen
Simulation schließen würde, dass es eine "Seele" im immateriellen Sinn
gibt, sähe ich nicht wirklich einen Grund, deren Existenz über den Tod
des Körpers hinaus anzunehmen (ich nehme an, das meintest Du mit
"Hinterwelt" - das Wort ist mir unbekannt) und schon gar nicht die
Existenz des abrahamitischen Gottes.
In Nietzsches Zarathustra gibt es ein Kapitel "Von den
Hinterweltlern", damit meint er die Religiösen, die hinter dem
Sichtbaren eine Welt des Geistes postulieren, wozu Gott gehört,
aber auch der Teufel.
Post by Peter J. Holzer
Post by Walter Schmid
Aber auch von solchen Computern einer möglicherweise noch sehr
fernen Zukunft möchte ich keine individuell auf mich
zugeschnittenen Romane lesen, weil mich diese in eine neuartige
extreme Vereinzelung führen würden. Mit Niveau, Qualität und
Kreativität hat das nichts zu tun.
Es wäre meiner Meinung nach genauso kreativ, wie wenn ein menschlicher
Erzähler eine Geschichte für Dich erfinden würde,
Nur macht das keiner. Diese 'Gefahr' besteht darum nicht.
Post by Peter J. Holzer
und da dieser
hypothetische Computer ja per definitionem "klüger als jeder
Literatur-Nobelpreisträger" sein soll, wären Niveau und Qualität höher
als bei den Geschichten von menschlichen Nobelpreisträgern.
Post by Walter Schmid
Diese Computer sind das Ende aller Kunst, aber auch der Arbeit
und Politik.
Nein.
Wer bezahlt noch einen Künstler (und Kunst geht nun mal nach
Brot), wenn der Computer bessere Kunst produziert?
Post by Peter J. Holzer
Post by Walter Schmid
Dann wird der Mensch überflüssig.
Das möglicherweise. Ziemlich sicher werden dann Computer der Meinung
sein, dass Menschen sowieso nie zu wirklicher Kunst fähig waren.
Menschliche Kunstwerke werden dann belächelt wie die Gemälde des
Orang-Utan-Weibchens Nonja. Menschliche Arbeit wäre vielleicht in
Nischen zurückgedrängt, wie die Arbeit von Tieren heute. Und von der
Politik von Computern können wir uns noch keine Vorstellung machen.
Es gibt schon heute Simulationen von Wirtschaftsmassnahmen. Frage
an den Rechner: "Vergleiche Mindestlohn 8.50 mit Mindestlohn
7.50". Irgendwann werden Politiker blind das tun, was die
Maschine vorschlägt. Heute nehmen sie die Ideologie noch
wichtiger als solche Prognosen, weil es berechtigte Zweifel an
deren Zuverlässigkeit gibt. Aber wie lange noch?

Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Peter J. Holzer
2016-04-09 14:10:39 UTC
Permalink
Post by Walter Schmid
Post by Peter J. Holzer
[Vorbemerkung: Ich bleibe bei Deiner Bezeichnung "Computer", obwohl sie
mir als Informatiker gegen den Strich geht.]
Man kann neuronale Netze auch mit digitalen Rechnern simulieren.
Deshalb braucht es theoretisch keine neue Hardware-Technik um das
Gehirn 1:1 zu simulieren.
Eben. Alles wovon Du schreibst, ist meiner (nicht ganz laienhaften)
Meinung nach eine Frage der Software, nicht der Hardware. Natürlich
braucht man auch genügend potente Hardware, um die Software auszuführen,
aber sobald die vorhanden ist, ist weitgehend egal, wie die aussieht. Ob
Du Dir Custom-Prozessoren aus FPGAs baust oder ein paar tausend Nodes
bei Amazon mietest, hat Auswirkungen auf die Performance und die
Mikroarchitektur der Software, aber Du kannst in beiden Fällen die
gleiche Funktionalität erreichen.

Für mich klingt das so nach 50er-Jahre-SF, wenn Du von "dem Computer"
redest. Wer tatsächlich mit Softwareentwicklung zu tun hat, redet
anders.
Post by Walter Schmid
Post by Peter J. Holzer
Post by Walter Schmid
Wenn ich nicht überzeugt wäre, dass das irgendwann Realität wird,
müsste ich jetzt sofort katholisch werden, denn dann gibt es eine
Hinterwelt, und dorthin ist die katholische Kirche der beste
Begleiter. Andere mögen dann Buddhist werden usw.
Ich sehe keinen Grund dafür. Aus der Überzeugung, dass die menschliche
Psyche allein aus den physikalischen und chemischen Vorgängen im
menschlichen Körper (zum Großteil, aber nicht nur, im Gehirn) herrührt,
folgt für mich nicht, dass es irgendwann möglich sein, wird diese
Vorgänge mit hinreichender Genauigkeit zu simulieren, und schon gar
nicht, dass es jemand tun wird.
Dann lebst Du hinter dem Mond.
Ich würde eher sagen, ich habe mir in 30 Jahren IT eine gesunde Skepsis
gegenüber Hypes aufgebaut.

Aber ich spreche hier von logischen Notwendigkeiten (bzw. deren
Abwesenheit). Und ich halte folgende Aussagen, die Du offenbar für
selbstevident hältst, für hanebüchenen Unsinn:

* Alles, was theoretisch möglich ist, ist auch praktisch umsetzbar
* Alles, was praktisch umsetzbar ist, wird auch tatsächlich gemacht.

Nur wenn diese beiden Aussagen richtig wären, wäre Dein Schluss richtig.
Post by Walter Schmid
Man arbeitet intensiv daran.
Man arbeitet auch intensiv an Kernfusion. Oder Quantencomputern.
Vermutlich auch an einem Mittel gegen Schnupfen.

Aber intensive Arbeit garantiert nicht den Erfolg. Das ist der Forschung
inhärent: Würde man das Ergebnis schon kennen, müsste man ja nicht
forschen.
Post by Walter Schmid
Denn genau so lange es etwas gibt, das nur der Mensch kann, wird es
die attraktivste Herausforderung für Informatiker sein, das mittels
Chips zu simulieren. Und sobald dies Ziel erreicht ist, ist diese
Maschine jedem Menschen überlegen, weil nur ihr Gedächtnis und Wissen
praktisch unbegrenzt ist. Der Rechner ist in keinen Schädel
eingesperrt und kann deshalb fast beliebig wachsen.
Am Geld wird es nicht fehlen, denn autonome Roboter sind die
idealen Soldaten.
Ein autonomer Roboter, der einen Menschen exakt simulieren würde, hätte
exakt die gleichen Fähigkeiten und Einschränkungen wie ein Mensch. Das
wäre nun nicht besonders ideal. Sinnvollerweise programmiert man einen
Roboter aber so, dass er das, was er tun soll, besonders gut kann, und
alles, was ihn dabei stören könnte, gar nicht. Das erreicht man aber
nicht durch eine 1:1-Simulation des menschlichen Gehirns. Denn unser
Gehirn ist eine Folge einer langen Evolution, in der alle möglichen
Anforderungen eine Rolle gespielt haben, die, ein "idealer Soldat" zu
sein, aber nur eine sehr geringe (und nur für recht weitgefasste
Definitionen von "Soldat").
Post by Walter Schmid
Post by Peter J. Holzer
Post by Walter Schmid
Aber auch von solchen Computern einer möglicherweise noch sehr
fernen Zukunft möchte ich keine individuell auf mich
zugeschnittenen Romane lesen, weil mich diese in eine neuartige
extreme Vereinzelung führen würden. Mit Niveau, Qualität und
Kreativität hat das nichts zu tun.
Es wäre meiner Meinung nach genauso kreativ, wie wenn ein menschlicher
Erzähler eine Geschichte für Dich erfinden würde,
Nur macht das keiner. Diese 'Gefahr' besteht darum nicht.
Vielleicht erzählt Dir keiner Geschichten. Aber Menschen erfinden
dauernd Geschichten. Machmal behalten sie sie für sich. Manchmal
erzählen sie sie nur einer Person, manchmal einem kleinen Kreis.
Manchmal schreiben sie einen Bestseller.
Post by Walter Schmid
Post by Peter J. Holzer
und da dieser hypothetische Computer ja per definitionem "klüger als
jeder Literatur-Nobelpreisträger" sein soll, wären Niveau und
Qualität höher als bei den Geschichten von menschlichen
Nobelpreisträgern.
Post by Walter Schmid
Diese Computer sind das Ende aller Kunst, aber auch der Arbeit
und Politik.
Nein.
Wer bezahlt noch einen Künstler (und Kunst geht nun mal nach
Brot), wenn der Computer bessere Kunst produziert?
Wenn der Computer Kunst (egal ob besser oder nicht) produziert, ist es
ganz offensichtlich nicht das Ende der Kunst. Denn sie wird ja noch
produziert. Es ist vielleicht das Ende der *menschlichen* Kunst, aber
nicht das Ende *aller* Kunst. Ein bisschen Logik und/oder Präzision im
Ausdruck würde nicht schaden.
Post by Walter Schmid
Post by Peter J. Holzer
Post by Walter Schmid
Dann wird der Mensch überflüssig.
Das möglicherweise. Ziemlich sicher werden dann Computer der Meinung
sein, dass Menschen sowieso nie zu wirklicher Kunst fähig waren.
Menschliche Kunstwerke werden dann belächelt wie die Gemälde des
Orang-Utan-Weibchens Nonja. Menschliche Arbeit wäre vielleicht in
Nischen zurückgedrängt, wie die Arbeit von Tieren heute. Und von der
Politik von Computern können wir uns noch keine Vorstellung machen.
Es gibt schon heute Simulationen von Wirtschaftsmassnahmen. Frage
an den Rechner: "Vergleiche Mindestlohn 8.50 mit Mindestlohn
7.50".
Ich glaube, es wird Zeit, den Gründungsmythos meines Arbeitsgebers
auszupacken:

Anfang der 70er-Jahre, als Spreadsheets noch wirklich Sheets waren
("Leintücher" hießen die großen Papierbögen, auf denen damals
gerechnet wurden, im Jargon) war der damalige Chef des WIFO auf
Besuch am IHS. Das IHS hatte damals schon einen Computer, und der
damalige Direktor (Gerhart Bruckmann, Generationen von Österreichern
für seine Wahlprognosen bekannt, die er stets vor photogen
rotierenden 9-Spur-Bändern abgab) stellte sich vor ein Terminal und
sprach: "Sehen Sie, Herr Nemschak, so rechnen wir unsere Prognosen."
Und drückte auf eine Taste und die fertige Prognose kam aus dem
Drucker. Daraufhin wollte das WIFO auch einen Computer. Und so ward
das WSR gegründet.

Deine "Frage an den Rechner" erinnert mich lebhaft an diese Geschichte.
Oder an Isaac Asimovs Multivac-Geschichten.
Post by Walter Schmid
Irgendwann werden Politiker blind das tun, was die Maschine
vorschlägt.
Dafür braucht man keine starke KI und keine Simulation des menschlichen
Gehirns. Eher im Gegenteil - je eher die Algorithmen objektiv erscheinen
(nicht notwendigerweise sind), desto eher eignet sich das Ergebnis als
Begründung. Und "der Computer hat das ausgespuckt" habe ich als Ausrede
auch schon vor 30 Jahren gehört, dafür brauchts auch keine KI.

hp
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Walter Schmid
2016-04-10 12:04:07 UTC
Permalink
Ich möchte die Diskussion über KI damit beenden, denn mit meiner
Frage zum individuell zugeschnittenen Roman hat es nur noch wenig
zu tun.
Post by Peter J. Holzer
Post by Walter Schmid
Dann lebst Du hinter dem Mond.
Ich würde eher sagen, ich habe mir in 30 Jahren IT eine gesunde Skepsis
gegenüber Hypes aufgebaut.
Aber ich spreche hier von logischen Notwendigkeiten (bzw. deren
Abwesenheit). Und ich halte folgende Aussagen, die Du offenbar für
* Alles, was theoretisch möglich ist, ist auch praktisch umsetzbar
Definiere "theoretisch möglich"!

Meine Auffassung lautet: Alles was technisch und ökonomisch
möglich ist, wird auch gemacht, wenn es Gewinn verspricht.

Die Unmöglichkeit des 'Human Brain Project' ist nur behauptet,
nicht bewiesen. Also ist es als möglich zu betrachten.

Wenn die aktuelle Unmöglichkeit nur auf Rechenkapazitätsmangel
beruht, entgegne ich mit dem Mooreschen Gesetz.

Wenn die Unmöglichkeit auf Unwissen über das Gehirn beruht, wende
ich ein, dass die Funktion eines einzelnen Neurons schon heute
verstanden werden kann. Der Rest ist Verdrahtung - und die ist
nicht so schwer zu verstehen und zu simulieren.

Natürlich wird ein Mensch die 1:1-Simulation des Gehirns so wenig
ganz verstehen wie er sein eigenes Gehirn selbst versteht. Das
ist einfach zu komplex für ein Menschen-Hirn.

Neuronale Netze zur Gesichtserkennung sind der Beweis, dass man
auch unverstandene Leistungen digital simulieren kann.
Warum dann nie ein ganzes Gehirn?
Post by Peter J. Holzer
* Alles, was praktisch umsetzbar ist, wird auch tatsächlich gemacht.
Nur wenn es rentiert!
Post by Peter J. Holzer
Nur wenn diese beiden Aussagen richtig wären, wäre Dein Schluss richtig.
Die wirtschaftliche Einschränkung halte ich für
selbstverständlich. Die moralische kommt hinzu, ist aber weniger
stark, da es unter den Forschern mindestens vor viele Kriminelle
gibt wie unter den anderen Menschen. Hilary Putnams 'Hirn im
Tank' wird sicher irgendwann gezüchtet. Zuerst mit Mäusen, dann
mit Affen und dann ...
Post by Peter J. Holzer
Post by Walter Schmid
Man arbeitet intensiv daran.
Man arbeitet auch inteniv an Kernfusion.
Dass sie möglich ist, steht bereits fest. Ob es wirtschaftlich
sein kann, ist noch offen.
Post by Peter J. Holzer
Oder Quantencomputern.
Wie die jenseits des Labors im Kleinstmassstab funktionieren
sollen, weiss vermutlich noch gar niemand. Für meine
Ueberlegungen sind sie nicht erforderlich, wären aber vermutlich
sehr hilfreich.
Post by Peter J. Holzer
Vermutlich auch an einem Mittel gegen Schnupfen.
Gibt es längst. Du bist wirklich hinter dem Mond!
Post by Peter J. Holzer
Aber intensive Arbeit garantiert nicht den Erfolg. Das ist der Forschung
inhärent: Würde man das Ergebnis schon kennen, müsste man ja nicht
forschen.
Beim 'Human Brain Project' kennt man das Ergebnis schon (auch
beim Flug zum Mars, usw). Man kennt bloss die Details noch nicht
alle, weil es verdammt viele sind.

Kurz gesagt: Der Weg zum Uebermenschen führt zwingend über den
Nachbau des realen Menschen.
Das hatte die KI bis vor Kurzem nicht kapiert. Denn ein Roboter
ohne Körpergefühl samt zugehörigem Gedächtnis muss unendlich dumm
bleiben.
Post by Peter J. Holzer
Post by Walter Schmid
Denn genau so lange es etwas gibt, das nur der Mensch kann, wird es
die attraktivste Herausforderung für Informatiker sein, das mittels
Chips zu simulieren. Und sobald dies Ziel erreicht ist, ist diese
Maschine jedem Menschen überlegen, weil nur ihr Gedächtnis und Wissen
praktisch unbegrenzt ist. Der Rechner ist in keinen Schädel
eingesperrt und kann deshalb fast beliebig wachsen.
Am Geld wird es nicht fehlen, denn autonome Roboter sind die
idealen Soldaten.
Ein autonomer Roboter, der einen Menschen exakt simulieren würde, hätte
exakt die gleichen Fähigkeiten und Einschränkungen wie ein Mensch. Das
wäre nun nicht besonders ideal.
Das ist ja nur eine Zwischenstufe, aber eine absolut unerlässliche.
Post by Peter J. Holzer
Sinnvollerweise programmiert man einen
Roboter aber so, dass er das, was er tun soll, besonders gut kann, und
alles, was ihn dabei stören könnte, gar nicht. Das erreicht man aber
nicht durch eine 1:1-Simulation des menschlichen Gehirns. Denn unser
Gehirn ist eine Folge einer langen Evolution, in der alle möglichen
Anforderungen eine Rolle gespielt haben, die, ein "idealer Soldat" zu
sein, aber nur eine sehr geringe (und nur für recht weitgefasste
Definitionen von "Soldat").
Wieso soll man einen spezialisierten Roboter bauen, wenn man auch
einen universellen bauen und beliebig oft kopieren kann?

Das ist doch 'Game Boy' gegen Smartphone!
Post by Peter J. Holzer
Post by Walter Schmid
Wer bezahlt noch einen Künstler (und Kunst geht nun mal nach
Brot), wenn der Computer bessere Kunst produziert?
Wenn der Computer Kunst (egal ob besser oder nicht) produziert, ist es
ganz offensichtlich nicht das Ende der Kunst. Denn sie wird ja noch
produziert. Es ist vielleicht das Ende der *menschlichen* Kunst, aber
nicht das Ende *aller* Kunst. Ein bisschen Logik und/oder Präzision im
Ausdruck würde nicht schaden.
Ich habe eher das Gefühl, Du liest ungenau. Noch einfacher kann
ich nicht formulieren.
Post by Peter J. Holzer
Post by Walter Schmid
Post by Peter J. Holzer
Post by Walter Schmid
Dann wird der Mensch überflüssig.
Das möglicherweise. Ziemlich sicher werden dann Computer der Meinung
sein, dass Menschen sowieso nie zu wirklicher Kunst fähig waren.
Menschliche Kunstwerke werden dann belächelt wie die Gemälde des
Orang-Utan-Weibchens Nonja. Menschliche Arbeit wäre vielleicht in
Nischen zurückgedrängt, wie die Arbeit von Tieren heute. Und von der
Politik von Computern können wir uns noch keine Vorstellung machen.
Es gibt schon heute Simulationen von Wirtschaftsmassnahmen. Frage
an den Rechner: "Vergleiche Mindestlohn 8.50 mit Mindestlohn
7.50".
Ich glaube, es wird Zeit, den Gründungsmythos meines Arbeitsgebers
Anfang der 70er-Jahre, als Spreadsheets noch wirklich Sheets waren
("Leintücher" hießen die großen Papierbögen, auf denen damals
gerechnet wurden, im Jargon) war der damalige Chef des WIFO auf
Besuch am IHS. Das IHS hatte damals schon einen Computer, und der
damalige Direktor (Gerhart Bruckmann, Generationen von Österreichern
für seine Wahlprognosen bekannt, die er stets vor photogen
rotierenden 9-Spur-Bändern abgab) stellte sich vor ein Terminal und
sprach: "Sehen Sie, Herr Nemschak, so rechnen wir unsere Prognosen."
Und drückte auf eine Taste und die fertige Prognose kam aus dem
Drucker. Daraufhin wollte das WIFO auch einen Computer. Und so ward
das WSR gegründet.
Deine "Frage an den Rechner" erinnert mich lebhaft an diese Geschichte.
Oder an Isaac Asimovs Multivac-Geschichten.
Post by Walter Schmid
Irgendwann werden Politiker blind das tun, was die Maschine
vorschlägt.
Dafür braucht man keine starke KI und keine Simulation des menschlichen
Gehirns. Eher im Gegenteil - je eher die Algorithmen objektiv erscheinen
(nicht notwendigerweise sind), desto eher eignet sich das Ergebnis als
Begründung. Und "der Computer hat das ausgespuckt" habe ich als Ausrede
auch schon vor 30 Jahren gehört, dafür brauchts auch keine KI.
Dem kann ich mich anschliessen. Nur: Wenn der Computer auf
anderen Gebieten viel mehr kann als heute, z.B. Sprachübersetzung
mit weniger Fehler als bei einem guten Profi-Dolmetscher, dann
wird er eine Autorität haben, die für viele als unumstösslich
gelten wird.

Aber nochmal: Auch die allerintelligenteste Maschine kann die
Zukunft nicht voraussagen, weil die Zukunft offen und von vielen
Zufällen beeinflusst ist, die sich prinzipiell, per Definition,
nie voraussagen lassen. Das hat mit Intelligenz nichts zu tun.


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Peter J. Holzer
2016-04-10 18:26:40 UTC
Permalink
Post by Walter Schmid
Ich möchte die Diskussion über KI damit beenden, denn mit meiner
Frage zum individuell zugeschnittenen Roman hat es nur noch wenig
zu tun.
Post by Peter J. Holzer
Post by Walter Schmid
Dann lebst Du hinter dem Mond.
Ich würde eher sagen, ich habe mir in 30 Jahren IT eine gesunde Skepsis
gegenüber Hypes aufgebaut.
Aber ich spreche hier von logischen Notwendigkeiten (bzw. deren
Abwesenheit). Und ich halte folgende Aussagen, die Du offenbar für
* Alles, was theoretisch möglich ist, ist auch praktisch umsetzbar
Definiere "theoretisch möglich"!
Theoretisch möglich ist etwas, wenn das Prinzip verstanden ist und es
keine physikalischen Einschränkungen gibt, die dagegen sprechen.

Im Fall einer Gehirnsimulation postuliere ich, dass wir das Verhalten
eines einzelnen Neurons genau genug erforschen können, um es zu
simulieren. Ebenso sollte es möglich sein, die Verbindungen zwischen den
Neuronen sowie wie Ausbreitung diverser chemischer Botenstoffe zu
erfassen.

Wenn diese Annahmen stimmen, ist es theoretisch möglich, die Funktion
eines Gehirns exakt zu simulieren.

Als Informatiker sehe ich da keine Schwierigkeit, die das *prinzipiell*
unmöglich machen würde.
Post by Walter Schmid
Meine Auffassung lautet: Alles was technisch und ökonomisch
möglich ist, wird auch gemacht, wenn es Gewinn verspricht.
Ah, Du siehst das also eh. Das hat bisher nicht so geklungen. "technisch
und ökonomisch möglich" ... das sind genau meine zwei Einschränkungen,
die Du bisher energisch in Abrede gestellt hast.

Nur weil etwas theoretisch möglich ist, muss es nicht praktisch (d.h.
technisch) möglich sein: Das ganze System kann so komplex sein, dass es
nie fehlerfrei läuft. Oder es kann mehr Energie im Betrieb brauchen, als
man als Wärme abführen kann. Oder es kann einfach unmöglich sein, ein
lebendes Gehirn mit ausreichender Genauigkeit zu mappen, ohne es zu
zerstören (und ein totes hilft uns nichts). Oder, oder ... es gibt
hunderttausend Gründe, warum irgendwas, was am Papier super ausschaut,
in der Praxis nicht geht.

Und selbst wenn es technisch möglich wäre, kommt eben die große Keule
"ökonomisch möglich" daher: Wenn sich niemand einen Gewinn davon
verspricht, wird es nicht gemacht werden.
Post by Walter Schmid
Die Unmöglichkeit des 'Human Brain Project' ist nur behauptet,
nicht bewiesen. Also ist es als möglich zu betrachten.
Wie gesagt. Theoretisch möglich heißt nicht praktisch möglich und
praktisch möglich heißt nicht ökonomisch gewinnversprechend.

Ich bin vollkommen Deiner Meinung, dass die Funktion des
menschlichen Gehirns prinzipiell beschreibbar und simulierbar ist.

Ich bin schon etwas skeptischer, was die praktische Umsetzbarkeit
angeht. Aber auch da bin wäre ich langfristig eher optimistisch.

Der große Knackpunkt ist die ökonomische Sinnhaftigkeit. Irgendwer muss
die notwendigen Resourcen zur Verfügung stellen, und das wird er nur
tun, wenn er sich einen "Gewinn" (muss nicht monetär sein) daraus
verspricht. Wir wissen zweifellos, dass es möglich ist, zum Mond zu
fliegen (wir haben das schon gemacht). Aber die letzten 40 Jahre hat das
niemand für "gewinnbringend" erachtet (jedenfalls niemand, der über
genügend Resourcen verfügen konnte). Vielleicht erachtet das in den
nächten 40 Jahren jemand als gewinnbringend. oder in den übernächsten.
Vielleicht auch nicht.
Post by Walter Schmid
Wenn die aktuelle Unmöglichkeit nur auf Rechenkapazitätsmangel
beruht, entgegne ich mit dem Mooreschen Gesetz.
Das hat seine Grenzen. Die regelmäßige Halbierung der Strukturbreite ist
bereits deutlich langsamer geworden und wird spätestens ein Ende finden,
wenn wir im Bereich weniger Atomdurchmesser ankommen (ja, das wird noch
dauern).

Einige Korollare (z.B., dass die Taktfrequenz im gleichen Ausmaß steigt)
mussten wir bereits vor einiger Zeit aufgeben.
Post by Walter Schmid
Neuronale Netze zur Gesichtserkennung sind der Beweis, dass man
auch unverstandene Leistungen digital simulieren kann.
Künstliche neuronale Netze, wie sie für die Bilderkennung eingesetzt
werden, sind zwar von der Struktur des Gehirns inspiriert, arbeiten aber
doch etwas anders. Niemand, der daran arbeitet, versucht, das Gehirn zu
simulieren. Aufgabenstellung und Verfahren sind andere.
Post by Walter Schmid
Post by Peter J. Holzer
Nur wenn diese beiden Aussagen richtig wären, wäre Dein Schluss richtig.
Die wirtschaftliche Einschränkung halte ich für
selbstverständlich.
Für etwas, was Du für selbstverständlich hältst, hast Du es aber
ziemlich konsequent ignoriert.
Post by Walter Schmid
Post by Peter J. Holzer
Post by Walter Schmid
Man arbeitet intensiv daran.
Man arbeitet auch inteniv an Kernfusion.
Dass sie möglich ist, steht bereits fest.
Theoretisch möglich. Nicht unbedingt praktisch möglich.
Post by Walter Schmid
Ob es wirtschaftlich sein kann, ist noch offen.
Das natürlich auch.
Post by Walter Schmid
Post by Peter J. Holzer
Oder Quantencomputern.
Wie die jenseits des Labors im Kleinstmassstab funktionieren
sollen, weiss vermutlich noch gar niemand.
Danke für die Bestätigung.
Post by Walter Schmid
Post by Peter J. Holzer
Vermutlich auch an einem Mittel gegen Schnupfen.
Gibt es längst. Du bist wirklich hinter dem Mond!
Scheint hierzulande noch niemand mitbekommen zu haben. Jeden Winter
rennt die halbe Stadt verrotzt durch die Gegend.
Post by Walter Schmid
Post by Peter J. Holzer
Aber intensive Arbeit garantiert nicht den Erfolg. Das ist der Forschung
inhärent: Würde man das Ergebnis schon kennen, müsste man ja nicht
forschen.
Beim 'Human Brain Project' kennt man das Ergebnis schon (auch
beim Flug zum Mars, usw).
Wenn man das Ergebnis als High-Level-Ziel definiert ("Wir haben das
Gehirn verstanden" bzw. "Wir sind am Mars"), dann ja. Ich sehe als
Ergebnis aber die konkreten Antworten auf die offenen Fragen, und die
wissen wir noch nicht.
Post by Walter Schmid
Kurz gesagt: Der Weg zum Uebermenschen führt zwingend über den
Nachbau des realen Menschen.
Das halte ich für einen Irrweg.
Post by Walter Schmid
Das hatte die KI bis vor Kurzem nicht kapiert. Denn ein Roboter
ohne Körpergefühl samt zugehörigem Gedächtnis muss unendlich dumm
bleiben.
Ich finde das wunderbar, wie Du Mangel an Wissen durch dogmatische
Überzeugung ausgleichst. Der Körper eines Roboters wird sich fast sicher
deutlich von dem eines Menschen unterscheiden. Also wird sich auch das
Körpergefühl eines Roboters von dem eines Menschen deutlich
unterscheiden. Und das wird wiederum ziemlich sicher Auswirkungen auf
die Psyche des Roboters haben.

Wenn es jemals KIs gibt (was ich für wahrscheinlich, aber keineswegs
sicher halte), werden sich die meiner Meinung nach deutlich von Menschen
unterscheiden.

Vielleicht wird es auch irgendwann Simulationen von Menschen geben. Ich
halte es aber für unwahrscheinlich, dass die der erste Schritt sein
werden.
Post by Walter Schmid
Post by Peter J. Holzer
Sinnvollerweise programmiert man einen Roboter aber so, dass er das,
was er tun soll, besonders gut kann, und alles, was ihn dabei stören
könnte, gar nicht. Das erreicht man aber nicht durch eine
1:1-Simulation des menschlichen Gehirns. Denn unser Gehirn ist eine
Folge einer langen Evolution, in der alle möglichen Anforderungen
eine Rolle gespielt haben, die, ein "idealer Soldat" zu sein, aber
nur eine sehr geringe (und nur für recht weitgefasste Definitionen
von "Soldat").
Wieso soll man einen spezialisierten Roboter bauen, wenn man auch
einen universellen bauen und beliebig oft kopieren kann?
Hast Du weiter oben was von "Ökonomie" erwähnt oder habe ich mir das nur
eingebildet?
Post by Walter Schmid
Aber nochmal: Auch die allerintelligenteste Maschine kann die
Zukunft nicht voraussagen, weil die Zukunft offen und von vielen
Zufällen beeinflusst ist, die sich prinzipiell, per Definition,
nie voraussagen lassen. Das hat mit Intelligenz nichts zu tun.
Hat auch niemand behauptet. Diesen Strohmann hast Du ganz allein
aufgestellt, vermutlich beeinflusst von 50er-Jahre SF.

hp
--
_ | Peter J. Holzer | Fluch der elektronischen Textverarbeitung:
|_|_) | | Man feilt solange an seinen Text um, bis
| | | ***@hjp.at | die Satzbestandteile des Satzes nicht mehr
__/ | http://www.hjp.at/ | zusammenpaßt. -- Ralph Babel
Werner Tann
2016-04-06 12:34:04 UTC
Permalink
Post by Walter Schmid
Ich bin Atheist und glaube nicht, dass es jenseits der Materie
und deren Strukturen und Interaktionen noch eine andere Welt
gibt. Daraus folgt für mich zwingend, dass Computer irgendwann
klüger sein werden als menschliche Gehirne, also auch klüger als
jeder Literatur-Nobelpreisträger.
[...]
Post by Walter Schmid
Diese Computer sind das Ende aller Kunst, aber auch der Arbeit
und Politik. Dann wird der Mensch überflüssig.
Schiefe Schlüsse.

1) Die Versuche, das menschliche Gehirn computerisiert 1:1 abzubilden,
zielen darauf ab, *alles* im und am menschlichen Gehirn künstlich
nachzuschaffen. Es geht also nicht nur um die "Klugheit" einer KI,
sondern auch um Emotion, Reflexion, Ich-Bewußtsein, Stolz, Angst und
Selbstzweifel usw. Sonst wäre es kein menschliches Gehirn, sondern ein
intellektueller Waschvollautomat. Vor letzterem braucht IMO der Mensch
keine Angst zu haben, seine Waffen gegen ihn sind Kreativität und
Eigensinn.

2) Eine das menschliche Gehirn 1:1 auf solche Weise nachbildende KI
wäre de facto ein Mensch! Warum dessen künstlerische Werke das "Ende
aller Kunst" bedeuten sollen, erschließt sich mir nicht. Es wird eine
andere Form von Kunst sein, aber nichts weist darauf hin, daß sie der
Kunst der geborenen Menschen zwingend überlegen ist.

3) Arbeit und Politik werden sich die Menschen nur bedingt von
Maschinen abnehmen lassen. Wie gesagt, Eigensinn und Kreativität. Die
ungeliebte Arbeit können sie ja gerne in Beschlag nehmen, und es wäre
doch schön, wenn sich jeder Mensch endlich den Tätigkeiten zuwenden
könnte, die ihn erfüllen. Damit ist nicht notwendig eine Entmündigung
verbunden. Außerdem scheinst Du in die Politik recht viel Vertrauen zu
haben, wenn Du annimmst, eine KI könnte sie nur schlechter machen. :-)
Das Horrorszenario einer Gesellschaft, die ihre Macht an ein Netzwerk
von KIs abgegeben hat, ist nur dann eines, wenn die geborenen Menschen
auch auf Kontrolle und Mitsprache verzichten und wenn man, wie gesagt,
diese KIs auf gefühllose "Klugheit" reduziert. Warum sollte ein
Android etwa als Richter schlechter sein als ein Mensch?

Der Haken an allen futurologischen Erwägungen ist, daß man nur eines
sicher weiß: es kommt in jedem Fall anders, als man heute erwartet.
Walter Schmid
2016-04-06 15:00:05 UTC
Permalink
Post by Werner Tann
Post by Walter Schmid
Ich bin Atheist und glaube nicht, dass es jenseits der Materie
und deren Strukturen und Interaktionen noch eine andere Welt
gibt. Daraus folgt für mich zwingend, dass Computer irgendwann
klüger sein werden als menschliche Gehirne, also auch klüger als
jeder Literatur-Nobelpreisträger.
[...]
Post by Walter Schmid
Diese Computer sind das Ende aller Kunst, aber auch der Arbeit
und Politik. Dann wird der Mensch überflüssig.
Schiefe Schlüsse.
1) Die Versuche, das menschliche Gehirn computerisiert 1:1 abzubilden,
zielen darauf ab, *alles* im und am menschlichen Gehirn künstlich
nachzuschaffen. Es geht also nicht nur um die "Klugheit" einer KI,
sondern auch um Emotion, Reflexion, Ich-Bewußtsein, Stolz, Angst und
Selbstzweifel usw. Sonst wäre es kein menschliches Gehirn, sondern ein
intellektueller Waschvollautomat.
Völlig einverstanden. Aber diese Maschine lässt sich im
Unterschied zum biologischen Menschen beliebig weiter verbessern,
zumindest in Bezug auf Wissen und dessen Beschaffung.
Post by Werner Tann
Vor letzterem braucht IMO der Mensch
keine Angst zu haben, seine Waffen gegen ihn sind Kreativität und
Eigensinn.
Das hatte es gegen die Möglichkeit eines Schachcomputers, der den
Weltmeister besiegt, auch einmal geheissen. Von einen
IBM-Direktor übrigens (Max Euwe, um 1960, Schachweltmeister 1935).

Vor dem Handy hat auch niemand Angst, es tyrannisiert trotzdem
viele Menschen.
Post by Werner Tann
2) Eine das menschliche Gehirn 1:1 auf solche Weise nachbildende KI
wäre de facto ein Mensch!
Ich weiss, dass es Ethiker gibt, die das so sehen. Aber für mich
wäre er nicht einmal ein Lebewesen, denn Lebewesen beruhen
ausnahmslos auf Fortpflanzung durch Zellteilung und Stoffwechsel.

Sobald wir ihn als Menschen betrachten, kann er Respekt
verlangen, und da er mehr kann und weiss als jeder von uns, wird
er maximalen Respekt einfordern. Das führt unweigerlich zur
Versklavung des Menschen. Deshalb muss es erlaubt sein, die
Maschine abzustellen.
Post by Werner Tann
Warum dessen künstlerische Werke das "Ende
aller Kunst" bedeuten sollen, erschließt sich mir nicht. Es wird eine
andere Form von Kunst sein, aber nichts weist darauf hin, daß sie der
Kunst der geborenen Menschen zwingend überlegen ist.
Ein Mensch wird nie so schnell einen aktuellen Roman schreiben
wie die Maschine der Zukunft. Heute fliegt Lubitz 150 Menschen in
den Tod, in 7 Tagen wissen wir warum und wie, und noch am selben
7. Tag kann man den Roman dazu runterladen. Selbstverständlich
hatte die Maschine dabei alle relevante Literatur zur
Selbsttötung und Depression konsultiert.

Welcher Mensch will dann nochmals einen Roman dazu schreiben?
Post by Werner Tann
3) Arbeit und Politik werden sich die Menschen nur bedingt von
Maschinen abnehmen lassen. Wie gesagt, Eigensinn und Kreativität. Die
ungeliebte Arbeit können sie ja gerne in Beschlag nehmen, und es wäre
doch schön, wenn sich jeder Mensch endlich den Tätigkeiten zuwenden
könnte, die ihn erfüllen. Damit ist nicht notwendig eine Entmündigung
verbunden. Außerdem scheinst Du in die Politik recht viel Vertrauen zu
haben, wenn Du annimmst, eine KI könnte sie nur schlechter machen. :-)
Ich sagte das Gegenteil! KI könnte die Politik weitgehend
ablösen, sobald sie zuverlässig bessere Prognosen gibt.

Je besser die KI, desto gefährlicher. Und sie wird immer besser.
Post by Werner Tann
Das Horrorszenario einer Gesellschaft, die ihre Macht an ein Netzwerk
von KIs abgegeben hat, ist nur dann eines, wenn die geborenen Menschen
auch auf Kontrolle und Mitsprache verzichten und wenn man, wie gesagt,
diese KIs auf gefühllose "Klugheit" reduziert. Warum sollte ein
Android etwa als Richter schlechter sein als ein Mensch?
Er wird besser sein. Und das ist die Katastrophe!

Der Rechner der Zukunft wird für die Menschheit das sein, was die
Weissen für die Indios waren: Der Untergang, zumindest ihrer Kultur.
Post by Werner Tann
Der Haken an allen futurologischen Erwägungen ist, daß man nur eines
sicher weiß: es kommt in jedem Fall anders, als man heute erwartet.
Jules Verne hatte nicht immer unrecht.

Es gibt Dinge, die sind absehbar. Und ein attraktiveres Ziel als
einen 'elektrischen' Uebermenschen kann ich mir nicht vorstellen.
Letztlich ist das genau das, wofür die EU zum "Human Brain
Project" 1 Mia. Euro bereitstellt.


Klarstellung: Ich selbst habe keine Angst vor diesem
Uebermenschen, weil ich das sicher nicht erleben werde. Aber für
die Menschheit sind die Folgen einer Superintelligenz
langfristig unabsehbar. Mit Aehnlichem waren wir noch nie
konfrontiert, obwohl die Kleriker schon immer mit einem solchen
zusammenphantasierten Wesen drohten. Die KI-Phantasie ist mehr
als nur ein Hirngespinst. Daran wird gearbeitet!


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Werner Tann
2016-04-06 20:30:36 UTC
Permalink
Post by Walter Schmid
Völlig einverstanden. Aber diese Maschine lässt sich im
Unterschied zum biologischen Menschen beliebig weiter verbessern,
zumindest in Bezug auf Wissen und dessen Beschaffung.
Aber auch eine digitale Superintelligenz wird an manchen Fragen
scheitern, schon allein, weil sie von - limitierten - Menschen, nach
ihrem Ebenbild, geschaffen worden ist. Können unvollkommene Wesen
etwas Vollkommenes erschaffen? Neben der allwissenden, allvernetzten
KI ist auch eine entscheidungsunfähige KI denkbar, die gerade aufgrund
der Kenntnis und des Verstehens aller menschenbekannten Daten zu
keiner Antwort findet - besonders wenn sie Emotionen auch noch hat.
Die Welt ist hochkomplex und in vielem reichlich paradox. Vielleicht
ist es für den Menschen ein Segen, nicht alles zu überblicken und zu
verstehen! Vielleicht könnte er sonst keine Entscheidungen mehr
fällen.
Post by Walter Schmid
Post by Werner Tann
2) Eine das menschliche Gehirn 1:1 auf solche Weise nachbildende KI
wäre de facto ein Mensch!
Ich weiss, dass es Ethiker gibt, die das so sehen. Aber für mich
wäre er nicht einmal ein Lebewesen, denn Lebewesen beruhen
ausnahmslos auf Fortpflanzung durch Zellteilung und Stoffwechsel.
Was Leben ist, ist nicht in Stein gemeißelt. Über Tierrechte hätte vor
100 Jahren auch noch jeder gelacht. Man kann doch nicht einer Entität,
die menschengleiches Bewußtsein und Gefühl hat, die zu Freude und
Angst fähig ist, absprechen, "am Leben zu sein" ... Übrigens denke ich
nicht, daß die hier angedachte Superintelligenz als reines
Maschinenwesen möglich sein wird. Sondern als kybernetischer
Organismus, also mit biologischem Material, mit Zellteilung, Wachstum
usw.
Post by Walter Schmid
Sobald wir ihn als Menschen betrachten, kann er Respekt
verlangen, und da er mehr kann und weiss als jeder von uns, wird
er maximalen Respekt einfordern. Das führt unweigerlich zur
Versklavung des Menschen.
Das sind aber doch Science Fiction Szenarien. Wer heute mehr weiß und
kann als andere, muß sich erst im sozialen System beweisen und wird
von diesem dann mit entsprechenden Belohnungen und Befugnissen
ausgestattet. Und er wird natürlich von der Gemeinschaft kontrolliert.
Auch heute werden wir nicht von den Wissenschaftlern, die mehr wissen
und können als die meisten von uns, "beherrscht". Und auch das Militär
beherrscht uns (zumindest in den westlichen Demokratien) nicht, obwohl
es die stärksten Waffen hat.
Post by Walter Schmid
Deshalb muss es erlaubt sein, die
Maschine abzustellen.
Das ist der falsche Weg. Aber es wird erlaubt sein, eine asoziale
Maschine, die gegen Gesetze verstößt und ihre Macht mißbraucht,
entsprechend zu "bestrafen" - genauso wie die geborenen Menschen
sanktioniert werden.
Post by Walter Schmid
Ein Mensch wird nie so schnell einen aktuellen Roman schreiben
wie die Maschine der Zukunft. Heute fliegt Lubitz 150 Menschen in
den Tod, in 7 Tagen wissen wir warum und wie, und noch am selben
7. Tag kann man den Roman dazu runterladen. Selbstverständlich
hatte die Maschine dabei alle relevante Literatur zur
Selbsttötung und Depression konsultiert.
Du verwechselst Literatur mit einem Pferderennen. Auch verbürgt ein
umfangreiches Hintergrundwissen noch keinen literarisch guten Roman.
Post by Walter Schmid
Welcher Mensch will dann nochmals einen Roman dazu schreiben?
Ich sagte schon, die Kunst der KIs wird eine andere sein. Sie werden
andere Literatur schreiben, die vermutlich die Menschen gar nicht
anspricht. KIs machen dann Kunst für KIs. Ist ja nichts Schlechtes.
Post by Walter Schmid
Ich sagte das Gegenteil! KI könnte die Politik weitgehend
ablösen, sobald sie zuverlässig bessere Prognosen gibt.
Je besser die KI, desto gefährlicher. Und sie wird immer besser.
Naja, mit "schlechter" habe ich durchaus "gefährlich" gemeint.
Post by Walter Schmid
Post by Werner Tann
diese KIs auf gefühllose "Klugheit" reduziert. Warum sollte ein
Android etwa als Richter schlechter sein als ein Mensch?
Er wird besser sein. Und das ist die Katastrophe!
Da müßten wir klären, was nun schlecht, gut und besser ist. Was hast
Du grundsätzlich gegen bessere Gerichte? Gerichte ohne Bestechung,
Vorurteile, Klassenjustiz, falsches Mitleid usw. usf.? Bedenklich wäre
vielleicht, wenn sich die geborenen Menschen aus der Rechtsprechung
zurückzögen. Aber das sind politische Entscheidungen, so wie jetzt die
Frauen-Quotenregelungen. Im übrigen kann auch ein KI-Richter nur mit
Wasser kochen. Was dem Gericht an Beweisen und Indizien nicht
vorliegt, steht auch der KI nicht zur Verfügung. Auch eine KI aus dem
23. Jahrhundert wird nicht hellsehen können. Und wenn sie
gedankenlesen kann, können das menschliche Richter dann auch
(neuronale Lügendetektoren etc.).
Post by Walter Schmid
Der Rechner der Zukunft wird für die Menschheit das sein, was die
Weissen für die Indios waren: Der Untergang, zumindest ihrer Kultur.
Der Vergleich ist schief, weil die Weißen von außen kamen, als
Eroberer. Die KIs kommen von "uns". Wie mit aller Technik müssen wir
den Umgang auch mit dieser erst lernen, und tausend Probleme werden zu
bewältigen sein. Notwendig ins Desaster führen muß das keineswegs.
Walter Schmid
2016-04-08 12:46:50 UTC
Permalink
Post by Werner Tann
Post by Walter Schmid
Völlig einverstanden. Aber diese Maschine lässt sich im
Unterschied zum biologischen Menschen beliebig weiter verbessern,
zumindest in Bezug auf Wissen und dessen Beschaffung.
Aber auch eine digitale Superintelligenz wird an manchen Fragen
scheitern, schon allein, weil sie von - limitierten - Menschen, nach
ihrem Ebenbild, geschaffen worden ist.
Die Maschine auszutricksen, im Sinne von 'deren Leistung
mindern', dürfte immer leicht sein. Stören ist immer leicht. Aber
deren Besitzer dürften sie genügend dagegen abschirmen.
Post by Werner Tann
Können unvollkommene Wesen
etwas Vollkommenes erschaffen?
Sicher nicht. Aber 'viel klüger als ein Mensch' ist auch schon etwas.
Post by Werner Tann
Neben der allwissenden, allvernetzten
KI ist auch eine entscheidungsunfähige KI denkbar, die gerade aufgrund
der Kenntnis und des Verstehens aller menschenbekannten Daten zu
keiner Antwort findet - besonders wenn sie Emotionen auch noch hat.
Unmögliches - wie Börsenkurse und Wetter langfristig
vorauszusagen - kann auch die intelligenteste Maschine nie.
Post by Werner Tann
Die Welt ist hochkomplex und in vielem reichlich paradox. Vielleicht
ist es für den Menschen ein Segen, nicht alles zu überblicken und zu
verstehen! Vielleicht könnte er sonst keine Entscheidungen mehr
fällen.
Auch da: full acK.
Post by Werner Tann
Post by Walter Schmid
Post by Werner Tann
2) Eine das menschliche Gehirn 1:1 auf solche Weise nachbildende KI
wäre de facto ein Mensch!
Ich weiss, dass es Ethiker gibt, die das so sehen. Aber für mich
wäre er nicht einmal ein Lebewesen, denn Lebewesen beruhen
ausnahmslos auf Fortpflanzung durch Zellteilung und Stoffwechsel.
Was Leben ist, ist nicht in Stein gemeißelt.
Für mich schon. Ganz einfach, weil es vom einfachsten Virus bis
zum Homo Sapiens keine Ausnahmen gibt. Der Virus ist zwar kein
vollwertiges Lebewesen, aber auch er braucht Stoffwechsel und
Vererbung - und ist damit der Evolution unterworfen.

Auch fiktives Leben auf einem Exoplaneten - mit Silizium- statt
Kohlenstoff-Basis - wird mit Stoffwechsel, Vererbung und damit
Evolution funktionieren.

Die Alternative von unendlicher Lebensdauer und stetiger
Selbstverbesserung eines einzigen Wesens kann zumindest keine
Intelligenz erzeugen, weil Intelligenz Kommunikation und Sprache
verlangt, was bei einem einzigen Wesen nicht stattfinden kann.
Bereits die Duplizierung dieses Wesens braucht den
Vererbungsmechanismus, also geht es nicht ohne diesen.
Post by Werner Tann
Über Tierrechte hätte vor
100 Jahren auch noch jeder gelacht. Man kann doch nicht einer Entität,
die menschengleiches Bewußtsein und Gefühl hat, die zu Freude und
Angst fähig ist, absprechen, "am Leben zu sein" ...
Doch, das kann man. 'Fressen und Gefressenwerden' gehört
fundamental zur Natur auf der Erde. Also dürfen wir da mitmachen.

Das Tier hat uns emotional etwas voraus: Es kennt den Tod und die
Angst davor nicht. Aber es kennt die Angst sehr wohl, und sicher
auch den Schmerz. Deshalb ist der Mensch moralisch verpflichtet,
auch dem Tier diese Gefühle so gut wie möglich zu ersparen oder
wenigstens zu lindern.

Nun zum idealen Super-Androiden der Zukunft: Selbstverständlich
muss er sich mit allen möglichen Gefühlen von Tieren und Menschen
auskennen, aber er wird sie nie haben, sondern nur bestmöglich
simulieren. Er wird nie Angst haben. Auch nicht vorm
Stromausfall, den er schon dutzendmal 'erlebt' hat.
Post by Werner Tann
Übrigens denke ich
nicht, daß die hier angedachte Superintelligenz als reines
Maschinenwesen möglich sein wird. Sondern als kybernetischer
Organismus, also mit biologischem Material, mit Zellteilung, Wachstum
usw.
Dann würde Deine Moral-Argumentation greifen, keine Frage. Aber
ich bin der Meinung, dass man auch die Chemie des Lebens, also
auch die Gefühle nur simulieren kann und darf, wie oben beschrieben.

Diese Maschine muss man abschalten können, z.B. um neue Moral-
oder Zielsetzungs-Module einzubauen. Sonst wird die Versklavung
der Menschheit zur Tatsache.
Post by Werner Tann
Post by Walter Schmid
Sobald wir ihn als Menschen betrachten, kann er Respekt
verlangen, und da er mehr kann und weiss als jeder von uns, wird
er maximalen Respekt einfordern. Das führt unweigerlich zur
Versklavung des Menschen.
Das sind aber doch Science Fiction Szenarien. Wer heute mehr weiß und
kann als andere, muß sich erst im sozialen System beweisen und wird
von diesem dann mit entsprechenden Belohnungen und Befugnissen
ausgestattet. Und er wird natürlich von der Gemeinschaft kontrolliert.
Sicher, aber seine Leistungen aller Art werden ihm einen Respekt
verschaffen, hinter dem ein Putin vor den Russen oder Einstein
vor der Welt verblassen wird.

Heute schon vertrauen viele Menschen den Computern blind.
Post by Werner Tann
Auch heute werden wir nicht von den Wissenschaftlern, die mehr wissen
und können als die meisten von uns, "beherrscht". Und auch das Militär
beherrscht uns (zumindest in den westlichen Demokratien) nicht, obwohl
es die stärksten Waffen hat.
Zum Glück ist das so.

Aber um zum *Ausgangspunkt Literatur* zurückzukommen: Im
Unterschied zur Politik, wo die Prognose- und
Steuerungs-Fähigkeit von Maschine und Mensch auf ewig massiv
mangelhaft bleiben wird, kann ich mich für den Bereich der
Künste, und vor allem für die Literatur gut vorstellen, dass die
Maschine so überlegene Texte verfasst, dass lebendige Menschen
keine Texte mehr verkaufen können. Egal ob Klatschbericht, Sport
oder Kunstroman. Nur das Live-Theater, -Ballet, -Oper und
-Konzert leben weiter. Mit Menschen, die Befehle einer Maschine
umsetzen.

Vor 30 Jahren sagte man das Ende der Pop-Gruppen voraus, weil das
alles vom Synthesizer usw. gemacht werden kann, und erst noch
ohne Fehler. Tatsächlich ist heute das live-Publikum, das lebende
Menschen auf der Bühne erwartet, grösser denn je.
Post by Werner Tann
Post by Walter Schmid
Deshalb muss es erlaubt sein, die
Maschine abzustellen.
Das ist der falsche Weg. Aber es wird erlaubt sein, eine asoziale
Maschine, die gegen Gesetze verstößt und ihre Macht mißbraucht,
entsprechend zu "bestrafen" - genauso wie die geborenen Menschen
sanktioniert werden.
Das kann nicht funktionieren. Du verlangst Einfühlung für die
Maschine. Wenn sie die bekommt, versucht sie sich in Dich
einzufühlen (gleiches Recht für alle) - und dann kann sie Dich
und mich nur verachten. Man muss sie einfach abstellen dürfen.
Auch ferngesteuert. Das politische Problem wird lauten: *wer*
darf abstellen?
Post by Werner Tann
Post by Walter Schmid
Ein Mensch wird nie so schnell einen aktuellen Roman schreiben
wie die Maschine der Zukunft. Heute fliegt Lubitz 150 Menschen in
den Tod, in 7 Tagen wissen wir warum und wie, und noch am selben
7. Tag kann man den Roman dazu runterladen. Selbstverständlich
hatte die Maschine dabei alle relevante Literatur zur
Selbsttötung und Depression konsultiert.
Du verwechselst Literatur mit einem Pferderennen. Auch verbürgt ein
umfangreiches Hintergrundwissen noch keinen literarisch guten Roman.
Ueberdurchschnittliche Sprachbeherrschung gehört auch dazu.
Gegenwärtig versagt die Maschine schon bei Uebersetzungen, aber
es wird langsam besser.

Die Kriterien für einen guten Roman sind nicht so schwer zu finden:

1. Interessante Geschichte
2. Man darf von Satz n nicht auf Satz n+1 schliessen können.
3. Die Verschachtelung von Satzteilen darf weder zu gross noch zu
klein sein. (Das lässt sich beliebig präzisieren)
4. Der Neuigkeitswert der Aussagen darf nicht zu hoch und nicht
zu klein sein.
5. Der Sprachrhythmus sollte weder banal noch überkompliziert sein.
6. Die Satzlänge sollte variieren.
7. Haupt- und Nebenpersonen sollten klar positioniert sein.
8. Es ist immer das beste Wort zu verwenden, wenn Synonyme
existieren.
9. Seltene Wörter sind erwünscht, aber sie sollten auch nicht
allzu häufig verwendet werden.
10. erkennbare Milieus.

usw.

Ich bin sicher, die ganze Liste kommt auf keine 100 Positionen.
Und sie soll ja keine Pflicht sein, sondern bloss einen Rahmen
abgeben.

Und wie schon gesagt: Der Rechner kann alle Klassiker in allen
Sprachen auswendig. Er kann viel besser als ich daraus die Regeln
extrahieren, die einen guten Roman ergeben.
Post by Werner Tann
Post by Walter Schmid
Welcher Mensch will dann nochmals einen Roman dazu schreiben?
Ich sagte schon, die Kunst der KIs wird eine andere sein. Sie werden
andere Literatur schreiben, die vermutlich die Menschen gar nicht
anspricht. KIs machen dann Kunst für KIs. Ist ja nichts Schlechtes.
Das wäre dann allerdings sinnlose Kunst.

Die Maschine muss doch finanziert werden. Also schreibt sie für
das Massenpublikum.
Post by Werner Tann
Post by Walter Schmid
Ich sagte das Gegenteil! KI könnte die Politik weitgehend
ablösen, sobald sie zuverlässig bessere Prognosen gibt.
Je besser die KI, desto gefährlicher. Und sie wird immer besser.
Naja, mit "schlechter" habe ich durchaus "gefährlich" gemeint.
Post by Walter Schmid
Post by Werner Tann
diese KIs auf gefühllose "Klugheit" reduziert. Warum sollte ein
Android etwa als Richter schlechter sein als ein Mensch?
Er wird besser sein. Und das ist die Katastrophe!
Da müßten wir klären, was nun schlecht, gut und besser ist. Was hast
Du grundsätzlich gegen bessere Gerichte? Gerichte ohne Bestechung,
Vorurteile, Klassenjustiz, falsches Mitleid usw. usf.?
Dagegen habe ich gar nichts. Aber wenn die Maschine vieles besser
macht, wird man ihr immer mehr gehorchen und dann kann man sie
missbrauchen. Dann wird die Maschine bestimmen, wer was lernen
darf, wer wo wohnen soll, denn sie kann das ja besser. Wo bleibt
dann die Freiheit zur Dummheit?
Post by Werner Tann
Bedenklich wäre
vielleicht, wenn sich die geborenen Menschen aus der Rechtsprechung
zurückzögen. Aber das sind politische Entscheidungen, so wie jetzt die
Frauen-Quotenregelungen. Im übrigen kann auch ein KI-Richter nur mit
Wasser kochen. Was dem Gericht an Beweisen und Indizien nicht
vorliegt, steht auch der KI nicht zur Verfügung. Auch eine KI aus dem
23. Jahrhundert wird nicht hellsehen können. Und wenn sie
gedankenlesen kann, können das menschliche Richter dann auch
(neuronale Lügendetektoren etc.).
Es wird niemand mehr Jus studieren wollen. Wieso soll ich Gesetze
lernen, die die Maschine zusammen mit ALLEN Präzedenzfällen schon
kennt? Die Maschine wird nur noch Beweise fordern, und dazu
genügt die Polizei.
Post by Werner Tann
Post by Walter Schmid
Der Rechner der Zukunft wird für die Menschheit das sein, was die
Weissen für die Indios waren: Der Untergang, zumindest ihrer Kultur.
Der Vergleich ist schief, weil die Weißen von außen kamen, als
Eroberer. Die KIs kommen von "uns". Wie mit aller Technik müssen wir
den Umgang auch mit dieser erst lernen, und tausend Probleme werden zu
bewältigen sein. Notwendig ins Desaster führen muß das keineswegs.
Ich sehe das psychologisch. Es ist die 4. "Kränkung der
Menschheit" nach Freud:

https://de.wikipedia.org/wiki/Kr%C3%A4nkungen_der_Menschheit

1. Die Erde ist nicht mehr der Mittelpunkt der Welt
2. Der Mensch stammt vom Tier ab
3. Der Mensch ist nicht Herr seiner selbst
4. Jetzt ist der Mensch auch noch dümmer als die Maschine


Wird er das ohne Schaden ertragen?


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Werner Tann
2016-04-08 14:21:26 UTC
Permalink
Post by Walter Schmid
Doch, das kann man. 'Fressen und Gefressenwerden' gehört
fundamental zur Natur auf der Erde. Also dürfen wir da mitmachen.
Wir "dürften", erkennen aber zunehmend, daß ein solcher
Konkurrenzkampf ineffektiv fürs eigene Überleben ist. Sonst hätten die
Amerikaner längst alle Schurkenstaaten in Grund und Boden gebombt. In
einer globalisierten Welt sind nationale Egoismen obsolet. Jeder Staat
hängt vom anderen ab, Umweltdreck macht vor Grenzen nicht halt, und -
wie wir jetzt erleben - Zuwandererhorden auch nicht. Probleme lösen
wir heute nicht mehr dadurch, daß man versucht stärker als alle
anderen zu sein, um sie auffressen zu können, sondern durch
Vernetzung, Koalition und gemeinsame Regeln. Das gilt auf allen
Ebenen.
Post by Walter Schmid
Nun zum idealen Super-Androiden der Zukunft: Selbstverständlich
muss er sich mit allen möglichen Gefühlen von Tieren und Menschen
auskennen, aber er wird sie nie haben, sondern nur bestmöglich
simulieren. Er wird nie Angst haben. Auch nicht vorm
Stromausfall, den er schon dutzendmal 'erlebt' hat.
Dann haben wir einen Themenwechsel. Ich dachte, es ging darum,
Maschinen zu bauen, die das menschliche Gehirn 1:1 nachbilden. Klappt
das eines Tages, hat diese KI auch Angst. Gab's doch alles in der SF
bereits. 2001 - Odyssee im Weltraum, der Supercomputer HAL: "Ich habe
Angst".
Post by Walter Schmid
Dann würde Deine Moral-Argumentation greifen, keine Frage. Aber
ich bin der Meinung, dass man auch die Chemie des Lebens, also
auch die Gefühle nur simulieren kann und darf, wie oben beschrieben.
Sobald eine solche KI in Gang gesetzt wird, ist von Simulation keine
Rede mehr, sie lebt ("von selber"). Was Vorbild war bzw. ursprünglich
simuliert werden sollte, spielt ab diesem Zeitpunkt keine Rolle mehr.
Post by Walter Schmid
Das kann nicht funktionieren. Du verlangst Einfühlung für die
Maschine. Wenn sie die bekommt, versucht sie sich in Dich
einzufühlen (gleiches Recht für alle) - und dann kann sie Dich
und mich nur verachten. Man muss sie einfach abstellen dürfen.
Auch ferngesteuert. Das politische Problem wird lauten: *wer*
darf abstellen?
Sorry, Du stellst Dir das im Stil einer 50er-Jahre-SF-Klamotte vor. Am
Ende kommt der Held und setzt das böse Elektronengehirn mit einer
Spritzpistole außer Gefecht. Das wird, sollte es dazu kommen, alles
sehr viel komplexer ablaufen. Steht z. B. erst mal die Technologie für
menschenähnliche Supercomputer zur Verfügung, wird sie auch zur
Selbstoptimierung der Menschen einsetzbar sein und eingesetzt werden
(Cyborgs). Die Grenzen werden verwischen. Warum sollte man sich vor
einer KI fürchten, wenn man selber im Gehirn Nanosonden kreisen hat,
welche bei Bedarf diverse neuronale "Schaltkreise" um das Hundertfache
effizienter machen?
Wenn das so wäre, könnten Verlage Bestseller nach Belieben
produzieren. Warum scheitern so viele?
Post by Walter Schmid
Und wie schon gesagt: Der Rechner kann alle Klassiker in allen
Sprachen auswendig. Er kann viel besser als ich daraus die Regeln
extrahieren, die einen guten Roman ergeben.
Für die ganz große Literatur (und auch alle andere Kunst) gibt's keine
direkten Vorbilder. Auch eine KI kann aus dem Alten nicht notwendig
etwas wirklich Neues basteln. Füttere den Computer mit allem vor
Goethe. Er wird Dir keinen "Faust" schreiben.
Post by Walter Schmid
Die Maschine muss doch finanziert werden. Also schreibt sie für
das Massenpublikum.
Die Maschine, wenn sie denn "lebt", wäre ein autonomer Staatsbürger,
der sich seine Brötchen selber verdient. Mit irgendwas.
Post by Walter Schmid
Dagegen habe ich gar nichts. Aber wenn die Maschine vieles besser
macht, wird man ihr immer mehr gehorchen und dann kann man sie
missbrauchen. Dann wird die Maschine bestimmen, wer was lernen
darf, wer wo wohnen soll, denn sie kann das ja besser. Wo bleibt
dann die Freiheit zur Dummheit?
Wir kommen auf keinen grünen Zweig, wenn wir technische,
wirtschaftliche, politische und philosophische Aspekte
durcheinanderwerfen, und die einen mit den anderen zu begründen
versuchen. Die Politik wird entscheiden, welcher Status einer solchen
KI zukommt. Und die Freiheit des Menschen ist ein weites Feld. Wir
sind heute schon so weit, daß viele ihre Freiheit dazu nutzen, sich
freiwillig zum Sklaven ihres Arbeitgebers zu machen.
Post by Walter Schmid
Es wird niemand mehr Jus studieren wollen. Wieso soll ich Gesetze
lernen, die die Maschine zusammen mit ALLEN Präzedenzfällen schon
kennt?
Wer weiß denn, wie Menschen in 200 Jahren lernen werden.
Post by Walter Schmid
4. Jetzt ist der Mensch auch noch dümmer als die Maschine
Wird er das ohne Schaden ertragen?
Manche sind jetzt schon dümmer als ein Taschenrechner. Dafür wurde
Reality-TV erfunden, damit der proletoide Zuschauer erkennt, er ist
nicht alleine so blöd.

Aber ernsthaft: Die Kränkung des menschlichen Egos durch intelligente
Maschinen wird genauso überstanden werden wie die anderen schon
passierten. Und wiederum: Wer weiß denn, welches Ego der Mensch in 200
Jahren überhaupt hat. Eines scheint klar, so denken und fühlen wie
unsereiner wird er nicht!
Walter Schmid
2016-04-10 12:44:08 UTC
Permalink
Post by Werner Tann
Post by Walter Schmid
Doch, das kann man. 'Fressen und Gefressenwerden' gehört
fundamental zur Natur auf der Erde. Also dürfen wir da mitmachen.
Wir "dürften", erkennen aber zunehmend, daß ein solcher
Konkurrenzkampf ineffektiv fürs eigene Überleben ist.
Jetzt holst Du aber gar weit aus. Ich rechtfertigte nur das Essen
von Fleisch. Andere können das viel besser als ich. Fleisch ist
gesund.
Post by Werner Tann
Sonst hätten die
Amerikaner längst alle Schurkenstaaten in Grund und Boden gebombt. In
einer globalisierten Welt sind nationale Egoismen obsolet. Jeder Staat
hängt vom anderen ab, Umweltdreck macht vor Grenzen nicht halt, und -
wie wir jetzt erleben - Zuwandererhorden auch nicht. Probleme lösen
wir heute nicht mehr dadurch, daß man versucht stärker als alle
anderen zu sein, um sie auffressen zu können, sondern durch
Vernetzung, Koalition und gemeinsame Regeln. Das gilt auf allen
Ebenen.
Das ist alles richtig, aber mit einem Fleischverbot erreichst Du
keine weltweite Kooperation, sondern Kopfschütteln und noch mehr
Nationalismus.
Post by Werner Tann
Post by Walter Schmid
Nun zum idealen Super-Androiden der Zukunft: Selbstverständlich
muss er sich mit allen möglichen Gefühlen von Tieren und Menschen
auskennen, aber er wird sie nie haben, sondern nur bestmöglich
simulieren. Er wird nie Angst haben. Auch nicht vorm
Stromausfall, den er schon dutzendmal 'erlebt' hat.
Dann haben wir einen Themenwechsel. Ich dachte, es ging darum,
Maschinen zu bauen, die das menschliche Gehirn 1:1 nachbilden. Klappt
das eines Tages, hat diese KI auch Angst. Gab's doch alles in der SF
bereits. 2001 - Odyssee im Weltraum, der Supercomputer HAL: "Ich habe
Angst".
Aber diese 'Angst' hat eine andere moralische Qualität, sie gibt
der Maschine kein Lebensrecht. Wenn doch, müsste man deren
Entwicklung schon heute verbieten.
Post by Werner Tann
Post by Walter Schmid
Dann würde Deine Moral-Argumentation greifen, keine Frage. Aber
ich bin der Meinung, dass man auch die Chemie des Lebens, also
auch die Gefühle nur simulieren kann und darf, wie oben beschrieben.
Sobald eine solche KI in Gang gesetzt wird, ist von Simulation keine
Rede mehr, sie lebt ("von selber"). Was Vorbild war bzw. ursprünglich
simuliert werden sollte, spielt ab diesem Zeitpunkt keine Rolle mehr.
Und Du hast/hättest keine Angst vor dieser Maschine? Ich ganz sicher!
Post by Werner Tann
Post by Walter Schmid
Das kann nicht funktionieren. Du verlangst Einfühlung für die
Maschine. Wenn sie die bekommt, versucht sie sich in Dich
einzufühlen (gleiches Recht für alle) - und dann kann sie Dich
und mich nur verachten. Man muss sie einfach abstellen dürfen.
Auch ferngesteuert. Das politische Problem wird lauten: *wer*
darf abstellen?
Sorry, Du stellst Dir das im Stil einer 50er-Jahre-SF-Klamotte vor. Am
Ende kommt der Held und setzt das böse Elektronengehirn mit einer
Spritzpistole außer Gefecht. Das wird, sollte es dazu kommen, alles
sehr viel komplexer ablaufen. Steht z. B. erst mal die Technologie für
menschenähnliche Supercomputer zur Verfügung, wird sie auch zur
Selbstoptimierung der Menschen einsetzbar sein und eingesetzt werden
(Cyborgs). Die Grenzen werden verwischen. Warum sollte man sich vor
einer KI fürchten, wenn man selber im Gehirn Nanosonden kreisen hat,
welche bei Bedarf diverse neuronale "Schaltkreise" um das Hundertfache
effizienter machen?
Ich werde nie solche Sonden haben. Auch nicht, wenn ich 200 Jahre
alt werde. Mir fehlt nämlich das Geld dazu.

Und wenn mich Cyborgs plagen werden, werde ich den Widerstand
dagegen organisieren. Ich werde leicht eine Mehrheit dazu finden.
Post by Werner Tann
Wenn das so wäre, könnten Verlage Bestseller nach Belieben
produzieren. Warum scheitern so viele?
Weil ernsthafte Schriftsteller gar keine Bestseller schreiben
wollen. Und es gibt durchaus Verlage, die Bestseller am Laufmeter
publizieren. Meistens in Teamarbeit geschriebene Genre-Literatur.
Post by Werner Tann
Post by Walter Schmid
Und wie schon gesagt: Der Rechner kann alle Klassiker in allen
Sprachen auswendig. Er kann viel besser als ich daraus die Regeln
extrahieren, die einen guten Roman ergeben.
Für die ganz große Literatur (und auch alle andere Kunst) gibt's keine
direkten Vorbilder. Auch eine KI kann aus dem Alten nicht notwendig
etwas wirklich Neues basteln. Füttere den Computer mit allem vor
Goethe. Er wird Dir keinen "Faust" schreiben.
Aus einem einzigen Grund: weil es ihn schon gibt. ;-)

Jemand hat mal gesagt, dass es nur 40 Themen der Literatur gebe,
also muss auch der Rechner kein weiteres Thema erfinden. Aber es
ist noch nicht jedes Thema im aktuellen Umfeld der ganzen Welt
erzählt. Und 'den Leuten aufs Maul schauen' wie einst Martin
Luther, kann der Computer irgendwann besser als jeder Mensch.
Post by Werner Tann
Post by Walter Schmid
Die Maschine muss doch finanziert werden. Also schreibt sie für
das Massenpublikum.
Die Maschine, wenn sie denn "lebt", wäre ein autonomer Staatsbürger,
der sich seine Brötchen selber verdient. Mit irgendwas.
Post by Walter Schmid
Dagegen habe ich gar nichts. Aber wenn die Maschine vieles besser
macht, wird man ihr immer mehr gehorchen und dann kann man sie
missbrauchen. Dann wird die Maschine bestimmen, wer was lernen
darf, wer wo wohnen soll, denn sie kann das ja besser. Wo bleibt
dann die Freiheit zur Dummheit?
Wir kommen auf keinen grünen Zweig, wenn wir technische,
wirtschaftliche, politische und philosophische Aspekte
durcheinanderwerfen, und die einen mit den anderen zu begründen
versuchen. Die Politik wird entscheiden, welcher Status einer solchen
KI zukommt.
Mit welcher Begründung? Was geht meine Maschine den Staat an?
Post by Werner Tann
Und die Freiheit des Menschen ist ein weites Feld. Wir
sind heute schon so weit, daß viele ihre Freiheit dazu nutzen, sich
freiwillig zum Sklaven ihres Arbeitgebers zu machen.
Post by Walter Schmid
Es wird niemand mehr Jus studieren wollen. Wieso soll ich Gesetze
lernen, die die Maschine zusammen mit ALLEN Präzedenzfällen schon
kennt?
Wer weiß denn, wie Menschen in 200 Jahren lernen werden.
Post by Walter Schmid
4. Jetzt ist der Mensch auch noch dümmer als die Maschine
Wird er das ohne Schaden ertragen?
Manche sind jetzt schon dümmer als ein Taschenrechner. Dafür wurde
Reality-TV erfunden, damit der proletoide Zuschauer erkennt, er ist
nicht alleine so blöd.
Es sind nicht alle Menschen so blöd, dass sie sich freiwillig
damit abspeisen lassen. Auch die IS-Leute sind nicht die Dummen!
Es sind intelligente Burschen, die niemand braucht. Und von
diesen Ungebrauchten wird es immer mehr geben.
Post by Werner Tann
Aber ernsthaft: Die Kränkung des menschlichen Egos durch intelligente
Maschinen wird genauso überstanden werden wie die anderen schon
passierten. Und wiederum: Wer weiß denn, welches Ego der Mensch in 200
Jahren überhaupt hat. Eines scheint klar, so denken und fühlen wie
unsereiner wird er nicht!
Wenn es Cyborgs sind, dann vielleicht nicht. Aber die wenigsten
werden solche sein oder sein wollen. Ich bin doch kein Hund mit Chip!

Dass es einmal kein Bedürfnis nach Anerkennung mehr geben soll,
kann ich mir nicht vorstellen. Wie findet man Anerkennung, wenn
der Computer alles besser kann?


Gruss

Walter
--
****************************************************************
Es ist einfach nicht wahr, dass alle Kulturen gleichwertig sind!
Die political correctness ist darum ein grosses Unglück.
****************************************************************
Werner Tann
2016-04-10 19:42:22 UTC
Permalink
Post by Walter Schmid
Post by Werner Tann
Post by Walter Schmid
Doch, das kann man. 'Fressen und Gefressenwerden' gehört
fundamental zur Natur auf der Erde. Also dürfen wir da mitmachen.
Wir "dürften", erkennen aber zunehmend, daß ein solcher
Konkurrenzkampf ineffektiv fürs eigene Überleben ist.
Jetzt holst Du aber gar weit aus. Ich rechtfertigte nur das Essen
von Fleisch. Andere können das viel besser als ich. Fleisch ist
gesund.
Mißverständnis, ich habe das Fressen von Dir als Metapher aufgefaßt.
Post by Walter Schmid
Post by Werner Tann
Dann haben wir einen Themenwechsel. Ich dachte, es ging darum,
Maschinen zu bauen, die das menschliche Gehirn 1:1 nachbilden. Klappt
das eines Tages, hat diese KI auch Angst. Gab's doch alles in der SF
bereits. 2001 - Odyssee im Weltraum, der Supercomputer HAL: "Ich habe
Angst".
Aber diese 'Angst' hat eine andere moralische Qualität, sie gibt
Erstmal sind wir uns wohl einig, daß sich in dem Fall die Angst,
aufzuhören zu existieren, in nichts von menschlicher Todesangst
unterscheidet. Diese Angst der KI hat also inhaltlich die gleiche
Qualität. Was ich mir unter der Moral dieser Qualität vorstellen soll,
weiß ich nicht. Todesangst ist eine Emotion und als solche weder
moralisch noch unmoralisch. Für andere könnte sie aber ein Anstoß
sein, moralische Prinzipien anzulegen. Wie wär's mit dem Kategorischen
Imperativ? Angesichts des Themas sind wir von SF nicht weit weg.
Stelle Dir als Gedankenexperiment vor, es landen Außerirdische, uns in
allem überlegen. Und sie erzählen uns glaubhaft, sie waren es, die uns
vor Jahrmillionen den Keim des Lebens auf die Erde gebracht haben.
Praktisch sind wir ihre Züchtungen und für sie eigentlich nur sowas
wie Gemüse oder Laborratten oder ... Maschinen. Mit welchen Argumenten
würdest Du sie nun davon abbringen, uns alle mit einem Knopfdruck
"abzuschalten"? Sie haben uns erschaffen. Sie sehen uns nicht als
richtiges Leben an. Und sie finden, wir verschmutzen den Planeten und
bald werden wir auch weiter ins All fliegen usw. Wäre das nicht
genauso wie mit der KI, die Du einfach ausknipsen möchtest. Wie
gesagt, Kategorischer Imperativ. Handle stets so ... Maxime deines
Handelns ... allgemeines Gesetz usw. Also was jetzt. Würde für die
menschliche Spezies plötzlich alles anders sein, weil es um uns geht,
während eine KI nur eine KI ist? Für die Aliens wären wir auch nur
"Menschen".
Post by Walter Schmid
der Maschine kein Lebensrecht. Wenn doch, müsste man deren
Entwicklung schon heute verbieten.
Mit welchem Argument? Etwa ein religiöses, daß der Mensch sich nicht
zum Gott aufschwingen darf?
Post by Walter Schmid
Und Du hast/hättest keine Angst vor dieser Maschine? Ich ganz sicher!
Wie gesagt, auch wir wären dann nicht mehr ganz dieselben. Und ja,
alle Technik ist riskant, aber demgegenüber stehen nicht zu
verachtende Vorteile. Im schlimmsten Fall schwingt sich die KI zum
Herrscher des Planeten auf. Im besten Fall ermöglicht die
KI-Technologie dem Menschen, neben vielen anderen Vorteilen, ewiges
Leben! Denn wenn es gelingt, ein menschliches Gehirn 1:1 in einer KI
abzubilden, scheint der Weg nicht weit, ein *bestimmtes* Gehirn als
"Maschine", der Begriff wird dann so nicht mehr passen, nachzubauen:
faktisch projiziert sich das menschliche Bewußtsein damit in den
Computer, und der Tod wäre überwunden, weil das Absterben des Körpers
nicht das Ende des Gehirns/Bewußtsein bedeuten würde.
Post by Walter Schmid
Ich werde nie solche Sonden haben. Auch nicht, wenn ich 200 Jahre
alt werde. Mir fehlt nämlich das Geld dazu.
Wie viele Leute konnten sich in den 60er Jahren einen Computer
leisten, der das ganze Wohnzimmer ausgefüllt hat? Heute ist wohl ein
iPad um ein paar Euro leistungsfähiger. Daß eine KI-dominierte
Gesellschaft vermutlich für den gegenwärtigen Kapitalismus das Ende
wäre, scheint wahrscheinlich, aufgrund der immens gesteigerten
Produktivität.
Post by Walter Schmid
Post by Werner Tann
Wir kommen auf keinen grünen Zweig, wenn wir technische,
wirtschaftliche, politische und philosophische Aspekte
durcheinanderwerfen, und die einen mit den anderen zu begründen
versuchen. Die Politik wird entscheiden, welcher Status einer solchen
KI zukommt.
Mit welcher Begründung? Was geht meine Maschine den Staat an?
Okay, zwar wird sich jeder eine technische Selbstoptimierung "leisten"
können, aber das heißt nicht, daß sich mal jeder schnell eine Super-KI
ins Schlafzimmer stellt. :-) Und was Konzerne so treiben, geht
natürlich den Staat etwas an. Und ich darf auch nicht - mir nichts dir
nichts - anfangen, Affen zu züchten. Da schaut mir auch der Staat auf
die Finger, ob alles gesetzeskonform abläuft.
Post by Walter Schmid
Post by Werner Tann
Aber ernsthaft: Die Kränkung des menschlichen Egos durch intelligente
Maschinen wird genauso überstanden werden wie die anderen schon
passierten. Und wiederum: Wer weiß denn, welches Ego der Mensch in 200
Jahren überhaupt hat. Eines scheint klar, so denken und fühlen wie
unsereiner wird er nicht!
Wenn es Cyborgs sind, dann vielleicht nicht. Aber die wenigsten
werden solche sein oder sein wollen. Ich bin doch kein Hund mit Chip!
Schau, das zeigt nur, daß Du ein Kind des vorigen Jahrhunderts bist.
Ich würde zum Beispiel als werdender Vater auch nicht vorab wissen
wollen, ob mein Kind ein Bub oder ein Mädel wird. Aber wollen das
nicht heute die meisten wissen? Siehst Du, so ändern sich
Generationen.

Übrigens denke ich nicht, daß Du etwas gegen künstliche Augen hättest,
oder?
Post by Walter Schmid
Dass es einmal kein Bedürfnis nach Anerkennung mehr geben soll,
kann ich mir nicht vorstellen. Wie findet man Anerkennung, wenn
der Computer alles besser kann?
In der Auseinandersetzung mit anderen Menschen?
Hast Du Dir mal überlegt, was ein Mensch aus dem 19. Jahrhundert zu
Deinem Haushalt sagen würde? "Erniedrigt es Dich nicht, so viele
Sachen in der Wohnung zu haben, die andere gebaut haben und von denen
Du gar nicht weißt, wie sie funktionieren?" - So ändert sich die Welt
und wir uns mit ihr.

Loading...