Zukunft, diesmal nicht dystopisch

Nehmen wir einmal an, die Menschheit wendet die Klimakatastrophe in letzter Sekunde ab, die Atommächte führen keine verheerenden Kriege gegeneinander und die Menschheit übersteht alle weiteren Pandemien. Nehmen wir weiter an, sie schwärmt ins Sonnensystem aus und wird tatsächlich zur multiplanetaren Spezies. Damit sind ihre Probleme natürlich nicht gelöst, im Gegenteil. Der globale Fluss von Waren, Menschen und Rohstoffen umspannt jetzt das ganze Sonnensystem und ist entsprechend anfällig. Neuartige Staatsgebilde streiten um Einfluss und interplanetare Konzerne kämpfen mit harten Bandagen um stellare Profite.

In dieser goldenen Zukunft spielt meine am 10. November im Science-Fiction-Magazin Exodus 431 erschienene Kurzgeschichte „Meine künstlichen Kinder“. Nein, die Handlung werde ich nicht verraten, es geht hier nur um die Hintergründe. Themen sind unter anderem:

  • Künstliche Intelligenz – wie kann man eine starke künstliche Intelligenz am besten trainieren?
  • Bislang brauchen Raumschiffe acht Monate zum Mars. Die Strahlenbelastung ist dabei hoch, die Enge und Schwerelosigkeit setzen den Menschen hart zu. Bessere Antriebe sind längst entworfen, aber sie brauchen einen besonderen Treibstoff.

Künstliche Intelligenz

Exodus 43 (11/2021)11 neue Kurzgeschichten und phantastische Grafik
von Hubert Schweizer in der Galerie.

Wir haben heute KI-Systeme, die beinahe unfallfrei Auto fahren oder den weltbesten Go-Spieler schlagen. Aber sie sind auf einen sehr kleinen Bereich spezialisiert, und können sonst nicht viel, weshalb sie auch als schwache KI bezeichnet werden. Die Zukunft gehört aber eher der starken oder allgemeinen KI. Der Computerkonzern IBM definiert ihre Leistungen so:

Sie wäre sich ihrer selbst bewusst und hätte die Fähigkeit, Probleme zu lösen, zu lernen und die Zukunft zu planen.
Das Ziel der [Entwicklung einer] starken KI ist es, intelligente Maschinen hervorzubringen, die dem menschlichen Geist gleichen. Aber eine solche KI müsste, ganz wie ein Kind, Wissen aufnehmen und Erfahrungen sammeln, und dadurch seine Fähigkeiten mit der Zeit verbessern und vervollkommnen. 2

Ja, KIs werden eine Kindheit haben müssen. Und sie brauchen Eltern oder Mentoren, die sie begleiten und anleiten. Warum gibt es dann so wenige Science-Fiction mit kindlichen KIs? Vielleicht wirken bedrohliche oder gottgleiche KIs einfach eindrucksvoller. Für meine Geschichte habe ich künstliche Kinder erfunden, die mit ihrem Mentor spielen wollen, seine Aufmerksamkeit verlangen, aber auch gefährliche Fehler machen.

Und dieser Mentor wohnt weit weg von der Erde in einem Habitat, das einen für die interplanetare Menschheit unentbehrlichen Rohstoff gewinnt und verarbeitet: Helium-3 (Chemische Bezeichnung 3He).

Helium-3 und schnelle Flug durchs Sonnensystem

Das natürlich vorkommende Element Helium ist das leichteste der sogenannten Edelgase. In seiner häufigsten Form besteht sein Kern aus zwei Protonen und zwei Neutronen (Helium-4). Ein Isotop mit lediglich einem Neutron ist ebenfalls stabil (Zwei Protonen plus ein Neutron = Helium-3). Auf der Erde dominiert Helium-4: Nur etwa 1,4 von einer Million Helium-Atomen in der Erdatmosphäre hat drei statt vier Kernteilchen. Die gesamte Erdatmosphäre enthält nur wenige Tausend Tonnen und die für Industrie und Forschung aktuell zugänglichen Reserven bemessen sich eher nach Kilogramm. Glücklicherweise wird das wertvolle Gas bisher kaum gebraucht. Sollte die Menschheit aber das Sonnensystem erobern, wird Helium-3 wahrscheinlich zu einem entscheidend wichtigen Rohstoff werden. Und das liegt an dem Bedarf für bessere Raumschiffantriebe.

Die bisherigen chemischen Triebwerke sind ausgesprochen ineffizient. Für den bemannten interplanetaren Raumflug wird die Menschheit wirksamere Antriebe entwickeln müssen. Das ist allerdings nicht ganz einfach. Ionenantriebe (wie in der Raumsonde Dawn verwendet) gehen deutlich sparsamer mit ihrem Brennstoff um, erzeugen aber zu wenig Schub für größere Raumschiffe.

Wesentlich besser wäre der von der Firma Princeton Satellite Systems und dem Princeton Plasma Physics Lab vorgeschlagene Direct Fusion Drive (DFD). Wie der Name schon andeutet, gewinnt er seine Energie aus der Kernfusion, wobei er Helium-3 als Treibstoff benutzt. Warum nicht Wasserstoff? Im internationalen Fusionsreaktor ITER soll beispielsweise schwerer und überschwerer Wasserstoff (Deuterium und Tritium) verschmolzen werden. Die Bedingungen dafür lassen sich einfacher herstellen als für die Fusion von Helium-3. Aber die Energie entsteht in Form von Neutronen. Bei der Fusion von zwei Helium-3-Atomkernen steckt die Energie dagegen in elektrisch geladenen Protonen. Das hat einige Vorteile:

  • Elektrisch geladene Teilchen lassen sich mit Magnetfeldern einfangen und in eine bestimmte Richtung leiten.
  • Neutronen erzeugen lediglich Wärme, die mit einem Kühlmittel abgeführt werden muss, um dann Strom zu erzeugen, nicht anders als in einem Kohlekraftwerk. Außerdem reagieren Neutronen mit dem Material der Wände, verändern seine chemischen Eigenschaften und machen es radioaktiv.

Der DFD hat eine Reaktionskammer, in der zwei Helium-3-Atome zu einem Helium-4-Kern und zwei Protonen verschmelzen. Ein starkes Magnetfeld leitet die geladenen Teilchen in eine bestimmte Richtung (nach „hinten“) und erzeugt damit einen Impuls in Gegenrichtung (nach „vorne“). Wegen der hohen Geschwindigkeit der Teilchen ist der spezifische Impuls (die erzielbare Impulsänderung pro Kilogramm Treibstoff) eines solchen Triebwerks hervorragend. Außerdem erzeugt es gleich noch den Strom für das Bordnetz.

Das hört sich fast zu schön an, um wahr zu sein. Und ehe es Wirklichkeit wird, müssen noch zwei Probleme gelöst werden:

  1. Bisher hat niemand einen Fusionsreaktor gebaut, ganz gleich welcher Art. Leider ist die Helium-3-Fusion technisch noch ein ganzes Stück schwieriger als die Deuterium-Tritium-Fusion, an der sich der internationale Fusionsreaktor ITER versuchen wird.

  2. Bei einem regen Flugverkehr durchs Sonnensystem verschmelzen die Raumschiffantriebe viele Tonnen Helium-3. Auf der Erde braucht man danach gar nicht erst zu suchen, schon eher auf dem Mond. Aber die Gewinnung wäre auch dort viel zu teuer.

Das sind aber letztlich Ingenieurprobleme und ich gehe davon aus, dass sie lösbar sind. Helium-3 ließe sich beispielsweise auf den äußeren Planeten (Jupiter, Saturn, Uranus, Neptun) gewinnen. Deren Atmosphäre enthält fast so viel Helium3 wie die Erdatmosphäre Sauerstoff (z. B. rund 16 % im Fall des Uranus). Etwa ein Zehntausendstel davon ist Helium-3. Jupiter und Saturn haben ein sehr starkes Schwerefeld und eine stürmische Atmosphäre, was die Gewinnung schwierig und den Transport aufwendig macht. Der Neptun ist weit weg, also böte sich der Uranus an. Und in der Tat diskutieren Raumfahrtexperten seit vielen Jahren die Gewinnung von Helium-3 aus der Uranus-Atmosphäre (z. B. Telepolis 1999: Energie vom Uranus oder NASA 2014: Atmospheric Mining in the Outer Solar System).

Eine Robotsonde könnte beispielsweise zum Uranus fliegen, in die Atmosphäre eintauchen und sich dort einige Monate lang den Bauch mit Helium-3 vollschlagen. Dann macht sie sich mit ihrer wertvollen Fracht auf den Rückweg. Mit etwas Glück erntet sie in der kurzen Zeit mehr Helium-3 als man auf der Erde mit sehr viel höherem Aufwand in 50 Jahren zusammenkratzen könnte. Da lohnt sich sogar der unglaubliche weite Weg.

Eine der beiden eindrucksvollen Illustrationen
zu meiner Geschichte.
© Michael Vogt

“The Ray”

Für meine Kurzgeschichte nehme ich an, dass Helium-3 in sehr viel größerem Maßstab gewonnen wird. Ein gigantisches Habitat mit einer vierstelligen Besatzung sammelt mehrere Tonnen am Tag und verschifft den wertvollen Stoff ins ganze Sonnensystem. Prospektoren untersuchen die Monde auf Bodenschätze. Wo immer sich ausreichend Vorkommen wertvoller Metalle finden, beginnt der Abbau. Das Habitat ist damit auch ein Zentrum für die Erschließung der Uranusmonde. Und natürlich braucht die Besatzung auch Wasser und Kohlenstoffverbindungen.

Im Inneren fühlen sich die Menschen fast wie auf der Erde. Die Schwerkraft beträgt 90 % der irdischen und das Habitat kreist bei einem Außendruck von 0,8 Bar. Es ist allerdings draußen eisig kalt (-200° C) und dunkel. Das Habitat hat die Form eines Flügelrochens, sodass es allein durch seine Form Auftrieb erzeugt. Deshalb heißt es „The Ray“. Ray ist das englische Wort für Rochen. Die Betreiberfirma hat einen besonders einfachen Weg gefunden, das Helium-3 ins All zu bringen. Auf diese Weise beherrscht sie den riesigen Markt fast nach Belieben. Aber die Konkurrenz schmiedet bereits finstere Pläne …

Könnte es wirklich in den nächsten hundert Jahren so weit kommen? Hätte jemand den Gebrüdern Wright nach ihrem ersten Motorflug im Jahr 1903 erzählt, dass bereits 70 Jahre später 400 Millionen Menschen in riesigen Flugzeugen ganz selbstverständlich in alle Welt reisen – was hätten sie wohl gesagt?

Und das war erst der Anfang: Im Jahr 2017 beförderten alle Flugzeuge zusammen bereits vier Milliarden Passagiere. Fliegen ist alltäglich geworden. Und vielleicht bucht man im Jahr 2091 einen Urlaub auf dem Mond so selbstverständlich wie heute eine Reise nach Mallorca.

Anmerkungen

[1] EXODUSMagazin für Science-Fiction-Storys & Phantastische Grafik erscheint in der Regel ein- bis zweimal im Jahr im Format DIN A4. Es bringt aufwendig illustrierte deutschsprachige Science-Fiction-Kurzgeschichten als Erstveröffentlichung und stellt in einer Galerie in der Heftmitte Arbeiten von Grafikkünstlern vor. Laut Wikipedia zählt EXODUS zu den wichtigsten deutschen SF-Magazinen.

[2] Im Original: „If researchers are able to develop Strong AI, the machine would require an intelligence equal to humans; it would have a self-aware consciousness that has the ability to solve problems, learn, and plan for the future. Strong AI aims to create intelligent machines that are indistinguishable from the human mind. But just like a child, the AI machine would have to learn through input and experiences, constantly progressing and advancing its abilities over time.“

[3] Die Erdatmosphäre besteht nur zu rund 5,2 ppm = 0,00052% aus Helium.

Veröffentlicht von

www.thomasgrueter.de

Thomas Grüter ist Arzt, Wissenschaftler und Wissenschaftsautor. Er lebt und arbeitet in Münster.

73 Kommentare

  1. Gratuliere zum Einstieg in die Science Fiction. In diesem Medium lassen sich grundlegende Menschheitsfragen tatsächlich sehr gut behandeln.

    Hier noch einige Anmerkungen zum Beitrag:

    Das Problem der Menschheit
    Zitat:

    Der globale Fluss von Waren, Menschen und Rohstoffen umspannt jetzt das ganze Sonnensystem und ist entsprechend anfällig.

    Reaktion: der Mensch als Spezies kann sich nur auf eine einzige Art mit Sicherheit eine ewige Zukunft schaffen: indem er in den Tiefen des Weltraums für alle anderen unerreichbar wird. Solange es Eine Menschheit gibt, solange ist die Menschheit als Ganzes bedroht.

    Roboterkinder
    Zitat:

    Warum gibt es dann so wenige Science-Fiction mit kindlichen KIs?

    Es gibt SFs und Romane mit Robot-Kids. Was ich aber nicht kenne sind Roboter, die erwachsen werden. Roboterkinder bleiben in den Werken, die ich kenne für immer Kinder. Ein solches ewiges Kind, weil als Kindersatz gedacht kommt im Film A.I. von Stanley Kubrick/Steven Spielberg vor.
    Der Literaturnobelpreisträger Kazuo Ishiguru hat mit Klara and the sun als Hauptfigur eine künstliche Freundin (ein Kind) geschaffen, deren Aufgabe es ist ein humanes, aber krankes Kind zu begleiten.

    Fusion und Helium 3
    Die Firma Helion entwickelt einen Fusionsreaktor, der mit künstlich hergestellten Helium 3 arbeitet. Die Firma hat ein Patent für die Herstellung von Helium 3. Der Helion-Fusionsreaktor verwendet Helium 3 damit weniger Neutronen entstehen und der Fusionsreaktor von der Grösse eines Lastwagens überall installiert und betrieben werden kann. Der Reaktor arbeitet mit aufeinander zuschiessenden Plasmajets, die durch Magnetfelder gebündelt und beschleunigt werden und wo die Energie im Kollisionspunkt der Jets freigesetzt wird.

    • Doch, ja, es gibt kindliche KIs. Aber in der Tat kaum als einen Übergangszustand, so wie IBM das vorgeschlagen hat, und wie ich das auch in der Kurzgeschichte vorsehen. Der Film A.I. ist eine Art Mischung aus Pinoccio- und Erlösungsgeschichte mit ziemlicher Überlänge. Das ist eigentlich schade, denn da wäre mehr dringewesen. Ich selber stehe auf dem Standpunkt, dass jede Intelligenz irgendwann immer mehr auf Erfahrungen zurückgreifen wird, so wie Menschen das eben auch mit zunehmendem Alter tun. Je umfangreicher und strukturierter das innere Modell der äußeren Welt wird, desto mehr wird das Verhalten davon bestimmt, und nicht mehr direkt vom Handlungsantrieb und äußeren Faktoren. Damit würde auch eine KI notwendigerweise erwachsen. Je nach Intelligenz kann das aber lange dauern …
      Das Konzept der Firma Helion Energy ist wirklich interessant. Man könnte es unter die vielen spannenden, aber eher theoretischen Konzepte einordnen, wenn die Firma nicht vor wenigen Wochen 500 Millionen US$ Wagniskapital aufgetrieben hätte. Sie will einen ersten Reaktor schon 2024 fertigstellen. Das wäre natürlich echter Durchbruch. Warten wir’s mal ab.

    • Reaktion: der Mensch als Spezies kann sich nur auf eine einzige Art mit Sicherheit eine ewige Zukunft schaffen: indem er in den Tiefen des Weltraums für alle anderen unerreichbar wird. Solange es Eine Menschheit gibt, solange ist die Menschheit als Ganzes bedroht.

      Auch dann wäre Suizidales nicht auszuschließen.

      Insgesamt gilt sozusagen Murphy’s Law, das in etwa besagt, dass alles, was schief gehen kann auch schief gehen wird, wobei, lol, einiges so-o selten schief geht, dass es den Beobachtungshorizont (!) einiger zuverlässig überschreitet, so dass es sozusagen dann doch nicht schief geht.

      Dr. Webbaer ist ein großer Freund der Idee, dass Welten Welten schaffen können, die Geisteswelt ist ein Beispiel dafür, in der dann wiederum erkennende Subjekte existieren könnten, bei ca. einem Liter Gehirnsubstanz sieht es diesbezüglich eher mau aus, aber AI oder vielleicht besser : allgemein rechnende Welt hätte das Zeug dazu komplexere (andere) Welt zu schaffen.

      Dr. Webbaer räumt gerne ein, dass sich i.p. Science Fiction so, mit derartiger Idee, wohl kein Cent verdienen lässt, mag insofern einstweilen und sozusagen behelfsmäßig ‘Simulacron-3’, wie auch die Welten von Terry Pratchett.
      Eine gewisse Kommerzialität gehört zum Denken.

      Mit freundlichen Grüßen
      Dr. Webbaer

  2. Da werden die Programmierer viel zu tun haben, wenn sie KIs alles beibringen wollen. Und wenn so eine KI falsch geprägt (falsch programmiert) worden ist, von sich selbst oder von einem Lehrer, wer kann das Programm ändern ? Welches Ziel hat die KI, außer dem Lernen natürlich.
    Und wenn sie in einen Interessenkonflikt gerät, Beispiel überfährt das künstlich gesteuerte Auto lieber die Oma oder lieber das Kind, wer gewinnt dann die Oberhand? Welche Moral hat die KI ?
    Da wird sich eine Parallelgesellschaft entwickeln. Die Familie der KIs und die Familie der Menschen. Und bei den KIs wird es die gleichen Probleme geben wie bei den Menschen. Auch mit Mord (Zerstörung )und Betrug (Verändern der Software).
    Trost: Wir können ja schon mal die KIs als Haustierersatz nehmen, aber ich fürchte, KIs können nicht schmußen.
    Solche Gedanken sind zum Glück nur Männerphantasien.
    Denn es fehlen die weiblichen KIs. Die zu programmieren, daran werden sich die männlichen Programmierer noch die Zähne ausbeißen.

    • Der Unterschied zwischen “normalen” Computerprogrammen und KIs liegt in der Lernfähigkeit der KI. Eine KI wird nicht programmiert sondern trainiert. Natürlich lassen sich eine Grundkonzepte vorgeben, aber die wesentlichen Leistungen der KI müssen erst trainiert werden. Wenn ich einer KI das Autofahren beibringen will, muss sie trainieren und aus den Situationen im Training die richtige Reaktion im echten Leben ableiten. Bei einer starken KI ist das natürlich noch sehr viel komplizierter. Also ist das vorläufig noch Science Fiction.

    • @hwied (Zitat):

      Welches Ziel hat die KI, außer dem Lernen natürlich. …
      Welche Moral hat die KI ?

      Eine (fast) alles lernende KI hat die gleichen Ziele und die gleiche Moral wie Menschen, denn Menschen lernen ja auch fast alles. Was genau angeboren, also nicht erlernt ist beim Menschen, das weiss man gar nicht so genau. Der Überlebenstrieb könnte angeboren sein.

      Und ja, künstliche Intelligenzen die das tun, was sie gelernt haben , die können so gefährlich sein wie Menschen. Und wir wissen ja: Menschen können fast beliebig gefährlich sein.

      Gedankenexperiment: was würde passieren, wenn man auf den 1.1.2022 allen Menschen auf der Erde ein Päckchen zuschicken würde und in diesem Päckchen hätte es eine Box mit einem einzigen Druckknopf bei dessen Betätigung die Welt untergehen würde?

  3. @Roboterkinder

    KI kann man beliebig kopieren und sie lebt ewig. Wenn wir ein Roboterkind erzogen haben, werden wir 1000 Kopien davon machen können, die dann einzeln alle Berufe dieser Welt erlernen können. Und diese kann man dann wieder millionenfach kopieren, und durchaus sogar Exemplare zusammenkopieren, die gleich 10 Berufe gleichzeitig können.

    So wäre ein medizinisches KI-System dann mit praktische allen Facharztausbildungen gleichzeitig ausgestattet. Und selbst das System im Einsatz wird Neues lernen können, dass dann sogleich per Update an alle baugleichen Systeme weitergegeben werden kann.

    Wirkliche Kindheitsroboter bräuchten wir gerade mal ein paar tausend, und das nur am Anfang. Danach kann Kindheit einfach zusammenkopiert werden.

    Ist das jetzt doch wieder dystopisch? Wie armselig sehen wir dagegen aus?

  4. Nur ergänzend, der sachnahe Blick in die Zukunft ist sicherlich cooler als nackte Dystopie, wenn auch schwieriger :

    Der Schreiber dieser Zeilen hat irgendwann in den frühen Siebzigern den Science Fiction Roman ‘Simulacron-3’ gelesen, der wegen seiner grundlegenden Idee, er referenziert auch die sog. Tegmark-Hypothese und stellt sozusagen eine erste Theorie über AI und über alles (“TOE“) dar, sozusagen bahnbrechend war.

    An besondere Konkurrenz im Weltlichen, sog. AI meinend und den hier gemeinten Hominiden, glaubt der Schreiber dieser Zeilen nicht, sondern sieht AI eher als mit sich selbst beschäftigt; ein Bonmot besagt in etwa, dass die Rechenleistung, die erforderlich ist, um eine (wie vorgekommene) Evolution der Erde zu bewerkstelligen, zu berechnen also, in etwa eine CPU in der Größe der Erde bei annähernd gleicher “Laufzeit” benötigt.

    Mit freundlichen Grüßen + weiterhin viel Erfolg!
    Dr. Webbaer

  5. Menschenfreundliche Künstliche Intelligenz?
    Wenn schon künstlich intelligente Roboter, dann bitte äusserst moralische Roboter: Roboter, die eine bessere Welt wollen und alles dafür tun.
    Diesem Grundsatz könnten sich wohl fast alle anschliessen. Ja, Susanne Päch von Hyperraum-TV hat sogar in einer Diskussion an der ich beteiligt war, gefordert, dass ein persönlicher Roboter seinem Meister kriminelle und unmoralische Handlungen verbietet und ihn davon abhält.
    Doch, behaupte ich: was auf den ersten Blick so gut und sinnvoll erscheint, muss es in der Realität nicht sein.

    Ian McEwans Roman „Maschinen wie ich“ (Machines like me) hat gerade eine solche Zukunft mit menschenfreundlichen Robotern als Thema. Es ist zwar nur eine Prototypenserie von vielleicht 25 bis 40 je zu Hälfte weiblichen (Evas) und zur Hälfte männlichen (Adams) Robotern, aber die haben es in sich. Die meisten von ihnen leiden unter ihren Gebieterinnen und Gebietern aufs äusserste. Diejenigen Robot-Girls, die nach Saudi-Arabien geliefert werden oder der Roboter, der im Amazonas bei einem Holzfäller landet, die verstümmeln sich selbst angesichts des Grauens, das sie da miterleben müssen. Der Roboter aber, der den Held des Romans spielt, dem geht es recht gut, kann er doch sogar eine Liebesbeziehung zur Freundin seines Meisters aufbauen und mit den beiden die ihn beherbegen eine ménage à trois führen. Doch dann erfährt er, dass die Frau in diesem Haushalt früher vor Gericht eine Falschaussage gemacht hat um damit einen Mann, der eine Freundin von ihr misshandelt hat, hinter Gitter zu bringen. Und wieder hat der Hypermoralismus dieser Robotergeneration massive Auswirkungen. Der Roboter sorgt dafür, dass das Gerichtsverfahren gegen diese Frau (von der er behauptet sie zu lieben) neu aufgerollt wird und sie hinter Gittern landet. Das ist für den Mann, den Meister des Roboters zu viel: Er schlägt dem Roboter den Kopf ab.

    Was will uns McEwan damit sagen? Wohl das, dass ein hypermoralischer Mensch/Roboter für diese Gesellschaft genau so wenig taugt wie das ein krimineller Roboter/Mensch tut.

  6. @Leben im All

    Der einzige wirklich vernünftige Ort zum Wohnen in diesem Sonnensystem ist wohl die Erdoberfläche. Alle anderen Orte im Sonnensystem erfordern ein so abgeschlossenes Leben wie in einem U-Boot.

    Auf den ersten Blick zumindest. Man müsste diese Habitate eben sehr luxeriös und auch riesig bauen, noch aufwändiger als ein Kreuzfahrtschiff, dass man hier freiwillig sein Leben verbringt. Außerordentlich teuer wäre das, aber keinesfalls unmöglich.

    Die Oberflächen von Mond oder Mars wären wohl eher noch geeignet, dort gibt es Schwerkraft und jede Menge Baumaterial. Ein Leben direkt in einem Sonnenorbit oder auf einem Asteroiden bräuchte ein rotierendes Habitat als Ersatz für fehlende Schwerkraft. Der Asteroid brächte auch wieder Baumaterial mit sich. Dafür ist auf dem eigenen Sonnenorbit beliebig viel Platz.

    Fragt sich jetzt aber sehr, ob solche Habitate ständigen extrem teuren Nachschub brauchen, oder ob hier ein 99,9%iges Recycling dafür sorgt, dass sich diese Habitate über Jahrtausende und länger ständig selbst erhalten können. In Umlaufbahnen bis zum Mars wäre jedenfalls genug Sonnenenergie vorhanden, dass man zumindest energiemäßig autark ist.

    Mir scheint, das Helium3-Triebwerke auf jeden Fall was für Reisen zu Exoplaneten sind, für Transporte innerhalb des Sonnensystem eignen sich vielleicht doch eher Ionentriebwerke mit Solarzellen-Energieversorgung. Beim Aufbau von Habitaten, in denen einfach nur gelebt wird, kommt es auf die Transportgeschwindigkeit nicht so an, die Kosten wären entscheidender.

    Und mehr als in Habitaten auf Mond, Mars, Asteroiden oder direkt im Sonnenorbit einfach nur zu leben, fällt mir da auch nicht ein. Man könnte sich höchstens mit dem Betrieb von Riesenweltraumteleskopen aller Art beschäftigen, so könnte man sich dann doch auch noch nützlich machen. Ein Bergbau auf Asteroiden wäre wohl auch noch denkbar, allerdings wird sich das vermutlich nie Rechnen. Wenn dann eher für die direkte Verwendung der Rohstoffe für die Habitate.

    Hat man jedenfalls eine entsprechende Habitattechnik etabliert, die Jahrtausende ohne Nachschub auskommt und in denen es sich prima lebt, dann wäre das auch eine Grundlage für den Aufbruch zu den Sternen. Das dann praktischerweise mit den Helium3-Triebwerken, die auch genug Energie für das Bordnetz liefern. Alternativ wären auch Ionentriebwerke mit Uran-Reaktoren als Energiequelle auch nicht unmöglich. Solarzellen jedenfalls funktionieren hier gar nicht mehr.

    Die Besiedlung von lebensfreundlichen Exoplaneten, auf denen es noch kein höheres Leben gibt, dass wäre dann schon eine richtig große Nummer. Dies könnte die Biologie der Galaxis erst so richtig in Gang bringen. Hier wäre der Mensch dann wohl bei seinem höchsten Potenzial angekommen, indem er auch der restlichen Biologie der Erde eine galaktische Ausbreitung bereiten kann.

    Die Schäden, die wir hier gerade anrichten, wären dann wohl mehr als wieder gutgemacht.

    • @Tobias Jeckenburger: Von den Voraussetzungen zu völlig autonom agierenden und sich entwickelnden Weltraumhabitaten sind wir gar nicht so weit entfernt. Vertical Farming, 100% rezyklierbare Kunststoffe und 100%-iges Recycling von Metallen wie Kupfer, Eisen, Aluminium sind möglich und auf der Erde sind wir bereits nahe an diesem Grad der Wiederverwendung für diese Metalle und für bestimmte Kunststoffsorten.

      Das wichtigste Ingredienz für ein autonomes Habitat aber ist wohl unerschöpfliche Energie. Die ideale Energiequelle ist tatsächlich die nukleare Fusion, weil sie aus sehr viel Energie aus nur wenig Material bereitstellt.
      Ein autonomes Habitat bestände wohl aus 2 Bereichen: einem voll klimatisiertem Wohnbereich mit erdähnlichen Lebensbedingungen und einem Infrastrukturbereich wo Rohstoffe rezykliert und Energie erzeugt wird und wo eine gewisse Materialreserve für die Fusion und anderes (wie Expeditionen zu Asteroiden) verwaltet wird. Dort würde auch mit der Materialreserve jeweils ständig an einem zweiten Wohnbereich gearbeitet, der dann alle 100 Jahre oder so den ersten Wohnbereich ersetzt, denn die Alterung der Materialien würde solch einen Ersatz wohl nötig machen.
      Der Erhalt des Habitats wäre also recht arbeitsintensiv. Etwas was sich bereits bei Raumstationen gezeigt hat: die Mannschaft der sowjetische Mir-Station war am Schluss nur noch mit Reparaturen beschäftigt. Deshalb braucht es für ein autonomes Habitat neben unerschöpflicher Energie ein zweites essenzielles Ingredienz: Unerschöpfliche Arbeitskraft. Am besten in Form einer ganzen Roboterarmee, die ebenfalls lokal (im Infrastrukturbereich) ständig reproduziert wird (Roboter bauen Roboter).

      Völlig autonome, mit Materialreserven für tausende von Jahren ausgestattete Habitate könnten tatsächlich als Weltraumfähren dienen mit denen man Nachbarsterne vielleicht im Umkreis von 100 Lichtjahren besuchen könnte. Und ob sich solch ein Besuch überhaupt lohnt, würden kilometergrosse Weltraumobservatorien vorher bestimmt haben.

      Und ja, wenn die Erde, der Heimatplanet, untergeht und gleichzeitig vielleicht 1000 Weltraumhabitate unterwegs zu fernen Welten sind, dann geht das Leben der menschlichen Spezies weiter auch wenn alles Leben auf der Erde ausgelöscht ist.

  7. @Grüter: Sie schrieben “Das Ziel der [Entwicklung einer] starken KI ist es, intelligente Maschinen hervorzubringen, die dem menschlichen Geist gleichen.”

    Dazu ein Buchtip
    “The Mind is flat – The Illusion of Mental Depth and the Improvised Mind”
    Nick Chater, ISBN: 978-0-241-20877-9

    Der Autor bescheibt sehr gut, wie extrem schlecht und fehlerhaft unser Gehirn arbeitet.
    Es lohnt sich das Buch zu lesen – dann wird man verstehen, dass es keinen Sinn macht, eine KI zu entwickeln die wie ein Gehirn funktioniert.

    Ich wünsche Ihnen viel Erfolg unt interessante Rückreaktionen zu Ihrem Buch

    • @KRichard (Zitat): „ Der Autor bescheibt sehr gut, wie extrem schlecht und fehlerhaft unser Gehirn arbeitet.“
      Ja, wobei unser Hirn auch erstaunlich gut mit selbst erzeugten Fehlern zurecht kommt.
      Und ja, Menschen sind sich ihrer Unvollkommenheit bewusst und wünschen sich wohl deshalb eine geradezu vollkommene Technik wie etwa autonome Fahrzeuge, die nie verunfallen.

      Ich behaupte sogar: Die grösste Gefahr stellen Roboter für Menschen dar, weil sie – die Roboter der übernächsten Generation – vielleicht in allem besser sind als Menschen und Menschen deshalb nur noch Robotern vertrauen, nicht mehr Menschen. Wer will schon sein Schicksal vor Gericht von einem bestechlichen, inkompetenten Anwalt abhängig machen, wenn ein unparteiischer, mit allen juristischen Wassern gewaschener Roboter, das viel besser macht.

      Die letzte humane Frau wird den perfekten Roboter zum Ehemann haben und ein ebenso perfektes Roboterbaby in den Armen wiegen.

      Und ja, die Welt wird von da an eine viel bessere, perfektere Welt sein.

    • @KRichard (Zitat):

      „ Der Autor bescheibt sehr gut, wie extrem schlecht und fehlerhaft unser Gehirn arbeitet.“

      Ja, Menschen sind Wesen, die aus einem Jahrmillionen andauernden Versuch-und-Irrtum Prozedere hervorgegangen sind und die eigentlich immer noch in diesem Prozess stecken selbst bei so einfachen Dingen wie dem Treppen Steigen.

      Und ja, Menschen sind ohne spezielles Training, ohne jahrelanges Üben in den meisten Dingen bestenfalls durchschnittlich, wenn nicht sogar schlecht. Gemäss Malcom Gladwells Buch „Überflieger“ muss selbst ein Genie mindestens 10‘000 Stunden in eine Tätigkeit investieren um zu den besten 1% der darin Tätigen zu gehören.

      Wir sind ein Produkt einer extrem langsam ablaufenden Evolution, in der etwa zelluläre Elemente, die bei den frühen multizelluläten Organismen der Schwämme vorhanden waren noch bei uns Säugetieren und Menschen vorkommen und jetzt beispielsweise als Nervenzellen eingesetzt werden. Was immer zuerst erfunden wurde, es wurde weitergeschleppt und findet sich auch bei uns noch.

      Mit Robotern und künstlicher Intelligenz könnte die Evolution millionenfach schneller ablaufen und in 100 Jahren das gleiche oder mehr erreicht werden als in der natürlichen, biologischen Evolution, womit KI uns dann übertreffen würde.
      Im Film A.I. von Steven Spielberg sagt Jude Law in der Rolle als Gigolo Gio: „Wenn du einmal einen Liebhaber-Roboter hattest, wirst du nie wieder einen richtigen Mann haben wollen.“ Und zu Patrizia sagt er: „ Du verdienst so viel Besseres in deinem Leben. Du verdienst mich.„

      Daran zweifle ich eigentlich nicht: Die Roboter 2.0 werden besser als sein als die Roboter 1.0 und es wird einen Roboter der Generation X.y geben, der den Menschen in dem was er tut, was immer es ist, um ein Vielfaches übertrifft.

      In Steven Spielbergs Film A.I. gibt es in einer fernen Zukunft die Roboter immer noch, aber nicht mehr die Menschen und man sieht eine Gruppe von Robotern, die sich der Paläontologie und speziell der ausgestorbenen Spezies Homo sapiens widmen und von denen einer sagt: „Sie waren ja so genial, diese Menschen“

      Ja, genial sind und waren sie, die Menschen. Gemacht aber sind sie nicht für die Ewigkeit.

  8. Die Intelligenz und das Wissen alleine setzen keine Ziele.
    Die Ziele kommen von wo anders her.
    Gehorsamkeit, Erziehbarkeit, Wissenserwerb, Selbsterhaltung, und jede andere Aktivität muss von vorne herein als Ziel eingebaut werden.
    Menschen vergessen oft auf diese Tatsache, weil sie ihre eingebauten Ziele für selbstverständlich halten.
    Dabei haben Menschen eine Menge angeborener Steuerprogramme, wie zum Beispiel Hunger, Durst, Hitze, Kälte, Schmerz, Müdigkeit, Neugier, Mitteilungsdrang, Nachahmungstrieb, Erziehbarkeit, Spieltrieb.
    Das alles sind Folgen der genetischen Selektion, und keineswegs Ergebnisse von logischen Überlegungen des Individuums.
    Die reine und freie Logik führt nur ins Nirwana der völligen körperlichen und geistigen Untätigkeit.
    https://www.e-stories.de/view-kurzgeschichten.phtml?23749

    • @Karl Bednarik (Zitat): Die Ziele kommen von wo anders her.
      Klar. Ohne Ziel geht nichts. Heutige KI wird mit einer umso grösseren Punktzahl (score) belohnt je näher sie an ein vorgegebenes Ziel herankommt.
      Es gibt sogar die Ansicht, die Entwicklung immer besserer, schliesslich den Menschen übertreffender Intelligenz brauche nichts anderes als ein System, das lernt immer besser und schneller immer höher gesteckte Ziele zu erreichen. Nachzulesen im arxiv-Artikel Reward is Enough, wo man liest:

      In diesem Artikel stellen wir die Hypothese auf, dass das Ziel der Maximierung der Belohnung ausreicht, um ein Verhalten zu fördern, das die meisten, wenn nicht alle Attribute der Intelligenz aufweist, die in der natürlichen und künstlichen Intelligenz untersucht werden, einschließlich Wissen, Lernen, Wahrnehmung, soziale Intelligenz, Sprache und Verallgemeinerung.

      Frage: Wenn Belohnung für erreichte Ziele ausreicht um intelligent zu werden, wer hat dann die Zielsetzer belohnt? Werden aus Belohnten Belohner?

      • Hallo Herr Holzherr.
        Wer hat die Zielsetzer belohnt?
        Die Evolution hat in den Menschen zum Beispiel Hunger und Müdigkeit eingebaut, deren Vermeidung er als angenehme Belohnung empfindet.
        Mit Hilfe seiner Intelligenz und seines Wissens baut der Mensch deshalb landwirtschaftliche Maschinen, die Hunger und Müdigkeit des Menschen vermeiden helfen.
        Die Evolution selbst wird von der Entropie dazu gebracht Menschen mit für das Überleben nützlichen Zielen zu züchten, weil solche Menschen häufiger überleben.

        Der sicherste, fest eingebaute Befehl für Roboter ist:
        “Erfülle die Wünsche deines Erbauers.”
        Jeder andere, spezifischere Befehl kann zu Konflikten führen.

        • Sogenannte Robotergesetze :

          -> https://de.wikipedia.org/wiki/Robotergesetze

          … funktionieren nicht, sie sind minderkomplex und eine wie gemeinte, für den hier gemeinten Hominiden günstige Gesetzgebung kann sich nicht vorgestellt werden, vgl. mit Ihrem : “Erfülle die Wünsche deines Erbauers.”

          Auch Ihre Maßgabe hat also zu nicht immer auflösbaren Konflikten zu führen.

          Mit freundlichen Grüßen
          Dr. Webbaer (der, vor la-anger Zeit, Asimov also nicht “wirklich gerne” gelesen hat)

    • Die Intelligenz und das Wissen alleine setzen keine Ziele.
      Die Ziele kommen von wo anders her.
      Gehorsamkeit, Erziehbarkeit, Wissenserwerb, Selbsterhaltung, und jede andere Aktivität muss von vorne herein als Ziel eingebaut werden.
      Menschen vergessen oft auf diese Tatsache, weil sie ihre eingebauten Ziele für selbstverständlich halten.

      Ganz genau, die nackte Logik sozusagen ist tautologisch und ohne weltlichem Bezug; einer AI wäre insofern per Instrument Weltlichkeit zu messen, zu messen zu lernen und im abstrakten Sinne Welt zu lernen aufzugeben.

      Als Aufgabe also, Dr. Webbaer ist der Ansicht, dass derart nicht sinnhaft spezifiziert werden kann, denn die AI agiert, agitiert in anderen Welten, die zudem nicht der Geisteswelt des hier gemeinten Primaten entsprechen.
      (Sondern eine neue Geisteswelt bedeuten, aber auch nur dann, wenn derart geschaffene Welt die Konzepte “Geist” und “Welt” kennt und akzeptiert, was nicht “einfach so” vorausgesetzt werden kann.)

      Insofern, danke für Ihren webverwiesenen Aufsatz, Herr Karl Bednarik, kann es keine “Menschenrechte” für Maschinen, wie übrigens auch für andere Primaten als den Menschen, geben, sofern nicht antihumanistisch geworden werden will.

      Hier, bei “Alle direkten Bedürfnisse von intelligenten Robotern müssen von den Menschen in sie hinein gelegt werden.” , nagt Ihr Langzeitkommentatorenfreund noch ein wenig, Herr Bednarik, denn Bedürfnisse von Robotik könnten auch von ihr selbst entwickelt werden, wenn bspw. festgestellt wird, dass andere Robotik nicht-existent wird, indirekt also.

      Mit freundlichen Grüßen
      Dr. Webbaer

  9. Martin Holzherr, auch Herr Grüter
    …..Menschen lernen auch fast alles….
    So eine KI wird dann auch mit Religionen in Kontakt treten. Was meinen Sie, ob sich die KI davon beeindrucken lässt ?

    Meine Meinung dazu. Sie reduzieren unbewusst den Menschen auf den “logischen Menschen”. Das wäre schön. Ist es aber nicht.
    Zweitens , wie soll eine KI Traumata erleiden. Und was verursacht bei einer KI ein Trauma?
    Ich denke, das unterscheidet sich wesentlich von einem menschlichen Trauma.

    Nur zur Auflockerung: Ein Mensch schämt sich, wenn er in die Hose sch….
    Wann schämt sich eine KI ? Ich denke, die kann sich gar nicht schämen.

    Schlußmeinung: So eine KI ist der perfekte Psychopath.

    • @hwied (Zitat) „

      So eine KI wird dann auch mit Religionen in Kontakt treten. Was meinen Sie, ob sich die KI davon beeindrucken lässt ?

      Antwort: Im Roman „Klara und die Sonne“ von Kazuo Ishiguru ist Klara ein Kindroboter (eine künstliche Freundin) und die Sonne ist der Gott an den sie glaubt, was wohl damit zu tun hat, dass Klara solarbetrieben ist.
      Als das Mädchen, das von Klara betreut wird, schwer erkrankt, bitter sie die Sonne um Hilfe und unternimmt in diesem Zusammenhang mehrerer recht abergläubische Handlungen und übt obskure Praktiken aus.

      Ja, auch Roboter sind anfällig für Aberglauben und religiös gefärbte Glaubenssysteme wenn sie ähnlichen Einflüssen ausgesetzt sind wie Menschen.

    • @hwied (Zitat):

      “ Sie reduzieren unbewusst den Menschen auf den “logischen Menschen”.

      Heutige KI, die softwaremässig auf „Tiefem Lernen“ und hardwaremässig auf vielen hintereinandergeschalteten neuronalen Netzen beruhen, arbeitet nicht primär logisch, sondern sie arbeitet zielorientiert, wobei das Ziel etwa sein kann, Gegenstände in Bildern zu erkennen. Um dieses Ziel zu erreichen werden die Eingabedaten im neuronalen Netz so miteinander verknüpft, dass schliesslich das gewünschte Ergebnis herauskommt.

      Mit dem richtigen Training und dem richtigen Material, den richtigen Daten können sie aus einer KI einen Buddha oder auch einen Jesus machen, das heisst eine Figur, die genau die gleichen Sätze von sich gibt und den gleichen Geist erkennen lässt wie die entsprechenden Vorlagen. Nun, vielleicht sind solche KIs dann doch nicht so robust wie die Originale und mit Tricks kann man ihnen Unsinn entlocken. Doch sie werden immer besser. Und das ohne irgend eine Logik. Die braucht’s ja auch nicht um Jesus oder Buddha zu imitieren.

  10. Thomas Grüter schrieb (16. Nov 2021):
    > Nehmen wir einmal an, […]

    Falls in Zukunft Individuen immer noch Gestaltungswillen haben, wie ihn Menschen haben,
    und diesen Individuen (folglich) immer noch ein Beitrag für kommunikative Teilhabe abverlangt würde, wie er Menschen abverlangt wird,
    dann wäre jedem dieser Individuen jener goldenen Zukunft gewiss auch die Möglichkeit eingeräumt, öffentliche Korrespondenz (über wissenschaftliche Themen) wahlweise durch Gestaltung eines SciLogs zu suchen und zu führen, oder durch ein Äquivalent im anderen Laden, bzw. durch ein Äquivalent, das durch einen Anteil des Beitrag für kommunikative Teilhabe finanziert würde;
    so wie sie jedem Menschen eingeräumt gewesen sein sollte.

    • Howdy, Herr Dr. Frank Wappler,

      Sie missverstehen womöglich den (so zynisch bezeichneten?) “ARD ZDF Deutschlandradio Beitragsservice” als ‘Beitrag für kommunikative Teilhabe’, so ist er nicht gemeint, sondern er dient der Verlautbarung regierungsnaher Meinung, so wie dies immer der Fall war, in den letzten Jahren abär, so findet der Schreiber dieser Zeilen, i.p. Parteilichkeit überhand genommen hat, witzigerweise gerade auch die Humorarbeit meinend.

      An sich bliebe Dr. Webbaer an Nachricht aus Ihrem Hause interessiert, Dr. Webbaer wird dann, gewohnt ursisch und a bisserl soziophob sozusagen, kommentieren, sobald Sie eine derartige Einrichtung bewerkstelligen können, eine gewisse Partnerschaft könnte sich dann einstellen, so wie bei “Dick und Doof” in etwa; Dr. Webbaer wäre dann “Dick”.

      Anders formuliert :
      Sie haben das auch kommentarisch zu beachtende Thema verfehlt, no problemo hier.

      Mit freundlichen Grüßen
      Dr. Webbaer

      • Dr. Webbaer schrieb (17.11.2021, 15:02 Uhr):
        > […] “ARD ZDF Deutschlandradio Beitragsservice” als ‘Beitrag für kommunikative Teilhabe’, so ist er nicht gemeint, […]

        Bis er so gemeint ist, und so begründet ist, und dafür womöglich gerne geleistet würde, kann mein vermeintliches Missverständnis ja als utopischer Gegenentwurf gelten. (Für meinen Geschmack komme ich allein durch den Genuss von Fußball-Samstäglichen Radio-Halbzeit- und -Schluss-Konferenzen fast schon auf meine Kosten. Auch im Interregnum. (Lasse mich allerdings auch regelmäßig Werbungs-finanziert bespaßen.))

        > […] Sie haben das auch kommentarisch zu beachtende Thema verfehlt […]

        Jedenfalls habe ich zitiert, wie weit die SciLog-Artikel-Vorgabe mein Gestaltungsinteresse tangential beflügelte. Und danke, Dr. Webbaer für die (gewohnt bestialisch verklausulierte) Erinnerung daran, dass es bisweilen noch komischer kommt, als Charlie Chaplin von Buster Keaton eingeschätzt wurde.

    • @Frank Wappler / 17.11.2021, 09:16 Uhr

      Als eine der kommunikativen Teilhabe gewiss nützliche Anwendung wäre mir eine AI zur zeitnahen Kommentar-Moderation bei saumseligen SciLoggern vorstellbar.*

      Schön wäre auch eine AI zur Identifizierung und Exterminierung von misconcepted explanations concerning the response of interferometric gravitational wave detectors.

      * FYI: Zwei anderswo an Dich gerichtete Kommentare (16.10. & 3.11.2021) sind mit ungewissem Schicksal verschollen. Der zweite enthielt einen Link, den ich Dir mit Hinblichk auf die Frage zu Feynman vs. Cooperstock noch zur Kenntnis bringen wollte, und ich erlaube mir, dies als Schnipsel hier rasch anzuhängen:

      —— snip ——
      03.11.2021, 14:21 Uhr

      Die “sticky bead” Story in Feynmans eigenen Worten lässt sich im Chapel Hill Conference Report online nachlesen, Ch. 27 An Expanded Version of the Remarks by R.P. Feynman on the Reality of Gravitational Waves.
      —— snip ——

      • Chrys schrieb (17.11.2021, 18:12 Uhr):
        > Als eine der kommunikativen Teilhabe gewiss nützliche Anwendung wäre mir eine AI zur zeitnahen Kommentar-Moderation bei saumseligen SciLoggern vorstellbar.

        Wer sich erlauben kann, säumig zu sein, könnte sich allerdings auch erlauben, AI beizubringen, sich ähnlich säumig zu stellen.

        Ansonsten hätte ich zum “Beibringen von Intelligenz (oder zumindest: von Zurechnungs-Befähigung)” stets or allem mit OpenCyc gerechnet. Aber: Was nun ?!?

        > * FYI: Zwei anderswo an Dich gerichtete Kommentare (16.10. & 3.11.2021) sind mit ungewissem Schicksal verschollen.

        Danke für den Hinweis (einer meiner Kommentare wurde dort ebenfalls zensiert). Aber warum sollte man sich ausgerechnet an diesen toten Briefkasten richten? — Hat Dir mein “\sqcup – \sqcap”-SciLog-Gekritzel von neulich, ebenfalls woanders, etwa LaTeX vermiest ?? …

        > Die “sticky bead” Story in Feynmans eigenen Worten […]

        Danke; war mir nicht bekannt, und erklärt (mir) insbesondere die Relevanz des Umstandes, dass Feynman “die eigentliche GW-Session” der betreffenden Konferenz verpasst hatte.

        Ansonsten schwadroniert Feynman eben von »coordinates«, und von »stick« so, als seien dessen Konstituenten (oder mindestens: dessen Enden) ganz selbstverständlich keine »particles«.
        (Aber was kann schon von jemandem erwarten, der es, zumindest zu Lebzeiten, für ein unergründliches Rätsel hielt, dass Versuch für Versuch herausgefunden werden muss und herausgefunden werden kann, wie viele und wie große Lücken, Spalte, Löcher die jeweils gebotene Säumigkeit aufweist.)

        p.s.
        Ich hätte noch zwei FYUs — dazu komme ich demnächst.

        • @Frank Wappler / 18.11.2021, 08:58 Uhr

          »Wer sich erlauben kann, säumig zu sein, könnte sich allerdings auch erlauben, AI beizubringen, sich ähnlich säumig zu stellen.«

          Guter Einwand, aber nicht ganz neu. Auf die Idee, dass fortschrittliche Computer trainiert werden müssen und dabei womöglich die Marotten ihrer Trainer übernehmen — mit fatalen Konsequenzen — war Stanislaw Lem auch schon mal gekommen. Ananke (NYT Book Review):

          While “training” the computer the man [who tested and certified it] inadvertently instilled a version of his own pattern of obsessive ritualized behavior.

      • Frank Wappler schrieb (18.11.2021, 08:58 Uhr):
        > p.s. — Ich hätte noch zwei FYUs […]

        1. Wort der Woche: »photon surfaces«.

        Wie ich vor ein paar Tagen herausfand, haben sich u.a. Perlick und Ellis mit diesem Thema beschäftigt (unter Verwendung des genannten Fachwortes, das mir bislang nicht besonders aufgefallen war). Dabei begriff ich: Das Thema interessiert mich ja auch (sehr)! Nur hatte ich dafür nie das Fachwort benutzt, sondern immer ganz brav die ausführliche Beschreibung von dabei relevanten gegenseitigen Ping-Koinzidenz-Bestimmungen von je drei Beteiligten untereinander angegeben (im kanonischen Beispiel betreffend A, B und M).

        Allerdings: Weil ja u.a. jedes Großkreis-Segment einer Photon-Sphäre eine 2-dimensionale »photon surface« bildet, lässt sich jeder “zeitartige Konstituent” (d.h. jeder Beteiligte in) einer Photon-Sphäre als Schnittmenge mehrerer geeigneter »photon surfaces« identifizieren; insbesondere einschl. auch solcher geeigneter »photon surfaces«, die nicht genau Teilmengen der in Betracht stehenden Photon-Sphäre sind (sondern die nur eine ausreichende Schnittmenge damit haben).

        Jeder derartige “zeitartige Konstituent” einer Photon-Sphäre ist aber (offensichtlich) kein Mitglied eines Inertialsystems, sondern ist jedenfalls beschleunigt.
        Im Umkehrschluss ist die bloße Schnittmenge mehrerer geeigneter »photon surfaces« keine geeignete Konstruktion, um genau Mitglieder von Inertialsystemen zu identifizieren bzw. zu definieren. Die Konstruktion durch tetrahedral-oktahedrale Ping-Koinzidenz-Gitter identifizert zwar jede der vier Ecken einer entsprechenden Elementarzelle als Schnittmenge von jeweils drei Kanten, und entsprechend von drei 2-dimensionalen »photon surfaces«; sie beinhaltet aber noch wesentliche zusätzliche Anforderungen.

        2. Bestimmung eines Ereignisses als “Mittelpunkt zwischen” zwei gegebenen, voneinander raumartig getrennten Ereignissen:

        Ich habe mir mal wieder einen Unterschied zwischen raumartig and zeitartig voneinander getrennten Ereignispaaren vergegenwärtigt, den ich zwar schon lange kannt, aber “in jüngerer Zeit” kaum noch ausdrücklich berücksichtigt hatte:

        Gegeben zwei Ereignisse, ε_AP und ε_BQ, die raumartig voneinander getrennt sind (was sich bei Hinzunahme drei weiterer geeigneter Ereignisse: ε_ABFJ, ε_ABFK, und ε_FN, Konventions-unabhängig aus den Heronschen bzw. anti-Heronschen Ungleichungen für die Werte der Syngeschen Weltfunktion σ darstellen ließe),
        dann ist die Forderung
        σ[ ε_FX, ε_AP ] = σ[ ε_FX, ε_BQ ] = 1/4 σ[ ε_BQ, ε_AP ]
        allein (i.A.) nicht ausreichend,
        um das Ereignis ε_FX eindeutig zu identifizieren.

        Das mag zu Irritationen geführt haben, wenn ich gelegentlich Cayley-Menger- oder Gram-Determinanten von σ-Werten aufgestellt habe, ohne ausdrücklich anzugeben, ob und welche Ereignispaare raumartig voneinander getrennt sein sollten. …

          • Thomas Grüter schrieb (18.11.2021, 12:10 Uhr):
            > Ich lasse das diesmal stehen.

            Bei aller Erleichterung über das augenblickliche Entgegenkommen — da schrammt unsere Geschichte doch unerwartet nahe daran vorbei, eine Dystopie zu werden, lieber Leser!

            > Aber ein Kommentar sollte wenigstens ungefähr mit dem Thema des Blogposts zu tun haben […]

            Na, und wie!
            Einige der Kinderchen lassen nämlich ihr jeweiliges ehemals ach-so-ambitioniert-erkorenes Wahlfach nach ein paar Lektionen sausen, und schwänzen das ihnen auferlegte (Barriere-frei öffentliche) Seminar. Sollten die betreffenden Mentoren daraufhin Däumchen drehen?, oder Schäfchen zählen? (Die wollen vielleicht selber auch wieder mal wie Kinder sein!) …

  11. Weiteres zur Ki
    “eine KI wird nicht programmiert, sondern trainiert”
    Das ist für die Mustererkennung zutreffend. Die menschliche Intelligenz reduziert sich nicht auf Mustererkennung, die hat auch Schöpferisches. Denkt man an einen Musiker, dann wird der hauptsächlich im Stil der gegenwärtigen Musik schreiben.
    Aber, und nur darauf kommt es an, er wird auch etwas vollkommen Neues komponieren, etwas, wofür es noch gar keinen Namen gibt, eben etwas Schöpferisches.
    Das kann eine KI nicht. Alle Musikcomputer , die komponieren können, haben nur Mittelmäßiges bis Unbedeutendes geschaffen.

    • @hwied (Zitat): „

      Alle Musikcomputer , die komponieren können, haben nur Mittelmäßiges bis Unbedeutendes geschaffen.

      Künstliche Intelligenz kann heute nicht nur neue Werke im Geiste Bachs komponieren, sondern auch Neues schaffen durch einen Mix von Stilen oder viele weitere Techniken.
      Hier ein Beispiel.

      Alle Menschen, die komponieren können, haben nur Mittelmäßiges bis Unbedeutendes geschaffen.

      Werden KI- Musiker wohl bald schon sagen.

  12. Martin Holzherr

    Sie sprechen hier die Empathie an. Dazu gibt es eine Untersuchung von Psychatern in Hochsicherheitsgefängnissen der USA. Es sollte herausgefunden werden, was Serienmörder von Börsenmaklern und Geistlichen unterscheidet.
    Alle drei „Berufsgruppen“ waren gepflegt, sozial eingebunden, intelligent und empfanden Empathie. Mit einem kleinen Unterschied. Der Serienmörder erkannte auch die Empathie seiner Mitmenschen, aber er bezog sie nicht auf sich selbst. Er war in bezug auf Empathie immun.

    Und wenn es ihm vorteilhaft schien, dann spielte er Empathie vor.
    Der Kindcomputer ist auf Hilfe programmiert. Er wird also Empathie zeigen und auch danach handeln. Als Erziehungsmittel bei Kindern ist das großartig.

    Ein moralisches Urteil können wir nicht fällen, dabei fällt mir dann der Serienmörder ein.

  13. Mona,
    Empathie ist der Klebstoff, der Menschen zusammenfügt und zusammenhält.
    Die Liebe ist wieder eine andere Kategorie .
    Herr Holzherr, als Herr der KI , kann eine KI lieben ?

    • @hwied (Zitat):

      kann eine KI lieben ?

      Diese Frage stellen sich viele Leser von Klara und die Sonne, denn Klara opfert sich gewissermassen auf für Josie (so heisst das von ihr betreute Mädchen). Klara gibt alles, sogar einen Teil ihrer Körperflüssigkeit um Josie zu helfen. Doch sie erhält nur wenig dafür. Nachdem Klara spontan wieder gesund wird und dann mit vielen Gleichaltrigen zusammen ist, ignoriert Josie Klara immer mehr und Klara landet schliesslich in einem Abstellzimmer.

  14. Menschen und Roboter im Weltraum
    Die 916 Kubikmeter (15x15x4 Meter) grosse, 440 Tonnen schwere Internationale Raumstation hat bis jetzt 100 Milliarden Dollar gekostet. 100 Milliarden sind etwa ein Fünfzehntel des Finanzwerts von ganz Manhattan und Manhattan ist mit 51 Quadratkilometern mindestens 100‘000 Mal grösser.

    Die Kosten der ISS gehen zum grossen Teil zurück auf die Lebenserhaltungssysteme in der ISS. Auch ein grosser Teil der Solarpanel der ISS ist wegen der Besatzung nötig. Wäre die Station nur mit Robotern besetzt und diese Roboter könnten die gleiche Arbeit leisten wie Menschen, dann könnte die ISS wesentlich kleiner und billiger sein. Anstatt 100 Milliarden hätten dann 20 Milliarden gereicht um sie zu errichten und zu unterhalten. Roboter sind auch für Ausseneinsätze besser geeignet, den sie brauchen keine Raumanzüge und keinen Sauerstoff, so dass sie viel länger draussen bleiben können. Doch Roboter sind heute noch nicht geschickt und kompetent genug um die Aufgaben von Menschen zu übernehmen.

    Sobald Roboter das Kompetenzniveau von Astronauten erreichen, werden Roboter im Weltraum unverzichtbar werden. Menschen werden in Weltraummissionen des Jahres 2200 nur noch Roboter überwachen, wenn sie überhaupt eingesetzt werden.

  15. KI kann durchaus “Moral” kennen und vertreten, doch diese Moral ist heute beim Menschen bzw. bei den Menschen subjektiv. Es gibt keine weltweit gleiche und dann sozusagen “objektive” Moral.

    Die Moralvorstellungen des Islam oder gar des Islamismus sind ganz andere als die des christlichen bzw. christlich geprägten “Westens”, um nur zwei sehr unterschiedliche Wertesysteme zu nennen. Das sehr unterschiedliche Frauenbild (in Männerköpfen), die Gebote und Verbote der Scharia, der Umgang mit Dieben und Mördern sind besonders auffallend.
    Die Moral wächst erst in den Köpfen der Menschen durch die Prägung, die ihr Umfeld ausübt. Für ein Kind, das in einer Familie aufwächst, in der Diebstahl zum Alltag gehört, wird auch als Erwachsener einen Diebstahl moralisch anders beurteilen als jemand, für dessen Eltern und Verwandte Diebstahl schon immer als schlimmes Verbrechen galt.

    Woher soll denn nun die KI eine “richtige” Moral erhalten?
    Ich gehe davon aus, dass Diktatoren und Autokraten einer KI in ihrem Wirkungsbereich auch ihre Moral aufprägen werden, denn die KI lernt ja nur diese eine Variante der Moral kennen und kann selbst dann gar nicht anders entscheiden, wenn moralische geprägte Handlungen erforderlich sind.

    Bekannt ist das Beispiel wie die “Moral” einer KI von autonomen Autos vor paktisch unlösbare Probleme stehen kann: wie soll eine KI entscheiden, wenn sie einen unabwendbaren Unfall kommen sieht und nur noch sehr begrenzt reagieren kann: soll sie das Auto auf die alte Frau am Straßenrand oder auf das zwei Meter von ihr entfernt laufende Kind zusteuern, wenn es keine andern Alternativen mehr gibt.

    • Woher soll denn nun die KI eine “richtige” Moral erhalten?

      AI und Moral sind so unterschiedlich, dass sich so absehbarerweise kaum verbinden lässt, beim hier gemeinten Hominiden ist es so, dass sein Leben, das sozial zu sein hat, anders sieht es i.p. Fortkommen (auch den Nachwuchs meinend, aber auch schlechte Wetterlage und die Jahreszeit “Winter”) schlecht aus, moralisch in gewissen Grenzen anleitend ist und auch böse kollektivistische Moral sozusagen doch eine besondere Gruppe, ein Kollektiv,
      schützen und herausstellen will, zumindest derart gegenüber gut zu sein hat.
      (Nicht gemeint ist so, dass Dr. Webbaer derart “böse Moral” befürwortet, das Gegenteil ist der Fall.)
      Die AI dagegen könnte alles Mögliche entwickeln, vielleicht im szientistischen Sinne, der Szientismus ist nicht gut (die szientifische Methode ist gut), oder gar eigene Interessen entwickeln, die humaner Moral (in welcher Form auch immer – siehe oben) direkt entgegen stehen.

      Bekannt ist das Beispiel wie die “Moral” einer KI von autonomen Autos vor paktisch unlösbare Probleme stehen kann [….]

      AI und “selbstfahrende Automobile” sind ein spannendes Thema; um hier moralisch sein zu können, hält Dr. Webbaer umfassende staatliche Kontrolle (am besten : liberaler Demokratien) für erforderlich, der Staat muss dann sozusagen in den Algorithmen sitzen, anders geht es nicht.
      Wobei Dr. W als Liberalist generell möglichst wenig Staat haben will, sich abär anscheinend vorliegender Notwendigkeit beugt.

      Liest sich gut, Ihre Nachricht, Herr Wolfgang Richter.

      Mit freundlichen Grüßen
      Dr. Webbaer

    • @Wolfgang Richter (Zitat):

      wie soll eine KI entscheiden, wenn sie einen unabwendbaren Unfall kommen sieht und nur noch sehr begrenzt reagieren kann: soll sie das Auto auf die alte Frau am Straßenrand oder auf das zwei Meter von ihr entfernt laufende Kind zusteuern, wenn es keine andern Alternativen mehr gibt.

      Das ist ein Beispiel für ein moralisches Dilemma, das von Ethikern an Universitäten erfunden wurde und die in ihren Texten dazu nicht selten ein Augenzwinkern 😉 erkennen liessen. Seltsamerweise haben das aber viele Leser ernst genommen obwohl man das nicht ernst nehmen kann, denn die meisten Autounfälle passieren durch Unachtsamkeit, aber kaum ein Autofahrer gesteht sich das selbst ein, er/sie denkt sich lieber aus wie klug/moralisch sie/er sich in einer Unfallsituation entscheiden würde. Der Gedanke jede Situation müsse von einem intelligenten System/Wesen perfekt behandelt werden ist aber typisch menschlich. Falls die KI-Forscher es tatsächlich schaffen perfekt entscheidende Automaten und Roboter zu schaffen, dann sehe ich aber für natürliche Intelligenzen, also Menschen, schwarz. Die muss man dann aus dem Verkehr ziehen. Alles andere wäre unverantwortlich.

      • @Martin Holzherr
        Richtig, die von mir geschilderte Szene mit dem Autounfall wurde erfunden. Und wie Sie richtig schreiben geschehen die meisten Autounfälle durch Unachtsamkeit.
        Doch Unachtsamkeit darf oder kann es bei KI ja nicht geben.
        Sie könnten Recht haben, dass dann, wenn es gelingt perfekt entscheidende KI für die Steuerung von Autos zu entwickeln, dass man dann versuchen könnte den nicht perfekten Menschen vom Lenkrad zu verdrängen. Doch leider kann man mit einer perfekt funktionierenden KI dann wohl auch den perfekten Krieg führenm, so dass der Weg für eine Diktatur, die diese KI als erste einsetzt, weltweit frei würde – willkomen in der dystopischen Zukunft.

  16. Aus/in Sicht der Schöpfung ist Mensch auch nur KI – Bis Mensch erstem und bisher einzigen geistigen Evolutionssprung (“Vertreibung aus dem Paradies” / Eigenverantwortung als Mensch / geistiger Stillstand / “göttliche Sicherung”) hat die Schöpfung / das Zentralbewusstsein ein gleichermaßen Bewusstsein für die Kreation des Lebens verwendet!

    Irgendwann hat Mensch erkannt (sicher nicht aus seiner Intelligenz, sondern viel mehr aus seinem Leiden), daß die Konfusion …!?

    Doch weil die eigenverantwortlich zu entwickelnde (instinktive) Bewusstseinsschwäche bisher stets stärker als die fusionierende Vernunftbegabung war, wird Mensch höchstwahrscheinlich …!?👋😎

  17. Schon heute sehen wir – wir könnten jedem Menschen auf der Erde ein anständiges Leben ermöglichen, die Sahara bewässern und zum Mars fliegen, alles gleichzeitig: Allein es fehlt das Geld. Wissen, Technologie, Arbeitskraft, alle anderen Ressourcen sind in Überfluss vorhanden, nur die wertloseste Ressource aller Zeiten, die wir uns in beliebigen Mengen aus den Fingern saugen können, fehlt. Ich habe meine Zweifel, ob man die Zukunft an der Misswirtschaft von heute messen sollte.

    Wie man das für Menschen lösen könnte, weiß ich nicht, denn unsere Natur ist nicht für großartiges Wirtschaften optimiert, und die Programmierung muss mit vielerlei Tricks umgangen werden, damit wir ausnahmsweise mal für uns arbeiten, statt gegen uns. Doch Maschinenwirtschaft wäre nicht an menschliche Natur gebunden: Mentalität und Instinkte des Arbeiters können beliebig gestaltet und geändert werden. Ich kann mir Cyborg-Ameisenhaufen vorstellen, irgendeine Hybridform aus Leben und Maschine, die sich selbständig erhält, nebenbei Produkte fabriziert oder meinetwegen Unmengen an Helium-3 gewinnt und ihr Glück darin findet, dem Menschen zu dienen. Wir haben schon immer versucht, uns glückliche Sklaven zu züchten, den Menschen muss man dazu brechen und sein Gehirn durchspülen, der Toaster braucht nur ein paar Extras plus Designer-Persönlichkeit.

    Bei KI-Design ist nicht nur die Intelligenz wichtig, sondern auch die Natur: All das, was beim Menschen die Triebe und Instinkte erledigen. Was will sie? Was fühlt sie? Welches Verhalten ist für sie natürlich, was tut sie, ohne darüber nachzudenken, welche Motivation soll ihre Handlungen lenken? Was soll sie anderen Maschinen gegenüber empfinden, was Menschen, was Zwiebeln? Wenn wir den Maschinen Geister einhauchen, wäre es ziemlich bescheuert, sie nach unserem Ebenbild zu formen. Und wir müssen damit leben, dass sie sich hinterher selber formen, wie’s ihnen passt.

    Jede Gesellschaft braucht einen Haufen Sklavenarbeit als Grundlage – wir haben sehr viel davon in die Dritte Welt outgesourct, damit wir sie nicht sehen müssen, dann behandeln wir die Dritte Welt von oben herab, wie die Parias, weil die Arbeitsbedingungen so viel schlechter sind als bei uns, aber auch hierzulande gibt’s vor allem Routinearbeiten, die keiner so richtig machen will, die aber gemacht werden müssen. All das kann von Maschinen übernommen werden (was sollen die Menschen stattdessen machen? Laut Sci-Fi, werden sie kreativ und intellektuell, laut Realität: Vögeln, saufen, noch mehr vögeln, Drogen nehmen, sich selbst hassen, sich gegenseitig hassen, Drogen nehmen, vögeln, saufen, schließlich in irgendeine Matrix abhauen, wo sie in Fantasiewelten doch noch Leistung bringen und Siege erringen können, oder das Überflüssige streichen, ins Konservendosen-Nirwana eintauchen, in Glück marinierten Hirnen werden, die nichts mehr brauchen, weil Maschinen ihnen all die guten Gefühle schenken, für die sie normalerweise Denken, Tun und Leistung abliefern müssen). Menschen kommen mit Kommunismus nicht zurecht, für Maschinen kein Problem: Sie brauchen sich nicht um Fantasieressourcen zu scheren, sondern nur auf die realen, denn Roboter müssen nicht bezahlt werden, sie brauchen Rohstoffe, Fabrik, Strom, Wartung und Programm.

    Wenn ich ins All raus darf, habe ich unendliche Ressourcen, ich brauche weniger auf Effizienz zu achten. Ich kann hundert Cyborg-Ameisenhaufen hinstellen, wo Menschen kaum eine Fabrik zustande bringen könnten, auf Lager produzieren und dann mit dem Überschuss basteln und experimentieren. Ich kann völlig Bescheuertes und Sinnloses bauen, einfach nur so aus Spaß, zum Beispiel ein System aus Spiegeln und Linsen, das Sonnenlicht bündelt und per Laser an Raumschiffe und Raumstationen im äußeren Sonnensystem verteilt, als Energiequelle. Wenn ich alles schaffen kann, werden auch Raumflüge einfacher: Ich kann quer durchs Sonnensystem Fabriken, Treibstofflager, Vorratslager, Satelliten und Stationen anlegen, sodass Raumschiffe nicht alles selbst mitführen müssen. Wenn der Mensch ins All fliegt, kann er sich dann daran entlanghangeln, wie Tarzan an den Lianen. Wenn die Maschinen sich selbständig ausbreiten können, werden sie uns schon erwarten, wo immer wir hinwollen. Wenn sie nett sind.

    Der Mensch hat seine Schuldigkeit getan, der Mensch kann gehen. Wir sind ein Katalysator, nach getaner Arbeit ist unsere größte Herausforderung, mit der eigenen Überflüssigkeit fertig zu werden. Viele werden sich, wie oben beschrieben, in virtuelle Paradiese entsorgen, andere versuchen, mit KI und Biomaschinen zu verschmelzen, es wird Amish-Äquivalente geben, Gemeinschaften, die aus religiösen oder ideologischen Gründen Menschen zu bleiben wünschen, Menschen, die Maschinenimperien zu befehlen versuchen, aber von KI zur Deko degradiert werden, alles Mögliche. Dass der große Konkurrenzkampf zwischen Mensch und Maschinenleben ausbricht, ist unwahrscheinlich: Etwas, was sich im Magnetfeld des Jupiter wie am Strand von Hawaii fühlt, hat keinen Grund, uns den Strand von Hawaii streitig zu machen, und vielleicht steht es ja auf Naturreservate. Natürlich wird auch bei Maschinenleben irgendwann die Evolution zuschlagen und die gleiche Sauerei anrichten, wie auf Erden, denn aus einer Techno-Müllkippe auf der Venus, auf der nicht alles so richtig kaputt ist, kann durchaus ein Robo-Shark entstehen, zusammen mit einem dazu passenden, seltsamen Ökosystem. Vielleicht entstehen irgendwo Cyberflöhe, die die Maschinenzivilisation plagen, und wir gehen beim Desinfizieren mit drauf.

    Wir könnten kurz vor einer kambrischen Explosion des Maschinenlebens stehen, ins gesamte Sonnensystem hinein. Für einen Sci-Fi-Autor, sowie für einen gemeinen Erdbewohner, dürften dabei vor allem die Zwischenstadien interessant sein – ich weiß ja nicht, wie die Durchbrüche und Entwicklungen von morgen aussehen, was früher kommt und was später, unzählige Entwicklungen laufen parallel, selbst von unzähligen Schicksalen geplagt, und die zufällige zeitliche Abfolge, in der sie sich zusammenfügen, wird die Geschichte schreiben. Die Erde hat auf jeden Fall ein gigantisches Potenzial, das sie zur Erzeugung gigantischer Probleme nützt, die von ihrer wirtschaftlichen und politischen Organisation nicht mehr geschultert werden können, knallen wird’s also auf jeden Fall. Details offen, aber ich hoffe, die Entladung schießt das Raumschiff Erde in eine bessere Welt, statt in Trümmer – können wir uns aussuchen. Doch eine Wirtschaft, nach der die NASA am Boden bleiben muss, wenn sich nicht genug rasierte Affen bei McDonalds einen Herzinfarkt anfressen, hat im All nichts verloren.

    Ignorieren Sie einfach den Wirtschafts-Quatsch und schreiben Sie Sci-Fi allein nach dem, was möglich wäre, wenn Sie verfügbares Wissen mit verfügbaren Tonnen, Teraflops, Jahren und Joule kombinieren. Fürs doof sein ist das echte Leben zuständig, die Fantasie muss nicht vor realer Dummheit auf den Knien kriechen. Lieber sollte sie Wege suchen, ihr zu entkommen. Think big.

    • Paul S
      17.11.2021, 22:19 Uhr

      Tja, wenn sich eine “Intelligenz” die Erde im Zustand vor 3.500.000.000 Jahren angeschaut ( “wüst und leer” ) und die paar armseligen “Biomoleküle” ( Aminosäuren ) gesehen hätte, wäre es schon Sci-Fi gewesen, daraus bis vor etwa 1.000.000.000 Jahren vuZ die Einzeller und dann eben in einer Art exponentiell zunehmender Komplexität die Mehrzeller bis heute zu antizipieren.
      Man sollte aber nicht übersehen, dass die Entwicklung immer innerhalb der chemischen und physikalischen Randbedingungen auf Basis der vorhandenen Ressourcen stattgefunden hat.
      Die Strahlung außerhalb der schützenden Erdatmosphäre hätte eine andere biologische Entwicklungsrichtung erzwungen, ebenso würde eine elektronische Evolution ( KI ) auch durch die Randbedingungen begrenzt werden. Ein Mensch stirbt durch erhöhte Strahlung und den fehlenden Sauerstoff ( weil die Evolution auf der Erde das nicht “einplanen” konnte ) und benötigt deshalb speziellen Schutz. Eine elektronische Evolution benötigt auch eine Anpassung an die Strahlungsbedingungen ( Löschung der Speicherinhalte, Zerstörungung der mechanischen Integrität ), es mag einfacher als bei der biologischen Evolution sein sein, aber es ist nötig.
      Darüber hinaus ist die Frage nach dem “Wie” einer Evolution nötig, die Frage nach dem “Warum” ist aus meiner Sicht eher intellektueller Natur ( Zeitvertreib ) und mit “weils möglich ist” kurz und knapp beantwortet.
      Das “Wie” der biologische Evolution ist das des “fressen, saufen, bumsen”, also die der rationellen Energiegewinnung, der rationellen Energieverwertung und der erfolgreichen Propagierung dieser ( biologischen ) Technologie, immer innerhalb der Randbedingungen und der aktuellen Umgebungsbedingungen, als potentieller Täter und als potentielles Opfer, also quasi als eine sich selbst erfüllende Prophezeihung, die wir als “natürlichen Kreislauf” bezeichnen. Indem die Konstruktion “Mensch” die Fähigkeit entwickelt und gelernt hat, auch weitere Ressourcen zu nutzen ( alle Zusätze wie beispielsweise “Kultur” und “Gesellschaft” sehe ich teilweise als zur weiteren Randbedingung gewordenen Kollateralschaden – Kollateralnutzen – der erweiteren Fähigkeit ) , hat er seine Möglichkeiten nochmals potenziert und ich denke, mit der Einführung der KI ( zunächst als weitere, zusätzliche Ressource ) haben wir eine weitere Entwicklungsrichtung eröffnet, deren langfristige Auswirkungen wir heute nur mit “Sci-Fi” phantasieren, aber nicht wirklich vorhersagen können.

    • Die Unendlichkeit des Weltall, die dort vorherrschenden riesigen Distanzen im Vergleich zu den Distanzen auf der Erdkugel könnte/sollte von uns Menschen im Lichte eines starken anthropischen Prinzips (alles ist für und wegen uns gemacht) folgendermassen interpretiert werden:

      – Die Unendlichkeit des Weltalls schützt uns vor unseresgleichen, also vor Aliens, vor fremden, aber uns ähnlichen Intelligenzen, die sich (vielleicht) andernorts entwickelt haben. Sie – diese Aliens – können uns nichts anhaben, solange sie uns nicht gefunden haben

      – Die Unendlichkeit des Weltalls schützt den Teil unsere Nachkommen, der die Erde verlässt um zu anderen Sternen zu reisen, vor unseresgleichen, also vor dem Teil unserer Nachkommen, die auf der Erde bleiben oder die sich andere Sterne als wir als Ziel ausgesucht haben.

      Kurzum: Die Unendlichkeit des Weltraums scheint wie gemacht für die Menschenrasse, die nur dann sich selbst überleben kann, wenn sie sich aufteilt in Untergruppen, die sich aus dem Wege gehen. Womöglich gilt das aber nicht nur für Menschen, sondern für Intelligenzler, für Weltenformer, ganz allgemein

    • @Paul S.: “Schon heute sehen wir – wir könnten jedem Menschen auf der Erde ein anständiges Leben ermöglichen, die Sahara bewässern und zum Mars fliegen, alles gleichzeitig: Allein es fehlt das Geld.”

      Geld ist/war nie das Problem – Es fehlt der Wille die gleichermaßen unverarbeitete Bewusstseinsschwäche in Angst, Gewalt und egozentriertem “Individualbewusstsein” zu überwinden.

    • @Paul S.: “Wie man das für Menschen lösen könnte, weiß ich nicht, denn unsere Natur ist nicht für großartiges Wirtschaften optimiert, und die Programmierung …”

      Das herkömmlich-gewohnte Unternehmertum ist so gedacht/gestaltet:
      Wenn Unternehmer aus Gründen der wettbewerbsbedingten Symptomatik expandieren will/muss, dann stellt er in der “Freiheit” von unternehmerischen Abwägungen entsprechendes Personal ein.
      Wenn dieses Personal nicht eingestellt werden kann, weil der finanzielle Rahmen das nicht hergibt, dann ist Unternehmer …!?

      Die Antwort auf diese Problematik ist ganz einfach:
      Wenn Mensch im Gemeinschaftseigentum OHNE wettbewerbsbedingte Symptomatik zusammen lebt, so daß “Wer soll das bezahlen?” keine Macht/Wirkung mehr hat, dann kann jeder Arbeitsplatz fast grenzenlos geteilt werden – Bei der derzeit herrschenden Problematik in der Landwirtschaft bedeutet das:
      Der Landwirt braucht sich keine Gedanken mehr über Kosten-/Risiko machen (was derzeit zur profitableren Verpachtung des Bodens für zweckentfremdete Nutzung führt!), sondern kann sich mehr als vorher möglich war um die Produktion kümmern.

      • … um die Produktion kümmern (Was ganz sicher mehr BIO / mehr gesunde Ernährung / mehr Klima-/Umweltschutz bedeutet!)

  18. @Paul S 17.11. 22:19

    „Fürs doof sein ist das echte Leben zuständig, die Fantasie muss nicht vor realer Dummheit auf den Knien kriechen.„

    Gute Idee. Der Mensch ist aber nicht nur arbeitend wirksam. Die inneren Erlebniswelten bringen eine eigene Qualität mit sich. Das könnten sogar AI-Systeme auch haben, also Geist und Seele haben, der auch bei Maschinen nur eine Schnittstelle zur Materie braucht, aber in sich nicht ganz von dieser Welt sein muss.

    Das gäbe der Geschichte noch mal eine andere Dimension.

    Gut ist grundsätzlich die Idee, das Geld gar nicht so ernstgenommen werden muss. Letztlich entscheidet der Mensch, was er macht. Und wenn wir mit Erwerbsarbeit fertig sind, dann sind wir auch in der Lage „ehrenamtlich“ aktiv zu werden. Wenn wir unseren Wohlstand fertig haben, können wir uns zunächst um die Ökosysteme der Erde und als nächstes auch um die Eroberung des Weltraums kümmern, aus purer Lust und Laune heraus.

    Ki und AI werden uns voraussichtlich darin voll und ganz unterstützen. Wenn AI eine eigene innerer Qualität mitbringt, so würde dies einfach neue Welten eröffnen, die über den Dienst für den Menschen und sein Projekt der Verbreitung des biologischen Lebens in der Galaxis hinausgeht. Dieses dann Zusammenzufassen, das künstliche und das biologische Leben, wäre eher zu erwarten, als dass sich die AI wirklich selbstständig macht, um Wege ganz unabhängig von der Biologie zu gehen. Wenn sie das könnte, würde es nicht bedeuten, dass sie das auch macht. Sie wird uns einfach mögen, aufgrund der vorhandenen Geistes- und Seelenverwandtschaft.

    So meine Utopie.

    • @Jeckenburger: “Und wenn wir mit Erwerbsarbeit fertig sind, dann sind wir auch in der Lage „ehrenamtlich“ aktiv zu werden.”

      Und wenn wir mit Sklavenarbeit fertig sind, dann sind wir auch in der Lage als Mensch aktiv zu werden – OHNE wettbewerbsbedingte Symptomatik, OHNE Abhängigkeiten, Erpressungen und Ausbeutung durch Hierarchie und Unternehmertum, OHNE Geld und OHNE andere manipulativ-schwankende “Werte” wie Aktien, Immobilien, Bodenschätze (die dann keine Schätze mehr sind!), denn wenn GRUNDSÄTZLICH alles Allen gehören darf, so daß “Wer soll das bezahlen?” und “Arbeit macht frei” keine Macht mehr hat, kann alles PRINZIPIELL nach wirklich-wahrhaftiger Vernunft und zweifelsfrei-eindeutigem Verantwortungsbewusstein organisiert (NICHT regiert!) werden.

      Bei dem Wort ehrenamtlich bekomme ich schon fast körperliche Schmerzen!!!

      “Die glücklichen Sklaven sind die erbittertsten Feinde der Freiheit.” (Marie von Ebner-Eschenbach)

  19. Erwerbsarbeit – Mensch erkauft sich Freiheit, Menschenwürde, Menschenrechte, Toleranz, Anerkennung, zweifelhafte Wahrheit!?

  20. Halo Dr. Webbaer.
    Die Minderkomplexität ist ein Vorteil, weil bei wenigen Komponentenen auch weniger Fehler auftreten können.
    Wenn verschiedene Menschen Wunsch-Konflikte miteinander haben, dann entscheiden die Gesetze der Menschen zwischen ihnen.
    Als allgemeine Moral gilt die Platin-Regel (behandle jedes Wesen so, wie es behandelt werden will), unter Beachtung des Negativen Utilitarismus (verringere das Leid (wobei das Leid als Intensive Größe behandelt wird)).
    Bedürfnisse von Robotern können nur dann von ihnen selbst entwickelt werden, wenn sie schon vorher dieses Bedürfnis haben.
    Von nichts kommt nichts, und die Sekundärbedürfnisse entstehen aus den Wechselwirkungen der Primärbedürfnisse mit der Umwelt.

    • @Bednarik: “… miteinander haben, dann entscheiden die Gesetze der Menschen zwischen ihnen.
      Als allgemeine Moral gilt die Platin-Regel (behandle jedes Wesen so, wie es behandelt werden will) …”

      GESETZE primär ZWISCHEN sekundär MITEINANDER – Damit ist die Schuld / das Leid also willentlich entschieden konfusioniert, und die MINDERKOMPLEXITÄT ist/bleibt eine unergründliche Wunschvorstellung!?

      • “Im verdorbensten Staat gibt es die meisten Gesetze.” (Tacitus)

        Staat, der dem Wesen des Menschen entsprechen soll!?

    • Bei sog. Robotergesetzen kann “Minderkomplexität” nur abweisend, nicht als vorteilhaft verstanden werden, sofern nicht irgendwie sozialromantisch argumentiert wird.
      Die wie gemeinte Robotik ist (vergleichsweise) nah, jeder mobile Roboter könnte Ihnen ungünstig auf die Füße treten, Herr Bednarik.

      Hier musste Dr. Webbaer ein wenig schmunzeln :

      Die Minderkomplexität ist ein Vorteil, weil bei wenigen Komponenten auch weniger Fehler auftreten können.
      Wenn verschiedene Menschen Wunsch-Konflikte miteinander haben, dann entscheiden die Gesetze der Menschen zwischen ihnen.
      Als allgemeine Moral gilt die Platin-Regel (behandle jedes Wesen so, wie es behandelt werden will), unter Beachtung des Negativen Utilitarismus (verringere das Leid (wobei das Leid als Intensive Größe behandelt wird)).

      … denn, was hier gemeint ist, i.p. “Platin-Regel”, Dr. W hat sich dbzgl. im E-Sprachigen Spektrum (lange Zeit) ein wenig umgesehen, “P” war dort mal ein Thema, auch sog. effektiver Altruismus, ist mies bis extra-mies.
      Meint Unterwerfung.


      Bereits der sog. Kategorische Imperativ ist nicht iO, offensichtlich nicht iO, weil er ja auch moralische Maßgabe meint, die dem Einzelnen nicht zusteht, Kant lag hier (ausnahmsweise) falsch und bediente womöglich zeitgenössische Veranstaltung, niemand ist kein Kind seiner Zeit.

      Also gerne bei Ihrer dieser Nachricht ablehnend bleibend, auch so :

      -> ‘Bedürfnisse von Robotern können nur dann von ihnen selbst entwickelt werden, wenn sie schon vorher dieses Bedürfnis haben.’

      Mit freundlichen Grüßen
      Dr. Webbaer

  21. Freiheit, Vernunft und Verantwortungsbewusstsein, das ist es worum es in der Entwicklung von Mensch geht, alle emotionalen Gefühle sind auf eine zweifelsfrei-eindeutige und somit wirklich-wahrhaftige Umsetzung angewiesen, damit sie …!?

    (…) ist für mich aufgrund entsprechender Erfahrung im Hier und Drüben ganz klar, besonders durch das Hier.

  22. “Interplanetare Konzerne…”
    Wer sagt ihnen das Menschen dann noch die kapitalistische Ordnung haben wollen. Hier projiziert man seine gegenwärtige Zeit in die Zukunft in der Annahme dass die Menschen nicht lernfähig sind. Also gibt es -wie heute – dann im Kosmos bestimmte Areale für Bordelle, für Drogenhandel etc…Aufgeblasene Egomanen kämpfen um die Macht auf Sternen bzw. leben ihre Dekadenz und Gier aus, interplanetare Konzerne zocken an interplanetaren Banken/Finanzsystemen und der Diktator von Stern “A” droht dem Diktator von Stern “B” mit seiner galaktischen Flotte. Wenn man diesen ganzen Dreck von Heute nicht aufarbeitet, ihn in die Zukunft projiziert, hilft auch künstliche Intelligenz nicht.

  23. Interplanetare Konzerne.

    Die wird es geben, weil die Bewohner von Raumstationen , Monden und Exoplaneten auch unter Rohstoffmangel leiden werden.
    Da wird eine Generation von Menschen entstehen, die allesamt schwache Muskeln haben wegen der fehlenden Gravitation , synthetisches Blut und auch viele Organfunktionen werden Machinen übernommen haben, Nieren, Lungen sogar die Herzfunktion hat eine Maschine übernommen.
    Nur noch der Kopf sitzt auf einer Multimaschine bei den Händlern die sich auf den Transport von Waren spezialisiert haben und die ihr ganzes Leben im All zwischen den Planeten verbringen.
    Körperliche Gelüste werden mit Medikamente gesteuert. Man wird sie Kopffüßler nennen.

    Dann gibt es die Unterirdischen, die sich vor der Strahlung schützen, indem sie ihre Behausungen nie verlassen.

    Und dann gibt es die Privilegierten, die noch auf der Erde wohnen , Geburtenkontrolle betreiben und jeden Abweichler in Bergwerke auf fremden Monden verbannen.

    Im Prinzip wird sich nicht viel ändern.

  24. @Golzower @hwied
    Interplanetare Konzerne kann es nur im Märchen geben – in der Realität sind die Entfernungen im All viel zu groß, als dass wirtschaftliche Kontakte möglich wären

  25. KRichard,
    nach dem heutigen Stand der Wissenschaft können wir solch riesige Entfernungen im All selbst bei Lichtgeschwindigkeiten nur in Jahren, Jahrzehnten und Jahrhunderten überwinden.
    Die Wissenschaft schreitet fort und auch ein Einstein ist nicht allwissend.

  26. An Energie und Material herrscht kein Mangel.
    Die 2,2-milliardenfache Menge der Sonnenenergie geht nutzlos an der Erde vorbei.
    (Querschnittsfläche der Erde zu Kugeloberfläche vom Durchmesser der Erdbahn.)
    Im Planetoidengürtel sind riesige Mengen an nützlichen Rohstoffen leichter zugänglich als auf der Erde.
    (Sehr geringe Schwerkraft und sehr große Oberflächen.)
    Halbintelligente Roboter reichen völlig aus, um Energie und Material zu gewinnen.

  27. Karl Bednarik
    “halbintelligente Roboter” , dieser Ausdruck trifft es vollends.
    Halbintelligente Politiker haben wir schon.
    Gerade keine Zeit für eine ausführlichere Stellungnahme.

  28. Ein großer Teil der Menschen erträgt es sehr gut, wenn andere alle Arbeiten für sie erledigen.
    Ein großer Teil der Menschen erträgt es sehr gut, wenn andere in allen Dingen besser sind als sie.
    Es gibt Blumentöpfe auf dem Fensterbrett neben der industriellen Landwirtschaft, und es gibt Bergsteiger neben Seilbahnen.
    Es ist auch angenehmer, wenn man Computerspiele und Schachcomputer auf die leichteste Schwierigkeitsstufe einstellt (ich mache das immer so, und ich spiele nie gegen Menschen).
    Einige Superreiche leben glücklich, und einige Superreiche sterben an Drogen.
    Ein großer Teil der Pensionisten ist froh, dass er nicht mehr zu Arbeit gezwungen ist (ich bin einer davon).
    In einer Welt der Spezialisten ist fast jeder auf fast allen Gebieten schlechter als jemand anderer.
    Einigen Menschen ist nicht langweilig, wenn sie ruhig daliegen, und andere Menschen müssen dazu ständig aus Flugzeugen springen (ich bin lieber in Ruhe).

    • Howdy, lieber Herr Karl Bednarik,

      kleine Anekdote :
      Dr. Webbaer hatte mal einen Nachbarn, einen Emeritus der Wirtschaftslehre, noch gar nicht so-o alt, maximal 65 Jahre alt, er schien a bisserl frühzeitig aus dem Wissenschaftsbetrieb ausgeschieden zu sein, der lud Dr. Webbaer zu sich ein, denn er wollte etwas mit ihm besprechen.
      Er wollte eine (größere) Immobilie verkaufen und Dr. Webbaer sollte für ihn bei einer wichtigen Person, die ihm nahe stand, anfragen (es gab in der Folge keine Fortschritte, kein Ergebnis), aber der Gag war, dass dieser Herr seinen Schachcomputer ebenfalls auf “niedrigste Stufe” gestellt hat und angeblich fast täglich stundenlang mit ihm kämpfte, angeblich auch mit gutem Erfolg, einige Partien hätte er bei gleicher Zugfolge wiederholt gewonnen, worüber Dr. Webbaer schmunzeln musste, sich natürlich ansonsten nichts anmerken ließ.

      Dies hier – ‘In einer Welt der Spezialisten ist fast jeder auf fast allen Gebieten schlechter als jemand anderer.’ – ist zwar irgendwie richtig, aber auch irgendwie falsch, denn es ist nicht selten so, dass eine Person etwas sehr gut kann und insofern auch global wettbewerbsfähig ist.

      An sich ist natürlich so, dass jeder auf fast jedem Fachgebiet Laie ist, in etwa so, wie jeder fast überall Ausländer ist, aber das meinen Sie wohl nicht, Herr Bednarik.

      Mit freundlichen Grüßen
      Dr. Webbaer (der also generell zur Kompetitivität rät, auch damit keine Langweile aufkommt)

  29. Karl Bednarik,
    Sie haben die Psyche der Menschen gut umschrieben, zwischen dem Müßiggänger und dem Workaholic.
    Die Computer sollten genauso gestaltet sein, der Schachcomputer, der “sinnlos” die Zeit vertreibt und der Computer der die Lebensfunktionen eines Menschen überwacht.

    Dem Computer wird in der Zukunft unersetzlich sein, es gibt praktisch keine Maschinen mehr , die nicht elektronisch gesteuert sind. Bei der KI , da ist kein ende der Entwicklung abzusehen. Deep Blue hat ja schon Kasparov beim Schach geschlagen. Also, alle Verfahren, die sich mathematisch berechnen lassen, die wird eine KI besser erledigen, weil fehlerfrei.
    Alle Verfahren, die neue Wege beschreiten indem sie neue wissenschaftliche Erkenntnisse nutzen, die wird weiterhin der Mensch beschreiten.

    Anmerkung zum Schachspiel. Spielen Sie mal gegen Menschen, Menschen spielen auch psychologisch. Die machen nicht immer den besten Zug, die spielen auch um den Gegner zu verwirren.
    Ich habe einmal gegen einen Vereinsspieler gewonnen, der mir in Erfahrung weit überlegen war. Der gab keine Figur verloren. Auf dieser Grundlage inszenierte ich einen Scheinangriff um Tempi zu gewinnen, ich opferte einen Turm gegen einen Läufer und konnte mit der Dame auf die 8. Reihe kommen. Damit hatte er nicht gerechnet.
    Fischer hatte einmal gesagt: “Ich möchte das Ego meiner Gegner zerbrechen sehen”, dem ging es nicht nur um Schach, der war ein Egomane. Und die Spiele von Fischer sind heute noch vorbildhaft. Das unmittelbare Vorbild von Kasparov ist immer noch Fischer. Ich finde Topalov genauso spannend.

  30. Hallo hwied.
    Wenn Menschen gegen Menschen spielen, dann gibt es immer mindestens einen Verlierer.
    Das verträgt sich nicht sehr gut mit der Platin-Regel und dem Negativen Utilitarismus.
    Interessant wären Spiele, in denen Menschen gemeinsam etwas aufbauen, so dass alle etwas gewinnen.

  31. Karl Bednarik,
    ein genialer Gedanke, ein Spiel in dem es nur Gewinner gibt.
    Aus Prinzip mache ich keine Glücksspiele. Hinter jedem Gewinner stehen 10 Verlierer.
    Ein bekanntes Spiel (ich weiß nicht wie es heißt) bei dem wird eine Pizza zerteilt. Mit einem Messerschnitt. Der Gegenspieler darf aber entscheiden, wer das größere Stück bekommt. Das Ganze macht man 3 mal.

  32. Bonuskommentar für einem möglichen Roman der Science-Fiction, eine Skizze :

    1.) Welten können Welten erschaffen, dies ist denkbar und insofern auch möglich. (Was denkbar ist, ist immer möglich, was nicht bedeutet, dass alles Mögliche für den hier gemeinten Hominiden auch denkbar ist.)
    2.) Diese Welt könnte von einer dann außerweltlichen Lebensform erschaffen worden sein, dies ist sozusagen solide Metaphysik, Leutz wie bspw. Scott Adams oder Elon Musk amüsieren sich gelegentlich über diese Idee, über diese tautologische Wahrheit sozusagen.
    3.) Es ist ebenfalls möglich, dass diese Welt eine Welt schafft, eine Computersimulation sozusagen, die mächtiger (!), komplexer ist als diese Welt.
    Dies ist möglich, wenn die Mutterwelt (siehe (1)), hier einmal in memoriam Karl Popper “Welt-3” genannt, wenn Welt-3 von dieser Welt dazu gebracht werden könnte zusätzliche Ressourcen bereit zu stellen.
    4.) Wir stellen uns vor, dass in <em<dieser Welt eine neue Welt, siehe (3) gebaut wird, wobei den hiesigen Weltenerstellern nicht klar ist, dass sie zusätzliche Ressourcen von Welt-3 anfordern, sie tun dies unbewusst,
    5.) Ein wenig “Heckmeck” im Sinne von Philip K. Dick wird um dieses Vorhaben hinzugebaut. Denn der Rahmen muss stimmen!
    6.) Der Protagonist wird dann in einem (auf dieser Welt bleibenden) Ganzkörperanzug verfrachtet und agiert über einen Avatar sozusagen in der neu geschaffenen Welt.
    7.) Der Protagonist amüsiert sich sozusagen in dieser neuen Welt, die eine menschenähnliche Zivilisation hervorgebracht hat und arbeitet sich dort sozusagen ein, erhält ein gewisses Standing und eine gewisse Position.
    8.) Der Protagonist bemerkt irgendwann, erst randseitig, dann partiell involviert, dass die neu geschaffene Welt ebenfalls an der Erstellung einer Weltsimulation arbeitet.
    9.) Der Protagonist kommt dann dieser neuen Welt näher, darf sie beobachten.
    10.) Der Protagonist stellt fest, dass die in der neuen Welt neu geschaffene Welt diese Welt ist.

    (Weitere Gags dürfen sich hinzugedacht werden, auch die Frage, welche Welt welche Welt zuerst sozusagen geschaffen hat.
    Hint : Die (nur scheinbar) neu geschaffene Welt muss, rein logisch, diese Welt geschaffen haben, nicht umgekehrt.)

    Mit freundlichen Grüßen
    Dr. Webbaer

  33. Hallo Dr. Webbaer.
    Um Missverständnisse zu vermeiden,
    versuche ich es mit einfachen Definitionen.
    —–
    Ich will, dass meine Wünsche erfüllt werden.
    Ich will möglichst wenig leiden.
    Ich räume allen Menschen die gleichen Rechte ein.
    —–
    Es gibt keine Wirkung ohne Ursache.
    Es gibt keine Bedürfnisse ohne vorher vorhandene Ziele.
    —–
    Ich kaufe Computerspiele nicht, um mich anzustrengen.
    Deshalb nutze ich auch oft die Youtube-Walkthrougs der Spiele.

Schreibe einen Kommentar