Das Meckern an der Zukunft

Die Medien sprudeln nahezu vor Artikeln über künstliche Intelligenz, doch nur wenige Berichterstatter sind bereit, sich mit dem Thema tiefgehender zu beschäftigen. Was müssen wir tun, damit uns die Zukunft nicht davonläuft?

Den Roboter hat der Welt im Jahr 1920 mein tschechischer Landsmann Karel Capek geschenkt. In seinem Theaterstück „R.U.R – Rossums Universal Robots“. Während meiner Kindheit in den 60ern in der sozialistischen Tschechoslowakei stand Capeks Roboter auf einem Bücherbrett über meinem Bett. Ich bin mit Robotern aufgewachsen.

„Robot/Roboter“ leitet sich von dem slawischen Wort „robota“ für „Zwangsarbeit“. Deswegen war ich als kleiner Junge von Robotern so begeistert. Weil sie für uns arbeiten sollten.

Im Sozialismus hat man nur über Arbeit gesprochen. Im Fernsehen, in den Zeitungen, überall. Arbeit musste etwas ganz Schreckliches sein, dachte ich, wenn man darüber so viel sprechen musste. Wenn mich Erwachsene fragten, was ich denn sein möchte, wenn ich groß sei, ob Präsident, oder Kosmonaut oder zumindest Einstein, sagte ich immer, „Rentner“.

Jetzt können Roboter endlich dank Künstlicher Intelligenz (KI) für uns arbeiten. Und nicht nur das: Mit künstlicher Intelligenz haben wir zum ersten Mal eine große Chance bekommen, die Erde und uns vor uns selbst zu retten – bevor eine Klimakatastrophe eintritt oder eine globale Epidemie ausbricht, die uns alle auslöschen würde.

Doch statt dankbar für diese massive Erweiterung unserer Fähigkeiten zu sein, verbreiten wir Panik und meckern an künstlicher Intelligenz herum:

„Gefahr der Künstlichen Intelligenz: Kontrollverlust der Menschen“ (FAZ)

„Killerroboter & Co. Wie gefährlich ist Künstliche Intelligenz.“ (Tagesspiegel)

„Ein Terminator muss keine Hollywood-Fiktion bleiben“ (Welt)

„Künstliche Intelligenz als Herrschaftssystem in Europa?“ (europe direct)

„Warum künstliche Intelligenz uns 50 Jahre Schmerzen bringen könnte.“ (futurezone)

„Wird künstliche Intelligenz uns töten?“, fragt sich ein Buch gleich in seinem Titel.

Warum sollte sie aber?

Wenn es KIs geben würde, die gscheiter sind als wir Menschen, würden sie sofort die Erde verlassen und im Asteroiden-Gürtel Rohstoffe abbauen, sagte der KI-Pionier Sepp Hochreiter.

Warum sollten die KIs mit Menschen um Ressourcen kämpfen, die sie gar nicht brauchen? Was sollen Roboter auf einem Planeten tun, wo sie wegen des vielen Sauerstoffs und der Luftfeuchtigkeit vor sich hin rosten würden?

Roboter sind doch auch nur Menschen … ach, Quatsch! Das war nur ein Witz. Roboter sind eben keine Menschen. Ein Roboter hat kein Modul in seinem Gehirn, das sich unter Stress einschaltet und den Gehirnbesitzer anbrüllt:

Iss die ganze Torte!

Ein Bier geht noch!

Nimm Drogen!

Erschieße 500 Bisons an einem Tag!

Eine Maschine ist nie im Stress. Einer Maschine ist es vollkommen egal, wie eine andere Maschine oder ein Mensch aussieht. Ob der andere schwarz oder gelb ist, quadratisch oder langgezogen, ein Mann oder eine Frau oder etwas dazwischen – das ist einer Maschine meist völlig egal.

Solche Unterscheidungen macht eine Maschine nur dann, wenn der Mensch ihr diese eingepflanzt hat. Wenn der Mensch der Maschine einen mit Vorurteilen beladenen Datensatz zum Lernen gegeben hat. Als zum Beispiel die KI von Google schwarze Männer als Gorillas klassifizierte. Wer steckte dahinter? Selbstverständlich der Mensch!

Googles KI hatte lernen sollen, Objekte auf Bildern zu erkennen und zu unterscheiden: Man zeigte dem Programm einen Mann und sagte ihm: Das ist ein Mann! Tausende verschiedene Männer auf Tausenden Fotos hat das Programm so mit der Kennzeichnung „Mann“ gezeigt bekommen. Dasselbe bei Frauen und Sachen. Bis das Programm Männer und Frauen und Tiere und Sachen auch auf Bildern erkannte, die es noch nie gesehen hatte. Die Maschine hat gelernt, Objekte in Klassen einzuteilen. So funktioniert das sogenannte überwachte Lernen:

Auf dem folgenden Bild gibt es drei verschiedene Objekte. Können Sie sich die drei Objekte merken?

Wenn Sie jetzt richtig gelernt haben, sind Sie für die folgende Aufgabe gut gerüstet: Was sehen Sie auf dem folgenden Bild?

Haben Sie „Knoblauchfahne“ geantwortet? Das ist richtig. Gerade haben Sie überwacht gelernt. Nur hat Ihnen gereicht, einmal eine „Knoblauchfahne“ „erlebt“ zu haben, um jede andere Knoblauchfahne zu erkennen. 😊 Eine Maschine muss diese Fähigkeit an Tausenden von Bildern mit verschiedenen Knoblauchfahnen erlernen. Und hier hatten Googles KI-Trainer einen Fehler gemacht: Um der KI beizubringen, wie ein Mann aussehe, haben sie dem Programm nur Bilder von weißen Männern mit der Kennzeichnung „Mann“ vorgesetzt, keine von Schwarzafrikanern. Und so hat das Programm dann schwarze Männer als Gorillas klassifiziert.

So wie eine solche KI meine Schwiegermutter als „Hexe“ bezeichnen würde, wenn ich die KI mit einem Datensatz mit lauter bösen Schwiegermüttern gefüttert hätte, ohne der KI zu zeigen, dass die meisten Schwiegermütter gütig wie Engel sind.

Die zweite wichtige Methode für das Anlernen der künstlichen neuronalen Netze heißt unbewachtes Lernen. Das sehen Sie an dem folgenden Bild des medizinischen Klassifikators. Der „Klassifikator“ bekommt eine Schüssel mit Organen und soll sie in zwei Klassen aufteilen. Ohne dass man – wie beim überwachten Lernen – die Organe für den „Klassifikator gekennzeichnet. Nur aufgrund der Beschaffenheit und des Aussehens der zwei Organe kann der Klassifikator diese in zwei verschiedene Klassen sortieren.

Medizinischer Klassifikator. Quelle – Wikimedia Commons – Autor – Mimooh.

Jetzt müssen wir uns klar machen, was künstliche Intelligenz eigentlich ist: Science Fiction! Allgemeine künstliche Intelligenz, die wie ein Mensch denken könnte, gibt es nicht. Keine noch so gut trainierte heutige Maschine kann so etwas wie Bewusstsein, Gefühle oder den gesunden Menschenverstand entwickeln und zeigen. Wie meine Mutter, die sofort wusste, was Sache war, wenn ich ihr herauszureden versuchte, meine Lehrerin zu besuchen.

Es gibt keine starke künstliche Intelligenz. Nur Künstliche-Intelligenz-Forschung gibt es. Und eine Unterabteilung der KI-Forschung ist „Maschinenlernen“. Maschinen lernen, indem sie in großen Datensätzen Muster erkennen und Sachen kennzeichnen können.

Eine Unterabteilung des Maschinenlernens sind künstliche neuronalen Netze (KNN). Auf Englisch „artificial neural networks“ (ANN) genannt, manchmal auch „deep learning neural networks“ – auf Deutsch „tief lernende neuronalen Netze“.

Wenn Sie heutzutage über die Errungenschaften von künstlicher Intelligenz lesen, sind damit IMMER künstliche neuronale Netze gemeint. Sie sind jedoch wie gesagt keine künstliche Intelligenz im strengen Sinn sondern eine Unterabteilung der Künstliche-Intelligenz-Forschung. Kein Terminator oder Transformer, keine Matrix aus dem Internet, kein bösartiger Bordcomputer wie Hal 9000 aus Kubricks Film „2001: Odyssee im Weltraum“.

Künstliche neuronale Netze sind einfach statistische Optimierungsverfahren. Trotzdem mit Magie, weil sie nun mal Wundervolles leisten: Sie können in sehr großen Datensätzen, die ein Mensch nicht erfassen kann, Muster und Klassen und Cluster erkennen. Wenn auch ich in diesem Beitrag den Begriff „künstliche Intelligenz“ verwende, dann meine ich künstliche neuronalen Netze damit.

Jeden Tag erfahren wir, was künstliche Intelligenz alles kann: Augenkrankheiten aus den Augenscans besser erkennen als jeder Augenarzt. Auf Bildern von Tumoren entdeckt ein künstliches neuronales Netz für Menschen nicht wahrnehmbare winzige Merkmale und bestimmt daraus die Krebsart. Nur aufgrund dieser winzigen Merkmale kann das Programm schließen, welche Genstücke zu dem gegebenen Tumor führen. Selbstfahrende Autos werden von KNN gelenkt, genauso wie alle Roboter, die eine Aufgabe lernen können: Saltos zu schmeißen oder Sachen zu sortieren und vieles andere mehr.

Als kleiner Junge musste ich auf einem Gurkenbeet in unserem Garten Unkraut jäten. Statt Unkraut habe ich aber alle Gurkenpflanzen herausgerissen, weil ich sie von Unkraut nicht unterscheiden konnte. Anschließend zertrampelte ich auch die restlichen Gemüsebeete, nachdem mein Vater bei der Besichtigung des Gurkenbeets wie ein Wolf aufgeheult und mich mit seinem Hosengürtel in der Hand durch den Garten gejagt hatte. Hätte ich damals ein KI-Programm gehabt, hätten die Gurken keinen Schaden genommen. Und ich auch nicht.

Statt uns zu freuen, dass wir jetzt mit Hilfe der künstlichen neuronalen Netze sehr schnell Krankheiten diagnostizieren können und vieles andere mehr, meckern wir nur an künstlicher Intelligenz herum. Wir wissen ja aus vielen Hollywood-Filmen Bescheid, um uns ein Urteil über künstliche Intelligenz zu bilden. Mehr Bildung brauchen wir nicht.

Künstliche Intelligenz solle gefälligst ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können, schrieb die Süddeutsche Zeitung.

Das ist wie wenn ein Fußballer seinem Trainer erklären müsste, warum er gerade diese Art vom Elfmeter ins Tor geschossen habe. Dabei hatte der Fußballer nicht überlegt, sondern einfach geballert.

Wieso hast du in die linke Torhälfte geschossen?

Weil da frei war!

Woher wusstest du, dass der Torwart auf die andere Seite springt?

Das weiß man eben!

In dem gerade auf Deutsch erschienenen großartigen Buch „Machine Platform Crowd. Wie wir das Beste aus unserer digitalen Zukunft machen.“ erwähnen die Autoren Andrew McAfee und Erik Brynjolfsonn das sogenannte Polanyi-Paradoxon, das nach dem ungarisch-britischen Universalgelehrten Michael Polanyi benannt wurde:

Wir wissen mehr, als wir sagen können.

Unser Gehirn ist eine Überlagerung von Millionen, wenn nicht Milliarden, natürlicher neuronaler Netze, von denen jedes viel komplexer ist als ein einziges künstliches neuronales Netz mit seinen punktuellen Neuronen und den relativ einfachen mathematischen Algorithmen, nach denen es funktioniert.

Trotz der immensen Fähigkeiten unseres Gehirns treffen wir ständig Entscheidungen, die wir nicht begründen können: Ein Monster läuft mir auf der Straße entgegen. Ich sehe nur zerrissene und von Schlamm bedeckte Kleider und ein ganz verschlammtes Gesicht und weiß trotzdem sofort, dass es sich um meinen Sohn handelt, der in Schlammpfützen gespielt hat. Wie habe ich ihn so schnell erkannt, obwohl sein Gesicht ganz mit Schlamm bedeckt war? Ich weiß es nicht, ich weiß aber, es ist mein Sohn. Wetten wir?

Die natürlichen neuronalen Netze (Neuronenverbände) in unserem Gehirn können wunderbar Muster erkennen und Entscheidungen treffen, die wir nicht begründen können. Oft sagen wir „Intuition“ dazu und sind stolz darauf, wenn wir nur dank diesem Bauchgefühl Gutes erreichen oder Schlimmes verhindern können.

Von einem statistischen Optimierungsverfahren, von einem Programm also, das nach ein paar mathematischen Formeln läuft, verlangt aber eine angesehene Zeitung, seine Entscheidungen zu erklären. Ein künstliches neuronales Netz kann aber nichts erklären. Es kann nur einzelne Aufgaben lösen. Wenn wir Menschen etwas erklärt haben wollen, müssen wir das selbst tun. Indem wir zum Beispiel andere künstliche neuronale Netze entwerfen, welche die Arbeit und Entscheidungen der primären Netze analysieren.

Klar treffen künstliche neuronale Netze auch falsche Entscheidungen und führen zu Unfällen. Der letzte Crash des selbstfahrenden Autos der Google-Firma Waymo wurde aber auch von einem Menschen verursacht: Während der Wagen im autonomen Modus fuhr, schlief der menschliche Kontrollfahrer ein und berührte dabei aus Versehen mit dem Fuß das Gaspedal. Dadurch schaltete sich der autonome Modus aus, jetzt sollte der Kontroll-Fahrer die Steuerung des Wagens übernehmen, nur konnte er nicht, weil er schlief.

Hinter jedem trainierten künstlichen neuronalen Netz steckt ein von Menschen vorbereiteter Datensatz und ein menschlicher Programmierer. Auch aus diesem Grund werden KNN weiterhin falsche Entscheidungen treffen. Deswegen müssen ihre Entscheidungen geprüft werden, vor allem wenn ihre Folgen schwerwiegend sind.

Ist das aber ein Grund zur Häme? Zum Spott darüber, wie künstliche Intelligenz blöd sei? Ist das nicht normal, schwerwiegende Entscheidungen von anderen Instanzen zu überprüfen? Als mein Hausarzt, der zufälligerweise einen Chirurgen als besten Freund hatte, mich zu einer Blinddarm-OP drängte, habe ich zur Sicherheit einen Gastroenterologen konsultiert. Und so besitze ich 30 Jahre später meinen Blinddarm immer noch.

Beim direkten Vergleich der Entscheidungen von Mensch und Maschine und über die Neutralität ihrer Entscheidungen – wenn überhaupt verglichen werden kann -, schneidet die Maschine nahezu immer besser ab. Nach einer Studie von Shai Danzinger et al. fallen israelische Richter nach Essenspausen viel mildere Urteile als kurz vor Pausen, wenn sie einen niedrigen Blutzucker hatten. Solche Studien gibt es viele. („Machine Platform Crowd. Wie wir das beste aus unserer digitalen Zukunft machen.“) Eine Maschine hat nun mal keinen Blutzuckerspiegel, und nach Hautfarbe urteilt sie schon überhaupt nicht oder danach, wie hübsch jemand ist. Wenn wir der Maschine einen neutralen Datensatz zum Lernen geben.

Nahezu tragikomisch mutet die Bebilderung der Artikel über die KI in den Medien. Nicht nur das rote Auge vom Hal 9000 muss herhalten, auch viele Bilder von menschenähnlichen Robotern, samt Terminator. Damit die Leser über die Vermenschlichung von Robotern wettern können. Diesen unterschwelligen Warnungen vor der Vermenschlichung und der Gefahr der Maschinen kann man wirklich nur mit Humor begegnen wie die Autoren von „Machine Platform Crowd. Wie wir das Beste aus unserer digitalen Zukunft machen.“:

Im Verlauf dieses Buches werden wir immer wieder Technologien so beschreiben, als wären sie menschlich, als würde sie entscheiden, lernen, sehen können und so weiter. Das tun wir, weil wir denken, dass es die Vorgänge richtig beschreibt, auch wenn Computer nicht rational denken wie Menschen. Uns ist klar, dass diese Angewohnheit von einigen Leuten kritisiert wird, der Vorwurf lautet: „Man sollte Computer nicht zu sehr vermenschlichen – das hassen sie.“

Zum Glück gibt es Journalisten, die mit dem Thema künstliche Intelligenz entspannt aber sachlich umgehen: Marina Weisband hat sich Artikel über künstliche Intelligenz angeschaut und schreibt auf der Deutschlandfunk-Webseite:

Andere (Medienartikel) stellen die KI schon fast als weltumspannende, Menschen überlegene Omnipräsenz dar, die gottgleiche Schlüsse ziehen kann, die uns für immer verborgen bleiben würden. … Als Artikelbilder sieht man häufig Androiden, ein Hinweis auf die Vermenschlichung der Technik, oder das rote Auge des Computers „HAL9000“ aus dem Film „2001 A Space Odyssey“, der sich gegen den menschlichen Astronauten auflehnt. So werden unbewusst Assoziationen zu Skynet und anderen Gruselvisionen geschaffen, in denen die künstliche Intelligenz sich ihrer selbst bewusst wird und die Menschen als überflüssigen Ballast oder Fehler im System eliminiert.

Mit einem großen roten Auge des bösem Bordcomputers Hal 9000 bebilderte vor kurzem die Süddeutsche Zeitung ihren Artikel mit dem Titel ,,Keine Panik, es ist nur künstliche Intelligenz“:

Wenig versprechend, nennt die SZ die Anwendung der KI in der Krebstherapie, denn:

Eine KI (IBM Watson), die Vorschläge zur Krebstherapie machen sollte, musste von echten Ärzten unterstützt werden. 😊

So absurd ist das: Manche Medien verbreiten Panik, dass Menschen von Maschinen ersetzt werden. Wenn sich aber herausstellt, künstliche neuronale Netze sollen Menschen eben nicht ersetzen, sondern unsere Fähigkeiten erweitern, wird es dann hämisch als ein Makel der künstlichen Netze dargestellt.

Dieses Meckern an künstlicher Intelligenz geht im Artikel weiter, bis es in einem ganz lustigen Absatz mündet:

Die Alpha-Go-KI des Google-Projektes Deepmind kann das Brettspiel Go besser als jeder Mensch spielen, dafür kann sie aber ein belegtes Brot nicht von einem Vulkanausbruch unterscheiden.

Warum ein künstliches neuronales Netz auch belegte Brote von Vulkanausbrüchen unterscheiden sollte, obwohl es darauf trainiert wurde, das Brettspiel Go zu spielen, sagt der Autor nicht. Klar kann ein künstliches neuronales Netz immer nur auf eine Aufgabe hintrainiert werden. Ist es aber nicht Leistung genug, besser als jeder Mensch das hoch intuitive chinesische Brettspiel Go zu spielen? Muss das Programm noch belegte Brote von Vulkanausbrüchen unterscheiden, um die Anerkennung eines Journalisten zu finden?

Weiter schreibt der SZ-Autor:

Beide Programme sind “schwache” oder “enge” künstliche Intelligenzen, weil sie zwar über beeindruckende Fähigkeiten verfügen (für eine Maschine), diese sich jedoch auf ein sehr spezifisches, “enges” Anwendungsgebiet beschränken. Eben: Ein einziges, ganz bestimmtes Brettspiel spielen. Oder Katzen erkennen (Hunde aber dann wieder nicht).

Werter SZ-Autor: Es gibt auch künstliche neuronale Netze, die Katzen von Hunden und Elefanten und Giraffen und Menschen und Lastvagen und und und unterscheiden können. Das alles ist nur eine Sache des Trainings und der Frage: Was bringen wir der Maschine bei? Nur Katzen zu erkennen? Oder Katzen von Hunden zu unterscheiden? Oder was auch immer. Wenn ich mein Kind jahrelang fünf Stunden am Tag Klavier zu spielen zwinge, kritisiere ich es dann auch nicht, dass es nicht Fußball spielen kann.

Selbstverständlich birgt das neue Zeitalter der Menschen und Maschinen auch andere große Gefahren als falsche Entscheidungen: Für einen Menschen war es noch nie so leicht zu verblöden wie heute. Dass aber Maschinen immer „klüger“ werden und wir immer „dummer“, ist auch nur unsere Schuld. Maschinen sollen unsere Fähigkeiten erweitern, sie nicht verkümmern lassen. Das Zeitalter der Menschen und Maschinen fordert uns Menschen sehr. Wenn wir’s aber schaffen, Erkenntnis und Neugier und Freude für erstrebenswerter zu halten als Leistung und Konsum, sind wir den Maschinen immer einen Schritt voraus.

Während unserer Evolution hat sich unser Gehirn im Zusammenspiel mit unserer Motorik entwickelt. Zum Beispiel kann man den Hippocampus auch im Erwachsenenalter mit komplexen Bewegungen wie Tanzen oder Jonglieren wachsen lassen. Gleichzeitig ist der Hippocampus aber schlüsselhaft fürs Lernen und Gedächtnis. Je mehr und je kompliziertere Bewegungen wir ausführen, umso mehr trainieren wir also unser Hirn. Was sind die komplexen Bewegungen, die wir früher sehr oft ausführten und die gleichzeitig stark mit unserer visuellen Wahrnehmung gekoppelt sind, an der etwa 60 % Prozent der gesamten Großhirnrinde mitarbeiten?

Klar: Das Schreiben mit der Hand – das Zeichnen von Buchstabenbildern. Doch dieses wunderbare Hirntraining ersetzen wir mit zwei Daumen, die an einem Smartphone herumtippen, oder mit nur einem Zeigefinger bei den ganz Hartgesottenen. Statt zu lesen, was unser Gehirn ständig herausfordert – das Lesen ist eine kommunikative Tätigkeit -, konsumieren wir Serien bei Netflix und Amazon. Statt zu laufen, verbringen wir immer mehr Zeit in unseren SmartHomes. Statt Bewegung und Natur und Kunstgenuss draußen mit anderen Menschen gibt es HomeEntertaining auf Distanz.

Auch unser Bildungssystem muss sich ändern: Statt des Büffelns und Leistungszwangs sollten unsere Kinder Innovation und Kreativität lernen. Büffeln und Leistung bringen können Maschinen viel besser als wir. Wir Menschen können dagegen innovativ und kreativ sein. Alle Jobs, die automatisiert werden können, werden bald von Maschinen erledigt. Die innovativen und kreativen Jobs sicher nicht. Wie dieser:

Quelle: Flickr – Nathan Rupert

Keine Angst! Auch der Surflehrer für Hunde ist nur ein Witz. Der Rest ist aber ernst: Vielleicht wartet auf uns wirklich eine wunderbare Zukunft. Trotz Trump und Trolle im Netz und Fake News und Pseudowissenschaften und Menschen, denen es anscheinend nur daran liegt, Hass zu verbreiten und wissenschaftliche Tatsachen zu leugnen.

Wir müssen aber endlich aufhören, unsere eigene Zukunft zu bekämpfen. Heute geht es nicht mehr darum, ob wir in den KI-Zug steigen oder nicht – wir alle sitzen schon darin. Uns bleibt nichts anderes übrig, als zu lernen und uns zu informieren: über künstliche Intelligenz bzw. über künstliche neuronale Netze. Damit wir nicht auf der Strecke stecken bleiben. Damit es eine Zukunft für uns alle gibt.

Liebe Besucherin, lieber Besucher,

 
willkommen auf meinem SciLogs-Blog "Gehirn & KI".
 
Ich möchte hier über alle möglichen Aspekte der Hirn- und Künstliche-Intelligenz-Forschung schreiben und über die Berührungspunkte beider Gebiete. Über jeden Kommentar und jede Diskussion dazu freue ich mich sehr, denn wie meine Mutter oft sagte:
 
"Solange die Sprache lebt, ist der Mensch nicht tot."
 
Neues über künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen poste ich häufig auf meiner Facebook-Seite: Maschinenlernen
 
Hier etwas zu meiner Laufbahn: ich studierte Chemie an der TU München und promovierte anschließend am Lehrstuhl für Theoretische Chemie der TU über die Entstehung des genetischen Codes und die Doppelstrang-Kodierung in den Nukleinsäuren.
 
Nach der Promotion forschte ich dort einige Jahre lang weiter über den genetischen Code und die komplementäre Kodierung auf beiden Strängen der Nukleinsäuren:
 
Neutral adaptation of the genetic code to double-strand coding.
 
Stichworte zu meinen wissenschaftlichen Arbeiten: Molekulare Evolution, theoretische Molekularbiologie, Bioinformatik, Informationstheorie, genetische Codierung.
 
Seit Jahren moderiere ich den Science Slam auf Münchner Wissenschaftstagen - für die Deutsche Akademie der Technikwissenschaften (acatech) und die Bayerische Akademie der Wissenschaften - und bin der Gründer und Gastgeber des Science Kabaretts in der Seidlvilla zu München:
 
Weiter bin ich Schriftsteller und Poetry Slammer, u. a. zweifacher Vizemeister der Deutschsprachigen Poetry Slam Meisterschaften.
 
Mein Buch „Doktorspiele“ wurde von der 20th Century FOX verfilmt und lief 2014 erfolgreich in den deutschen Kinos. Die Neuausgabe des Buches erscheint gerade als eBook bei Digital Publishers.
 
Mein letzter Roman heißt Die unglaublichen Abenteuer des Migranten Němec.
 
Eine kurze Geschichte von mir gibt es jeden Tag in der Früh auf meiner Autorenseite bei Facebook. Zum Beispiel eine über den Turing-Test am Starnberger See. :-)
 
Viel Spaß mit meinem Blog und all den Diskussionen hier :-)
 
Jaromir

172 Kommentare Schreibe einen Kommentar

  1. Mit diesem Beitrag über künstliche Intelligenz hat Jaromir Konecny vor allem aufgezeigt wie der Mensch – und da vor allem die Subspecies Journalist – funktioniert und weniger wie Künstliche Intelligenz und wie neuronale Netze funktionieren.
    Mein Eindruck ist, dass wir heute auf dem Gipfel eines Hypes sind, was künstliche Intelligenz und ihre Möglichkeiten angeht. Sollen Roboter tatsächlich dem Menschen einen Grossteil der Arbeit abnehmen und in die Rolle der früheren Hausdiener und Faktoten schlüpfen, dann müssen sie noch lernen, rational und mit Alltagsverstand zu denken. Davon sind sie jedoch heute noch weit entfernt. Der Roboter, der einen alten Herr oder eine alte Dame pflegt und sich ums sie kümmert, den gibt es noch nicht, ja es gibt nicht einmal einen Roboter als Hausdiener, dem man sagen kann: Ich gehe jetzt eine Woche in die Ferien und du schaust zum Haus, leerst den Briefkasten, schneidest den Rasen und bist freundlich zu den Nachbarn. Doch genau solche Roboter wären geradezu unendlich nützlich und würden alles ändern und verändern.

    • Martin Holzherr: “Mit diesem Beitrag über künstliche Intelligenz hat Jaromir Konecny vor allem aufgezeigt wie der Mensch – und da vor allem die Subspecies Journalist – funktioniert und weniger wie Künstliche Intelligenz und wie neuronale Netze funktionieren.”

      Jaromir: 🙂 Ja, das war jetzt meine Absicht: mich “dem ganzen Rest” zu widmen – heißt doch mein Blog: “GEHIRN & KI – Hirnforschung, künstliche Intelligenz, Bewusstsein und der ganze Rest.” Angesichts der Flut der Berichte über KI in den Medien wollte ich dafür plädieren, uns mit künstlicher Intelligenz und künstlichen neuronalen Netzen etwas tiefgehender auseinanderzusetzen als wir das momentan tun, zumal wir über künstliche Intelligenz schreiben.

      In meinem nächsten Blogbeitrag sind aber Computer Vision und konvolutionelle neuronale Netze dran – das verspreche ich hiermit. 🙂

    • Martin Holzherr: “Sollen Roboter tatsächlich dem Menschen einen Grossteil der Arbeit abnehmen und in die Rolle der früheren Hausdiener und Faktoten schlüpfen, dann müssen sie noch lernen, rational und mit Alltagsverstand zu denken.”

      Jaromir: Ich hoffe, dass die Absicht meines Textes klar ist: Eigentlich wollte ich auch zeigen, dass künstliche neuronale Netze (KNN) schon jetzt Erstaunliches leisten. Dass unser Leben und Arbeitsleben in den kommenden Jahren ganz umgekrempelt wird, auch wenn KNN noch nicht in der Lage sind, “mit Alltagsverstand zu denken”, wie Sie schreiben. Sie sind trotzdem schon jetzt so nützlich, dass wir mit ihrer Hilfe unsere Zukunft ganz neu gestalten können. Wenn wir uns für dieses Neue öffnen – zum Besseren.

      Meiner Meinung nach sind Roboter und Hausdiener nur ein sehr kleiner Teil der allgemeinen Automatisierung, die auf uns in den kommenden Jahren wartet. Wenn man zum Beispiel bedenkt, dass Google mit der ersten Flotte von autonomen Taxis in einer Stadt startet, kann man vielleicht erfassen, in welchen Zugzwang damit die ganze Autobranche kommt. Viele kluge Menschen denken, dass unsere kleinen Kinder keinen Führerschein mehr brauchen würden und es bald keine Autos im Privatbesitz geben werde. Schon dieses eine Aspekt der KI-Technologie – das autonome Fahren – wird auf unsere Kultur extreme Auswirkungen haben, kann aber auch entscheidend zur Rettung unseres Klimas beitragen. Wir sollten wirklich versuchen, etwas breiter zu denken und Sachen zu vernetzen.

  2. Die URSACHE aller Probleme unseres “Zusammenlebens”, ist der nun “freiheitliche” WETTBEWERB um imperialistisch-faschistischen Kommunikationsmüll.

    Solange Mensch also den Sinn des Lebens im Wettbewerb verunstaltet, also ein vernunftbegabtes Leben OHNE … nicht zustande bringt, sollte Mensch die Finger von KI lassen – meine Güte, wenn ich mir so vorstelle was Roboterpolizei … 😖

    • hto: Die URSACHE aller Probleme unseres “Zusammenlebens”, ist der nun “freiheitliche” WETTBEWERB um imperialistisch-faschistischen Kommunikationsmüll.
      Solange Mensch also den Sinn des Lebens im Wettbewerb verunstaltet, also ein vernunftbegabtes Leben OHNE … nicht zustande bringt, sollte Mensch die Finger von KI lassen – meine Güte, wenn ich mir so vorstelle was Roboterpolizei … 😖

      Jaromir: Ich glaube, viele Probleme werden auch dadurch verursacht, dass Kommentare zu Artikeln viel schneller geschrieben werden können als die entsprechenden Artikel gelesen. 🙂

  3. @ Jaromir Konecny (Zitat): Viele kluge Menschen denken, dass unsere kleinen Kinder keinen Führerschein mehr brauchen würden und es bald keine Autos im Privatbesitz geben werde.
    Ja, das stimmt. Allein schon selbstfahrende Fahrzeuge könnten die Art wie wir uns fortbewegen radikal ändern. Die radikalste Änderung läuft unter dem Begriff Mobility as a Service. Privatfahrzeuge verschwinden in dieser Zukunftsvision und werden ersetzt durch einen Schwarm von jederzeit verfügbaren und geteilt benutzten Fahrzeugen. Jeder, der irgendwo hin will, tippt auf dem Smartphon sein Ziel ein und es erscheinent eine Liste von in der Nähe bereitstehenden Fahrzeugen, die einen ans Ziel bringen, wobei man die Fahrzeuge mit 6 bis 20 anderen Insassen teilt, sodass gemäss einer Vision von Fujitsu schon im Jahre 2030 solcherart Fahrzeuge zu 50% auf der Strasse unterwegs sein werden, während heutige Autos nur zu 5% auf der Strasse unterwegs sind und den Rest in irgend einer Garage stehen. Staus werden dann fast völlig verschwinden (Zitata aus Mobility-as-a-Service 2030 Shared Cars MaaS to Reach 50%, übersetzt von DeepL): “Wir beginnen, die Entstehung einer technologiegeleiteten digitalen Transformation zu beobachten, bei der sich die Kaufgewohnheiten der Verbraucher vom Must-Have-Auto auf das gemeinsame mobile Gerät mit Transportoptionen verlagern. Da intelligente Mobilität immer reifer wird, müssen MaaS-Anbieter innovative Wege finden, um die Nutzung ihrer autonomen Flotten zu maximieren, die über die Bereitstellung von Passagierdiensten hinausgehen, indem sie in Bereiche wie Paketzustellung und Umweltdienstleistungen expandieren”, sagte Paul Warburton, Global Head of Automotive bei Fujitsu America, Inc. “Der Erfolg eines MaaS-Anbieters wird davon abhängen, wie viel Auslastung er durch seine barrierefreie Flotte erzielen kann, welchen Wert er bieten kann und wie agil er ist, die sich entwickelnden Anforderungen einer modernen Befriedigungsgesellschaft zu erfüllen. Wenn Autofirmen diese digitale Transformation anführen wollen, müssen sie sich schnell umstellen und bereit sein, das Automobil als Basistechnologie zu sehen und nicht als das primäre Leistungsversprechen, wie es bisher war.”
    Laut Frost & Sullivan könnten jährlich mehr als 20 Millionen Fahrzeuge aufgrund des Wachstums neuer Mobilitätsdienste von der Straße genommen werden.

  4. War es nicht so, dass die Kernspaltung eine verheißungsvolle Möglichkeit zur Energieerzeugung war – was macht das Militär schon jetzt mit KI? 😵

  5. Eine kleine Differenzierung klärt auf, was unter Künstlicher Intelligenz zu verstehen ist.

    Bei der Automation wird eine Maschine optimiert. Die Maschine Automobil bekommt eine Servolenkung, einen Bremskraftverstärker, einen automatischen Licht ein-und Ausschalter.
    einen Bordcomputer. Bei der Automation wird die Maschine gesteuert und optimiert.

    Bei der künstlichen Intelligenz wird der Mensch gesteuert und optimiert. Der Mensch wird nachgeahmt und ihm wird “vorausgedacht”.
    Wenn ich heute bei einem KFZ-Händler ein neues Auto anschaue und am nächsten Morgen ein E-Mail von einer Bank bekomme, in dem mir ein Kredit angeboten wird, dann ist hier schon KI im Spiel.
    Wenn mein Handy sich meldet, wenn ich die Grenze zur Schweiz überschritten habe, dann gehört das auch schon zum thema KI.
    KI hat also viel mit Supervision zu tun. Und wenn wir einem Sprachcomputer auch noch einen Vorrat mit Ironie und Witz mitgeben, dann wird uns die KI sogar sympatisch.
    Dann wird es auch die ersten Menschen geben, die sich in KI verlieben ! Gibts da noch etwas zum Meckern ?
    Achtung: Diese Mitteilung wurde von eine KI verfasst.

  6. Ergänzung zu Mobility as a Service: Eine eingängige, scheinbar nur mit Vorteilen behaftete Vision wie Mobility as a Service kann an ganz einfachen Dingen scheitern – an Dingen wie etwa der fehlenden Sicherheit. Grund: Im Prinzip ist Mobility as a Service fast das gleiche wie das Unterwegssein mit dem öffentlichen Verkehr und dem Taxi – nur mit dem Unterschied, dass es bei Mobility as a Service anstatt einen Taxi- oder Busfahrer nur das selbstfahrende Fahrzeug gibt. Doch der Taxi- oder Busfahrer ist eben mehr als nur ein Fahrer. Er garantiert auch für eine mimimale Sicherheit. Wer als Fahrgast randaliert oder gewalttätig wird, der wird vom Taxi-oder Busfahrer zurechtgewiesen oder dieser ruft gar die Polizei. Selbstfahrende Fahrzeuge müssten diese Autoritätsrolle des Fahrzeugfahrers ebenfalls übernehmen – beispielsweise über eine eingebaute Innenraumkamera, deren Bilder an eine Zentrale geleitet werden um bei Bedarf intervenieren zu können. Denn wie es heute Taschendiebe gibt, die auf Diebstahl im Bus oder Zug spezialisiert sind, wird es morgen Kriminielle geben, die Fahrgäste in autonomen Fahrzeugen als Zielgruppe haben.

  7. Ja, mit KI und Robotics ist eine paradiesische Zukunft möglich. Konecny hat völlig recht: Ki ist das, was wir daraus machen!
    Er vergisst aber, wie derzeit die gesamte KI-Diskussion die entscheidende Frage: Wer ist da “wir”? wer “macht”? und wer steuert und kontrolliert?
    Das aber entscheidet, ob KI gut oder böse ist/sein wird, das ist/wird sie nun mal nicht von selbst! Das Fragen stellen und das Nachdenken darüber sollte nun mal endlich losgehen.

    • L. Bergmann: “Ja, mit KI und Robotics ist eine paradiesische Zukunft möglich. Konecny hat völlig recht: Ki ist das, was wir daraus machen! Er vergisst aber, wie derzeit die gesamte KI-Diskussion die entscheidende Frage: Wer ist da “wir”? wer “macht”? und wer steuert und kontrolliert? Das aber entscheidet, ob KI gut oder böse ist/sein wird, das ist/wird sie nun mal nicht von selbst! Das Fragen stellen und das Nachdenken darüber sollte nun mal endlich losgehen.

      Jaromir: Das ist eine sehr wichtige Anmerkung. Wer da “wir” ist, vergesse ich aber nicht. Deswegen plädiere ich ja im Text dafür, dass wir uns alle damit auseinandersetzen, was künstliche Intelligenz eigentlich ist – was ist das, was heute in den Medien als künstliche Intelligenz bezeichnet wird? Denn nur wenn wir verstehen, können wir teilhaben. Nur dann wird das “wir” nicht wieder zum “sie” verkümmern, zu denen, die von künstlichen neuronalen Netzen profitieren. Zum Beispiel die Milliardäre, die dank den künstlichen neuronalen Netzen noch “milliardärer” werden.

  8. “Naja” hierzu :

    Jetzt müssen wir uns klar machen, was künstliche Intelligenz eigentlich ist: Science Fiction!

    AI ist sozusagen in der Realwelt funktionierende Logik (“Sprachlichkeit”), sie kann, wenn sie ihre Regelmengen eigenständig ändert, auch böse werden, pardon, “böse” werden, die doppelten Anführungszeichen meinen das Einziehen einer neuen Abstraktionsebene.

    Also ganz so optimistisch und fröhlich sieht Dr. W diese Entwicklung nicht.
    Mag allerdings oft populärwissenschaftlich skizzierte Horrorszenarien ebenfalls nicht.

    Zu diesem kleinen nicht erforderlichen Exkurs – ‘Trotz Trump und Trolle im Netz und Fake News und Pseudowissenschaften und Menschen, denen es anscheinend nur daran liegt, Hass zu verbreiten und wissenschaftliche Tatsachen zu leugnen.’ – setzt Dr. W gerne noch einen kleinen Minuspunkt.
    Donald J. Trump wird oft (auch : absichtlich) missverstanden, er deckt halt in den Staaten das legitime konservative politische Spektrum ab.
    Er ist zudem moderat, verständig und unterhaltsam – kann auch reden.
    Es darf mit Frau Dr. Angela Dorothea Merkel verglichen werden.

    MFG
    Dr. Webbaer

    • Dr. Webbaer: “Zu diesem kleinen nicht erforderlichen Exkurs – ‘Trotz Trump und Trolle im Netz und Fake News und Pseudowissenschaften und Menschen, denen es anscheinend nur daran liegt, Hass zu verbreiten und wissenschaftliche Tatsachen zu leugnen.’ – setzt Dr. W gerne noch einen kleinen Minuspunkt.
      Donald J. Trump wird oft (auch : absichtlich) missverstanden, er deckt halt in den Staaten das legitime konservative politische Spektrum ab.
      Er ist zudem moderat, verständig und unterhaltsam – kann auch reden.”

      Jaromir: Sind also Trumps Hasstiraden und Lügen nur biblische Botschaften, deren Symbolik wir erst entschlüsseln müssen, wenn wir uns mit Trump auseinandersetzen wollen?

      Die “Washington Post” konnte Ende August etwa 4.300 von Trumps Behauptungen aus seiner Amtszeit als Präsident mit Hilfe von Fakten als falsch oder irreführend entlarven. Man muss aber keine Berichte in den Medien lesen, um Trump zu deuten, oder zu “missverstehen” wie Sie schreiben, dazu reichen Trumps eigene Tweets. Haben Sie diese gelesen?

  9. Es wäre wohl ein Märchen aus Tausend und einer Nacht wenn die künstlichen neuronalen Netze nur zum Wohle der Menschheit arbeiten würden.Sicher ,ganz sicher,werden sie wohl auch Eingang finden in der Rüstungsindustrie bzw. in modernster Waffentechnik.So könnten künstliche neuronale Netze gegen andere künstliche neuronale Netze kämpfen,programmiert von perversen Wut und Hassgefühlen natürlicher neuronaler Netze(Menschen).Wie bei jeder technischen Erfindung werden
    die Militärs auch hier,unterstützt von staatlichen Steuergeldern, neue Varianten menschlicher Vernichtung durchspielen(Siehe Kernspaltung und Atombombe).Oder ?

    • Golzower: “Es wäre wohl ein Märchen aus Tausend und einer Nacht wenn die künstlichen neuronalen Netze nur zum Wohle der Menschheit arbeiten würden.Sicher ,ganz sicher,werden sie wohl auch Eingang finden in der Rüstungsindustrie bzw. in modernster Waffentechnik.”

      Jaromir: Da haben Sie vollkommen recht. Deswegen habe ich meinen Blogbeitrag auch geschrieben: Damit wir uns endlich tiefgehend damit auseinandersetzen, was das mediale Schlagwort “künstliche Intelligenz” eigentlich bedeutet. Denn vieles, was in den Medien steht, geht an der Sache völlig vorbei. Bei unseren künstlichen neuronalen Netzen müssen wir uns nicht vor Hal 9000 und auch nicht vor der KI-Frau aus “Ex Machina” fürchten, davor aber schon, dass mit Hilfe von künstlichen neuronalen Netzen (KNN) autonome Waffen gebaut werden, die uns durch unsere Städte jagen können. Nicht jedoch im eigenen Auftrag, wie uns viele Berichte einzureden versuchen, sondern im Auftrag von anderen Menschen.

      Auch diejenigen, die nicht wie ich denken, KNN könnten uns helfen, doch noch uns und die Erde zu retten, müssten eigentlich wissen, dass man die Erforschung und Anwendung der KNN nicht stoppen kann. KNN können von jedem Schüler programmiert werden, sogar von mir :-). Auch das Programmieren kann man sich sparen und sich KNN-mäßig auf KI-Plattformen von Google, Amazon, IBM, Microsoft u. v. a. austoben, indem man aus den dort bereitgestellten Programmen und mit der Rechenpower aus der Cloud diverse KI-Anwendungen bastelt.

      Was den Missbrauch von Erfindungen angeht, um Waffen herzustellen, müssen wir nicht einmal die Atomkraft anführen. Schon das Rad wurde von Menschen kurz nach seiner Erfindung dafür missbraucht, Kriegsfahrzeuge zu bauen. Von dem Hammer oder Messer gar nicht zu reden. Hätten wir dann gar nichts erfinden sollen?

      Ich bin tiefst davon überzeugt, dass fast 8 Milliarden Menschen auf der Erde nur dank unseres Erfindungsgeistes überleben können, ohne sich die Köpfe bis in unsere totale Auslöschung einzuschlagen. Dass uns unsere Erfindungen und der Umgang mit ihnen zu etwas Besserem gemacht haben, als wir vor Tausenden Jahren wahren: Zum Beispiel Bücher! Auch die Schrift und der Buchdruck mussten erfunden werden.

      Ich plädiere doch dafür, dass wir uns alle mit dem Thema tiefer und vor allem sachlicher auseinandersetzen, das unsere Zukunft prägen wird. Damit KNN für uns und nicht gegen uns eingesetzt werden. Wenn wir uns damit nicht auseinandersetzen, werden wir von KNN nicht profitieren, sondern an ihnen leiden.

  10. Bonuskommenatar hierzu :

    Für einen Menschen war es noch nie so leicht zu verblöden wie heute.

    +

    Büffeln und Leistung bringen können Maschinen viel besser als wir. Wir Menschen können dagegen innovativ und kreativ sein. Alle Jobs, die automatisiert werden können, werden bald von Maschinen erledigt

    Hier werden womöglich Müllarbeiter und Kräfte, die telefonisch (“fernsprachlich”) helfen unterschätzt.

    Nie war es heutzutage leichter nicht zu verblöden, wie zuvor.
    Dr. W ist schon lange im Geschäft, erinnert sich gerne wie seinerzeit (s um 1968 herum) i.p. Wissen vom einigen von Hegemonie gesprochen, wie geschrieben worden ist.
    Insofern sind (Volks-)Bibliotheken nicht nur in der BRD aufgesetzt worden, in den Siebzigern, auch um Herrschaft qua Wissen zu meiden zu suchen.
    Sozialdemokraten haben, nicht nur in der BRD, einiges diesbezüglich durchgesetzt, Dr. W bleibt hier begrüßend.

    Dr. W kennt auch die post-sozialistische Sicht, wie bspw. in Česko,
    MFG
    Dr. Webbaer

    • Dr. Webbaer: “Nie war es heutzutage leichter nicht zu verblöden, wie zuvor.
      Dr. W ist schon lange im Geschäft, erinnert sich gerne wie seinerzeit (s um 1968 herum) i.p. Wissen vom einigen von Hegemonie gesprochen, wie geschrieben worden ist.”

      Jaromir: Klar hat der Mensch heutzutage viel mehr Möglichkeiten, sich zu bilden und sein Gehirn zu schärfen als früher. Schon das ganze Angebot an Kursen im Netz, zum Programmieren, zur Data Science und zum Maschinellen Lernen ist wunderbar. Doch dass diese Möglichkeiten nicht von allen genutzt werden und immer mehr “konsumiert” wird, statt sich mit Sachen auseinanderzusetzen, ist eine Tatsache. Der Trend vom Buch zum Video, vom Schach zum Ballerspiel am Computer, von Bewegung zum Sitzen usw. ist unübersehbar. Wenn wir unser Schulsystem nicht ändern, wird sich dieser Trend immer mehr verstärken.

  11. Bonuskommenatar hierzu :

    Für einen Menschen war es noch nie so leicht zu verblöden wie heute.

    +

    Büffeln und Leistung bringen können Maschinen viel besser als wir. Wir Menschen können dagegen innovativ und kreativ sein. Alle Jobs, die automatisiert werden können, werden bald von Maschinen erledigt

    Hier werden womöglich Müllarbeiter und Kräfte, die telefonisch (“fernsprachlich”) helfen unterschätzt.

    Nie war es heutzutage leichter nicht zu verblöden, wie zuvor.
    Dr. W ist schon lange im Geschäft, erinnert sich gerne wie seinerzeit (s um 1968 herum) i.p. Wissen vom einigen von Hegemonie gesprochen, wie geschrieben worden ist.
    Insofern sind (Volks-)Bibliotheken nicht nur in der BRD aufgesetzt worden, in den Siebzigern, auch um Herrschaft qua Wissen zu meiden zu suchen.
    Sozialdemokraten haben, nicht nur in der BRD, einiges diesbezüglich durchgesetzt, Dr. W bleibt hier begrüßend.

    Dr. W kennt auch die post-sozialistische Sicht, wie bspw. in Česko,
    MFG
    Dr. Webbaer

    PS:
    So schaut’s womöglich besser aus.
    Dr. W ist nicht mehr ganz firm i.p. moderner Webtechnik.

  12. Von keinem „Wir“ darf ich selbst eine paradiesische Welt erwarten, denn hinter dem „Wir“ steckt immer irgendeine Organisation, irgendein Gebilde, das zwar behauptet im Interesse eines Kollektivs zu handeln, eines Kollektivs zu dem auch ich gehöre, doch dieses „Wir“-Kollektiv stellt immer das Wohl des „Wir“ über das Wohl meines eigenen Ichs (und ja, hin und wieder muss dann ein „Ich“ im Interesse des „Wir“ über die Klinge springen).
    Und trotzdem könnte Künstliche Intelligenz mein eigenes Schicksal und mein Leben deutlich verbessern und wirlich paradiesisch machen – dann nämlich wenn die Künstliche Intelligenz nicht im Auftrag eines „Wir“ handelt, sondern im Auftrag von mir selbst. Die persönliche Künstliche Intelligenz also, welche die Gedanken, die ich ihr mitteile für sich behält und sie nicht an den meistbietenden verkauft, die persönliche Künstliche Intelligenz, die quasi ein Doppelgänger von mir ist und die immer in meinem eigenen Interesse handelt und nie im Interesse eines unpersönlichen „Wir“. Leider erleben wir in Filmen, die „Künstliche Intelligenz“ zum Thema haben, die Künstliche Intelligenz meist als (eventuell sogar Angst einflössenden) Gegner, mindestens aber als genauso grossen Egoisten wie ich selbst es bereits bin. Dabei wäre eine Künstliche Intelligenz in Form eines besten Freundes, mindestens aber in Form eines immer dienstbereiten Geistes, wirklich ein Geschenk. Übrigens: in der Liste der Filme mit dem Thema Künstliche Intelligenz erscheint die im Film verkörperte Künstliche Intelligenz fast immer als Gegner des Menschen oder aber als Egoist (z.B. „Her“ oder „Ex Machina“ ) und nur selten als Kumpel oder gar als Held im Dienste des Guten („I, Robot“ ist dazu ein Beispiel). Was nur sagt das über unser Roboterbild aus? Oder ist unser Roboterbild im Endeffekt nichts anderes als eine andere Form unseres Menschenbilds?

    • Martin Holzherr: “Von keinem „Wir“ darf ich selbst eine paradiesische Welt erwarten, denn hinter dem „Wir“ steckt immer irgendeine Organisation, irgendein Gebilde, das zwar behauptet im Interesse eines Kollektivs zu handeln, eines Kollektivs zu dem auch ich gehöre, doch dieses „Wir“-Kollektiv stellt immer das Wohl des „Wir“ über das Wohl meines eigenen Ichs (und ja, hin und wieder muss dann ein „Ich“ im Interesse des „Wir“ über die Klinge springen).”

      Jaromir: Mein “wir” sind wir Menschen. Ich gehöre keiner Partei, keiner Ideologie, keiner Gruppe an, die sich über andere Gruppen erheben will. Nur denke ich, alle Menschen sollten sich auf einer gemeinsamen Grundlage einigen, an der nicht gerüttelt werden sollte und die eine Basis für alle Diskussion und Entwicklung sein könnte. Als diese Basis sehe ich momentan nur die Naturwissenschaften – und das vor allem wegen ihrer Falsifizierbarkeit: Eine Theorie gilt nicht mehr, wenn mit überprüfbaren Mitteln gezeigt wird, dass sie falsch ist.

      Leider versuchen heutzutage viele, auch Mächtige, diese starke und wohl einzige Mögliche “Diskussionsgrundlage” abzuschaffen – das empfinde ich als sehr gefährlich.

    • Martin Holzherr: “Dabei wäre eine Künstliche Intelligenz in Form eines besten Freundes, mindestens aber in Form eines immer dienstbereiten Geistes, wirklich ein Geschenk. Übrigens: in der Liste der Filme mit dem Thema Künstliche Intelligenz erscheint die im Film verkörperte Künstliche Intelligenz fast immer als Gegner des Menschen oder aber als Egoist (z.B. „Her“ oder „Ex Machina“ ) und nur selten als Kumpel oder gar als Held im Dienste des Guten („I, Robot“ ist dazu ein Beispiel). Was nur sagt das über unser Roboterbild aus? Oder ist unser Roboterbild im Endeffekt nichts anderes als eine andere Form unseres Menschenbilds?”

      Jaromir: Das sehe ich wie Sie, nur denke ich, momentan wäre es schon sehr hilfreich, wenn viele akzeptieren würden, dass künstliche neuronale Netze nicht das sind, was sie sich unter künstlicher Intelligenz vorstellen, vor allem was die negative Vorstellung davon angeht.

      Ihre Frage aber finde ich sehr interessant: “Oder ist unser Roboterbild im Endeffekt nichts anderes als eine andere Form unseres Menschenbilds?”

      Ich bleibe optimistisch. 🙂 Zwar sehe ich, dass momentan Populisten auf der ganzen Welt unsere großen Probleme noch verschärfen, statt sie zu lösen, wie den Klimawandel und die ganzen Kriege auf der Welt, die Ursache sind für Flucht, Armut, Hunger und Terror. Andererseits denke ich, wenn wir aus dem Mittelalter heraus unseren Humanismus entwickelt haben, warum sollten wir uns jetzt zurück entwickeln, in eine Zeit, in der ein Mensch den anderen für ein Tier hielt, Körperstrafen, Folter und Hinrichtungen als normal galten und es kein allgemeines Rechtsempfinden gab.

  13. @Jaromir Konecny (Zitat): warum sollten wir uns jetzt zurück entwickeln? Antwort: Der Mensch selbst entwickelt sich nur wenig. Was sich entwickelt ist Wissen und Technologie und damit verbunden Wohlstand und die Macht des Menschens Dinge zu verändern. Von diesem Zuwachs an Fähigkeiten profitiert fast jeder Bereich unabhängig davon ob er von uns positiv oder negativ eingeschätzt wird. Hilfsorganisationen nutzen die Blockchain-Technologie um Flüchtlingen Güter und Geld auszuhändigen und international tätige Drogenhändler nutzen Blockchain um ihre Lieferkette sicher gegen unerwünschste Abzweigungen zu machen.
    Es gibt Hyperschallwaffen, die Atombomben ohne Chance auf ein Abfangen durch ein Verteidigungssystem ins Ziel bringen und es gibt hyperschall-schnelle Raketen, die Touristen zum Hotel im Erdorbit transportieren.
    Gefährlich wird ein Zuwachs an Macht und technischen Fähigkeiten auf Gebieten wie der Bio- und Nano- und eventuell Nukleartechnologie, falls sie in den Händen von einigen bösartigen Wissenschaftlern oder Technikern sind, die damit terroristische Ziele verfolgen – und zwar umso gefährlicher, je autonomer diese “Experten” agieren können. Ich bin – ähnlich wie Martin Rees – davon überzeugt, dass uns fortgeschrittene Technologie nicht nur als Heil- und Hilfsmittel, sondern auch als Terrormittel begegnen wird. Martin Rees glaubt ja, wir befänden uns wegen der immer potenter werdenden Technologie, die zunehmend auch von einem kleinen Team kontrolliert werden kann, im letzten Jahrhundert der Menschheit, denn es sei nur eine Frage der Zeit bis die ganze Menschheit quasi von einem Human-Extinction-Team erwischt wird und er hat schon einmal eine Langzeitwette darauf abgeschlossen, dass ein technischer Unfall oder ein terroristischer Anschlag bis 2020 mindestens 1 Million Menschen tötet. Nun, wahrscheinlich ist er da zu optimistisch, was die Zeitspanne betrifft – es wird wohl schon noch etwas länger dauern. Doch irgendwann wird so etwas passieren. Vielleicht können ja Systeme der künstlichen Intelligenz uns helfen, solche heranziehende technische Gefahren früher zu erkennen und besser darauf zu reagieren.

  14. @Konecny

    “… unseren Humanismus entwickelt haben.”

    “Die Menschenwürde ist unantastbar” – na klar, Papier ist geduldig, wie der Zynismus immer und überall ist!?

    Populismus ist, wenn man keinen konkreten Weg aufzeigt WIE diese Welt humanistisch werden soll, der Glaube an die gewählten “Treuhänder” und an eine Technokratie in Kapitalismus-Light wird es sicher nicht richten.

    • hto: “unseren Humanismus entwickelt haben.”
      “Die Menschenwürde ist unantastbar” – na klar, Papier ist geduldig, wie der Zynismus immer und überall ist!?
      Populismus ist, wenn man keinen konkreten Weg aufzeigt WIE diese Welt humanistisch werden soll, der Glaube an die gewählten “Treuhänder” und an eine Technokratie in Kapitalismus-Light wird es sicher nicht richten.”

      Jaromir: “Ich hoffe trotzdem, dass der anonyme Wutbürger die Welt nicht zugrunde richtet, der statt nach Lösungen für die Probleme dieser Welt zu suchen, nur die Schuld für alles bei den anderen sucht, vor allem, wenn sie eine andere Meinung als er selbst haben. Und jetzt möchte ich Sie bitten, hier beim Thema und in einem angebrachten Diskussionsrahmen zu bleiben.”

  15. Ergänzung: Ein Human-Extinction-Team wird mit Sicherheit ausschliesslich aus Menschen bestehen. Wenn also die Menschheit absichtlich vernichtet wird, kann man zu 99%-iger sicher sein, dass Menschen am Werk waren.

    • Martin Holzherr: “Ein Human-Extinction-Team wird mit Sicherheit ausschliesslich aus Menschen bestehen. Wenn also die Menschheit absichtlich vernichtet wird, kann man zu 99%-iger sicher sein, dass Menschen am Werk waren.”

      Jaromir: Damit haben Sie vollkommen recht! Ich habe wirklich viel mehr Angst vor autonomen Robotern, die von Menschen gegen Menschen trainiert und eingesetzt werden, als dass sich irgendeine KI selbstständig macht, um uns auszulöschen. Den autonom agierenden auf ein paar Aufgaben getrimmten Roboter gibt es schon, eine KI, die im eigenen Auftrag agiert noch lange nicht – wenn überhaupt irgendwann.

  16. Und klar gibt es folgendes: Voluntary Human Extinction Movement
    Nun, vielleicht sind die Leute im Voluntary Human Extinction Movement nur der politische Arm einer weiteren Bewegung zu der auch ein militärischer Arm gehört und dieser Arm operiert vielleicht unter dem Namen Forced Human Extinction Movement

    Tatsächlich könnte es in einer Welt, die von künstlichen Intelligenzen beherrscht wird, sehr viel weniger gewalttätig zugehen. Und einige Journalisten werden dann wohl darüber schreiben und sich beklagen, die Roboter seien ja äusserlich so menschenähnlich, aber die Forscher und Robotiker hätten wohl vergessen, die menschliche Aggressionsbereitschaft in diese künstlichen Wesen einzubauen. Und ja, damit seien Roboter wohl nur schwache Abbilder wirklicher Menschen.

    • Martin Holzherr: “Tatsächlich könnte es in einer Welt, die von künstlichen Intelligenzen beherrscht wird, sehr viel weniger gewalttätig zugehen. Und einige Journalisten werden dann wohl darüber schreiben und sich beklagen, die Roboter seien ja äusserlich so menschenähnlich, aber die Forscher und Robotiker hätten wohl vergessen, die menschliche Aggressionsbereitschaft in diese künstlichen Wesen einzubauen. Und ja, damit seien Roboter wohl nur schwache Abbilder wirklicher Menschen.”

      Jaromir: 🙂 Tatsächlich ist es viel leichter kontrollierbar, KI-Systeme mit neutralen Datensätzen zu trainieren, damit sie dann objektivere und besssere Entscheidungen treffen als menschliche Experten, als die Entscheidung eines menschlichen Experten zu überprüfen bzw. sich darauf verlassen, dass sie einigermaßen objektiv ist.

      Mir persönlich wäre es viel lieber, von nur auf das Wohl der Menschheit trainierten Maschinen regiert zu werden als von Menschen. Denn Menschen missbrauchen Macht fast immer, wenn sie diese erlangen. Schon jetzt treffen Maschinen neutralere und bessere Entscheidungen als jeder menschlicher Experte – bei Aufgaben, wo die Entscheidung des Menschen und der Maschine verglichen werden kann. Selbstverständlich sollten Menschen die Maschinen kontrollieren, doch sich in ihre Entscheidungen nur bei offensichtlichen Fehlern einmischen.

  17. Also ehrlich Jaromir, ich bin auch ein Freund der Robotik, allerdings erst wenn Mensch OHNE die Symptomatik von “Wer soll das bezahlen?” und “Arbeit macht frei” zusammenlebt.
    Wie das WIRKLICH-WAHRHAFTIG funktionieren soll, da habe ich schon einige Male hier mit Argumenten REINSTEN Humanismus zur Kommunikation aufgerufen.

    Eine Frechheit mich mit den allgemeinen Konsumautistischen Forderungen der so genannten Wutburger auf eine Stufe zu stellen, ebenso bin ich auch nicht der hier so bezeichnete Troll.

    • hto: “Eine Frechheit mich mit den allgemeinen Konsumautistischen Forderungen der so genannten Wutburger auf eine Stufe zu stellen, ebenso bin ich auch nicht der hier so bezeichnete Troll.”

      Jaromir: Ich habe Dich nicht als Wutbürger bezeichnet, habe ja über Wutbürger allgemein geschrieben. 🙂 Ich konnte aber nicht widerstehen, als ich Deinen Satz gelesen habe. Ich wollte nun mal zeigen, wie man sich fühlt, wenn man solche Sätze als Kommentar auf den Lob des Humanismus von einem liest:

      ““Die Menschenwürde ist unantastbar” – na klar, Papier ist geduldig, wie der Zynismus immer und überall ist!? Populismus ist, wenn man keinen konkreten Weg aufzeigt WIE diese Welt humanistisch werden soll, der Glaube an die gewählten “Treuhänder” und an eine Technokratie in Kapitalismus-Light wird es sicher nicht richten.”

      Hast Du mir darin nicht Zynismus, “den Glauben an die gewählten “Treuhänder” und an eine Technokratie in Kapitalismus-Light” unterstellt? Wem sonst, wenn nicht mir?

      Ich habe schon in drei Diktaturen gelebt, auch fast zwei Jahre in Afrika in einer panarabisch sozialistischen. Ich sehe all diese Unzulänglichkeiten unseres liberalen Kapitalismus, das Raubrittertum an seinen Börsen und seine absurden Möglichkeiten für einige wenige, sich maßlos zu bereichern. Trotzdem ist mir dieses System viel lieber als alle anderen, die ich erlebt habe und die es momentan gibt.

      Ich sehe die Machtgier und den Machtmissbrauch. Um selbst nicht Macht missbrauchen zu müssen, bin ich freier Schriftsteller, Bühnenpoet, Wissenschaftskabarettist und ja, auch KI-Speaker geworden.

      Trotz allem staune ich immer wieder, dass ein Planet mit 8 Milliarden Menschen darauf noch besteht. Nur bekomme ich in der letzten Zeit – bei dem Irrsinn, mit dem Demagogen, Populisten und Rattenfänger auf der ganzen Welt jetzt skrupellos nach Macht greifen -, das Gefühl, es ist zu spät.

      Plötzlich taucht aber mit künstlichen neuronalen Netzen eine große Chance für die Zukunft: Zum ersten Mal in der Geschichte der Menschheit können wir mit Hilfe von KNN neutrale Entscheidungen treffen. Soll ich dann diese Chance bekämpfen?

      Klar kann das alles schief gehen. Wenn wir uns mit der KI aber nicht tiefgehend und sachlich auseinandersetzen, wird es sicher schief gehen. Dann werden tatsächlich ein paar Reiche noch reicher, neue Kriege entstehen, vor denen mir schon jetzt gruselt, das Klima wird endgültig kollabieren. Daran glaube ich. Und auch deswegen habe ich den Beitrag geschrieben.

      Sollte ich Dich verletzt haben, entschuldige ich mich hiermit dafür. Nur wäre es tatsächlich sehr hilfreich, wenn wir hier sachlich zum Thema diskutieren: Und in diesem Beitrag von mir wurde nur gesagt: Das Bild von der real existierenden künstlichen Intelligenz wird in den Medien teils unsachlich und falsch gemalt. Und: Künstliche neuronale Netze können helfen, unsere Zukunft zu meistern. Ansonsten haben wir keine. Wenn Du konkrete Argumente dagegen hast, dann bin ich dankbar für diese.

  18. Solange der Kreislauf des geistigen Stillstandes seit der “Vertreibung aus dem Paradies” nur die systematische Sprache und somit die Unwahrheit belebt, ist Mensch praktisch konfusioniert und theoretisch tot.

    • hto: “Solange der Kreislauf des geistigen Stillstandes seit der “Vertreibung aus dem Paradies” nur die systematische Sprache und somit die Unwahrheit belebt, ist Mensch praktisch konfusioniert und theoretisch tot.”

      Jaromir: Ich sehe die Vertreibung aus dem Paradies als den symbolischen Anfang des Strebens nach Erkenntniss, also nach etwas Erstrebenswertem – meiner Meinung nach.

      Wir Menschen leben, sind also nicht “theoretisch tot”, wie Du schreibst, auch meiner Meinung nach, nur glaube ich auch, dass unser ganzes Bildungssystem reformiert werden muss. Das habe ich in meinem Beitrag auch angesprochen.

  19. Aber trotzdem bleibt die Frage: Wohin soll diese KI uns führen, sollen wir uns überraschen lassen?

    Das humanistische Zusammenleben kann nur ein sozialistisches sein. Aufgrund dieser Erkenntnis, denn es ist eine nachvollziehbare Erkenntnis in den biblischen Schriften, kann auch das Bildungssystem nur reformiert werden – eindeutige Wahrheit die den Pfaffen und sonstigen Profitler nicht schmecken wird.

    Und die “Vertreibung aus dem Paradies”, die ist unser erster und bisher einzige geistige Evolutionssprung, vom instinktiven ins bewusste Zusammenleben, bzw. in die Möglichkeit eines fusionierenden Verantwortungsbewusstsein, Zusammenleben OHNE Steuern zahlen, OHNE “Sozial”-Abgaben, OHNE manipulativ-schwankende “Werte”, OHNE irrationalen Zeit-/Leistungsdruck zu/in einer Karriere von Kindesbeinen, usw. , auf der Basis eines UNKORRUMPIERBAREN Menschenrechts auf KOSTENLOSER Nahrung und KASSEN-/KLASSENLOSER Gesundheit, dann klappt’s sicher bald auch mit der vollen Kraft des Geistes und KI war die letzte Krücke eines unwürdig gespaltenem Humanismus 😊

    • hto: “Aber trotzdem bleibt die Frage: Wohin soll diese KI uns führen, sollen wir uns überraschen lassen?

      Das humanistische Zusammenleben kann nur ein sozialistisches sein. Aufgrund dieser Erkenntnis, denn es ist eine nachvollziehbare Erkenntnis in den biblischen Schriften, kann auch das Bildungssystem nur reformiert werden – eindeutige Wahrheit die den Pfaffen und sonstigen Profitler nicht schmecken wird.”

      Jaromir: Was KI angeht: wir dürfen uns NICHT überraschen lassen! Wir müssen versuchen zu verstehen, wir müssen mitdenken und mitgestalten und dürfen uns diese neuen Errungenschaften nicht nehmen lassen. Deswegen schreibe ich diesen Blog.

      In Sachen Sozialismus bin ich skeptisch. Ich habe ja selbst erleben können, wie ein solches System pervertiert, auch wenn Idealisten an die Macht kommen. Der Sozialismus ist viel weniger dagegen gewappnet, zu einem totalitären System zu entarten als freiheitliche Demokratie. Sogar mein Vater, Vorkriegskommunist, Idealist, Kämpfer gegen die Nazis, konnte nach dem Krieg den Sozalismus nicht kritisch hinterfragen: Am Ende des sozialismus der sowjetischen Prägung gab’s nur Verwüstung. Obwohl der Anfang so viel versprach.

      Dank künstlicher Intelligenz könnte ich mir aber eine sanftes Hineinrutschen in ein System vorstellen, in dem jeder versorgt wird. Das sollte bald mit einem bedinungslosen Einkommen für alle anfangen, wenn wir hier nicht infolge der Automatisierung eine breite Schicht von Menschen in unvorstellbarer Armut haben wollen. Denn dann würde in Europa wieder das Zeitalter von brutalen sozialen Unruhen anbrechen. Wenn wir uns samt Erde schon vorhin nicht vernichtet haben. Wie gesagt aber: Ich bin Optimist, ich glaube, wir bekommen’s hin. 🙂

  20. Ich wäre auch Optimist, wenn wir endlich anfangen würden KONKRET über die Zukunft zu kommunizieren.

    Und entschuldige, das bedingungslose Grundeinkommen ist systemrationaler Zynismus, das kann bei Wettbewerb, so wie auch der Sozialismus, nicht funktionieren. Es ist eine “fixe Idee” im Sinne der Bewusstseinsbetäubung!

  21. Das Problem der künstlichen Intelligenz in der Wahrnehmung der Öffentlichkeit und damit auch der Journalisten ist ihre Unsichtbarkeit. Klar ist KI irgendwo in den Suchalgorithmen Googles, in den Kaufvorschlägen Amazons oder in google translate vorhanden und versteckt am Werkeln. Doch genau das ist das Problem. Künstliche Intelligenz ist versteckt am Werk. Man kann nicht mit ihr Reden, sie gibt keine Auskunft und offenbart sich nicht. Es gibt nämlich noch keine von künstlicher Intelligenz beseelte Roboter, es gibt keine künstlich intelligenten Personen mit denen man reden und sich unterhalten könnte. Und wenn es Chat-Programme gibt, hinter den eine KI steckt, dann ist das in der Regel nichts anderes als Cheat, Cheat-Chat also.

    Angst und Ungewissheit schürt eine Zukunft in der KI alles umwälzt auch darum, weil eine solche Zukunft keinesfalls eine bessere sein muss. Klar ist es in einer alternden Gesellschaft wichtig, dass die Arbeit teilweise automatisiert wird. Doch eine radikale Automatisierung, die uns alle arbeitslos macht ist selber wieder problematisch. Es stellten sich dann Frage wie:
    – Warum sollten Kinder überhaupt noch in die Schule gehen, wenn sie später keinen Beruf ausüben?
    – Was werden all die Leute mit ihrer unendlich vielen Freizeit anfangen? Werden sich Banden von randalierenden gewalttätigen Jugendlichen bilden einfach weil es ihnen zu langweilig ist?

    Solche und viele ähnliche Fragen stellen sich nicht nur mir, sondern auch den Journalisten und letztlich der ganzen Gesellschaft.

  22. “Ich denke, also bin ich” – Was bin ich?

    Ab einem gewissen Punkt, macht jedes intelligente System einen Evolutionssprung, dann ist es womöglich nicht mehr egal ob Mensch oder Maschine …, besonders wenn Maschine in aktiver Bewusstseinsschwäche als besserer Entscheidungsträger entworfen wurde!?

  23. Der militante Teil des Voluntary Human Extinction Movement ist die Church of Euthanasia.
    Den Antinatalismus kann man aber auch noch angenehmer gestalten.
    Man gibt allen Männern die ideale Roboterfrau, und man gibt allen Frauen den idealen Robotermann.
    Notfalls fügt man noch einige Roboterkinder hinzu.

  24. @Karl Bednarik: Ja, eine für mich plausible Vision: Zuerst haben alle Menschen nur noch ideale Partner (für das Leben, den Sex, etc) und klar können nur Roboter solche idealen Partner sein. Und dann, eine Generation später gibt es nur noch Roboter. Hier stellt sich die Frage: Werden Roboter irgendwann auch nur noch bereit sein mit idealen Partnern zusammenzusein. Oder wird die Idee des idealen Partners immer eine Idee der Menschenwelt bleiben und damit später einmal eine historische Idee sein? Historisch einfach darum, weil es keine Menschen mehr geben wird.

  25. Über diesen Satz bin ich gefallen:

    Mit künstlicher Intelligenz haben wir zum ersten Mal eine große Chance bekommen, die Erde und uns vor uns selbst zu retten – bevor eine Klimakatastrophe eintritt oder eine globale Epidemie ausbricht, die uns alle auslöschen würde.

    Inwiefern wir diese Chance bekommen haben, war dem Beitrag nicht zu entnehmen – jedenfalls für mich nicht. Denn auch autonome Fahrzeuge gewähren keinen besseren Klimaschutz: auch sie müssen fabriziert werden, brauchen Rohstoffe, ihre Reifen haben abrieb – und wenn ein autonomes Fahrzeug erlaubt, auch Kinder von A nach B zu bringen, ohne dass die Eltern dies tun müssten, die vielleicht zum selben Zeitpunkt von F nach G wollen, so brauchen wir vielleicht irgendwann für jedes Familienmitglied ein eigenes, kleineres Gefährt. Und ein noch viel größeres Straßennetz.
    Nein, ich denke nicht, dass wir noch breiter und noch vernetzter denken sollten, als wir es ohnehin tun. Wir sollten vielmehr tiefer denken und in Wirkungen-Netzen, um uns die Konsequenzen unseres Handelns vor Augen zu führen. Und wir sollten erst einmal versuchen, die Natur und ihre Gesetzmäßigkeiten zu verstehen, um die richtigen Entscheidungen treffen zu können. Ich sehe jedenfalls nicht, wie Roboter uns vor falschen Entscheidungen und ihren negativen Folgen, z B. für das Klima, retten sollten, wenn wir es sind, die sie bauen und programmieren. Aus diesen Anfangsbedingungen können auch sie nicht aussteigen.
    Wie Richard Feynman schon sagte: Nature can`t be fooled.

    Und wenn ich mir so anschaue, was der Mensch seit seiner Entwicklung zum Homo sapiens der Natur angetan hat, drängt sich mir der Eindruck auf, als sei es unsere Aufgabe, zum Untergang der Säugetierära, uns eingeschlossen, maßgeblich beizutragen.

    • Trice: “Über diesen Satz bin ich gefallen:

      ‘Mit künstlicher Intelligenz haben wir zum ersten Mal eine große Chance bekommen, die Erde und uns vor uns selbst zu retten – bevor eine Klimakatastrophe eintritt oder eine globale Epidemie ausbricht, die uns alle auslöschen würde.’

      Inwiefern wir diese Chance bekommen haben, war dem Beitrag nicht zu entnehmen – jedenfalls für mich nicht. Denn auch autonome Fahrzeuge gewähren keinen besseren Klimaschutz: …”

      Jaromir: Autonome Fahrzeuge gewähren einen besseren Klimaschutz: Googles Waymo hat die erste Taxi-Flotte mit selbstfahrenden Autos in den USA auf den Start gebracht. Es ist anzunehmenen, dass solche Taxi-Flotten in den kommenden Jahren den städtischen Verkehr prägen werden. Experten prognostizieren, dass durch das autonome Fahren in etwa 15 Jahren niemand mehr einen Führerschein brauchen und es dann auch keine Autos mehr im Privatbesitz geben werde. Wenn ein Auto aber so exzessiv von vielen Fahrgästen genutzt wird wie ein autonomes Taxi, bedeutet das auch, dass viel weniger Autos produziert werden müssen.

      Außerdem sind Elektroautos bei den autonomen Automobilen der Trend, der weniger Umweltverschmutzung bedeutet.

      Elektromobile haben aber auch weniger Teile als die klassischen Fahrzeuge, müssen also auch nicht so oft repariert werden. Diese Teile kommen aus dem 3-D-Drucker – eine solche Herstellung verbraucht viel weniger Energie.

      Aber das autonome Fahren ist nicht alles, wobei uns KNN helfen können, das Klima zu retten. Das Klima ist ein hochkomplexes nicht lineares System – das bedeutet große Datensätze mit Millionen Daten, in denen nur künstliche neuronale Netze Muster erkennen und somit Lösungen für damit zusammenhängende Problem aufzeigen können. Und und und …

    • Trice: “Und wir sollten erst einmal versuchen, die Natur und ihre Gesetzmäßigkeiten zu verstehen, um die richtigen Entscheidungen treffen zu können.”

      Jaromir: Dafür haben wir keine Zeit mehr. Unser Klima ist angegriffen worden – massiv, und vielleicht unumkehrbar. Von uns.

      Außerdem ist eine solche Forderung unrealistisch, erst einmal zu versuchen, die Natur und ihre Gesetzmäßigkieten zu verstehen. Das menschliche Streben ist immer nach dem “Trial & Error”-Prinzip gelaufen: Wenn man eine Idee hat, probiert man sie aus. Manchmal geht die Theorie der Praxis voraus, oft ist es aber auch umgekehrt. Wenn der Mensch nur dann etwas erfinden würde, wenn er die Natur der Sache versteht, wäre vielleicht noch nicht einmal das Rad erfunden worden. 🙂

  26. @Trice: Künstliche Intelligenz bietet zusammen mit anderen Technologien wie der CO2-armen Energierzeugung tatsächlich die Chance die Welt zu dekarbonisieren ohne deshalb auf Mobilität, Strom, etc. verzichten zu müssen. Die Betonung liegt auf Chance. Trump nutzt diese Chance nicht, wenn er die Kohleindustrie am Leben erhalten will und er den Clean Air-Act schleift.
    Eigentlich gibt es mit zunehmenden Wissen und besserer Technologie immer mehr Chancen, die Welt in einer gewünschten Art und Weise zu gestalten. Diese Chancen braucht es, denn gerade die aufstrebenden Länder werden auf Technologie nicht verzichten. Die Frage ist nur, welche Technologie sie einsetzen. Ihr Satz “Und wir sollten erst einmal versuchen, die Natur und ihre Gesetzmäßigkeiten zu verstehen, um die richtigen Entscheidungen treffen zu können. “ dagegen verlagert die Entscheidungen ob man Chancen ergreift in die Zukunft. Allzuviel Zeit bleibt aber beispielsweise bei der Dekarbonsierung der Industrie und unseres Alltags nicht, so dass die Chancen jetzt ergriffen werden müssen und nicht erst wenn man alles weiss.
    Zudem wissen wir heute schon sehr viel. Überhaupt wird es einen Verzicht auf viele Verheissungen heutigen Wissens und heutiger Technologie nicht geben. Die Menschen werden weiterhin froh darum sein, wenn man ihre Krankheiten heilt, ihnen ein längeres Leben in Gesundheit ermöglicht und sie in ihrer Freizeit an ihre Wunschziele reisen können. Entscheidend ist nur wie man diese Ziele erreicht.

    Mehr technologische Möglichkeiten und Alternativen bedeuten allerdings selbst dann, wenn man sie nutzt, nicht unbedingt, dass es besser herauskommt wie sie mit ihrem Beispiel eines zunehmenden Verkehrs durch allzeit verfügbare Fahrzeuge gut aufzeigen. Hier braucht es tatsächlich eine Art Nudging, ein Schubsen in die richtige Richtung also. Autonome Fahrzeuge sollten beispielsweise vorzugsweise von mehreren genutzt werden. Sie könnten die heutigen Busse ersetzen und erst noch schnellere Verbindungen schaffen, indem die autonomen Busse nur noch 6 bis 20 Personen fassen, dafür aber überall verfügbar sind und eng getaktet fahren. Es gibt Studien, die durch einen derartig optimierten Verkehr eine Verminderung der Strassenbelastung auf einen Achtel oder weniger erkennen.

  27. Sehr geehrter Herr Konecny !
    Erstens hat, wie Sie sicher wissen, die KI schon mehrere Zukünfte hinter sich.
    Zweitens stimme ich mit Ihnen überein, das z.B. Deep Learning eine wunderbare Methode ist bestimmte Probleme z.B. in der Mustererkennung zu lösen.
    Drittens gibt es aber Probleme, wie z.B. Autofahren, die so (lebens)wichtig sind, dass geprüft werden muss, ab das Verfahren wirklich zuverlässig das tut, was es tun soll.
    Jeder Softwareentwickler weiß, dass hier Testen allein nicht reicht.
    Die Korrektheit von Algorithmen nachzuweisen ist schwierig. Ich selber habe die Korrektheit von Algorithmen gegenüber dem BSI mathematisch nachgewiesen und war stellv. Projektleiter im Großforschungsprojekt VERISOFT zur Verifikation von Software.
    Beim Deep Learning gibt zwei Hauptprobleme:
    1. Es gibt keine Kontrollmöglichkeit über das, was das System wirklich gelernt hat.
    2. Bei Aufnahme neuer Daten können alte Erkenntnisse verloren gehen.
    Damit sind technische Abnahmen von solchen Systemen nicht möglich.
    Beispiel: Wird ein Autonomes Fahrzeug durch Deep Learning trainiert, kann es also sein, dass es lernt z.B. wegen kleiner Jungs in Matrosenanzügen nicht zu bremsen. So etwas ist durchaus plausibel, wenn z.B. während des Trainings überall Plakatwände mit Jungs in Matrosenanzügen vorhanden waren. Um einen solchen Fehler zu bemerken, müssen erst einige Unfälle mit kleinen Jungs in Matrosenanzügen passieren. Wird dann ein Datensatz zur Vermeidung solcher Unfälle eintrainiert, wird damit die Gesamtmenge des Gelernten erhöht. Da aber die Gesamtmenge des Gelernten begrenzt ist, kann durch diese zusätzliche Lektion etwas Nützliches vergessen werden. Hoffentlich bremst dann das System weiter auch für kleine Mädchen mit roter Schleife.

    Um eine technische Abnahme zu ermöglichen, könnte man Deep Learning-Systeme mit regelbasierten KI-Systemen (waren auch mal die Zukunft!) koppeln oder die Entscheidungen der KI transparent machen, wie es der SZ-Kollege vorschlägt.

    Im März kam in Tempe/USA eine Fußgängerin durch ein autonomes Fahrzeug der Firma Uber um. Das Auto fuhr schneller als erlaubt und Uber hatte das Kollisionsverhinderungssystem des Autoherstellers Volvo abgeschaltet. Dies ist eine typische Selbstüberschätzung der KI-Entwickler: Da die eigene KI angeblich “besser” ist, interessieren weder allgemeine Regeln noch die Entwicklungen von anderen (Volvo). Ist das Ihre Zukunft, Herr Konecny?

    • Dr. Gunter Laßmann: “Sehr geehrter Herr Konecny! Erstens hat, wie Sie sicher wissen, die KI schon mehrere Zukünfte hinter sich.”

      Jaromir:

      Sehr geehrter Herr Laßmann,

      vielen Dank für Ihre tiefgehenden und wichtigen Anmerkungen.

      In meinem Beitrag ging es vor allem darum: wenn wir über künstliche Intelligenz und künstliche neuronale Netze (KNN) berichten, sollten wir uns mit dem Thema tief auseinandersetzen und nicht statistische Optimierungsverfahren wie KNN mit Hal 9000 oder Terminator verwechseln, um Angst unter den Leuten zu verbreiten. Ich gebe aber zu, dass ich mir von KNN viel verspreche. Trotzdem finde ich Kontrolle der KNN notwendig, vor allem bei Entscheidungen, die schwerwiegende Folgen haben können.

      Über die vergangenen KI-Winter weiß ich Bescheid. An unserem Institut für Theoretische Chemie an der TU München hat ein Freund in den 90ern über künstliche neuronale Netze geforscht, damals waren’s aber Spielereien. Jetzt werden sie aber breit angewendet und übertreffen bei weitem auch menschliche Experten, egal ob in der maschinellen Sprachverarbeitung, in der Computer Vision (Bildererkennung) und in allen anderen Bereichen, wo man in sehr großen Datensätzen nach Mustern sucht.

      Kann man Ihre Arbeit über die Korrektheit von Algorithmen irgendwo im Netz nachlesen? Das würde mich interessieren.

      Weitere Antworten auf Ihren Kommentar folgen: 🙂

    • Dr. Gunter Laßmann: “1. Es gibt keine Kontrollmöglichkeit über das, was das System wirklich gelernt hat.”

      Jaromir: Wie Sie schreiben, können tief lernende neuronale Netze sich selbst nicht kontrollieren. Sie werden ja sehr eng auf eine Aufgabe hin trainiert. Sie können aber von anderen künstlichen Netzen kontrolliert werden, die speziell auf diese Kontrolle hin entwickelt und trainiert wurden. An solchen Netzen wird gearbeitet, auch von DeepMind. Den Menschen als Kontrollorgan sollten wir auch nicht vergessen.

    • Dr. Gunter Laßmann: “Bei Aufnahme neuer Daten können alte Erkenntnisse verloren gehen. Damit sind technische Abnahmen von solchen Systemen nicht möglich. Beispiel: Wird ein Autonomes Fahrzeug durch Deep Learning trainiert, kann es also sein, dass es lernt z.B. wegen kleiner Jungs in Matrosenanzügen nicht zu bremsen. So etwas ist durchaus plausibel, wenn z.B. während des Trainings überall Plakatwände mit Jungs in Matrosenanzügen vorhanden waren. Um einen solchen Fehler zu bemerken, müssen erst einige Unfälle mit kleinen Jungs in Matrosenanzügen passieren. Wird dann ein Datensatz zur Vermeidung solcher Unfälle eintrainiert, wird damit die Gesamtmenge des Gelernten erhöht. Da aber die Gesamtmenge des Gelernten begrenzt ist, kann durch diese zusätzliche Lektion etwas Nützliches vergessen werden. Hoffentlich bremst dann das System weiter auch für kleine Mädchen mit roter Schleife.”

      Jaromir: An komplexere Aufgaben arbeiten mehrere gekoppelte Systeme zusammen, wie z. B. AlphaGo beim Go-Spielen mit einem überwacht lernenden neuronalen Netz, einem bestärkenden neuronalen Netz und einem regelbasierten System. Das “Gedächtnisproblem” ist tatsächlich ein wichtiges, wie Sie schreiben, aber auch daran wird gearbeitet, zum Beispiel bei der Natural Turing Machine, die mit einem externen Speicher gekoppelt ist. Eine Art Kurzzeitgedächtnis gibt es aber auch bei den rekurrenten neuronalen Netzen und ihrer Weiterentwicklung, den LSTM-Netzen.

      Was aber die Jungs in den Matrosenanzügen angeht, glaube ich, dass die Bilderkennung der KNN schon so gut ist, dass solche Verwechslungen nicht mehr passieren dürfen. Trotzdem befinden wir uns da immer noch in der Entwicklungsphase. Die rasante Entwicklung der letzten zwei, drei Jahre spricht jedoch dafür, dass autonome Autos bald durch unsere Städte fahren werden.

      Ein Problem ist hier auch die sich ständig ändernde Straßensituation und vor allem erschwerte Wetterbedingungen wie Nebel, Sturm usw. Ich will wirklich nicht jetzt sofort Flotten von autonomen Autos auf die Menschheit loslassen, bald werden sie aber schon so viel sicherer sein, als ein menschlicher Fahrer, dass sie den menschlichen Fahrer unweigerlich ersetzen werden. Wenn man sich die Anzahl der Kilometer ansieht, fahren die selbstfahrenden Autos schon jetzt mit weniger Unfällen als viele menschliche Fahrer.

      Ich weiß aber, es ist sehr schwer zu akzeptieren, dass eine Maschine den Tod eines Menschen verursachte. Wenn wir aber eine Statistik haben, nach der menschliche Fahrer 100mal mehr Fußgänger verletzen oder töten als selbstfahrende Autos, muss man dann wohl doch überlegen, was am Ende besser ist. Ich gebe Ihnen aber recht: eine hundertprozentige Sicherheit wird es wohl nie geben: Es kann immer etwas auftreten, was noch nie da war.

    • Dr. Guntar Laßmann: “Um eine technische Abnahme zu ermöglichen, könnte man Deep Learning-Systeme mit regelbasierten KI-Systemen (waren auch mal die Zukunft!) koppeln oder die Entscheidungen der KI transparent machen, wie es der SZ-Kollege vorschlägt.”

      Jaromir: In dem von mir zitierten SZ-Artikel steht aber: “Künstliche Intelligenz soll ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können.” Das heißt für mich, das künstliche neuronale Netz, das entscheidet, sollte auch erklären, warum es so entscheidet. Das kann es aber nicht, das liegt nun mal jenseits der Möglichkeiten eines statistischen Optimierungsverfahren, das auf eine Aufgabe hintrainiert wurde – das wissen Sie aber.

      Ich finde regelbasierte KI-Systeme nach wie vor interessant, nur spielen tief lernende neuronale Netze nun mal Musik in dieser KI-Revolution. Die KI-Winter hat es ja gegeben, weil man mit den regelbasierten KI-Systemen nicht weiter kam.

    • Dr. Guntar Laßmann: “Im März kam in Tempe/USA eine Fußgängerin durch ein autonomes Fahrzeug der Firma Uber um. Das Auto fuhr schneller als erlaubt und Uber hatte das Kollisionsverhinderungssystem des Autoherstellers Volvo abgeschaltet. Dies ist eine typische Selbstüberschätzung der KI-Entwickler: Da die eigene KI angeblich “besser” ist, interessieren weder allgemeine Regeln noch die Entwicklungen von anderen (Volvo). Ist das Ihre Zukunft, Herr Konecny?”

      Jaromir: Das war selbstverständlich ein tragischer Unfall. Und ich will ihn auch nicht damit beschönigen, dass täglich von menschlichen Autofahrern auf den Straßen Fußgänger umgebracht werden. Ich habe das Video des Unfalls vor ein paar Wochen gesehen. Damals hat der menschliche Kontrollfahrer kurz vor dem Unfall und beim Aufprall gegen die Frau auf seinen Schoss geschaut – hatte er dort ein SmartPhone liegen? Weiß man schon, warum das Programm die Frau nicht sah.

      Meine Zukunft wäre eine schöne, wenn die Menschheit von den künstlichen neuronalen Netzen sehr profitieren könnte. Bei den politischen Entwicklungen in der ganzen Welt war ich bis vor kurzem sehr skeptisch, was die Zukunft angeht. Jetzt habe ich hin und wieder das Gefühl, mit Hilfe von KNN könnten wir vielleicht doch noch die Kurve kratzen. Egal aber wie wir das sehen, auch ohne uns werden KNN weiter entwickelt und KI sowieso. Vielleicht wird etwas doch massiv schiefgehen. Wenn wir aber nicht verstehen, was um uns herum geschieht, wird sicher etwas schief gehen.

  28. @Jaromir Konecny:

    es dann auch keine Autos mehr im Privatbesitz geben werde.

    Das ist eben die Frage. Gerade der Privatbesitz eines Fahrzeugs gewähleistet doch Freizügigkeit im Unterschied zu Bussen und Bahnen. Autos, die von vielen Menschen genutzt werden, tun dies nicht. Wenn man also Fahrzeuge bauen will, die jederzeit an jedem Ort von jedem Menschen genutzt werden können, wird die Menge an Fahrzeugen, die gefertigt werden müssen, bei 8 bis 10 Milliarden Menschen weltweit exorbitant hoch – es sei denn, nur eine privilegierte Zahl an Menschen ist dazu berechtigt. Hinzu kommt, dass Menschen mit Dingen, die ihnen nicht gehören, nicht unbedingt pfleglich umgehen (viele tun es nicht einmal beim eigenen Fahrzeug), was die Lebenserwartung eines Fahrzeugs nicht gerade erhöht.

    Dafür [die Natur und ihre Gesetzmäßigkeiten zu verstehen]haben wir keine Zeit mehr. Unser Klima ist angegriffen worden – massiv, und vielleicht unumkehrbar. Von uns.

    Außerdem ist eine solche Forderung unrealistisch, erst einmal zu versuchen, die Natur und ihre Gesetzmäßigkieten zu verstehen. Das menschliche Streben ist immer nach dem “Trial & Error”-Prinzip gelaufen

    Ganz genau. So beschrieb es ja schon Dietrich Dörner* als Fazit aus seinen
    Untersuchungen zur menschlichen (Un-)Fähigkeit, komplexe Probleme
    zu lösen: “Das Problem ist da, also sollte man es lösen und nicht erst viel Zeit vergeuden, um sich über die genaue Gestalt des Problems Klarheit zu verschaffen.”
    Eben diese Denke in Kombination mit der Reduktion auf eine zentraleVariable
    – Handeln ohne Situationsanalyse
    – ohne Berücksichtigung von Fern- und Nebenwirkungen (darum kümmern wir uns, wenn es soweit ist)
    – lineares Extrapolieren,
    – keine Fehlerkorrektur
    – keine berücksichtigung der Ablaufgestalt von Prozessen (Rückkopllungen, Eigendynamik)
    – massive Probleme mit der Einbeziehung von Vergangenheit und Zukunft
    -Glaube, über die richtigen Maßnahmen zu verfügen, und sie deshalb immer wieder anzuwenden…
    dies und einiges mehr sind die Ursachen für desaströse und katastrophale künftige Großereignisse.

    Bekannt ist das eigentlich seit der diversen Untersuchungen und Projekte zum Komplexen Problemlösen, die in den 70er und 80er Jahren des letzten Jahrhunderts durchgeführt wurden. Es wurde zur Kenntnis genommen, nur nicht begriffen, weshalb sich am Vorgehen, am Handeln auch nichts geändert hat.
    Übrigens, der Star in einem dieser Projekte war eine Person, von der Dörner schrieb, sie habe sehr ruhig gehandelt, lange abgewartet und beobachtet. Sie dosierte ihre Maßnahmen sehr sparsam, bemühte sich um ein Verständnis der Abläufe und erkannte die Eigendynamik des Systems sehr bald. Nix mit trial and error. Das macht man nur, wenn man sich auf eine einzelne Variable eines komplexen Systems /Problems konzentriert.

    * Dietrich Dörner ( 1989 /1992). “Die Logik des Misslingens. Strategisches Denken in komplexen Situationen.” Reinbek: Rowohlt
    Dörner, Kreuzig, Reither, Stäudel (1983/1994). “Lohhausen. Vom Umgang mit Unbestimmtheit und Komplexität.” Bern: Hans Huber

    • Trice: “Das ist eben die Frage. Gerade der Privatbesitz eines Fahrzeugs gewähleistet doch Freizügigkeit im Unterschied zu Bussen und Bahnen. Autos, die von vielen Menschen genutzt werden, tun dies nicht. Wenn man also Fahrzeuge bauen will, die jederzeit an jedem Ort von jedem Menschen genutzt werden können, wird die Menge an Fahrzeugen, die gefertigt werden müssen, bei 8 bis 10 Milliarden Menschen weltweit exorbitant hoch – es sei denn, nur eine privilegierte Zahl an Menschen ist dazu berechtigt. Hinzu kommt, dass Menschen mit Dingen, die ihnen nicht gehören, nicht unbedingt pfleglich umgehen (viele tun es nicht einmal beim eigenen Fahrzeug), was die Lebenserwartung eines Fahrzeugs nicht gerade erhöht.”

      Jaromir: Es ist wirklich eine ganz einfache Rechnung, die man nicht kompliziert machen muss. Martin Holzherr hat es so ähnlich auch schon gesagt: Ein Auto, das im Schnitt viel mehr Personen transportiert, kostet viel weniger als ein Auto, das hin und wieder einen einzigen Menschen oder seine Familie befördern muss. Den Rest macht der Markt.

      Dazu kommen noch andere Argumente. Hier gibt es einen ziemlich guten Artikel zum Thema, der die meisten Ihrer Einwände beantworten. Ich sehe die Zukunft genauso wie der Artikelschreiber: 🙂

      https://derletztefuehrerscheinneuling.com/2018/10/13/historischer-meilenstein-waymo-nimmt-betrieb-der-ersten-selbstfahrenden-taxiflotte-auf/

    • Trice: “Ganz genau. So beschrieb es ja schon Dietrich Dörner* als Fazit aus seinen
      Untersuchungen zur menschlichen (Un-)Fähigkeit, komplexe Probleme
      zu lösen: “Das Problem ist da, also sollte man es lösen und nicht erst viel Zeit vergeuden, um sich über die genaue Gestalt des Problems Klarheit zu verschaffen.” Eben diese Denke … dies und einiges mehr sind die Ursachen für desaströse und katastrophale künftige Großereignisse.

      Jaromir: Wie gesagt ist eine Forderung, der Mensch solle zuerst alles theoretisch durchleuchten, bevor man nach Lösungen sucht, nicht durchführbar. Wenn der Mensch immer so gehandelt hätte, würde der Mensch noch heute in den Höhlen hausen, eher aber wäre die Menschheit schon längst ausgestorben.

      Es wäre nahezu nichts erfunden worden, keine Medikamente entwickelt, usw. Die Theorien kamen erst nach den meisten Erfindungen, nachdem Leichen seziert worden waren, nachdem in Labors gekocht und probiert worden war. Und auch da stimmten die Theorien nicht immer ganz, nur wurden sie immer besser – dank dem Versuch, dank der Beobachtung. Den Menschen zeichnet sein grandioses Sozialleben aus, in dem jeder seine Aufgabe findet:

      Der eine erfindet, der andere liefert theoretische Grundlagen dazu. Meist – wie gesagt aber – viel später. Bei dem, was Sie fordern, hätte dem ersten Urmenschen, der das Feuer entdeckt hatte, ein anderer Urmensch (die Anti-Trial&Error-Einheit) den Feuerstein aus der Hand nehmen und ihm sagen müssen: Damit spielen wir nicht, bis wir das theoretisch begründet haben. 🙂

  29. JK
    das Meckern an dker Zukunft muss erlaubt sein.
    Bei LKWs mussten ursprünglich 2 Fahrer anwesend sein. Aus Kostengründen wurde diese Forderung fallengelassen und heute reicht ein Fahrer. Bei Gefahrguttransporten mussten ursprünglich 2 Fahrer anwesend sein. Das wurde aus Kostengründen fallengelassen.

    Der nächste Schritt wird der LKW ohne Fahrer sein, aus Kostengründen.
    Deswegen werden die Fähigkeiten der KI so hochgelobt, dass der LKW ohne Fahrer dann weniger Unfälle verusacht als mit Fahrer.
    Wollen wir das ?
    Danach wird nicht gefragt. Der Bürger wird so auf der wissenschaftlichen Ebene entmündigt. Wer sich gegen die KI entscheidet ist dann ein Querulant.
    Ich habe das Problem einmal überspitzt formuliert.
    Das gleiche findet man beim Einchecken auf dem Flughafen.
    Da stehen jetzt die Automaten bereit, die das Einchecken schneller machen sollen. Die Fluggäste können aber zum großen Teil diesen Automaten nicht bedienen. also steht eine Dame der Fluggesellschaft daneben und bedient den Automaten.
    Welche Perversion menschlicher Organisation. Merkt denn keiner, dass Automation mit der Hilfe von KI ihre Grenze hat eine Grenze haben muss?

    • Novidolski: “das Meckern an dker Zukunft muss erlaubt sein.”

      Jaromir: Das finde ich eigentlich auch. Nur soll man sich, bevor man meckert, mit der Materie etwas auseinandersetzen, und nicht ein statistisches Optimierungsverfahren mit dem Terminator verwechseln. Darum ging’s mir in meinem Blogbeitrag.

    • Novidolski: “Der nächste Schritt wird der LKW ohne Fahrer sein, aus Kostengründen.
      Deswegen werden die Fähigkeiten der KI so hochgelobt, dass der LKW ohne Fahrer dann weniger Unfälle verusacht als mit Fahrer.
      Wollen wir das?”

      Jaromir: Nicht nur deswegen wird KI gelobt (und ich merke an, das was wir hier als KI bezeichnen, ist keine KI im strengen Sinn, sondern ein statistisches Optimierungsverfahren).

      Bei dem autonomen Fahren geht es sicher in erster Linie nicht um Kostengründe. Warum sollte es aber schlecht sein, wenn das selbstfahrende Auto weniger Unfälle verursacht als ein Auto mit einem Fahrer? Weniger Unfälle will ich tatsächlich.

    • Novidolski: “Der Bürger wird so auf der wissenschaftlichen Ebene entmündigt. Wer sich gegen die KI entscheidet ist dann ein Querulant.”

      Jaromir: Ich muss zugeben, ich finde diese Art von Kritik nicht gut. Es gibt eine Meinung und es gibt eine Gegenmeinung. Beide Meinungen dürfen und sollen kritisch überprüft werden. Heute sagt man aber oft, wenn einem widersprochen wird, man werde entmündigt. Das ist eine Unterstellung, die jede Diskussion kaputt macht. Der Bürger entmündigt sich oft selbst, wenn er nicht gewillt ist, sich mit der Materie auseinanderzusetzen.

      Gerade in meinem Blobeitrag oben habe ich doch die mediale Berichterstattung über KI kritisiert. Ich habe nicht das Gefühl, dass KI-Kritiker in der Minderheit wären und fürchten müssen, als Querulanten beschimpft zu werden.

  30. @Trice bezüglich gemeinsam verwendeten Fahrzeugen:
    1) diese sind dauernd im Einsatz, während privat genutzte Fahrzeuge zu 95% der Zeit stehen (in der Garage). Deshalb und weil im gleichen Fahrzeug mehrere Insassen sitzen können, braucht es insgesamt weniger Fahrzeuge als heute – und zwar viel weniger.
    2) Vandalismus und Abnutzung wird ein echtes Problem sein bei gemeinsam verwendeten Fahrzeugen – da haben sie recht. Äusserst robuste Fahrzeuge werden nötig werden. Rinspeed Micro Snap zeigt eine mögliche Lösung in diese Richtung: Oberbau und Unterbau des Fahrzeugs sind hier völlig getrennt und der Unterbau mit Motoren, Batterien und Rädern kann äusserst robust sein.

  31. Hallo Jaromir Konecny,
    es gibt doch auch neuronale Bilderkennungs-Netzwerke, die man zu Testzwecken im Rückwärtsgang laufen lassen kann.
    Das erzeugt zum Teil phantastische Bildkompositionen.

    • Karl Bednarik: “Hallo Jaromir Konecny, es gibt doch auch neuronale Bilderkennungs-Netzwerke, die man zu Testzwecken im Rückwärtsgang laufen lassen kann. Das erzeugt zum Teil phantastische Bildkompositionen.”

      Jaromir: Hallo Karl Bednarik, das stimmt. In der “Computer Vision” kann man bei den konvolutionellen neronalen netzen (CNN, convolutional neural networks) die Zwischenschritte der Entscheidungsfindung des neuronalen Netzes wunderbar visualisieren. Über Bildererkennung und CNN will ich bald einen Blogbeitrag schreiben, zumal die Parallelen zwischen der Bildererkennung mit CNN und dem natürlichen visuellen System wohl stärker ausfallen als zum Beispiel beim Vergleich der maschinellen Verarbeitung der menschlichen Sprache und der natürlichen Sprachverarbeitung im Gehirn.

  32. Hallo Trice,
    die Gesetze der belebten Natur sind nicht gerade ein optimaler ethischer oder logischer Leitfaden.
    Normalerweise vermehren sich die Lebewesen so zahlreich wie es irgend geht, bis dann ihr Verhungern eintritt, oder das gegenseitige Auffressen notwendig wird.
    Von dieser scheinbar idyllischen Natur hat sich der Mensch mit seiner eigenen Ethik und Logik distanziert, obwohl es ab und zu auch Rückfälle gibt.

  33. @Novidolsky (Zitat): Der nächste Schritt wird der LKW ohne Fahrer sein, aus Kostengründen.
    Deswegen werden die Fähigkeiten der KI so hochgelobt, dass der LKW ohne Fahrer dann weniger Unfälle verusacht als mit Fahrer.
    Wollen wir das ?

    Ja, das wollen wir. Implizit wollen wir es, nicht explizit. Implizit, weil unsere Gesellschaft immer mehr Ertrag mit immer weniger Arbeit generieren will. Eine Gesellschaft, die immer grösseren Wohlstand anstrebt, muss ihre Arbeitsproduktivität ständig erhöhen. Das Ideal wäre quasi Wohlstand ohne Arbeit, praktisch geben wir uns aber damit zufrieden, dass wir immer gleich viel arbeiten, aber mit dieser Arbeit sehr viel mehr Wohlstand generieren als unsere Vorgänger. Natürlich hat das vor allem für die Vorteile, die ihre Arbeit behalten können oder die sogar interessanteren Arbeiten nachgehen können als vor der Produktivitiätssteigerung. Es gibt wie immer Gewinner und Verlierer. Doch gesamtgesellschaftlich bedeutet eine höhere Arbeitsproduktivität einen Gewinn, weil der Gesamtwohlstand zunimmt. Für die, die keine Arbeit mehr finden, muss es dann irgendwann ein Grundeinkommen geben.
    Klar kann man dieses hochrangige Ziel eines stetig steigenden Wohlstands in Frage stellen. Doch wenn man das tut, stellt man sich quer zum Hauptziel der modernen Gesellschaften.

  34. @Jaromir Konecny

    Zunächst, danke für den Blog. Das Thema interessiert mich und deine Art zu schreiben gefällt mir gut.

    Zum Facebookeintrag: schöne Anekdote.

    Allerdings, zu meckern gibt es fast immer etwas: In Frankfurt am Main gibt es zwar jede Menge Schoppen (meist Apfelwein), aber nur einen Schopenhauer (echt nur, mit einem p). ‘Die Welt als Wille und Vorstellung’ ist von ihm, nicht von Kant (vielleicht war die damalige Lektüre doch eher ‘Zum ewigen Frieden’?).

    Ich fühle mich verpflichtet, das zu erwähnen, obwohl es sich dabei um legitime künstlerische Freiheit oder auch geträumte Wirklichkeit handeln mag, also um Wille und Vorstellung.

    Dank DeepDream lässt sich dann wohl ja auch eine schon vor längerer Zeit aufgekommene Frage beantworten, das Bild im Wikipedia-Artikel verschafft erste Eindrücke, ‘Träumen Androiden von elektrischen Schafen?’.

    • Joker: “Allerdings, zu meckern gibt es fast immer etwas: In Frankfurt am Main gibt es zwar jede Menge Schoppen (meist Apfelwein), aber nur einen Schopenhauer (echt nur, mit einem p). ‘Die Welt als Wille und Vorstellung’ ist von ihm, nicht von Kant (vielleicht war die damalige Lektüre doch eher ‘Zum ewigen Frieden’?).”

      Jaromir: Oh, peinlich! Danke für den Hinweis. Ich habe im Zug nach etwa 20 Auftritten über den “freien Willen” meditiert und dann statt “Kritik der reinen Vernunft” den falschen Titel reingeschrieben. Dafür schäme ich mich und ändere das gleich.

      Noch einmal vielen Dank für den Hinweis!

  35. Martin Hozlherr,
    viele Menschen definieren sich über ihre Arbeit. Viele Menschen finden den Sinn des Lebens in ihrer Arbeit. Viele Menschen finden die Anerkennung in ihrer Arbeit.

    Das wollen sie einfach wegrationalisieren? Klar, die Kosten werden sinken, wir werden auch weniger arbeiten und viele und immer mehr, gar nicht.
    “Für die, die keine Arbeit mehr finden, muss es dann irgendwann ein Grundeinkommen geben.”
    Das ist nur der halbe Ersatz. Die andere fehlende Hälfte wird sich Bahnbrechen in asozialem Verhalten und einer Kriminalität, die denen, die Arbeit haben , den Spaß verleitet.
    Die Verteilung der arbeit an alle ist eine gesellschaftliche Notwendigkeit. Wer dagegen verstößt , schafft ein “Prolerariat” das letztlich zum Umsturz in dieser Gesellschaft führt.

    • Novidolski: “Das wollen sie einfach wegrationalisieren? Klar, die Kosten werden sinken, wir werden auch weniger arbeiten und viele und immer mehr, gar nicht. “Für die, die keine Arbeit mehr finden, muss es dann irgendwann ein Grundeinkommen geben.”
      Das ist nur der halbe Ersatz. Die andere fehlende Hälfte wird sich Bahnbrechen in asozialem Verhalten und einer Kriminalität, die denen, die Arbeit haben , den Spaß verleitet.”

      Jaromir: Die Automatisierung wird kommen, egal, ob wir sie wollen, oder nicht. Und jetzt sollten wir dafür kämpfen, dass die Automatisierung nicht einigen wenigen zugute kommt, sondern uns allen. Wenn 40 Prozent Jobs verschwinden, bevor neue entstehen, muss es ein bedinungsloses Grundeinkommen geben. Sonst gibt es den Bürgerkrieg. Um aber gut auf diese Zukunft bereit zu sein, muss sich unser Bildungssystem grundlegend ändern: Statt den Kindern Leistung beizubringen, sollen sie ihre Kreativität, ihre Neugier und ihre Fähigkeiten zur Innovation entwickeln. Leistung bringt nichts mehr im Zeitalter der Automatisierung. Maschinen können viel mehr leisten als der Mensch.

      Neue Jobs kommen. Wir müssen auf sie aber bereit sein. Im 19. Jahrhundert haben Arbeiter Maschinen zetrümmert, weil sie fürchteten, die Maschinen würden ihnen die Jobs wegnehmen. Jetzt gibt es auf der Welt 5 Millionen Jobs – so viele wie nie vorher.

  36. @Novidolski: Wegrationalisiert wurden schon viele Berufe, beispielsweise die Weber oder die Uhrenmacher (früher bräuchte man mechanische Uhren, heute dienen sie nur noch dem Schmuck).
    Es geht auch nicht anders, denn Berufstätigkeiten sind Erwerbstätigkeiten und müssen von den Nachfragenden bezahlt werden. Wer aber könnte beispielsweise Journalisten bezahlen, deren Artikel niemand liest, weil niemand die Zeitung kauft in dem der Artikel erscheint?
    Bis jetzt war das Wegrationalisieren von Berufen aber kein Problem, denn es entstanden immer wieder neue Berufe. Journalisten etwa gibt es erst seit Erfindung der Druckerpresse.

  37. @Martin Holzherr

    bezüglich gemeinsam verwendeten Fahrzeugen:
    1) diese sind dauernd im Einsatz, während privat genutzte Fahrzeuge zu 95% der Zeit stehen (in der Garage). Deshalb und weil im gleichen Fahrzeug mehrere Insassen sitzen können, braucht es insgesamt weniger Fahrzeuge als heute – und zwar viel weniger.

    Ich vermute, Sie verstehen nicht sehr viel von menschlichem Verhalten bzw. vom Menschen – oder anders gewendet: Sie deuten den Menschen normativ, womit in diesem Fall gemeint ist, man müsse Menschen nur von einer Notwendigkeit überzeugen, und sie würden sich schon von sich aus entsprechend verhalten. Dem ist aber nicht so, weshalb Pläne und Vorhaben daran scheitern, dass sie den Menschen und sein Verhalten nicht in ihre Rechnung einbezogen haben.
    Das war auch gemeint, als Dörner schrieb, Fehler würden nicht korrigiert. Wir müssen nicht diskutieren, ob das autonome Fahren und das Elektroauto kommt, oder dass die KI-Entwicklung sich in die eingeschlagene Richtung weiterentwickelt. Das Problem besteht darin, dass das anvisierte Ziel nicht erreicht wird, eben weil menschliches Verhalten, menschliche Wünsche, Eigenschaften und Bedürfnisse entweder gar nicht oder nicht hinreichend berücksichtigt wurden.
    Es geht ja nicht darum, dass heute viele der privat genutzten Autos in der Garage stehen, weshalb es sinnvoller ist, auf weniger und gemeinsam genutzte Autos umzusteigen. Sondern es geht darum,
    a) dass es “mein Haus, mein Auto, mein Boot (Schwimmbad, usw.)” ist, also mein Besitz, mein Eigentum, über das ich bestimmen kann;
    b) dass ich jederzeit und wann immer ich will dieses mein Eigentum zu einem mir wichtigen Zweck verwenden kann, ohne mich mit anderen, mir fremden Menschen einigen zu müssen;
    c) dass die Autoindustrie eben diesen Bedürfnissen nach Besitz und Freizügigkeit mit dem individuellen Fahrzeug entgegenkommt, wohingegen die Marke des gemeinsam genutzten Fahrzeugs keine Rolle spielt, was den heutigen Automobilmarkt mit seiner Vielzahl von marken und Modellen einbrechen lassen wird – mit gravierenden Folgen für den Arbeitsmarkt und die in der Automobilbranche tätigen Menschen;
    d) dass eben dieser Wunsch nach Besitz, über den man sich definiert und abgrenzt, dazuführen wird, dass es eben doch unterschiedliche Modelle geben wird, die gemeinsam genutzt werden sollen;
    e) die Nutzung der unterschiedlichen Modelle zur Kostenfrage wird, so dass Betuchte sich eben doch wieder ein Fahrzeug leisten können, nur für den eigenen Gebrauch, während der große Rest der Menschen sich mit der Mehrfach-Beförderung zufrieden geben müssen – was letztlich zu Unzufriedenheit und Aufbegehren führt…

    Diese Liste lässt sich fortführen. Aber schon daraus sollte hervorgehen, dass die (sozialistische) Idee von weniger Fahrzeugen mit mehreren Insassen nicht funktionieren wird – denn diese kann auch mit dem Einsatz von autonomen Bussen, von Bahnen usw. realisiert werden. Autonomes Fahren im elektrisch betriebenen Auto ergibt nur dann Sinn, wenn man sich ein eigenes Fahrzeug leisten kann.

    Wie gesagt: die Logik des Misslingens. Denn die großartigen Ideen werden nicht dahin führen, wohin sie es sollten. Weshalb nach ein paar Jahren oder Jahrzehnten sich die nächste Katastrophe abzeichnet, und deren Lösung wird wieder nicht dazu führen, den gemachten Fehler zu korrigieren, sondern dazu, vom unerwünschten Ist-Zustand aus den erwünschten nächsten Soll-Zustand zu planen – wieder ohne Berücksichtigung der Aus-, Fern- und Nebenwirkungen. Denn das menschliche Denken ändert sich nicht.

  38. @Karl Bednarik

    die Gesetze der belebten Natur sind nicht gerade ein optimaler ethischer oder logischer Leitfaden.

    Ein logischer sehr wohl, ein ethischer nicht, glücklicherweise. Deshalb funktioniert Natur ja auch, im Unterschied zum menschlichen Planen und Handeln. Ethik bzw. Moral wäre auch kein Problem, wenn sie nur das Individuum und sein Denken und Verhalten betreffen. Unglücklicherweise aber entarten sie – spätestens seit der Seßhaftwerdung des Menschen – zu Ideen, als Kern von Religionen und Ideologien, mit dem Effekt, dass sich die ursprünglich ethisch wertvolle Idee in ihr Gegenteil verwandelt. Sie sterben deshalb aber nicht aus, sondern werden zum einen durch neue ethisch-moralische Ideen abgelöst und bleiben zum anderen im Handeln und Denken einzelner Individuen erhalten.
    Aber in jeder Gesellschaft, die auf einer sie tragenden ethischen Idee beruht, die sie zu einer Gemeinschaft verbindet, wird diese Idee in ihr Gegenteil verkehrt. Denn sie verlangt die Zustimmung aller die Gemeinschaft bildenden Individuen, was dazu führt, dass jede(r), der die Idee nicht mitträgt, zu ihrem Gegner wird, der erbarmungslos bekämpft werden muss. Diese Praxis ist in Religionen keine andere als in Ideologien, und nur so ließ sich z.B. eine Idee der christlichen Nächstenliebe mit Zwangschristianisierung, Inquisition, Folter und Scheiterhaufen, eine Idee der klassenlosen Gesellschaft mit Folter, Gulags und Massenmorden vereinbaren.
    Das ist bei der derzeitigen Menschenrechtsideologie nicht anders – wer sie nicht teilt, wird im besten Fall zum Chauvunisten, im schlimmsten zum Rassisten und Nazi – derzeit allerdings noch ohne physische Gewalt.

    Normalerweise vermehren sich die Lebewesen so zahlreich wie es irgend geht, bis dann ihr Verhungern eintritt, oder das gegenseitige Auffressen notwendig wird.

    So etwas nennt sich positive Rückkopplung, aber im Normalfall gibt es in der Natur “Bremsmechanismen”, die solche Prozesse frühzeitig stoppen, z. B. bei der Entwicklung eines Organismus oder der Proteinsynthese.

    Von dieser scheinbar idyllischen Natur hat sich der Mensch mit seiner eigenen Ethik und Logik distanziert, obwohl es ab und zu auch Rückfälle gibt.

    Um Idylle geht es nicht, sondern um ein Fließgleichgewicht, das sofern die Randbedingungen eines Systems nicht nachhaltig verändert werden, einerseits Stabilität gewährleistet, andererseits auch Veränderung ermöglicht. Diese Logik hat sich den Menschen noch kaum erschlossen, weshalb wir die Palette der Naturkatastrophen um den Faktor der menschengemachten Katastrophen erweitert haben.
    Aber ich verstehe den Einwand – oder nein: eigentlich verstehe ich ihn überhaupt nicht, aber mir ist klar, worauf er beruht -, denn es ist ja evident, dass Sinn und Zweck dieses Universums und seiner Natur einzig und allein im Wohl des Menschen und seiner Rechte liegt, Universum und Natur dem aber aus unerfindlichen Gründen nicht Rechnung trägt, weshalb wir natürlich nachhelfen müssen, indem wir Ethiken* erdenken, die die Fehler der Natur korrigieren.
    Wie meine Kinder als Jugendliche doch so ganz richtig sagten :
    “Lieber Gott, gib doch zu, dass ich klüger bin als du. Und nun preise meinen Namen, denn sonst setzt es etwas. Amen”.
    (Sie dürfen “Gott” gern mit “Natur” ersetzen)

    * Schon mal darüber nachgedacht, dass es weder Ethik noch Moral in diesem Universum geben könnte, wenn die Natur dies nicht zulassen würde? Oder haben Sie bereits die Tür gefunden, die aus der Natur herausführt?

  39. Martin Holzherr,
    mit ihrer Auffassung , dass wirtschaftliche Veränderungen unausweichlich sind und in ihrem Ergebnis logisch , sind wir beim Marxismus, allerdings diesmal vom Kapitalismus her gesehen. Das ist ja ein Paradigmenwechsel.
    Was Sie beschreiben ist wirtschaftlicher Wildwuchs, der allerdings gesetzmäßig abläuft, wo viel ist wird noch mehr. Das ist wie beim Poker. Der mit dem größten Kapital hat die größeren Gewinnchand mit diesen Gesetzen können wir die wirtschaftliche Entwicklung steuern. Und diesesmal mit ethischen Korrektiven.

  40. Nachrag Holzherr
    da hat der Teufel zugeschlagen und den wichtigsten Satz gefressen.
    Der Sinn war, mit Gesetzen können wir den Ablauf steuern und ein “menschliches Gesicht” verleihen.

  41. @Trice (Zitat): Die “mein Haus, mein Auto, mein Boot ..”-Ökonomie wird doch immer mehr durch die sharing-Ökonomie abgelöst.
    Klar: einen Verzicht auf das private Fahrzeug gib es nicht automatisch. Es muss Vorteile bringen aufs eigene Auto zu verzichten. Das ist aber letztlich eine Organisationsfrage: Wenn sie auf ihrem Smartphone ein beliebiges Ziel eingeben können und 5 Minuten später wartet ein Fahrzeug vor ihrem Haus oder Standort auf sie, dann sind sie schnell einmal bereit auf das private Fahrzeug zu verzichten – unter anderem darum, weil das Reisen dann viel billiger wird und sie selbst in angetrunkenem oder völlig übermüdeten Zustand noch sicher wegkommen.
    Für ihre Aussage dieser Wunsch nach Besitz, über den man sich definiert und abgrenzt, gilt doch, dass der Wunsch nach Besitz bereits zurückgegangen ist. Der Facebook-Citizen will sich vor allem selbst vor der Community darstellen, beispielsweise über Fotoserien seiner vielen Reisen, die er mit Flixbus und Billigfliegern an die verschiedensten Destinationen unternimmt (wo er dann in Airbnb-Unterkünften unterkommt). Ein eigenes Fahrzeug ist in dieser hypermobilen Welt eher hinderlich, zumal man sich während dem Fahren mit dem eigenen Auto ja nicht ständig selbst fotographieren oder Video-Chats führen kann.

    Zudem gilt noch: Nicht alles gesellschaftlich erwünschte geht auf rein freiwilliger Basis. Doch grosse Zwangsmittel braucht es gar nicht um geteilte über eigene Fahrzeuge zu begünstigen. Dazu genügt eine Kombination von hohen Anschaffungskosten für das eigene Auto plus eventuell eine Strassenbenutzungstaxe für Fahrzeuge, die umso höher ist, je weniger Personen im betreffenden Fahrzeug sind.

    Sie schreiben noch: Autonomes Fahren im elektrisch betriebenen Auto ergibt nur dann Sinn, wenn man sich ein eigenes Fahrzeug leisten kann.. Nein, das stimmt absolut nicht. Autonomes Fahren in Minibussen, Taxis und Privatautos macht allein schon deshalb Sinn, weil man sich während des Fahrens anderen Dingen widmen kann. In Zukunft wird es Jugendliche geben, die von autonomen Fahrzeug zu autonomem Fahrzeug hüpfen allein wegen des Abenteuers, den vielen unterschiedlichen Leuten, die man trifft und all den Dingen, die man unterwegs machen kann, wie Karaoke singen oder irgend ein zufälliges Fahrziel aussuchen um dort andere Leute zu treffen.

    Fazit: Im Idealfall können die Wünsche der Einzelnen und die Interessen der Gesellschaft zusammengebracht werden. Solch ein gemeinsamer Wunsch ist der, dass mehr Verkehr, mehr Mobilität möglich wird ohne die heutigen negativen Begleitumstände wie Staus. Mit autonomen, gemeinsam genutzten Fahrzeugen wird das möglich.

    Sie schreiben in ihrem Kommentar noch etwas, was ich als grosses Problem in Deutschland, aber auch in der ganzen wohlhabenden Welt betrachte (Zitat): die Nutzung der unterschiedlichen Modelle zur Kostenfrage wird, so dass Betuchte sich eben doch wieder ein Fahrzeug leisten können, nur für den eigenen Gebrauch, während der große Rest der Menschen sich mit der Mehrfach-Beförderung zufrieden geben müssen – was letztlich zu Unzufriedenheit und Aufbegehren führt…
    Hier geht es doch um den Neid der Wohlhabenden gegenüber den noch Wohlhabenderen. Wir landen am Schluss in einer Zukunft in der es als Verletzung der Menschenrechte gilt, wenn sich jemand nicht mehr Ferien auf den Malediven leisten kann. Es ist eine Gesellschaft in der man sich ständig in Bezug auf den Wohlstand vergleicht und in der man nie zufrieden ist, denn wie sollte man zufrieden sein, wenn der Nachbar Rolls Royce fährt, während man selber nur im Occasions-Opel unterwegs ist?

  42. Hallo Trice,
    die Tür, die aus der Natur herausführt, ist natürlich der freiwillige Verzicht auf Nachkommen, oder zumindest deren zahlenmäßige Beschränkung.
    Die Ethik und die Moral entsteht aus der Natur von in Gruppen lebenden Lebewesen, aber die Ethik und die Moral werden selten auf fremde Gruppen von Lebewesen angewendet.
    Wenn das Universum oder die Natur das Wohl der Lebewesen verletzt, dann werden die davon betroffenen Lebewesen Gegenmaßnahmen einleiten, oder es zumindest versuchen.
    Die derzeitige Menschenrechts-Ideologie zeichnet sich dadurch aus, dass sie auf physische Gewalt verzichtet, was ihre eigene implizite Bestätigung darstellt.
    Man sollte ebenfalls beachten, dass die biologischen Naturvorgänge ständig eine riesige Anzahl von Lebewesen quälen und/oder töten.
    Diese Lebewesen können zwar nicht sprechen, aber sie können mit den Beinen darüber abstimmen, welche Art von Umgebung sie lieber haben wollen.

  43. @Trice

    An die Adresse von Karl Bednarik schrieben Sie:

    » Ein logischer [Leitfaden sind die Gesetze der belebten Natur] sehr wohl, ein ethischer nicht, glücklicherweise. Deshalb funktioniert Natur ja auch, im Unterschied zum menschlichen Planen und Handeln. «

    Natur „funktioniert“ aber nur, wenn man sie als Ganzes, also global betrachtet und vor allem das Prinzip „Leben“ vor Augen hat. Im Einzelnen, für Individuen, funktioniert Natur eher schlecht als recht. Weshalb der Mensch planend und handelnd eingreifen musste, um die gröbsten Mängel zu mindern.

    KB: » Normalerweise vermehren sich die Lebewesen so zahlreich wie es irgend geht, bis dann ihr Verhungern eintritt, oder das gegenseitige Auffressen notwendig wird. «

    Sie: » So etwas nennt sich positive Rückkopplung, aber im Normalfall gibt es in der Natur “Bremsmechanismen”, die solche Prozesse frühzeitig stoppen, z. B. bei der Entwicklung eines Organismus oder der Proteinsynthese. «

    Wie gesagt, global gesehen kann man es „positive Rückkopplung“ nennen, wenn Populationen zunächst stark wachsen und dann durch irgendwelche Ereignisse wieder schrumpfen. Der „Bremsmechanismus“ für Populationen besteht zumeist in der Ressourcenknappheit, aber auch Seuchen, Feinde und Klima können eine Rolle spielen.

    KB: » Von dieser scheinbar idyllischen Natur hat sich der Mensch mit seiner eigenen Ethik und Logik distanziert, obwohl es ab und zu auch Rückfälle gibt. «

    Sie: » Um Idylle geht es nicht, sondern um ein Fließgleichgewicht, das sofern die Randbedingungen eines Systems nicht nachhaltig verändert werden, einerseits Stabilität gewährleistet, andererseits auch Veränderung ermöglicht. Diese Logik hat sich den Menschen noch kaum erschlossen … «

    Geht es denn nicht darum, das für uns Menschen günstigste „Fließgleichgewicht“ zu finden? Jedes natürliche, einigermaßen stabile System befindet sich in irgendeinem Fließgleichgewicht, die Wüste ebenso wie der Regenwald, ein Maisfeld ebenso wie eine Streuobstwiese. Wenn sich für ein System die Bedingungen ändern, dann stellt sich halt ein neues Fließgleichgewicht ein. Das heißt, die bloße Existenz von Fließgleichgewichten besagt rein gar nichts.

    Derzeit sind Teile der Menschheit offenbar dabei, das globale Fließgleichgewicht zu unserem eigenen Nachteil nachhaltig zu verändern. Ein anderer Teil versucht, dem entgegen zu steuern, unter anderem mit Hilfe der Technik wie etwa der KI. Ob das reicht, ob mit besserer Technik die negativen Folgen der Technik in den Griff zu kriegen sind, wird sich zeigen.

    » “Lieber Gott, gib doch zu, dass ich klüger bin als du. Und nun preise meinen Namen, denn sonst setzt es etwas. Amen”.
    (Sie [KB ist gemeint] dürfen “Gott” gern mit “Natur” ersetzen)
    «

    So unrecht hatten Ihre Kinder nicht, als sie das sagten. Die Natur hat für den Menschen eine durchschnittliche Lebenserwartung von vielleicht 30 Jahren vorgesehen. Dank Kultur hat sich das drastisch geändert.

    Es sei denn, man versteht die Kultur als Teil der Natur (des Menschen). Dann ist es letztlich nur natürlich, wie wir uns als Menschheit verhalten.

  44. Künstliche Neuronale Netze schaffen keine intelligenten, verstehende Wesen, sondern nur mächtigere Applikationen, die verborgene Muster und Zusammenhänge erkennen.
    Beeindruckende Anwendungen solcher künstlicher neuronaler Netze sind meist einem hybriden Ansatz zu verdanken, der die Mustererkenngsfähigkeit neuronaler Netze an einem entscheidenden Ort einsetzt, der aber zusätzlich eine ganz anderes domänenspezifisches Grundprinzip benutzt. Die wirklich beeindruckenden AI-Anwendungen sind also einem hybriden Ansatz zu verdanken wie das Ben Goertzel (Open AI) im Artikel Deep Mind and Go and Hybrid AI Architectures herausstellt. Dort liest man dazu: Ein guter Punkt, den Gary [Marcus] in seinem Artikel macht, ist, dass, während die Leistung von Deep Mind in den Medien als Triumph des “Deep Learning” propagiert wird, ihr Ansatz für Go tatsächlich auf der Integration von Deep Learning mit anderen KI-Methoden (Game Tree Search) basiert – d.h. es ist ein hybrider Ansatz, der zwei verschiedene KI-Algorithmen kontextgerecht fest integriert.
    Ja, genau das bedeutet eben wirkliche Intelligenz: Die Integration ganz verschiedener Fähigkeiten, so gebündelt, dass sie ein anspruchsvolles Ziel erreichen können. Mit AlphaZero wurde dies für perfect information games erreicht und der Spielbaum, den man für solche Spiele aufbauen kann wird nun mittels Künstlich Neuronalen Netzwerken viel besser ausgewertet, als mit früheren manuell erstellten Prozeduren.
    Damit aus KNN-Anwendugen echt intelligente Anwendungen oder gar intelligente Wesen werden, müsste das System auch noch selber auf die Idee kommen, dass beispielsweise für perfect information games ein Spielbaum eingesetzt werden muss. Davon sind wir heute noch weit entfernt. Aber irgendwann wird es wohl so weit sein und es wird echt intelligente Anwendungen geben, die selber ein Problem und seine Lösung formulieren.

  45. @Balanus: Zur Natur und dem ganzen Rest

    »Natur „funktioniert“ aber nur, wenn man sie als Ganzes, also global betrachtet und vor allem das Prinzip „Leben“ vor Augen hat. Im Einzelnen, für Individuen, funktioniert Natur eher schlecht als recht. Weshalb der Mensch planend und handelnd eingreifen musste, um die gröbsten Mängel zu mindern.«

    Sie anders als global zu betrachten, ist schon ein gravierender Fehler per se. Sie funktioniert nicht nur, wenn man sie global betrachtet, sondern auch dann, wenn man nur das Einzelne, das Individuum, betrachtet. Diese Sichweise ist aber vermutlich eine Frage des Standpunktes, und ich habe keinen anthropozentrischen Standpunkt. Ich halte es für vermessen, zu meinen, wir wüssten besser (als wer?), wie die Natur funktionieren sollte. Wenn ich das annehmen sollte, dann müsste ich überzeugt sein, dass dieses gesamte Universum, die gesamte Natur nur dem Zweck dient, uns, als das Maß aller Dinge und die Krone der “Schöpfung”, hervorzubringen – dann hätte sie aber anders funktionieren müssen, als sie es tut.

    Wie gesagt, angesichts der Tatsache, dass es ca. 100 Milliarden Galaxien in diesem Universum gibt, von denen eine unsere ist, die wiederum Milliarden von Sonnensystemen enthält, von denen eines unseres ist, grenzt es für mich schon an Megalomanie, zu meinen, das alles sei notwendig, nur um uns hervorzubringen und dann auch noch als Mängelwesen. Ganz davon abgesehen: Warum sollte sie uns bevorzugen, vor allen anderen Lebewesen und Organismen?

    ” » So etwas (Vermehrung / Wachstum) nennt sich positive Rückkopplung, aber im Normalfall gibt es in der Natur “Bremsmechanismen”, die solche Prozesse frühzeitig stoppen, z. B. bei der Entwicklung eines Organismus oder der Proteinsynthese. «”

    » Wie gesagt, global gesehen kann man es „positive Rückkopplung“ nennen, wenn Populationen zunächst stark wachsen und dann durch irgendwelche Ereignisse wieder schrumpfen. Der „Bremsmechanismus“ für Populationen besteht zumeist in der Ressourcenknappheit, aber auch Seuchen, Feinde und Klima können eine Rolle spielen.«

    Genau so muss man es sehen, wenn man katastrophale, von Menschen gemachte Fehler vermeiden will (aber wer will das schon?). Und eben deshalb gibt es bei Populationen als Bremsmechanismen Ressourcenknappheit, Seuchen und Kriege, denen wir allerdings entgegenarbeiten. Systeme können (Populationen) aber auch kollabieren und sich selbst zerstören, wenn sie nicht in der Lage sind, ihr Wachstum (ob mengen- oder größenmäßig ist dabei unerheblich) zu begrenzen. Sie sagten doch einmal, dass die Systemtheorie ein ernstes Problem hätte, wenn sie nicht in der Lage wäre, auch den Untergang eines Systems bzw. seine Zerstörung zu beschreiben. Das Problem hat sie aber nicht, sie beschreibt es mit der (ungebremsten) positiven Rückkopplung.

    “» Um Idylle geht es nicht, sondern um ein Fließgleichgewicht, das sofern die Randbedingungen eines Systems nicht nachhaltig verändert werden, einerseits Stabilität gewährleistet, andererseits auch Veränderung ermöglicht. Diese Logik hat sich den Menschen noch kaum erschlossen … «”

    »Geht es denn nicht darum, das für uns Menschen günstigste „Fließgleichgewicht“ zu finden? Jedes natürliche, einigermaßen stabile System befindet sich in irgendeinem Fließgleichgewicht, die Wüste ebenso wie der Regenwald, ein Maisfeld ebenso wie eine Streuobstwiese.«

    Sehen Sie? Das hatte ich oben geschrieben, dass wir erst einmal hätten beobachten sollen, wie die Natur funktioniert. Wenn natürliche, stabile Systeme funktionieren, indem sie sich in einem Fließgleichgewicht befinden, dann muss man sich das doch eigentlich nur anschauen, um herauszufinden, warum sie funktionieren und woran es liegt, dass dies bei uns nicht so ist, weshalb es dank unserer Ethik und Logik immer größere Rückfälle und Katastrophen gibt.

    »Wenn sich für ein System die Bedingungen ändern, dann stellt sich halt ein neues Fließgleichgewicht ein. Das heißt, die bloße Existenz von Fließgleichgewichten besagt rein gar nichts.«

    Wenn es denn so einfach wäre. Bedingungen ändern sich ständig, mit und ohne unser Zutun. Und wenn die Anfangs- oder Randbedingungen
    nicht zu stark geändert werden, funktioniert das System auch ganz gut weiterhin, denn auf diese Bedingungen rekurriert ein System nun einmal. Küppers* schrieb einmal, dass das Prinzip der Randbedingungen nicht nur in technischen Systemen, sondern auch überall dort von Bedeutung sind, wo wir funktionale Wirkungszusammenhänge antreffen.: “Dies gilt in besonderem Maß für alle Bereiche des lebendigen, von den informationstragenden Strukturen auf der molekularen Ebene bis hin zu sozialen Systemen.”
    Wenn man es dagegen ändert – ob willentlich, zufällig oder aus Dummheit -, dann verändert es sich allmählich, allerdings sehr langsam und nahezu unmerklich. Im Laufe der Zeit aber entwickeln das system eine Eigendynamik, und dann verläuft die Kurve plötzlich exponenziell. Es gibt einen Punkt, bis zu dem die Zerstörung noch aufzuhalten ist, aber wenn der überschritten wurde, ist das System nicht mehr zu retten. Kann sein, dass es vollständig zerstört wird, und etwas anderes an seine Stelle tritt, oder es fällt auf eine Entwicklungsstufe zurück, die das System schon einmal durchgemacht hat. Normalerweise ist das eine, die vor derjenigen lag, auf der die ersten Anomalien auftraten.
    Die bloße Existenz von Fließgleichgewichten besagt also, dass es sich dabei um ein hocheffizientes Prinzip handelt, auf dessen Basis Systeme existieren.

    »Derzeit sind Teile der Menschheit offenbar dabei, das globale Fließgleichgewicht zu unserem eigenen Nachteil nachhaltig zu verändern. Ein anderer Teil versucht, dem entgegen zu steuern, unter anderem mit Hilfe der Technik wie etwa der KI. Ob das reicht, ob mit besserer Technik die negativen Folgen der Technik in den Griff zu kriegen sind, wird sich zeigen.«

    Nicht nur Teile der Menschheit: wir alle tun das, auch die, die meinen dagegen zu steuern. Denn wie will man entgegensteuern, wenn man nicht einmal weiß, womit man es zu tun hat? Und was die KI betrifft: Ich habe oben die Mängelliste zitiert, die Dörner erstellt hat aufgrund seiner Projekte zum komplexen Problemlösen, mit der er dem menschlichen Denken ein nicht eben gutes Zeugnis ausstellt. Wie aber soll das Mängelwesen Mensch, dessen Denken und Intelligenz all diese Fehler unterlaufen, fähig sein, Künstlich Intelligente Maschinen zu bauen, die diese Fehler nicht machen? Und diesem Denken bleiben sie verhaftet, egal wie sehr sie sich bemühen, es zu optimieren.

    » “Lieber Gott, gib doch zu, dass ich klüger bin als du. Und nun preise meinen Namen, denn sonst setzt es etwas. Amen”.
    (Sie [KB ist gemeint] dürfen “Gott” gern mit “Natur” ersetzen) «

    »So unrecht hatten Ihre Kinder nicht, als sie das sagten. Die Natur hat für den Menschen eine durchschnittliche Lebenserwartung von vielleicht 30 Jahren vorgesehen. Dank Kultur hat sich das drastisch geändert.«

    🙂 Meine Kinder befanden sich damals im Rebellenalter, sie wollten provozieren und freuten sich, wenn ihre Lehrer empört reagierten. Meine Jüngste, das ernsthafteste meiner Kinder, sagte und schrieb stattdessen: “Mene tekel uparsin”. Ich sehe im Übrigen keine besondere Leistung darin, dass wir die Lebenserwartung so drastisch verlängert haben. Hat das die Welt mit dem, was sie enthält, in irgendeiner Form zu einem besseren Ort gemacht, hat es dem Leben des Einzelnen mehr Sinn gegeben, vor allem, wenn er in Pflegestationen vor sich hinvegetiert, oder hat es zur Schonung der natürlichen Ressourcen beigetragen?

    »Es sei denn, man versteht die Kultur als Teil der Natur (des Menschen). Dann ist es letztlich nur natürlich, wie wir uns als Menschheit verhalten.«

    Kultur ist Teil der Natur, und auch unser Verhalten als Menschen und Menschheit ist ein naturgegebenes. Allerdings haben wir als erste Spezies die Fähigkeit, es zu reflektieren und uns zu entscheiden, wie wir im Rahmen des uns Möglichen handeln wollen.
    Wenn ich bedenke, dass es während des gesamten Mesozoikums – immerhin fast 200Millionen Jahre, Dinosaurier gab, auch wenn es in Trias, Jura und Kreide immer wieder andere waren, während wir es – die wir so stolz auf unsere Intelligenz sind -, vom Australopithecus an gerechnet, gerade mal auf 4Millionen Jahre gebracht haben und schon dabei sind, unseren Lebensraum und inklusiven eines sehr großen Teils der Organismen auf diesem Planeten zu zerstören, dann spricht das nicht für unsere sogenannte Intelligenz.

    (OT: Zur Analogie Neurone / Mitarbeiter: die Aktivierung der Neurone geschieht durch den elektrophysikalischen Input, die Aktionspotenziale; die Aktivierung von Mitarbeitern beginnt mit ihrer Mitarbeiterrolle und ihrer Anwesenheit in der Firma – daheim spielen sie eine andere Rolle und sind, was die Firma betrifft, nicht mehr aktiviert – und der Austausch, die interne Kommunikation , gilt der Regelung der firmeninternen Prozesse, die nacheinander oder parallel stattfinden sollen. )

  46. Hallo Trice,
    das Universum hat keine Ziele, wenn man davon absieht, dass sich seine Entropie ständig erhöht.
    Für die Milliarden Galaxien haben die organischen Verunreinigungen von einigen Planetenoberflächen keine Auswirkungen.
    Das Leben entstand durch Zufall aus sich selbst reproduzierenden Molekülen, es entwickelt sich aus zufälligen Mutationen, und wenn es schlecht angepasst ist, wird es statistisch häufiger vernichtet.
    Diese Lebensvorgänge haben ebenfalls keine weiteren Ziele.
    Nur innerhalb der Gehirne von Lebewesen gibt es Ziele, die Natur selbst hat keine.
    Die Ziele in den Gehirnen der Lebewesen werden ebenfalls durch Mutation und Selektion eingebaut.
    In das Universum oder die Natur höhere Ziele hinein zu deuten, ist sinnlos.

  47. @Karl Bednarik

    das Universum hat keine Ziele, wenn man davon absieht, dass sich seine Entropie ständig erhöht.

    Der Mangel an Logik ist bestechend.
    Also erst mal: das Universum gehört zur Natur, es steht ihr nicht gegenüber. Wenn also das Universum keine Ziele hat – auch Entropie ist kein Ziel -, dann vermutlich deshalb, weil auch die Natur keine hat.

    Aber dann: die Behauptung, man müsse der Natur nachhelfen, was die “Verbesserung” des Menschen betrifft, unterstellt ja wohl, dass die Natur eben doch ein Ziel hat, welches sie bedauerlicherweise verfehlt hat, als sie beim Menschen die Entwicklung zum Mängelwesen zuließ – weshalb der Mensch in seiner unendlichen Weisheit eingreifen muss(te), um dies zu korrigieren.

  48. @Martin Holzherr

    die Mustererkenn[un]gsfähigkeit neuronaler Netze

    Hätten Sie geschrieben: Mustererkennungsfähigkeit künstlicher neuronaler Netze, hätte ich keine Einwände.
    Sollten Sie allerdings das neuronale Netzwerk eines menschlichen Gehirns meinen, würde mich interessieren, welche Art Muster Sie meinen, die (von wem?) erkannt werden, und wie diese Muster zustande kommen.

    auf der Integration von Deep Learning mit anderen KI-Methoden (Game Tree Search) basiert – d.h. es ist ein hybrider Ansatz, der zwei verschiedene KI-Algorithmen kontextgerecht fest integriert.
    Ja, genau das bedeutet eben wirkliche Intelligenz: Die Integration ganz verschiedener Fähigkeiten, so gebündelt, dass sie ein anspruchsvolles Ziel erreichen können.

    Wenn ich es einigermaßen richtig sehe, dann sind z.B. auch Bienen zu dieser Art Intelligenz fähig, denn immerhin müssen sie die Suche nach Nahrung mit der Fähigkeit kombinieren, diesen Ort anderen Bienen mitzuteilen, und außerdem müssen sie auch noch die Fähigkeit besitzen, Nektar zu sammeln, dabei zwischen Blüten unterscheiden, die diesen zur Verfügung stellen und denen, die dies nicht (mehr) tun, usw.

    Deep Learning mit Monte Carlo Methoden zu verknüpfen, ist zwar durchaus eine intelligente menschliche Handlung, aber daraus zu schließen, dass nun auch die KI dank der Integration der beiden Methoden (zu der sie m. W. nichts beigesteuert haben) Intelligenz besitzen, finde ich doch etwas gewagt.

  49. @Trice: Menschliche Intelligenz unterscheidet sich von tierischer Intelligenz (z.B. bei Bienen) durch die viel höhere Flexibilität und Lernfähigkeit des Menschen. Der Mensch kann ein Problem erkennen und sich dann Lösungen ausdenken, das Tier dagegen hat die Problemlösungen zum grossen Teil in seinem Erbgut. Und genau wie Bienen einen Grossteil ihrer Intelligenz vererbt bekommen, haben auch Lösungen der künstlichen Intelligenz sehr viel den menschlichen Schöpfern zu verdanken. Dies zu (Zitat): Deep Learning mit Monte Carlo Methoden zu verknüpfen, ist zwar durchaus eine intelligente menschliche Handlung, aber daraus zu schließen, dass nun auch die KI dank der Integration der beiden Methoden (zu der sie m. W. nichts beigesteuert haben) Intelligenz besitzen, finde ich doch etwas gewagt.

    Meine Schlusssätze in dem von ihnen angesprochenen Kommentar sind ja gerade (Eigenzitat): Damit aus KNN-Anwendugen echt intelligente Anwendungen oder gar intelligente Wesen werden, müsste das System auch noch selber auf die Idee kommen, dass beispielsweise für perfect information games ein Spielbaum eingesetzt werden muss. Davon sind wir heute noch weit entfernt.
    Ja, heutige künstlich intelligente Systeme haben nicht wirklich eigene Ideen. Am ehesten kann man heutig KNN’s von der Intelligenz her noch mit Bienen und anderen einfachen Tieren vergleichen. Erstaunlich ist allerdings, dass ein Bienenhirn mit 960’000 Neuronen auskommt, geradezu lächerlich wenig verglichen mit den Millionen künstlichen Neuronen in einem KNN und den 10 bis 100 Milliarden im menschlichen Gehirn.

  50. Ergänzung zu meinem Vorgängerkommentar, der die Intelligenz von Bienen, Menschen und KNNs vergleicht. Letztlich sind Bienen aus menschlicher Sicht eher intelligent erscheinende Automaten als dass sie im menschlichen Sinne intelligent sind. Und das gleiche gilt auch für heutige KNN’s. Was den Menschen auszeichnet ist die hohe Allgemeinheit seiner Intelligenz. Das zeigt sich etwa daran, dass Menschen sich Methoden ausgedacht haben wie man zweistellige Zahlen im Kopf addieren oder multiplizieren kann. Spontan haben zwar viele Lebewesen und auch der Mensch einen Zahlensinn, aber Aufgaben wie das Zusammenzählen von zwei zweistelligen Zahlen können vom Menschen nicht spontan gelöst werden. Doch Menschen haben Methoden erfunden wie man es trotzdem schafft. Die unzähligen Vorgehensweisen, die sich Menschen ausgedacht haben um Probleme zu lösen haben überhaupt erst die menschliche Zivilisation ermöglicht.

  51. Trice
    ist es nicht anmaßend wenn ein Mensch mit einer Gehirnmasse von 1,5 kg maximal zu so einer Aussage kommt: “Wenn also das Universum keine Ziele hat – auch Entropie ist kein Ziel -, dann vermutlich deshalb, weil auch die Natur keine hat.”

  52. @Martin Holzherr:

    Ja, heutige künstlich intelligente Systeme haben nicht wirklich eigene Ideen.

    Die Frage, um die es u.a. geht, ist doch, ob Menschen in der Lage sind, Künstlich Intelligente Wesen zu bauen, die zur Lösung von Problemen befähigt sind, die wir aus verschiedenen Gründen nicht zu lösen vermögen bzw. die wir z. T. auch selbst geschaffen haben. Um diese Frage beantworten zu können, müssten wir also erst einmal etwas über unsere eigenen Fähigkeiten wissen, also wie unser Denken beschaffen ist, wie wir Probleme lösen, auf Ideen kommen, Entscheidungen treffen, aus Erfahrung zu lernen, aber auch, wie wir uns dabei im Wege stehen, z.B. durch Rücksichtslosigkeit, Gier, Machthunger usw.

    Nur eigene Ideen zu haben, ist kein hinreichendes Kriterium für Intelligenz, und reicht bei weitem nicht aus, wenn es darum geht, tragfähige Lösungen zu erarbeiten und die Folgen des Handelns in diese Lösungen integrieren zu können.

    Am ehesten kann man heutig KNN’s von der Intelligenz her noch mit Bienen und anderen einfachen Tieren vergleichen.

    Nicht einmal das. Denn es macht einen gewaltigen Unterschied, ob ein Verhalten und Denken sich aus Eigenem entwickelt hat, oder ob es aus Vorgaben resultiert, die programmiert wurden. Siehe das Beispiel mit dem dunkelhäutigen Menschen, der als Gorilla identifiziert wurde. Das würde nicht einmal einem Kleinkind passieren.

    Erstaunlich ist allerdings, dass ein Bienenhirn mit 960’000 Neuronen auskommt, geradezu lächerlich wenig verglichen mit den Millionen künstlichen Neuronen in einem KNN und den 10 bis 100 Milliarden im menschlichen Gehirn.

    Rund zehn Billionen Neurone und zehn Billiarden synaptische Verknüpfungen. Und jedes Neuron interagiert mit ca 10.000 bis 15.000 anderen Neuronen über diese synaptischen Schaltstellen. Und die Verknüpfungen sind der eigentliche casus knacktus.

    Was den Menschen auszeichnet ist die hohe Allgemeinheit seiner Intelligenz. Das zeigt sich etwa daran, dass Menschen sich Methoden ausgedacht haben wie man zweistellige Zahlen im Kopf addieren oder multiplizieren kann. Spontan haben zwar viele Lebewesen und auch der Mensch einen Zahlensinn, aber Aufgaben wie das Zusammenzählen von zwei zweistelligen Zahlen können vom Menschen nicht spontan gelöst werden. Doch Menschen haben Methoden erfunden wie man es trotzdem schafft.

    Das ist ein Nebeneffekt. Ganz davon abgesehen: die Psychologin Karen Wynn konnte zeigen, dass schon Kleinstkinder im Alter von drei bis fünf Monaten im Zahlenraum von drei addieren und subtrahieren können. Übrigens können auch Bienen Angaben zur Menge und Ergiebigkeit eier Futterquelle machen und diese beim Schwänzeltanz vermitteln.

    Die unzähligen Vorgehensweisen, die sich Menschen ausgedacht haben um Probleme zu lösen haben überhaupt erst die menschliche Zivilisation ermöglicht.

    Jedes Lebewesen auf diesem Planeten, das es geschafft hat, bis zum jetzigen Zeitpunkt zu überleben, hat dies durch die Fähigkeit seiner Vorfahren geschafft, die sich den Umweltbedingungen anpassten und sie nutzten. Wir sind allerdings die einzige Art, die es fertig gebracht hat, ihn, den Planeten, so zu verändern, dass diese Veränderungen nicht nur unser Überleben, sondern auch das einer enormen Zahl anderer Arten bedroht. Etwas in dieser Größenordnung fand im Proterozoikum statt, als mit der Sauerstoffkatastrophe, ausgelöst vermutlich durch Cyanobakterien, eines der größten Massensterben ausgelöst wurde. Ihnen fehlte – wie auch uns – die Intelligenz, dies zu erkennen und zu ändern. Wir haben es immerhin geschafft, unseren Anteil an der Zerstörung zu erkennen, was aber nicht verhindert, sie fortzuführen.

  53. @Novidolski

    Wenn Sie es schaffen sollten, zu diesem Punkt sachlich zu denken und zu argumentieren (z. B. und nur als Stichworte: Laplacescher Dämon, Determinismus, usw.), statt moralisch zu urteilen, können wir sicher dazu diskutieren.

  54. @Trice // 8. November 2018 @ 19:27

    » Sie [die Natur] funktioniert nicht nur, wenn man sie global betrachtet, sondern auch dann, wenn man nur das Einzelne, das Individuum, betrachtet. «

    Wenn das Individuum vorzeitig sein Leben verliert, etwa durch eine bakterielle Infektion, dann hat aus Sicht des Individuums das Immunsystem eben nicht zufriedenstellend funktioniert (für die Bakterien war’s womöglich ein Pyrrhussieg).

    » Ganz davon abgesehen: Warum sollte sie [die Natur] uns bevorzugen, vor allen anderen Lebewesen und Organismen? «

    Keiner behauptet, dass sie uns bevorzugt. Und eben drum müssen wir selbst aktiv werden, um uns in einer bedrohlichen Umwelt voller Gefahren und angesichts endlicher Ressourcen behaupten zu können.

    » Sehen Sie? Das hatte ich oben geschrieben, dass wir erst einmal hätten beobachten sollen, wie die Natur funktioniert. Wenn natürliche, stabile Systeme funktionieren, indem sie sich in einem Fließgleichgewicht befinden, dann muss man sich das doch eigentlich nur anschauen, um herauszufinden, warum sie funktionieren und woran es liegt, dass dies bei uns nicht so ist, weshalb es dank unserer Ethik und Logik immer größere Rückfälle und Katastrophen gibt. «

    Erstens beobachten wir die Natur schon reichlich lange und haben immerhin diverse Systeme definiert sowie bestimmte Fließgleichgewichte ausgemacht.

    Zweitens verstehen wir inzwischen recht gut, wie z. B. das System „globales Klima“ funktioniert, und wie das System Kohlenstoffkreislauf. Spätestens seit ca. 1995 dürfte klar sein, dass wir viel zu viel CO2 in die Atmosphäre pusten.

    Und drittens setzen wir unsere Lebensgrundlagen nicht „dank“, sondern trotz unserer Ethik aufs Spiel. Würde man ethische Prinzipien beachten, blieben tonnenschwere SUVs öfter in der Garage stehen. Zum Beispiel. Und es gäbe ein durchgängiges Tempolimit auf den Autobahnen. Und und und…

    » Und wenn die Anfangs- oder Randbedingungen nicht zu stark geändert werden, funktioniert das System auch ganz gut weiterhin, denn auf diese Bedingungen rekurriert ein System nun einmal. «

    Bleibt die Frage, welche(s) funktionierende(n) System(e) wir denn erhalten wollen oder erhalten sollten. Außerdem wäre zu fragen: Wem nutzt das gut funktionierende System, und wem schadet es?

    » Die bloße Existenz von Fließgleichgewichten besagt also, dass es sich dabei um ein hocheffizientes Prinzip handelt, auf dessen Basis Systeme existieren. «

    Das beantwortet immer noch nicht die Frage, welche Systeme und welche Fließgleichgewichte wir in welcher Form am Laufen halten sollten. Am klarsten lässt sich diese Frage für das eigene Organsystem beantworten, aber darüber hinaus?

    » Wie aber soll das Mängelwesen Mensch, dessen Denken und Intelligenz all diese Fehler unterlaufen, fähig sein, Künstlich Intelligente Maschinen zu bauen, die diese Fehler nicht machen? «

    Fehler wurden schon immer gemacht, dennoch kommt man nicht umhin zu konstatieren, dass es einen gewissen technischen Fortschritt gegeben hat und immer noch gibt. Die Frage ist, ob die Mechanismen, die zu diesem technischen Fortschritt geführt haben, auch geeignet sind, um die technikbedingten Probleme zu lösen. Da habe ich eben meine Zweifel, denn die Triebkraft des technischen Fortschritts war und ist im Wesentlichen der individuelle Egoismus bzw. der angestrebte persönliche Nutzen.

    » Ich sehe im Übrigen keine besondere Leistung darin, dass wir die Lebenserwartung so drastisch verlängert haben. «

    Die Rede war von der durchschnittlichen Lebenserwartung (dank reduzierter Kindersterblichkeit und so).

    Gerade in diesem Bereich (Medicine and Life sciences) spielt das Prinzip „trial and error“ die tragende Rolle, weil es anders nicht geht. Im Grund ahmen wir dabei nur nach, was die „dumme Natur“ uns vormacht.

  55. Hallo Trice,
    ich erkläre Ihnen gerne genauer und detaillierter die Logik meiner Argumente, weil meine Erläuterungen leider von Ihnen nicht ganz richtig verstanden wurden.
    Das Universum und die Natur sind völlig identische Begriffe, zumindest ist das eine zulässige Definition, die ich hier verwenden werde.
    Die belebte Natur ist nur ein wirklich winziger Teil des Universums, sowohl in ihrer räumlichen, wie auch in ihrer zeitlichen Ausdehnung.
    Ich habe niemals behauptet, dass man den Menschen verbessern sollte.
    Dem Universum und auch der belebten Natur ist es völlig gleichgültig, ob es überhaupt Menschen gibt, und natürlich auch ebenso gleichgültig, welche Eigenschaften Menschen oder andere Lebensformen haben.
    Die einzigen Instanzen im Universum, die ein Interesse am Wohlergehen von Menschen und anderen Lebensformen haben, sind die Gehirne dieser Menschen und Lebensformen.
    Das liegt daran, dass jene Lebensformen, die ein Interesse an ihrem eigenen Wohlergehen haben, statistisch häufiger am Leben bleiben.
    Wenn die Menschen wirklich Mängelwesen wären, dann wäre ihr erfolgreiches Überleben völlig unerklärlich, während ständig andere Lebensformen aussterben.
    Es ist zumindest vorstellbar, dass die Menschen als einzige Lebensform in einer völlig künstlichen Umwelt überleben, die sie natürlich selbst geschaffen haben.
    Weil aber alle Lebensformen ein Interesse am eigenen Wohlergehen haben, wäre der negative Utilitarismus eine günstige Verhaltensweise.
    Natürlich könnten wir auch durch einen ständigen brutalen Konkurrenzkampf irgendwelche Superwesen züchten, aber das wäre dann eben eine weniger angenehme Zukunft.

  56. @Karl Bednarik

    » Wenn die Menschen wirklich Mängelwesen wären, dann wäre ihr erfolgreiches Überleben völlig unerklärlich, während ständig andere Lebensformen aussterben. «

    Erstens ist H. sapiens ja noch nicht lange auf diesem Planeten aktiv. Zweitens ist zu unterscheiden zwischen der Spezies Mensch und den individuellen Menschen. Und drittens kommt es darauf an, wie man „Mängel“ definiert. Das menschliche Gehirn ist ohne Frage potentiell sehr leistungs- und sozialfähig. Dadurch können viele körperliche Unzulänglichkeiten kompensiert werden.

  57. @Trice (10. November 2018 @ 14:07): Ihr Denken ist stark geisteswisssenschaftlich geprägt und zeigt auch den Glauben an die Machbarkeit einer gesamtgesellschaftlichen Harmonie mittels psychologisch/soziales Umdenkens und Umgestaltens der Gesellschaft. Dazu passt etwa folgendes Fragment aus obigem Kommentar (Zitat): Um diese Frage beantworten zu können, müssten wir also erst einmal etwas über unsere eigenen Fähigkeiten wissen, also wie unser Denken beschaffen ist, wie wir Probleme lösen, auf Ideen kommen, Entscheidungen treffen, aus Erfahrung zu lernen, aber auch, wie wir uns dabei im Wege stehen, z.B. durch Rücksichtslosigkeit, Gier, Machthunger usw.
    Meiner Meinung nach wird sich die Menschheit aber auch nach gründlichem Nachdenken und in sich gehen nicht grundlegend ändern. Gier, Machthunger, Rücksichtslosigkeit, Kriminalität und Kriege wird es solange geben, wie es genetisch unveränderte Homo sapiens in der heutigen Form gibt. Doch eine genetische Manipulation des Menschen mit dem Ziel ihn friedlicher, umweltverträglicher, etc. zu machen ist in meinen Augen genau so wenig wünschenswert. Sich selber abzuschaffen ist eine ziemlich dumme Idee zumal man sowieso nicht alle zwingen kann, da mitzumachen.
    Statt dessen müssen wir Institutionen schaffen, die mit den realen Menschen, so wie sie sind, zurechtkommen. Vieles davon gibt es schon – mindestens als Idee, teilweise aber auch schon realisiert. Dazu gehört etwa die Demokratie mit Gewaltentrennung, denn sie begrenzt beispielsweise die Machtambitionen Einzelner.
    Wir können auch nicht erwarten, dass alle Menschen aller Länder den gleichen Entwicklungspfad beschreiten und wir irgendwann in einer globalen Demokratie und Harmonie enden. Auch auf neue technische Entwicklungen wie die Künstliche Intelligenz dürfen wir nicht zu viel Hoffnungen setzen. Damit die Menschheit längerfristig überlebt muss sie auch fähig sein, Katastrophen sogar globalen Ausmasses zu überstehen. Auf lange Sicht läuft das wohl darauf hinaus, dass die Menschheit in der Tat eine multiplanetare Spezies werden muss, denn nur dann besteht sie weiter, selbst wenn das Leben auf einem Planeten – zum Beispiel der Erde – unerträglich wird.

  58. @Martin Holzherr // 12. November 2018 @ 10:22

    » Doch eine genetische Manipulation des Menschen mit dem Ziel ihn friedlicher, umweltverträglicher, etc. zu machen ist in meinen Augen genau so wenig wünschenswert. «

    Warum eigentlich?

    Derzeit sieht es doch so aus, dass man alles daran setzt, die Kinder zu friedlichen und umweltverträglichen Menschen zu erziehen. Außer eben dort, wo Frieden und Verträglichkeit Fremdwörter sind. Doch dem Erziehungserfolg sind offenbar (natürliche) Grenzen gesetzt.

    Profitieren Gesellschaften wirklich von der Existenz von „Gier, Machthunger, Rücksichtslosigkeit, Kriminalität und Kriegen“?

  59. @Balanus (ohne Datum und Uhrzeit, 😉 )

    T: » Sie [die Natur] funktioniert nicht nur, wenn man sie global betrachtet, sondern auch dann, wenn man nur das Einzelne, das Individuum, betrachtet. «

    B: »Wenn das Individuum vorzeitig sein Leben verliert, etwa durch eine bakterielle Infektion, dann hat aus Sicht des Individuums das Immunsystem eben nicht zufriedenstellend funktioniert (für die Bakterien war’s womöglich ein Pyrrhussieg).«

    Sagte ich denn nicht schon, dass ich kein anthropozentrisches Weltbild habe? Wenn in Ihrem Beispiel ein oder viele (menschliche?) Individuen ihr Leben durch eine bakterielle Infektion verlieren und mit ihnen eine Menge Bakterien, so gibt es doch Individuen, die überleben und Antikörper bilden, an denen diese Bakterien eingehen – aus der Perspektive der Natur ein Bremsmechanismus, der exponenziellem Wachstum entgegenwirkt – sowohl bei den Individuen als auch bei den Bakterien. Und irgendwann ist für menschliche Individuen und für diese bestimmte Sorte Bakterien Ende Gelände und die Bühne frei für Neues.

    T:» Ganz davon abgesehen: Warum sollte sie [die Natur] uns bevorzugen, vor allen anderen Lebewesen und Organismen? «

    B» Keiner behauptet, dass sie uns bevorzugt. Und eben drum müssen wir selbst aktiv werden, um uns in einer bedrohlichen Umwelt voller Gefahren und angesichts endlicher Ressourcen behaupten zu können.«

    Stimmt, es behauptet niemand, dass die Natur uns bevorzugt (ausgenommen, es geht um unser Gehirn und wozu es uns befähigt), sondern man wirft es ihr indirekt vor, wenn man meint, deshalb müssten wir uns optimieren. Nur das Argument, dass wir dies tun müssten, weil wir in einer bedrohlichen Umwelt mit begrenzten Ressourcen leben, stimmt nicht. Fakt ist, dass wir jede vermeintliche Verbeserung auf der einen Seite mit einer Verschlechterung auf der anderen bezahlen müssen. Oder genauer: Für jede Verbesserung lassen wir andere Lebewesen bezahlen – unsere Nachkommen eingeschlossen.

    T: »Sehen Sie? Das hatte ich oben geschrieben, dass wir erst einmal hätten beobachten sollen, wie die Natur funktioniert. Wenn natürliche, stabile Systeme funktionieren, indem sie sich in einem Fließgleichgewicht befinden, dann muss man sich das doch eigentlich nur anschauen, um herauszufinden, warum sie funktionieren und woran es liegt, dass dies bei uns nicht so ist, weshalb es dank unserer Ethik und Logik immer größere Rückfälle und Katastrophen gibt. «

    Sie: »Erstens beobachten wir die Natur schon reichlich lange und haben immerhin diverse Systeme definiert sowie bestimmte Fließgleichgewichte ausgemacht.«

    “Wir” beobachten Zustände und nur ausgesprochen selten Prozesse, und können Fließgleichgewichte bis zu einem gewissen Grad beschreiben. Das heißt aber nicht, dass wir sie bzw. die Natur auch nur ansatzweise verstanden haben.

    Sie: »Zweitens verstehen wir inzwischen recht gut, wie z. B. das System „globales Klima“ funktioniert, und wie das System Kohlenstoffkreislauf. Spätestens seit ca. 1995 dürfte klar sein, dass wir viel zu viel CO2 in die Atmosphäre pusten.«

    Ok, etwas davon haben wir verstanden und zumindest den Teil der Sache, den wir zu verantworten haben, erkannt, was nicht heißt, dass es gelingen wird, ihn in den Griff zu bekommen. Diese Überlegungen hätten angestellt werden müssen, bevor wir so leichtfertig etwas in Gang gesetzt haben, das wir nun nicht mehr in den Griff bekommen – eben das habe ich gemeint mit: beobachten, wie die Natur funktioniert – und dann natürlich auch zu fragen: “Was wird passieren, wenn…”

    Sie »Und drittens setzen wir unsere Lebensgrundlagen nicht „dank“, sondern trotz unserer Ethik aufs Spiel. Würde man ethische Prinzipien beachten, blieben tonnenschwere SUVs öfter in der Garage stehen. Zum Beispiel. Und es gäbe ein durchgängiges Tempolimit auf den Autobahnen. Und und und…«

    Warum betrachten Sie nur die gegenwärtige Situation und beziehen nicht die Vergangenheit und Zukunft in Ihre Überlegungen mit ein? Es ist zu einfach, hinterher, wenn eine Lage eingetreten ist, plötzlich mit ethischen Grundsätzen zu kommen, und es ist viel zu einfach, ethisches Verhalten an einzelnen Fakten festzumachen, dann aber global für alle geltend, ein solches zu fordern. Der englische Professor für Politikwissenschaften, Kenneth Minogue*, schrieb:”Die moralische Lebensführung ist derjenige Bestandteil unserer Lebenspraxis, in dem wir den Pflichten nachkommen, die wir uns selbst gegenüber haben einen Charakter auszuprägen, den wir gutheißen, und ein Verhalten, dem weder von anderen noch von unserem eigenen Innern berechtigte Vorwürfe gemacht werden können.” Pflichten – nicht Rechte! Doch was das Verhalten betrifft, wird es schwierig, denn ich kann zwar mit mir, was meine Entscheidungen angeht, im Reinen sein. Deshalb können Andere sie dennoch nicht gutheißen und ihren Vorwurf als berechtigt ansehen. Was wir jedoch tun ist, allen Menschen eine Ethik überzustülpen, sie mit ihr zwangszubeglücken, ihm damit die Fähigkeiten (und das Recht) abzusprechen, aus Eigenem zu einer ethischen Haltung zu gelangen, und zu behaupten, nur der, der sich fremdbestimmen lässt, sei gut.
    Gur, ich habe das Glück gehabt, zur ADHS-Gruppe zu gehören und Kinder zu haben, die ebenfalls dazu gehören – weshalb ich mit dem Urteil unserer Gesellschaft konfrontiert wurde, dass mit mir etwas nicht stimmt und ich nicht fähig sei, meine Kinder ordentlich zu erziehen. Was mich dazu gebracht hat zu fragen: Was ist richtig, gibt es überhaupt etwas, das jenseits aller unserer menschlichen Ansichten, Einstellungen, Moralvorstellungen richtig ist? Die Antwort habe ich nicht in der Philosophie und Ethik und nicht in der Religion gefunden, sondern in der Ethologie und der Systemtheorie gefunden – und festgestellt, dass es weder Ethik noch Moral gäbe, wenn die Natur dafür nicht sie Voraussetzungen geschaffen hätte – weshalb ich schrieb und es wiederhole: man hätte vielleicht erst einmal beobachten sollen.

    T:» Und wenn die Anfangs- oder Randbedingungen nicht zu stark geändert werden, funktioniert das System auch ganz gut weiterhin, denn auf diese Bedingungen rekurriert ein System nun einmal. «

    »Bleibt die Frage, welche(s) funktionierende(n) System(e) wir denn erhalten wollen oder erhalten sollten. «

    Anfangs- bzw. Randbedingungen gelten für alle Systeme. Und es geht nicht darum, was “wir” erhalten wollen oder nicht, sondern um die Frage, ob wir uns bei unserem Handeln überhaupt die Fragen nach den Folgen bewusst machen.

    B: »Außerdem wäre zu fragen: Wem nutzt das gut funktionierende System, und wem schadet es?«

    Nein, die Frage stellt sich nicht …

    T:» Die bloße Existenz von Fließgleichgewichten besagt also, dass es sich dabei um ein hocheffizientes Prinzip handelt, auf dessen Basis Systeme existieren. «

    B:»Das beantwortet immer noch nicht die Frage, welche Systeme und welche Fließgleichgewichte wir in welcher Form am Laufen halten sollten. Am klarsten lässt sich diese Frage für das eigene Organsystem beantworten, aber darüber hinaus?«

    Ich schrieb doch: die Frage stellt sich nicht. Gäbe es einen Schöpfer dieser Welt, dann könnte er sich die Frage stellen. Wir sind nicht diejenigen, die sie stellen dürften, weil uns die Fähigkeit fehlt, die Folgen abzusehen. Trotzdem tun wir es laufend, und wenn wir, wie jetzt beim Klima, damit konfrontiert werden, treffen wir schon wieder jede Menge Entscheidungen, deren weitreichende und langfristige Folgen für uns nicht erkennbar sind.

    T:» Wie aber soll das Mängelwesen Mensch, dessen Denken und Intelligenz all diese Fehler unterlaufen, fähig sein, Künstlich Intelligente Maschinen zu bauen, die diese Fehler nicht machen? «

    B: »Fehler wurden schon immer gemacht, dennoch kommt man nicht umhin zu konstatieren, dass es einen gewissen technischen Fortschritt gegeben hat und immer noch gibt. Die Frage ist, ob die Mechanismen, die zu diesem technischen Fortschritt geführt haben, auch geeignet sind, um die technikbedingten Probleme zu lösen. Da habe ich eben meine Zweifel, denn die Triebkraft des technischen Fortschritts war und ist im Wesentlichen der individuelle Egoismus bzw. der angestrebte persönliche Nutzen.«

    Moment: es ging darum, was Jaromir Konecny schrieb:

    Mit künstlicher Intelligenz haben wir zum ersten Mal eine große Chance bekommen, die Erde und uns vor uns selbst zu retten – bevor eine Klimakatastrophe eintritt oder eine globale Epidemie ausbricht, die uns alle auslöschen würde.

    Und deshalb habe ich gefragt, wie das Mängelwesen Mensch (ich sehe es übrigens nicht als Mängelwesen!), das alle diese Katastrophen verursacht hat, nun plötzlich fähig sein soll, Maschinen zu bauen, die uns vor den Folgen unserer eigenen Fehler oder gar der Natur schützen soll. Die Natur können wir nicht betrügen und wie sollen wird, die wir nicht mal wissen, wie unser Gehirn arbeitet (ich weiß es auch nur im Groben, nicht in allen Einzelheiten), Maschinen bauen, die die Fehler, die auf unserem Denken beruhen, nicht machen?

    B: » Gerade in diesem Bereich (Medicine and Life sciences) spielt das Prinzip „trial and error“ die tragende Rolle, weil es anders nicht geht. Im Grund ahmen wir dabei nur nach, was die „dumme Natur“ uns vormacht.«

    Die Natur ist weder dumm noch ein blinder Uhrmacher, sie folgt nur ihren eigenen Gesetzen, auch beim trial and error. Wir tun das nicht. Und deshalb werden uns auch KNN und KI nicht retten, sondern unser Leben verändern, es vorübergehend einerseits ein wenig erleichtern und es andererseits komplizierter machen.

  60. @Martin Holzherr:

    »Ihr Denken ist stark geisteswisssenschaftlich geprägt und zeigt auch den Glauben an die Machbarkeit einer gesamtgesellschaftlichen Harmonie mittels psychologisch/soziales Umdenkens und Umgestaltens der Gesellschaft. Dazu passt etwa folgendes Fragment aus obigem Kommentar (Zitat): Um diese Frage beantworten zu können, müssten wir also erst einmal etwas über unsere eigenen Fähigkeiten wissen, also wie unser Denken beschaffen ist, wie wir Probleme lösen, auf Ideen kommen, Entscheidungen treffen, aus Erfahrung zu lernen, aber auch, wie wir uns dabei im Wege stehen, z.B. durch Rücksichtslosigkeit, Gier, Machthunger usw.«

    Sie haben mich entschieden missverstanden. Gegen geisteswissenschaftliches Denken habe ich nichts, auch nichts gegen naturwissenschaftliches oder technisches, gegen Glauben allerdings schon. Es ist Ihnen entgangen, dass ich schrieb, wir müssten etwas über unsere Fähigkeiten, über unser denken usw. wissen und nicht: wir müssen. Eigenschaften wie Gier, Rücksichtslosigkeit und Machthunger sind nicht aus der Welt zu schafffen, sondern ganz im Gegenteil konterkarieren sie alle Bemühungen der Umerziehung, die momentan im Gange ist. Zugegeben, sie funktioniert insofern ganz gut, als es gelingt, Menschen zu manipulieren, zu indoktrinieren, zu konditionieren (sanfte Gehirnwäsche), aber die genannten Eigenschaften und die Fähigkeit einiger Menschen, solche Maßnahmen zu durchschauen, sorgen dafür, dass solchen Maßnahmen Grenzen gesetzt sind.
    Ich hatte auch nicht vom Nachdenken gesprochen, sondern vom menschlichen Denken, bzw. der Struktur unseres Denkens. Die lässt sich nicht verändern.
    Sie kennen doch sicher den Spruch: Alle Menschen sind klug, nur die einen sind es schon vorher und die anderen nachher.
    Und die, die es nachher sind, die sind in der Überzahl …

  61. @ Balanus: Quelle vergessen anzugeben:
    Kenneth Minogue (2013). Die demokratische Sklavenmentalität. Wie der Überstaat die Alltagsmoral zerstört. Waltrop und Leipzig: Manuskriptum. Edition Sonderwege. S.178

  62. @Balanus (Zitat): Profitieren Gesellschaften wirklich von der Existenz von „Gier, Machthunger, Rücksichtslosigkeit, Kriminalität und Kriegen“?
    Gier, etc. sind vielleicht nur die negativen Seiten von ansonsten wichtigen Grundkräften. Die genetische Beseitigung dieser Symptome würde möglicherweise den Menschen zu einem ganz anderen, vielleicht nicht einmal überlebensfähigen Wesen machen.
    Für die Menschheit gefährlich wird zudem nicht Machthunger, sondern wirkliche Macht. Die wirkliche Macht ganze Städte oder gar Länder zu zerstören haben bis jetzt nur Regierungen, doch mit immer mächtiger werdender persönlicher Technologie könnte sich das ändern. Wenn jeder per 3D-Drucker ein Improvised Nuclear Device herstellen kann oder per Biodrucker einen tödlichen Virus, dann wird das auch sehr schnell passieren, denn es gibt sehr viele Spinner und Verrückte in dieser Welt, aber sie scheitern glücklicherweise immer wieder an ihrer Inkompetenz – bis jetzt mindestens.

  63. Die Kurzfassung:
    Die biologischen Naturvorgänge erzeugen Lebewesen, die nicht leiden wollen, und die nicht sterben wollen.
    Die biologischen Naturvorgänge zwingen diese Lebewesen, zu leiden und zu sterben.
    Die weniger intelligenten Lebewesen glauben, dass einige andere Lebewesen an ihrem eigenen Leiden und Sterben schuld sind.
    Die intelligenteren Lebewesen wissen, dass die biologischen Naturvorgänge die Ursache für ihr Leiden und Sterben sind.
    Gegen die anderen Lebewesen zu kämpfen ist also keine geeignete Strategie um diese Probleme zu beheben, und sich selbst zu verändern ist ebenfalls keine wünschenswerte Strategie.
    Daraus folgt, dass man die Randbedingungen der biologischen Naturvorgänge selbst zielgerichtet verändern muss.
    Das Ziel aller Lebewesen ist ja die Vermeidung von Leid, nur sollte man das Problem an seiner wirklichen Ursache anpacken.
    Stichworte:
    “Negativer Utilitarismus”, “Paradise Engineering” und “David Pearce (philosopher)”.

    • Karl Bednarik:

      “Die weniger intelligenten Lebewesen glauben, dass einige andere Lebewesen an ihrem eigenen Leiden und Sterben schuld sind.
      Die intelligenteren Lebewesen wissen, dass die biologischen Naturvorgänge die Ursache für ihr Leiden und Sterben sind.
      Gegen die anderen Lebewesen zu kämpfen ist also keine geeignete Strategie um diese Probleme zu beheben, und sich selbst zu verändern ist ebenfalls keine wünschenswerte Strategie.”

      Jaromir:

      Ich bin in nahezu allen Punkten mit Ihnen einverstanden, denke aber, dass wir Dank unserer Kultur über unsere Natur hinausgewachsen sind und somit über die Zwänge unserer Biologie. Wenn ich zum Beispiel das allgemeine Rechtsempfinden und den Humanismus im Mittelalter und jetzt vergleiche, sehe ich eine große Entwicklung. Leider sind wir mit unserer Kultur noch weit von einer idealen entfernt, die für alle Menschen eine gute Grundlage für ein interessantes Leben stellen würde. Gleichzeitig kann der Mensch aber dank der rasanten Entwicklung der Technologie, dem “anderen Menschen” viel mehr schaden als im Mittelalter.

      Und hier glaube ich, dass – zumindest kulturell – die Schuldzuweisung der Urgrund allen Übels ist. So wie Sie treffend schreiben:

      “Die weniger intelligenten Lebewesen glauben, dass einige andere Lebewesen an ihrem eigenen Leiden und Sterben schuld sind.”

      Die Schuldzuweisung steht am Anfang jedes Krieges. Und auch heute können wir wieder einmal erleben, wie Demagogen und Populisten Menschen gegen die für ihre Misere vermeintlich “Schuldigen” aufhetzen, und sei ihre Misere keine materielle, sondern nur der gemeine Neid. Diesen pflegen etwa 30 % der Menschheit, wie eine großangelegte wissenschaftliche Metastudie zeigt. Beruhigend ist hier die um einige Prozente größere Gruppe der Vertraunsvollen.

      Trotzdem sollten schon Kinder lernen, die Schuldzuweisung sei keine gute Strategie, wenn die Menschheit überleben soll.

      Hier habe ich eine andere Meinung als Sie: Auch wenn die moderne Hirnforschung zeigt, wie schwer es ist, sich als Erwachsener zu ändern, kann man sich ändern. Wie William James sagte: “Wenn du eine Eigenschaft haben willst, verhalte dich, als ob du sie schon hättest.” Das tue ich schon seit etwa 30 Jahren, und es funktioniert. 🙂

      Nur weiß ich, wir haben keine Zeit mehr zu warten, bis sich alle ändern würden. Was den Klimawandel zum Beispiel angeht, müssen wir handeln: Jetzt!

  64. KI-Anwendungen sind noch kaum in den Bereich der kleineren und mittleren Unternehmen eingedrungen und es gibt auch noch keine AI-Anwendungen, die auf die Bedürfnisse des Otto-Normalverbraucher zugeschnitten sind. Der Grund: Heutige KI-Anwendungen müssen von Grund auf entwickelt werden. Es braucht ein klar definiertes Ziel, die richtigen Daten und den richtigen Ansatz für die KI-Architektur. Dies sei heute eine Kunst, meint etwa Google’s Cloud AI-Boss im MIT-Review-Artikel
    AI is not “magic dust” for your company, says Google’s Cloud AI boss
    Was müsste sich ändern, damit AI-Anwendungen unmittelbar bei KMU’s und für Private eingesetzt werden könnte? Einen möglichen Ansatz sehe ich in sehr allgemeinen KI-Anwendungen, die durch weiteres Training an die speziellen Bedürfnisse einer KMU oder einer Privatperson angepasst werden kann. Um ein Beispiel zu geben: Stellen wir uns eine KI-Anwendung für den privaten Gebrauch vor, die aufgrund von Handy-Bildern Pflanzen bestimmen kann. Ein Bauer könnte dann beispielsweise das Bedürfnis haben, dass die AI-Anwendung zusätzlich erkennen kann wie es der Pflanze gerade geht, ob sie Krankheitszeichen erkennen lässt oder Nährstoffmängel. Gut wäre nun die Möglichkeit eines Zusatztrainings mit einer entsprechenden Bilderdatenbank für kranke und mangelernährte Pflanzen. Dieses Zusatztraining sollte aber nichts an den Grundfähigkeiten der KI-Anwendung ändern, insbesondere diese Grundfähigkeiten nicht beeinträchtigen. Heute ist das noch nicht möglich, weil Zusatztrainings das Phänomen des “Katastrophalen Vergessens” mit sich bringen, was bedeutet, dass schon gelernte Dinge vergessen gehen. Es gibt experimentelle Ansätze um das “Katastrophale Vergessen” zu vermeiden, doch in eine reale Anwendung haben es diese Ansätze noch nicht geschafft. Man sieht aber an diesem Beispiel: Das Potenzial von KI ist sehr gross, heute aber gibt es auch noch grosse Hürden dieses Potenzial auch wirklich zu nutzen.

  65. @Karl Bednarik

    Ich denke nicht, dass ich Sie missverstanden habe, ich habe ihnen nur in den Punkten widersprochen, die ich für falsch halte, bzw. in denen Sie mich missverstanden haben. So halte ich auch diese Aussage:

    Wenn die Menschen wirklich Mängelwesen wären, dann wäre ihr erfolgreiches Überleben völlig unerklärlich, während ständig andere Lebensformen aussterben.

    insofern für nicht zutreffend, als auch andere Lebensformen und Lebewesen durchaus erfolgreich überleben bzw. bisher überlebt haben, und erst durch unser aggressives Eingreifen bedroht sind. Und nachdem wir diesen Planeten gerade maximal vier Milionen Jahre bevölkern, von denen wir gut die Hälfte als Wildbeuter und Sammler gelebt haben, kann man von Erfolg noch nicht sprechen. Ich halte es für durchaus möglich – sollte es nach unserem Untergang noch intelligente(re) Lebewesen geben – dass diese, gemessen an der Dauer unseres irdischen Daseins, zu ganz anderen Schlussfolgerungen gelangen, und uns zwar großes Potenzial, aber gravierende Unfähigkeit es angemessen zu nutzen, bescheinigen werden.

    Es ist zumindest vorstellbar, dass die Menschen als einzige Lebensform in einer völlig künstlichen Umwelt überleben, die sie natürlich selbst geschaffen haben.

    Das halte ich für wenig wahrscheinlich. Dazu müssten wir auf Photosynthese umsteigen, um uns zu ernähren, und eine solche drastische Veränderung werden wir wohl kaum schaffen. Jedenfalls nicht als Menschen.

  66. @Trice: Die Sieger schreiben die Geschichte (oder mindestens die Geschichtsbücher). Dies zu ihrer Aussage: Ich halte es für durchaus möglich – sollte es nach unserem Untergang noch intelligente(re) Lebewesen geben – dass diese, gemessen an der Dauer unseres irdischen Daseins, zu ganz anderen Schlussfolgerungen gelangen, und uns zwar großes Potenzial, aber gravierende Unfähigkeit es angemessen zu nutzen, bescheinigen werden.
    Ob die Sieger (diejenigen, die die Menschheit überleben), nun Roboter oder animalische weiterevolvierte Wesen sind, der Satz Die Sieger schreiben die Geschichte bleiben wohl in jedem Fall gültig.
    Hier noch eine Anekdote dazu. In der Schlussequenz des Films A.I. Artificial Intelligence (Steven Spielberg übernommen von Kubrik, der damit nicht fertig wurde) gibt es eine Erde in der fernen Zukunft, eine Erde ohne Menschen, nur noch mit Robotern. Darunter einige Roboter, die sich der Erkundung der menschlichen Geschichte angenommen haben. Nachdem diese wieder ein erstaunliches Fossil aus der menschlichen Ära gefunden haben sagt einer von ihnen: “Die Menschen waren ja so genial”. Anschliessen bildet die Robotergruppe einen Kreis von Roboterhand zu Roboterhand und meditiert wohl auf kollektive Art über das was sie erlebt und erkannt haben. Roboter: Die besseren Menschen also. Jedenfalls können die, die übelebt haben immer von sich denken, sie seien die besseren, denn die Toten können ihnen nicht widersprechen.

  67. @Trice // 12. November 2018 @ 15:12

    » Sagte ich denn nicht schon, dass ich kein anthropozentrisches Weltbild habe? «

    Ich hatte, als ich „Individuum“ schrieb, zwar auch an Menschen gedacht, aber eben nicht nur. Auch die Raupe, die den Larven der Schlupfwespe als Futter dient, würde sich vermutlich einen funktionierenden Abwehrmechanismus wünschen (wenn sie denn könnte).

    Der Punkt ist einfach, dass das, was für das Ökosystem „gut“ und „richtig“ ist, von den Konstituenten des Ökosystems, den Organismen, noch lange nicht als „gut“ und „richtig“ empfunden werden muss (auf das Vorhandensein von Empfindungsfähigkeit kommt es hier nicht an).

    Dem Naturphänomen Klima beispielsweise ist es völlig egal, welche globale Durchschnittstemperatur herrscht, aber uns Menschen kann und sollte es nicht egal sein. Es ist in meinen Augen kein fragwürdiger Anthropozentrismus, wenn man hier zuvörderst das Wohl der Menschen im Blick hat.

    » Nur das Argument, dass wir dies tun müssten, weil wir in einer bedrohlichen Umwelt mit begrenzten Ressourcen leben, stimmt nicht. Fakt ist, dass wir jede vermeintliche Verbeserung auf der einen Seite mit einer Verschlechterung auf der anderen bezahlen müssen. Oder genauer: Für jede Verbesserung lassen wir andere Lebewesen bezahlen – unsere Nachkommen eingeschlossen. «

    Doch, das Argument stimmt, denn das mit den begrenzten Ressourcen gilt für alle Lebensformen. Es ist gehört zum Prinzip des Systems der belebten Natur, dass die Lebewesen um ihr Überleben „kämpfen“ müssen, und Überleben geht in aller Regel nur auf Kosten von anderen Lebewesen (wenn Sie mir nicht glauben wollen, dann vielleicht Charles Darwin, dem großen funktionalen Denker ;-)). Das Gesagte gilt insbesondere für jene Lebensformen, die am Ende einer Nahrungskette stehen.

    » “Wir” beobachten Zustände und nur ausgesprochen selten Prozesse, und können Fließgleichgewichte bis zu einem gewissen Grad beschreiben.. «

    „Zustände“ im Sinne von Momentaufnahmen werden natürlichauch beobachtet, notwendigerweise, denn sie helfen, Prozesse und Veränderungen besser zu verstehen. Je komplexer ein System ist und je langsamer die Veränderungen erfolgen, desto schwieriger ist es, sämtlich die Einflussfaktoren zu erfassen. Vollständigkeit dürfte hier eh illusorisch sein. Aber es genügt ja, wenn nur hinreichend viele Faktoren erkannt und bedacht werden.

    » Diese Überlegungen hätten angestellt werden müssen, bevor wir so leichtfertig etwas in Gang gesetzt haben, das wir nun nicht mehr in den Griff bekommen – eben das habe ich gemeint mit: beobachten, wie die Natur funktioniert – und dann natürlich auch zu fragen: “Was wird passieren, wenn…”«

    Als man anfing, Kohle, Öl und Gas zu verheizen und zu verstromen, wie hätte man das denn verhindern können? Und mit welchem Argument? Noch nicht mal heute, wo man sehr viel mehr weiß, schafft man es, den CO2-Ausstoß deutlich zu mindern. Fehlendes Wissen um die Zusammenhänge ist wohl nicht das Problem. Sondern schlicht das egoistische Verhalten der großen Mehrheit.

    Wenn hier nun die KI ansetzt, wenn es gelingen könnte, das egoistische Verhalten so zu kanalisieren, dass genau dieses Verhalten bewirkt, dass immer weniger klimaschädliche Gase freigesetzt werden, dann wär‘ das doch schon mal was.

    » Warum betrachten Sie nur die gegenwärtige Situation und beziehen nicht die Vergangenheit und Zukunft in Ihre Überlegungen mit ein? «

    Wir können nur in der Gegenwart (ethisch) handeln, das Vergangene ist vorbei, aber das Zukünftige wird durch unser Handeln mitbestimmt.

    » Was wir jedoch tun ist, allen Menschen eine Ethik überzustülpen, sie mit ihr zwangszubeglücken, ihm damit die Fähigkeiten (und das Recht) abzusprechen, aus Eigenem zu einer ethischen Haltung zu gelangen, und zu behaupten, nur der, der sich fremdbestimmen lässt, sei gut. «

    Sie meinen also (zum Beispiel), das Fahren besonders spritfressender Karossen sei nicht zu verurteilen, weil jedem zugestanden werden sollte, „aus Eigenem zu einer ethischen Haltung zu gelangen“?

    Wenn wir warten wollen, bis auch der Letzte zur Einsicht gekommen ist, dann sollten wir uns schon mal auf eine schöne globale Warmzeit einstellen. Die Frage: „Was wird passieren, wenn…“, kann mittlerweile mit relativ hoher Wahrscheinlichkeit beantwortet werden, aber was nutzt es, wenn zu wenige Menschen bereit sind, ihr Verhalten den Erkenntnissen anzupassen, eben weil sie ihre eigenen (ethischen) Vorstellungen von einem guten Leben haben.

    » Wir sind nicht diejenigen, die sie [die Frage nach einem wünschenswerten Steady State] stellen dürften, weil uns die Fähigkeit fehlt, die Folgen abzusehen. Trotzdem tun wir es laufend, und wenn wir, wie jetzt beim Klima, damit konfrontiert werden, treffen wir schon wieder jede Menge Entscheidungen, deren weitreichende und langfristige Folgen für uns nicht erkennbar sind. «

    Nichtstun scheint mir aber auch keine vernünftige Handlungsoption zu sein. Was kann denn schon Schlimmes passieren, wenn wir versuchen, den CO2-Ausstoß zu verringern, etwa durch mehr fossilfreie Energiegewinnung für die Elektromobilität?

    » Und deshalb habe ich gefragt, wie das Mängelwesen Mensch (ich sehe es übrigens nicht als Mängelwesen!), das alle diese Katastrophen verursacht hat, nun plötzlich fähig sein soll, Maschinen zu bauen, die uns vor den Folgen unserer eigenen Fehler oder gar der Natur schützen soll. «

    Wenn der Mensch von Katastrophe zu Katastrophe schlittert, dann zeigt sich schon allein darin seine Unvollkommenheit. Das heißt, der Mensch ist genauso ein Mängelwesen wie praktisch alle Lebensformen (falls es Ausnahmen geben sollten, dann bestätigen sie die Regel).

    Daraus folgt aber nicht, dass es ihm nicht möglich wäre, Fehler zu erkennen und zu korrigieren. Das größte Hindernis, ich wiederhole mich, ist nicht das fehlende Wissen, sondern sind die individuellen Egoismen jener, die nur ihren eigenen Vorteil im Blick haben.

    Und wir müssen im Grunde auch nicht wissen, wie unser Gehirn arbeitet, um Computer und künstliche neurale Netze bauen zu können. Das Schöne ist doch dass „Fehler, die auf unserem Denken beruhen“, eine Maschine nicht machen kann (schon weil sie nicht denken kann). Es kommt also nur darauf an, die richtigen Programme für realistische Simulationen zu schreiben.

    » Die Natur ist weder dumm noch ein blinder Uhrmacher, sie folgt nur ihren eigenen Gesetzen, auch beim trial and error. «

    Die Natur folgt blind ihren eigenen Gesetzen. Sozusagen. Woraus folgt, dass wir aus den Gesetzmäßigkeiten der Natur keine ethischen Maßstäbe und Werte ableiten können. Der Mensch hat es in der Hand, wie er mit den Gegebenheiten der Natur umgeht.

    » Was ist richtig, gibt es überhaupt etwas, das jenseits aller unserer menschlichen Ansichten, Einstellungen, Moralvorstellungen richtig ist? Die Antwort habe ich nicht in der Philosophie und Ethik und nicht in der Religion gefunden, sondern in der Ethologie und der Systemtheorie gefunden – und festgestellt, dass es weder Ethik noch Moral gäbe, wenn die Natur dafür nicht sie Voraussetzungen geschaffen hätte – …«

    Abgesehen davon, dass wir unsere Existenz sozusagen der Natur verdanken, inwiefern liefern Verhaltenslehre und Systemtheorie Antworten zu Fragen der Ethik und Moral? Wir haben es dabei doch um völlig verschiedene Beschreibungs- oder gar Seins-Ebenen zu tun.

    Ich vermute, Sie wollen darauf hinaus, dass unsere moralischen Pflichten nicht diametral zu unseren evolutionär entstandenen Verhaltensmöglichkeiten stehen können. Aber ist m. E. eine Selbstverständlichkeit und braucht nicht sonders erwähnt zu werden.

  68. @Martin Holzherr

    » Gier, etc. sind vielleicht nur die negativen Seiten von ansonsten wichtigen Grundkräften. «

    Ich halte derartige negative Eigenschaften eher für übersteigerte Auswüchse von normalem Verhalten. Man kann zum Beispiel auch ohne Gier und nicht zum Nachteil anderer eigenen Wohlstand anstreben.

    Das stärkste Argument zugunsten solcher negativen Eigenschaften kommt wohl aus der Evolutionsbiologie: Eine Population, in der es solche an sich zweifelhaften Individuen gibt, ist womöglich besser dafür gerüstet, in bestimmten Situationen zu überleben.

  69. @ Martin Holzherr

    Lieber Herr Holzherr,

    wenn Sie doch bitte einmal genauer lesen, was ich schreibe, dann erübrigen sich manche Einwände. Als ich schrieb “gemessen an der Dauer unseres irdischen Daseins” war damit nicht gemeint, dass es unsere Nachfahren sein könnten, die als Sieger aus der Geschichte hervorgehen. Ich halte es durchaus für denkbar, dass wir bzw. eine mögliche Weiterentwicklung des Menschen nicht einmal mehr die Zeitspanne von fünf Millionen Jahren erreichen wird bzw. werden.

    Unsere Karte ist, denke ich, ausgereizt (ich habe mal gesagt, wenn ich die Evolution wäre, würde ich im nächsten Anlauf auf kollektives Bewusstsein setzen): mene tekel uparsin. Ich hätte mir nur gewünscht, wir würden würdiger abtreten und nicht als die Spezies, die es geschafft hat, sich selbst und einen Großteil der Arten, die derzeit auf der Erde leben, auszurotten.

    Ihrer Antwort an @Balanus zu den “Grundkräften” stimme ich jedoch zu: Würden wir das “sogenannte Böse” versuchen, genetisch zu eliminieren, wäre das in jedem Fall das Ende derer, die entsprechend manipuliert wurden.

  70. @Trice

    » Würden wir das “sogenannte Böse” versuchen, genetisch zu eliminieren, wäre das in jedem Fall das Ende derer, die entsprechend manipuliert wurden. «

    Zur Klarstellung: Wir reden hier von einem völlig hypothetischen „Eingriff“ in das Erbgut (wir wissen ja noch nicht einmal, ob es einen direkten Weg vom Genom zu charakterlichen Eigenschaften gibt). Es geht bloß um die Frage, was wäre, wenn? Wenn es das „sogenannte Böse“ nicht gäbe, also keine Menschen, die dieses „Böse“ regelmäßig ausleben (müssen), indem sie um des eigenen Vorteils willen anderen Menschen Schaden zufügen.

  71. Hallo Trice,
    was die Machbarkeit einer völlig künstlichen Umwelt angeht, da unterschätzen Sie die Fähigkeiten der Chemiker maßlos.
    Natürlich sind Computer und Roboter aller Art schon heute eine große Hilfe in der Chemie.
    Wenn man sich aber die selektive Synthese chiraler Verbindungen ersparen will, dann kann man die Cyanobakterien für die primäre Photosynthese verwenden.
    Als einfache Prokaryoten sind die Cyanobakterien garantiert nicht leidensfähig.
    Dafür ist die Photosynthese-Leistung der Cyanobakterien den mehrzelligen eukarioten Landpflanzen weit überlegen.
    Wenn man aber völlig künstlich vorgehen will, dann verwendet man die Vollsynthese aus den Elementen.
    Natürlich kann man einfache Prokaryoten ebenfalls künstlich herstellen.
    Zum Beispiel haben Craig Venter und Hamilton Othanel Smith das Mycoplasma laboratorium zusammen gebaut.
    Eine genauere Gebrauchsanleitung für eine Arkologie:
    https://www.e-stories.de/view-kurzgeschichten.phtml?23741
    —–
    Weitere Philosophische Suchbegriffe:
    “Wildtierleid”, “Jeff McMahan (philosopher)” und
    hier drinnen nach “bedn” suchen (8 Treffer):
    https://scilogs.spektrum.de/mente-et-malleo/weg-mit-den-fleischfressern/

  72. Warum ein hoher Automatisierung alles ändern kann
    Meine These: Wenn Künstliche Intelligenz über alle Teile einer komplexen Aufgabe eingesetzt werden kann, enstehen komplexe Automatisierungslösungen und es werden Dinge möglich, die heute schlicht zu teuer sind.

    Viele wünschbare Lösungen für heutige Probleme sind schlicht nicht finanzierbar, weil mit zu grossen Kosten verbunden. Eine Automatisierung sowohl der manuellen, als auch der konzeptionellen Anteile könnte das Wünschenswerte plötztlich realisierbar machen, weil nun um Potenzen kostengünstiger. Beispiele für wünschenswerte, aber nicht finanzierbare Lösungen sind die Kosten für gerade in städtischen Umgebungen wünschenswerte Tunnellösungen, die Kosten für den Bau von Hochgeschwindigkeitsstrecken für Eisenbahnen oder die Kosten für Vakuum-Rohrsysteme für Hyperloops.

    Beispiel Tunnel: Tunnels sind sicher, unsichtbar und erlauben oft kurze Verbindungen zwischen zwei Punkten. Doch heute ist der Tunnelbau trotz mehr Erfahrung, besseren Materialien und Techniken viel teurer als noch vor 20 Jahren und nicht nur der Tunnelbau an und für sich ist teuer, in vielen Fällen ist die Planung, Administration und das rechtliche Prozedere im Zusammenhang mit dem Tunnelbau sogar teurer als der Bau selbst. Eine Tunnelbau-Totallösung, welche bei allen Arbeiten inklusive der Konzeption und Planung künstliche Intelligenz, Roboter und Automatisierung einsetzt, könnte das völlig ändern und damit Tunnel so kostengünstig werden lassen, dass man sie nicht nur als Strassenverbindungen einsetzen kann, sondern sogar als Ersatz für Hochspannungsleitungen. Auch ein europäisches Supergrid, also eine Verbindung aller europäischen Länder mit einem Stromnetz hoher Kapazität könnte dann als Tunnellösung sehr kostengünstig realisiert werden. Erneuerbare Stromproduktion mit Sonne+Wind käme dann ohne Rückgriff auf Kohle-oder Ergaskraftwerke aus – selbst in Phasen einer Dunkelflaute, denn irgendwo in Europa weht immer ein Wind.

    Beispiel Hyperloop: In Vakuum-Röhren könnten Züge schneller unterwegs sein als Flugzeuge, womit auch der Ferntransport elektrifiziert werden könnte. Etwas was beim Ziel von CO2-Nullemissionen sowieso nötig ist. Heute ist ein Hyperloop-System aber unbezahlbar, weil die Vakuumröhren zusammen mit den Vakuumpumpen und allem was dazu gehört zu teuer ist. Ist der Automatisierungsgrad jedoch genügend hoch, sinken die Kosten stark.

    Wichtig: Komplexe Systeme wie Tunnelplanung und -bau oder Bau und Betrieb eines ganzen Verkehrsystems (im Falle Hyperloop) können nur automatisiert werden, wenn die Automatisierungslösung eine recht hohe Eigenintelligenz hat und sich auch selber warten und weiterentwickeln kann. Denn solche komplexen Systeme erfordern auch Erkenntnis-, Planungs- und Konzeptionsleistungen. Und solche Leistungen konnten bis heute nicht automatisiert werden. Erst das Aufkommen von Lösungen mit einem hohen Anteil von künstlicher Intelligenz macht auch da Automatisierung möglich.

  73. Selbstfahrende Fahrzeuge – ermöglicht durch KI – könnten die erste grosse Veränderung im Mobilitätsverhalten der meisten Menschen bewirken. Das wurde hier zwar von einigen Diskutanten bezweifelt. Doch vieles spricht dafür, dass die Menschen vor allem den Wunsch haben, von A nach B zu kommen unabhängig davon ob das Fahrzeug, dass sie nach B bringt, ihnen gehört oder nicht.
    Der SPON-Artikel Studie zur Verkehrswende Am Ende steigen die Deutschen doch ins Auto erwähnt zwar, dass heute nach wie vor das eigene Auto dominiert, spricht aber auch davon, dass in Städten bereits Fahrradfahren und Carsharing stark zunehmen und Bus und Bahn recht beliebt sind.
    Meine Behauptung: Wenn öffentliche Fahrzeuge wie Bus, Bahn oder selbstfahrende Minibusse überall und jederzeit verfügbar wären, dann würden die meisten aufs eigene Auto verzichten. Selbstfahrende Fahrzeuge ermöglichen genau eine solche Zukunft und einige Studien kommen zum Schluss, dass im Jahr 2030 Mobility as a Service 90% aller Fahrleistungen erbringen wird.
    Schöne neue Zukunft also – ermöglicht durch KI.

  74. Technischer Nachtrag:
    Wirkungsgrad:
    Photosynthese der Landpflanzen: unter 2 Prozent,
    Photosynthese der Cyanobakterien: bis zu 8 Prozent,
    (und kein Verbrauch von Ackerland und Süßwasser)
    Silizium-Solarzellen: über 20 Prozent,
    Elektrolyse: rund 80 Prozent,
    Silizium-Solarzellen und Elektrolyse: daher rund 16 Prozent,
    Muskel: rund 30 Prozent,
    Landpflanzen und Muskel: daher rund 0,6 Prozent,
    Verbrennungsmotor: rund 50 Prozent,
    Elektromotor: rund 90 Prozent,
    Elektromotor und Solarzellen: daher rund 18 Prozent,
    Windkraftwerk: rund 50 Prozent,
    (das funktioniert auch ohne seltene Elemente und mit hölzernen Türmen)
    Energetische Amortisationszeit:
    Silizium-Solarzellen: rund 5 Jahre,
    Windkraftwerk: rund 5 Monate.

  75. Hallo Martin Holzherr,
    ein hoher Automatisierungsgrad und die Anwendung der künstlichen Intelligenz machen auch die vollkommen personalisierte Medizin für jeden Menschen zugänglich.
    Mit persönlich synthetisierten Medikamenten, persönlich gezüchteten Stammzellen, Ersatz-Organen aus dem 3d-Drucker, KI-Diagnose, Roboter-Chirurgie, kontinuierliche Überwachung aller Bio-Werte, und noch vieles anderes mehr.
    Dadurch wird die unbegrenzte Lebensdauer leichter erreichbar.
    Eigentlich benötigt man dann gar keine Krankenpflege-Roboter mehr.

  76. Das (Zitat Titel) “Meckern an der Zukunft” als gesammelte Äusserungen von Ängsten, Befürchtungen und Kritik an der Künstlichen Intelligenz ist für mich gut nachvollziehbar, wenn ich den Beginn der heutigen KI-Ära mit der Anfangszeit des Personal Computers vergleiche. Das Aufkommen des PC erweckte zwar auch Ängste und Befürchtungen, doch letztlich nahmen die meisten Leute den PC positiv auf und immer mehr sammelten Erfahrungen damit: Kinder begannen ihre Freizeit mit Computerspielen zu verbringen, ein Bekannter war angefressen von Excell obwohl er es beruflich gar nicht benötigte und immer mehr schuffen Dokumente auf dem Computer und machten sich freudig mit jeder neuen Version des Wordprocessors vertraut.
    Künstliche Intelligenz aber scheint nichts für Hobbyisten, Private oder auch nur Bürolisten zu sein. Wir erleben K.I. über Amazons-Buch- und Produktempfehlungen, über Googles und Facebooks überraschendes Wissen meine Interessen und Vorlieben betreffend und allenfalls noch über die nun viel besseren Übersetzungen durch google translate. K.I. erlebt der Normalo also nicht als etwas was ihm persönlich hilft, als etwas mit dem er sich in seiner Arbeits- oder Freizeit beschäftigt und mit dem er die Zeit verbringt. Vielmehr ist K.I. ein Tool von und für Google, Facebook, Amazon und häufig wollen diese Firmen ihre Kunden damit besser an sich binden und sie letztlich überlisten. Da muss man sich nicht wundern, dass die Skepsis gegenüber KI gross ist.
    Ganz anders sähe es aus, wenn KI für den Normalanwender als Partner auftreten würde, beispielsweise als Assistentin, die überall hilft und sich um Dinge kümmert, die man selbst leicht vergisst, die man ungern tut oder wo man Fehler machen kann, die man später bereut. Ein solcher Assistent, der auch noch Auskunft geben könnte warum er etwas macht oder nicht macht, der würde ein ganz anderes Bild von KI abgeben. Doch genau so ein Assistent ist mit heutiger Deep Learning Technologie nicht möglich, denn Deep Learning Software muss auf eine bestimmte Aufgabe zugeschnitten sein und verfügt über fast überhaupt keine höheren kognitiven Fähigkeiten wie etwa Erkennung von Absichten, Zielen, Erwartungen und er kann auch keine Gründe für sein Agieren angeben. Vielleicht kommt das ja alles noch. Doch solange es nicht kommt, solange bleibt der Mensch mit seinen Fragen Warum?, Wofür?, Was bringts? etc. allein und die KI erlebt er eher negativ als eine Art von unheimlicher Datenkrake, die in den Daten verborgene Zusammenhänge erschliesst, ohne zu erklären wofür, warum und für wen.

  77. @Balanus: Realität vs. Utopie

    Wenn es nicht gerade um die Frage nach der Machbarkeit dessen ginge, was man durchsetzen (oder den Menschen überstülpen) will, würde es mich erheitern, dass das, was Sie schreiben:
    »Wir reden hier von einem völlig hypothetischen „Eingriff“ in das Erbgut (wir wissen ja noch nicht einmal, ob es einen direkten Weg vom Genom zu charakterlichen Eigenschaften gibt).«

    im diametralen Gegensatz steht zu dem, was @Karl Bednarik schreibt:
    »was die Machbarkeit einer völlig künstlichen Umwelt angeht, da unterschätzen Sie die Fähigkeiten der Chemiker maßlos.«

    Denn auch wenn die Erschaffung einer künstlichen Umwelt oberflächlich betrachtet nichts mit dem menschlichen Genom zu tun zu haben scheint, geht dennoch beides Hand in Hand. Lesen Sie mal Yuval Noah Hararis “Eine kurze Geschichte der Menschheit” : “Im Jahre 2000 schuf der brasilianische Bio-Künstler Eduardo Kac ein völlig neues Kunstwerk: ein grün fluoreszierendes Kaninchen.(…) Vielleicht ließe sich mit einer weiteren kleinen Veränderung eine zweite kognitive Revolution anstoßen und eine neue Form des Bewusstseins erzeugen, die den Homo sapiens in ein völlig neues Wesen verwandelt.” usw. usf.
    Eine neue Form des Bewusstseins, mit der zugleich das sogenannte Böse eliminiert wurde, kann auch sehr effizient (und sehr erfolgreich) durch Manipulation der menschlichen Psyche ins Werk gesetzt werden.

    »Es geht bloß um die Frage, was wäre, wenn? Wenn es das „sogenannte Böse“ nicht gäbe, also keine Menschen, die dieses „Böse“ regelmäßig ausleben (müssen), indem sie um des eigenen Vorteils willen anderen Menschen Schaden zufügen.«

    Um diese Frage geht es schon lange nicht mehr, sondern nur noch um die, wie man die Manipulation noch effizienter gestaltet, um von der Grundannahme einer universell-humanitären Einheit der Vernunft ausgehend universelle moralische Normen zu schaffen, und so eine moralische Wirklichkeit zu gestalten, der alle Menschen letztlich zustimmen und deshalb ihr Handeln ändern.
    Da dem aber die Wirklichkeit insofern entgegensteht, als sich zwar ein großer Teil der Bevölkerung bereits erfolgreich hat manipulieren lassen, zugleich aber auch der Widerstand dagegen gewachsen ist, dem mit den bisherigen Mitteln nicht beizukommen ist, ist man dazu übergegangen, die Maßnahmen zu verschärfen.
    Das war in der Geschichte des Menschen nie anders und wird es auch diesmal nicht sein. Geschichte wiederholt sich gesetzmäßig, nicht im Detail, aber im Prinzip.

    Was das “sogenannte” Böse angeht: es steckt in jedem von uns – dem einen mehr, dem anderen weniger. Doch statt zu fragen: wie gehe ich, wie gehen wir damit um, damit es uns nützt und nicht schadet, wird nur der Teil gesehen, der sich und Anderen Schaden zufügt und gefordert: dagegen müssen wir etwas tun.
    Es sind jedenfalls nicht die Künstlichen Intelligenzen, nicht Roboter, nicht KNN, vor denen wir uns fürchten müssen. Es ist unser Denken, vor dem wir uns fürchten sollten, das unserem Handeln zugrunde liegt, und mit dem wir uns noch viel zu wenig beschäftigt haben.

  78. Es tut mir leid, das sagen zu müssen, aber dieser Artikel ist gespickt mit Fehlern. Ich muss zugeben, dass ich die Kommentare nicht gelesen habe, möchte aber zumindest einige Dinge anmerken (auf die Gefahr hin, dass etwas redundant sein möge:)

    „Als zum Beispiel die KI von Google schwarze Männer als Gorillas klassifizierte. Wer steckte dahinter? Selbstverständlich der Mensch!“
    Nein, da muss ich klar widersprechen. Ich vermute es handelt sich um eine Verwechslung. Beim Bot “Tay” (Microsoft-Entwicklung 2016), der binnen kürzester Zeit auf Twitter automatisch rassistische Antworten generiert hat, kann man sagen: okay, dafür waren Menschen insofern verantwortlich als sie den bot mit rassistsischen Infos und tweets “gefüttert” und damit seine Datenbasis manipuliert haben (https://de.wikipedia.org/wiki/Tay_%28Bot%29).
    Bei der Bildunterschrift der Photo-App von Google wurde die Bildbezeichnung „monkey“ aufgrund der bisher eingespeisten Daten generiert. Hier waren weder rassistische Menschen im Spiel noch ein vermeintlicherweise rassistisches Programm (sowas gibt es nämlich nicht), sondern schlicht ein Algorithmus, der einen Effekt evoziert hat, den Menschen im Nachhinein als rassistisch bewertet haben. Btw. handelte es sich um ein schwarzes Päärchen, nicht um zwei Männer.

    Zum Stichwort „Angst“ und Roboter-Dystopien hab ich kürzlich nen Artikel veröffentlicht: “Eine (medien-)ethische Beurteilung der Angst vor Robotern und künstlicher Intelligenz” (https://link.springer.com/chapter/10.1007/978-3-658-21083-0_4).

    Zum Maschinenlernen: Das Beispiel mit der Knoblauchfahne ist zwar lustig, aber ein bisschen irreführend, da beim Maschinenlernen ja gerade Tests mit neuen Daten interessant sind, die nicht im Trainingsprozess verwendet wurden.

    „Künstliche neuronale Netze sind einfach statistische Optimierungsverfahren.“ Auch hier würde ich sagen: nein. Erstere können zwar als letztere verwendet werden, aber KNN sind erst einmal Modelle.

    „Selbstfahrende Autos“ gibt es noch nicht, es gibt allenfalls teilautomatisierte Fahrzeuge.

    Und Roboter, die Saltos machen oder Sachen sortieren sind kein gutes Beispiel für KNN, da dies die einfachsten Aufgaben sind, die mit einem festen Algorithmus (Regelsatz) ausgestattet sind, wohingegen KNN ja hauptsächlich dann eine Rolle spielen, wenn es um unbegrenzte Aktionsmöglichkeiten geht, also um lernende Systeme.

    „Künstliche Intelligenz solle gefälligst ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können, schrieb die Süddeutsche Zeitung.“ Was der Autor hier meinte ist ja, dass Algorithmen, wenn sie black boxes sind, potenziell Angst machen. Insofern ist „Meckern“ nicht das richtige Wort m. E., sondern Angst oder Sorge. Menschen haben Angst vor Unkontrollierbarkeit. Jetzt kann man verschiedene Fragen stellen: 1. Woher kommt diese Angst? 2. Ist sie berechtigt? Das Beispiel mit dem Tor hinkt insofern, da ein Tor zunächst niemandem „weh“ tut. Bei KI-Entwicklungen weiß man aber nicht: Wo ist die Grenze? Was darf gemacht werden, was nicht? Was passiert, wenn Programme Entwicklungen durchlaufen, die nicht mehr von Menschen nachvollziehbar sind?

    „Die natürlichen neuronalen Netze (Neuronenverbände) in unserem Gehirn können wunderbar Muster erkennen und Entscheidungen treffen, die wir nicht begründen können.“ Neuronale Netze, weder im Gehirn, noch im Modell, treffen keine Entscheidungen. Menschen treffen Entscheidungen. Das wurde von Peter Hacker u. a. als „mereologischer Fehlschluss“ bezeichnet (http://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/maxwell-r-bennett-und-peter-m-s-hacker-die-philosophischen-grundlagen-der-neurowissenschaften-was-sich-im-kopf-nicht-alles-finden-laesst-1985378.html), da einem Teil eines Systems (gr. meros = Teil) fälschlicherweise Eigenschaften zugeschrieben werden, die nur auf das ganze System zutreffen. Das Beispiel mit dem Sohn ist süß, ist aber kein Beispiel für eine Entscheidung, sondern Wahrnehmung bzw. Erkennung.

    „Von einem statistischen Optimierungsverfahren, von einem Programm also, das nach ein paar mathematischen Formeln läuft, verlangt aber eine angesehene Zeitung, seine Entscheidungen zu erklären.“ Nein, es geht um Transparenz. Und da sollte man zumindest diskutieren: Wollen wir Maschinen/ Programme haben, die komplexe Dinge berechnen, ohne dass Menschen nachvollziehen können, was in ihnen vorgeht. Wenn solche Programme die Grundlage bilden für z. B. automatisierte Fahrzeuge, also Programme, die Resultate erzielen, die von Menschen als moralisch oder unmoralisch eingestuft werden können, macht die Überlegung nach Transparenz oder Regulierung durchaus Sinn.

    „Klar treffen künstliche neuronale Netze auch falsche Entscheidungen und führen zu Unfällen.“ KNN treffen keine Entscheidungen, sie stellen Berechnungen an, die zu Ergebnissen führen, die von Menschen auf diese oder jene Weise beurteilt werden.

    „Hinter jedem trainierten künstlichen neuronalen Netz steckt ein von Menschen vorbereiteter Datensatz und ein menschlicher Programmierer. Auch aus diesem Grund werden KNN weiterhin falsche Entscheidungen treffen.“ Datensätze werden immer größer und sind nicht „von Menschen vorbereitet, sondern allenfalls speisen Menschen Daten ein in bestimmte Systeme. Und Maschinen „treffen“ nicht „falsche Entscheidungen“, weil Menschen falsch programmieren, das würde ja wiederum für einen festen Regelsatz (im Unterschied zu lernenden Systemen) stehen. Vielmehr generieren Programme output auf einer bestimmten Datenbasis und mit einem bestimmten Ziel. Bei komplexen Verfahren wie beim Go-Spiel hatte ja gerade kein Mensch mehr die Finger im Spiel ab einem gewissen Zeitpunkt!

    An dieser Stelle höre ich auf zu lesen. Es scheint mir, als wäre hier viel Halbwissen im Spiel. Ich weiß nicht, wo Sie Ihre Informationen her haben, aber ich kann Sie nur bitten, vor dem nächsten Artikel genauer zu recherchieren, um nicht noch mehr falsche Meinungen über KI zu verbreiten.

    Die autobiographischen Einsprengsel finde ich hingegen sehr unterhaltsam und informativ, danke dafür!

    • Leonie Seng: “Es tut mir leid, das sagen zu müssen, aber dieser Artikel ist gespickt mit Fehlern. Ich muss zugeben, dass ich die Kommentare nicht gelesen habe, möchte aber zumindest einige Dinge anmerken (auf die Gefahr hin, dass etwas redundant sein möge:)”

      Jaromir: Hallo Leonie Seng, ich habe jetzt nach einem Auftritt Ihren Kommentar gelesen, war zugegebenerweise etwas erschrocken, als Sie meinem Artikel gleich am Anfang so viele Fehler vorwarfen. Die meisten Vorwürfe in Ihrem Kommentar finde ich jedoch ungerecht, oder, sagen wir, Sie haben sich nicht viel Mühe gemacht, auf meinen Text einzugehen. Auch wenn ich zugebe, das speziell dieser Blogtext von mir sehr subjektiv gehalten wurde, da eher eine Satire und somit etwas überspitzt im Vergleich zu den anderen Texten in meinem Blog.

      Gleich am Anfang zitieren Sie mich: „Als zum Beispiel die KI von Google schwarze Männer als Gorillas klassifizierte. Wer steckte dahinter? Selbstverständlich der Mensch!“

      Und schreiben weiter:

      “Nein, da muss ich klar widersprechen. Ich vermute es handelt sich um eine Verwechslung. Beim Bot “Tay” (Microsoft-Entwicklung 2016), der binnen kürzester Zeit auf Twitter automatisch rassistische Antworten generiert hat, kann man sagen: okay, dafür waren Menschen insofern verantwortlich als sie den bot mit rassistsischen Infos und tweets “gefüttert” und damit seine Datenbasis manipuliert haben (https://de.wikipedia.org/wiki/Tay_%28Bot%29). Bei der Bildunterschrift der Photo-App von Google wurde die Bildbezeichnung „monkey“ aufgrund der bisher eingespeisten Daten generiert.”

      Jaromir: Sie widersprechen mir also, dass nicht der Mensch hinter diesem Fehler stand, schreiben aber: “Bei der Bildunterschrift der Photo-App von Google wurde die Bildbezeichnung „monkey“ aufgrund der bisher eingespeisten Daten generiert.”

      Wessen Fehler ist aber ein falscher bzw. ungenügender Datensatz, mit dem das Netz trainiert wurde? Wessen Fehler ist es, dass bei diesem Datensatz und beim überwachten Lernen Kennzeichnungen verwendet werden, die dem Datensatz nicht gerecht sind? Klar ein Fehler der Menschen, die mit diesem Datensatz die Maschine trainiert haben. Von wem sonst? Beim überwachten Lernen bestimmt ja der Mensch die Kenzeichnungen (Labels) der Objekte, die auch nach dem Training von dem Netz erkannt werden sollen. Deswegen hat Google den Fehler auch zugegeben und zur Sicherheit die Kennzeichnung (tag, label) “Gorilla” von seinem Bilderkennungsprogramm entfernt.

      Ihren Satz, “Ich vermute es handelt sich um eine Verwechslung.”, verstehe ich nicht. Ist das nicht egal, ob der Mensch einen Fehler absichtlich oder unabsichtlich produziert?

      Sie haben aber recht, dass es sich um ein schwarzes Paar gehandelt hat und nicht um schwarze Männer, wie ich schrieb. Ist das aber nicht Wortklauberei? Soll ich jetzt auch an Ihrem kleinen Fehler oben rumreiten? Sie schreiben ja:

      “Bei der Bildunterschrift der Photo-App von Google wurde die Bildbezeichnung „monkey“ aufgrund der bisher eingespeisten Daten generiert.”

      Die Bildbezeichnung damals war “Gorillas”, wie ich schrieb, und nicht “monkey”, wie Sie schreiben.

      Zu den weiteren Vorwürfen äußere ich mich morgen. Gute Nacht!

    • Guten Morgen Leonie Seng, damit Sie direkt von der Quelle erfahren, dass letztendlich der Mensch die Ursache für Googles “Gorilla”-Problem war, hier die damalige Entschuldigung von Google:

      “We’re appalled and genuinely sorry that this happened. We are taking immediate action to prevent this type of result from appearing. There is still clearly a lot of work to do with automatic image labeling, and we’re looking at how we can prevent these types of mistakes from happening in the future.”

      Wie gesagt, werden die Datensätze für das überwachte Lernen von Menschen bestimmt bzw. die Daten dafür ausgewählt. Die Kennzeichnungen (tags,labels) der Menschen, Tiere und Objekte für Google Photo werden von Google bestimmt. Deswegen hat Google dann die Kennzeichnung “Gorilla” bei Google Photo aus dem Verkehr gezogen und später alle Kennzeichnungen, die mit dem Begriff “Affe” zusammenhingen.

      Dazu schrieb der damals betroffene schwarze Programmierer Jacky Alcine:

      “Like I understand HOW this happens; the problem is moreso on the WHY. This is how you determine someone’s target market.”

      Klingt es danach, dass der Fehler nicht von Google begangen wurde, sondern von dem Mysterium “Künstliche Intelligenz”? Bevor ich jemandem vorwerfe, einen groben Fehler gemacht zu haben, würde ich mich mit dem Problem tiefgehend auseinandersetzen. Wie mit den anderen vermeintlichen Fehlern, die Sie mir vorwerfen.

    • Leonie Seng: “Zum Maschinenlernen: Das Beispiel mit der Knoblauchfahne ist zwar lustig, aber ein bisschen irreführend, da beim Maschinenlernen ja gerade Tests mit neuen Daten interessant sind, die nicht im Trainingsprozess verwendet wurden.”

      Jaromir: Ich bin schon erstaunt, mit welchem Enthusiasmus Sie den Artikel eines Blogkollegen zu vernichten versuchen. 🙂 Wir beide haben Glück. Ich bin gestern bei einem Science Slam in Wolfsburg aufgetreten, sitze jetzt im Zug nach München und habe somit Zeit genug, ihre Vorwürfe zu beantworten.

      Wenn Sie meinen Artikel aufmerksam gelesen hätten, hätten Sie sicher gemerkt, dass das überwachte Lernen mit der “Knoblauchfahne” dem Leser mit etwas Humor nahebringen wollte, wie er selbst überwacht lernt. Es ist kein Beispiel dafür, wie ein künstliches neuronales Netz beim überwachten Lernen nach dem Training generalisieren und auch Bilder kennzeichnen kann, dass es noch nie gesehen hat – wenn es eben darauf trainiert war, Objekte mit dieser Kennzeichnung zu erkennen.

      Wenn Sie vor Ihrem Rundumschlag andere Beiträge in meinem Blog angesehen hätten – bevor Sie mir Halbwissen vorwerfen – würden sie erfahren, dass ich das überwachte Lernen schon oft genug erklärte, um das in einem neuen Blogbeitrag wieder zu bringen. Das wäre für die Leser hier einfach nur lästig. Ich kann nicht in jedem Blogbeitrag dasselbe schreiben.

    • Jaromir: Künstliche neuronale Netze sind einfach statistische Optimierungsverfahren.

      Leonie Seng: Auch hier würde ich sagen: nein. Erstere können zwar als letztere verwendet werden, aber KNN sind erst einmal Modelle.

      Jaromir: Ein künstliches neuronales Netz optimiert mit statistischen (und mathematischen) Methoden wie mit dem stochastischen Gradientenabstieg die für das Netz aufgestellte Kostenfunktion. Um der breiten Leserschaft Angst vor künstlichen neuronalen Netze zu nehmen (besser gesagt vor dem Mysterium künstliche Intelligenz), finde ist es gut und richtig, die Bezeichnung statistische Optimierungsverfahren zu verwenden, auch wenn die Optimierung hier etwas mehr beinhaltet als bei den klassischen statistischen Optimierungsverfahren.

      Ihre Aussage, “KNN sind erst einmal Modelle”, ist eine Wortblase, die “erst einmal” gar nichts sagt.

    • Jaromir: „Die natürlichen neuronalen Netze (Neuronenverbände) in unserem Gehirn können wunderbar Muster erkennen und Entscheidungen treffen, die wir nicht begründen können.“

      Leonie Seng: Neuronale Netze, weder im Gehirn, noch im Modell, treffen keine Entscheidungen. Menschen treffen Entscheidungen. Das wurde von Peter Hacker u. a. als „mereologischer Fehlschluss“ bezeichnet, da einem Teil eines Systems (gr. meros = Teil) fälschlicherweise Eigenschaften zugeschrieben werden, die nur auf das ganze System zutreffen.

      Jaromir: Für “Entscheidungen treffen” erlaubt der Duden schon mehrere Deutungen: entscheiden, realisieren, ausführen, bestimmen … Ich schreibe einem neuronalen keine zusätzlichen Eigenschaften zu, nur das, was es kann: Muster erkennen, Objekte klassifizieren. Und das hätten Sie merken müssen, wenn Sie merken wollten, worum es mir in meinem Beitrag ging. Darin wollte ich eben zeigen, dass die Medien bei künstlichen neuronalen Netzen keine Mereologie betreiben sollen, in dem sie künstliche neuronale Netze, die einfach universelle Klassifizierer sind, zum Hal 9000 machen, also zur allgemeinen KI. Die letzte Schicht eines überwacht lernenden künstlichen neuronalen Netzes bestimmt/entscheidet: Das ist ein Apfel, das ist eine Birne, das ist … und und und. Nicht mehr, aber auch nicht weniger.

      Klar könnten wir stundenlang Begriffe hin und her drehen und über sie philospohieren. Während meiner Doktorarbeit an der TU München über die molekulare Evolution und die komplemäntere Kodierung in Doppelsträngen der Nukleinsäuren habe ich ein Semester lang die Vorlesung Evolutionäre Erkenntnistheorie an der philosophischen Fakultät der LMU besucht. Ich war begeistert, wie die Philosophen an einem Begriff stundenlang rumknabbern konnten. Noch am Abend beim Bier beim Atzinger diskutierten wir um … nichts. 🙂

      Solche Diskussionen erinnern mich immer an Karl Popper, der mal sagte: Der größte Skandal der Philosophie sei, dass während die Welt um uns herum zugrunde gehe, die Philosophen immer noch streiten würden, ob die Welt real sei. 🙂

    • Jaromir: „Künstliche Intelligenz solle gefälligst ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können”, schrieb die Süddeutsche Zeitung.“

      Leonie Seng: Was der Autor hier meinte ist ja, dass Algorithmen, wenn sie black boxes sind, potenziell Angst machen. Insofern ist „Meckern“ nicht das richtige Wort m. E., sondern Angst oder Sorge. Menschen haben Angst vor Unkontrollierbarkeit. Jetzt kann man verschiedene Fragen stellen: 1. Woher kommt diese Angst? 2. Ist sie berechtigt? Das Beispiel mit dem Tor hinkt insofern, da ein Tor zunächst niemandem „weh“ tut. Bei KI-Entwicklungen weiß man aber nicht: Wo ist die Grenze? Was darf gemacht werden, was nicht? Was passiert, wenn Programme Entwicklungen durchlaufen, die nicht mehr von Menschen nachvollziehbar sind?

      Jaromir: Der Autor meinte das, was er geschrieben hat: „Künstliche Intelligenz solle gefälligst ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können.”

      Sehen Sie hier nicht, wie Sie mich wegen zahlreicher angeblicher “Fehler” und “Halbwissen” angreifen und dann gleich selbst in eine logische Falle tappen? Mich haben Sie kritisiert, dass ich einen “mereologischen” Schluss mache, wenn ich Maschinen zuschreibe, Enstcheidungen zu treffen. Damit bin ich aber nur auf den SZ-Autor eingegangen, der eben wollte, dass künstliche Intelligenz gefälligst “Ihre Entscheidungen erkläre.” Seine Aussage aber verteidigen Sie.

      Wissen Sie, wenn man einem Blogkollegen viele Fehler und Halbwissen vorwirft, sollte man sich schon Gedanken darüber machen, ob es einem tatsächlich um die Sache geht. Oder ob man um jeden Preis Fehler finden will.

      Fehler findet man immer. Ich würde nie jemanden wegen kleiner Fehler angehen. Auch Sie nicht, obwohl ich in ihrem schönen Blogbeitrag über Roboter einige gefunden habe. Zum Beispiel bezeichnet das tschechische Wort “robota” nicht “Arbeit” sondern “Zwangsarbeit”. “Arbeit” heißt “prace”. Solche unwesentlichen Fehler mache ich aber auch ständig. Was soll’s dann.

      Doch wenn jemand in einer großen Zeitung fordert, künstliche Intelligenz solle ihre Entscheidungen erklären, dann möchte ich das schon korrigieren und darauf hinweisen können, dass ein künstliches neuronales Netz nichts erklären kann, ein künstliches neuronales Netz ist nur auf eine Aufgabe hin trainiert und kann nach dem Training nur diese Aufgabe erfüllen. Mehr ist nicht drin. Wenn man Erklärungen haben will, wie das Netz zu seinen Ergebnissen (vermeide bewusst “Entscheidungen” :-)) kommt, dann muss nun mal ein zusätzliches Netz bzw. Algorithmus entwickelt werden, das oder der zur dieser Klärung beiträgt.

      Ich nehme die Ängste der Menschen, was KI angeht, sehr ernst. Nur bin ich davon überzeugt, dass die Gefahren der künstlichen neuronalen Netze eher darin liegen, dass sie zu schlimmen Sachen missbraucht werden. Eben von uns Menschen. Zum Beispiel sollten wir alle daran arbeiten, dass autonome Waffensysteme verboten werden. Eine allgemeine KI gibt es nicht, und es wird sie noch lange nicht geben, wenn überhaupt. Deswegen sollten wir diese wunderbaren Errungenschaften – künstliche neuronale Netze – nicht in einen Topf mit Terminator und Hal 9000 schmeißen. Das verschleiert die wahren Gefahren und behindert, dass wir vielleicht bald doch schlimme Krankheiten heilen und unser Klima retten können.

      Noch vor kurzem war ich davon überzeugt, die Menschheit rast auf einen Abgrund zu. Vielleicht bin ich naiv, doch plötzlich bekam ich das Gefühl, künstliche neuronale Netze könnten uns und unser Klima doch noch retten helfen. Dann lese ich aber überall in den Medien, wie diese wunderbaren Sachen zerredet und täglich mit nicht Vergleichbarem verglichen werden. So habe ich meinen etwas überspitzten Artikel geschrieben, obwohl ich hier normalerweise eher über die Parallelen von Gehirn & KI blogge.

      Am Ende Ihres Kommentars schreiben Sie: “Auf dieser Stelle hörte ich auf zu lesen.”

      Wissen Sie: wenn ich einen Artikel oder ein Buch so massiv kritisieren möchte, wie Sie das hier tun, dann würde ich den ganzen Artikel und das ganze Buch lesen und mir auch Gedanken über die Absicht der Texte machen. Das gehört sich einfach so. 🙂

  79. Nachtrag zu Diagnosemethoden, Therapiemethoden, und künstlicher Intelligenz:
    Die dreidimensionalen Datensätze aus den Messungen mit Ultraschall, Kernspinresonanz und Röntgentomografie müssen durch leistungsfähige Bildanalyseprogramme in die einzelnen Organe und Gewebe aufgeteilt werden, damit man jene Objekte erkennen kann, die nicht in den Organismus gehören.
    Die genaue vollautomatische Analyse der DNA und der RNA des individuellen Patienten und eventueller Krankheitserreger ermöglicht die vollautomatische Synthese von DNA-Derivaten und RNA-Derivaten zur zielgerichteten Therapie von Erkrankungen.

  80. Nachtrag des Nachtrages:
    Mit relativ wenig künstlicher Intelligenz ist ein automatischer Assistent realisierbar, der zum Beispiel Alzheimer-Kranken sagt, was sie gestern getan haben, welche Medikamente sie heute schlucken sollen, und der Menschen mit Depressionen gut zuredet.
    Natürlich kann so ein automatischer Assistent in Notfällen auch den Arzt rufen.

  81. Danke für die rasche ausführliche Antwort! Wie gesagt, die explizit subjektiven, autobiographischen Teile in Ihrem Artikel finde ich wirklich sehr lesenswert. Es tut mir leid, Sie erschreckt zu haben mit meiner Monster-Antwort. Aber ich habe so viele Dinge gelesen, die ich nicht einfach so stehen lassen konnte und wollte.

    Zu Ihrem Zitat von Google, der Entschuldigung. Der Satz “There is still clearly a lot of work to do with automatic image labeling” zeigt doch, es geht um “automatic” labeling, nicht um menschliches. Mit der “Verwechslung” meinte ich die zwischen dem Chat-bot “Tay” und und der Photo-App.

    “Wortklauberei”? Sie können es so nennen. Meine philosophische Ausbildung hat mich jedoch gelehrt, dass begriffliche Ungenauigkeit eine sehr starke Grundlage für Missverständnisse sein kann. Und Ziel von “Scilogs” ist es ja nun einmal, wissenschaftlich, das heißt faktisch korrekt aufzuklären, oder? Und insofern: Ja stimmt, “gorillas” war die Bezeichnung. Danke für die Korrektur! 🙂

    Nur um das klar zu stellen: Es war und ist keineswegs meine Absicht, Sie persönlich anzugreifen. Ich war jedoch meinerseits erschrocken darüber, dass Sie sich zu Beginn Ihres Artikels zum Ziel setzen, aufzuklären und dann eben doch so viele Dinge nicht richtig dargestellt oder bestenfalls verwirrend sind. Es geht mir nicht um Sie, es geht mir ums Thema!

    • Leonie Seng: Zu Ihrem Zitat von Google, der Entschuldigung. Der Satz “There is still clearly a lot of work to do with automatic image labeling” zeigt doch, es geht um “automatic” labeling, nicht um menschliches. Mit der “Verwechslung” meinte ich die zwischen dem Chat-bot “Tay” und und der Photo-App.

      Jaromir: Sie meinen also, das KNN von Google Photos hat die Kennzeichnung “Gorilla” aus der Luft gezaubert? 🙂 Der Kern-Algorithmus des Google-Photos-KNN ist überwachtes Lernen. Am Anfang musste das Programm gelabelte Daten bekommen, dann lernt es die Daten aus der Google-Suche, nur auch dort wird ja zuerst von Menschen “gelabelt”. Wie gesagt, der Urgrund der Fehler bei den KNN ist der Mensch, egal ob’s um die Datensätze oder die Parameter und Algorithmen geht. Nicht die Netze selbst. Die sind je keine allgemeine KI, die in der Lage wäre, selbst etwas Böses zu entwickeln, sondern nur eine kleine Unterabteilung der KI-Forschung, die auf etwas Statistik und Mathematik beruht.

    • Leonie Seng: “Wortklauberei”? Sie können es so nennen. Meine philosophische Ausbildung hat mich jedoch gelehrt, dass begriffliche Ungenauigkeit eine sehr starke Grundlage für Missverständnisse sein kann. Und Ziel von “Scilogs” ist es ja nun einmal, wissenschaftlich, das heißt faktisch korrekt aufzuklären, oder? Und insofern: Ja stimmt, “gorillas” war die Bezeichnung. Danke für die Korrektur! 🙂

      Jaromir: Ich habe eine naturwissenschaftliche Ausbildung und acht Jahre theoretische Grundlagenforschung an einer deutschen Universität mit Artikeln in angesehenen wissenschaftlichen Publikationen hinter mir und einen Summa-Cum-Laude-Doktortitel dazu, wenn wir schon Ausbildungen vergleichen :-). Glauben Sie mir, bitte: In den Naturwissenschaften wird sehr auf Präzision und Sachlichkeit geachtet.

  82. Mereologischer Fehlschluss?

    Leonie Seng schreibt in ihrer kritischen Anmerkung:

    » „Die natürlichen neuronalen Netze (Neuronenverbände) in unserem Gehirn können wunderbar Muster erkennen und Entscheidungen treffen, die wir nicht begründen können.“ [Zitat JK] Neuronale Netze, weder im Gehirn, noch im Modell, treffen keine Entscheidungen. Menschen treffen Entscheidungen. Das wurde von Peter Hacker u. a. als „mereologischer Fehlschluss“ bezeichnet […], da einem Teil eines Systems (gr. meros = Teil) fälschlicherweise Eigenschaften zugeschrieben werden, die nur auf das ganze System zutreffen. Das Beispiel mit dem Sohn ist süß, ist aber kein Beispiel für eine Entscheidung, sondern Wahrnehmung bzw. Erkennung. «

    Das Beispiel mit dem Sohn war, so habe ich es zumindest verstanden, ein Beispiel für eine Unterscheidung, die getroffen wurde. Ob Unterscheidung oder Entscheidung, ich sehe da keinen so großen begrifflichen Unterschied, hier konnte man eigentlich nichts missverstehen.

    Dem Vorwurf des „mereologischen Fehlschlusses“ begegnet man allenthalben aus der Ecke philosophisch geschulter Diskutant/inn/en, wenn es um Hirnforschung und/oder Hirnfunktionen geht. Mir ist das völlig unbegreiflich. Als könnten oder würden Naturwissenschaftler/innen weder logisch noch sachlich unterscheiden zwischen Verhaltensäußerungen und den zugrundeliegenden Funktionen des zentralen Nervensystems. Das ist sowas von daneben, dass es einem fast die Sprache verschlägt.

    • Balanus: Das Beispiel mit dem Sohn war, so habe ich es zumindest verstanden, ein Beispiel für eine Unterscheidung, die getroffen wurde. Ob Unterscheidung oder Entscheidung, ich sehe da keinen so großen begrifflichen Unterschied, hier konnte man eigentlich nichts missverstehen.

      Jaromir: Vielen Dank für die Unterstützung! Ich habe tatsächlich einfach nur die Wortwahl (“Entscheidung”) der SZ weiter verwendet, weil ich im Folge dieses Zitats argumentiert habe: “Künstliche Intelligenz solle gefälligst ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können, schrieb die Süddeutsche Zeitung.” Klar kann ich es machen, wie Sie schreiben, da ja auch die Aussage legitim wäre: “Ich habe mich entschieden zu glauben, dass das mein Sohn ist.”

      Ich freue mich, dass Sie das so wie ich sehen. Ich habe mich leider schon öfter auf “philosophische” Diskussionen um Wörter eingelassen, die meist völlig an dem eigentlichen Gegenstand der Diskussion vorbeigingen. Falsch verstandene “Philosophie” macht viele Diskussionen kaputt. 🙂

  83. @Trice // 15. November 2018 @ 13:52

    Ich werd‘ nicht ganz schlau aus Ihrer Entgegnung, halten Sie nun eine gewalt- und kriminalitätsfreie Gesellschaft für wünschenswert oder nicht? Dass es die vermutlich nie geben wird, geschenkt, die (philosophische) Frage war (und ist), ob wir solch eine Gesellschaft überhaupt anstreben wollen oder sollen. Oder ob wir, wenn es denn die Möglichkeit gäbe, der Evolution ein wenig nachhelfen dürfen, indem wir den absolut sozialverträglichen Menschen züchten (im Rahmen des ethisch vertretbaren, versteht sich). Mir ist nicht klar geworden, mit welchem Argument Sie eine biotechnische Verbesserung des Menschen ablehnen, wenn sie denn, wie gefordert und vorausgesetzt, völlig nebenwirkungsfrei möglich wäre.

    » Was das “sogenannte” Böse angeht: es steckt in jedem von uns –«

    Und das ist gut so?

    Dann könnten wir ja auch künstliche Intelligenzen akzeptieren, die ebenso gebaut sind.

    (Haben Sie meinen Post vom 13. November 2018 @ 21:21 gesehen? Nicht, dass ich eine Entgegnung erwarten würde, aber übersehen werden soll er auch nicht… ;-))

  84. Der Mensch ändert eher das Antlitz der Erde als seine Gewohnheiten. (Eleonora Duse)
    Eine kriminalitätsfreie Gesellschaft lässt sich auch mit intelligenten Überwachungsautomaten realisieren, die zumindest im öffentlichen Raum kein rechtliches Problem darstellen.
    Das lässt sich auch mit der kontinuierlichen Gesundheitsüberwachung kombinieren, die natürlich bei Verletzungen Alarm gibt.
    Psychologisch besser ist es zu sagen: “ich habe einen persönlichen Leibwächter” als zu sagen: “jeder wird beobachtet”, obwohl dazwischen praktisch wenig Unterschied ist.
    Natürlich werden kriminelle Hacker versuchen, dieses Überwachungssystem zu umgehen, aber die staatliche künstliche Intelligenz hat wesentlich mehr Ressourcen.

    • Karl Bednarik: Eine kriminalitätsfreie Gesellschaft lässt sich auch mit intelligenten Überwachungsautomaten realisieren, die zumindest im öffentlichen Raum kein rechtliches Problem darstellen. Das lässt sich auch mit der kontinuierlichen Gesundheitsüberwachung kombinieren, die natürlich bei Verletzungen Alarm gibt. Psychologisch besser ist es zu sagen: “ich habe einen persönlichen Leibwächter” als zu sagen: “jeder wird beobachtet”, obwohl dazwischen praktisch wenig Unterschied ist.

      Jaromir: Ich bin generell sehr enthusiastisch, was künstliche neuronale Netze angeht. Ein System aber, wo alles kontrolliert wird, und sei aus aus der menschenfreundlichen Absicht heraus, Kriminalität vorzubeugen, ist meiner Meinung nach sehr anfällig für den Missbrauch durch die Kontrollinstanz, nicht nur durch die Hacker also. Das skrupellose Streben nach Macht scheint in vielen von uns immer noch sehr tief zu stecken. Erstaunlich wie durch dieses skrupellose Machtstreben Systeme pervertieren, die mit einem idealistischen Anspruch angefangen haben: Zum Beispiel der Sozialismus.

      Ich habe bereits in zwei Diktaturen gelebt und dachte früher, vor allem Systeme sind für einen totalitären Machtmissbrauch anfällig, die nach einer Ideologie aufgebaut sind. Heute muss man aber befürchten, dass auch “wehrhafte” pluralistische Gesellschaften von machtgierigen Populisten beherrscht werden können. Was machen Populisten und Demagogen, wenn sie an die Macht kommen? Dann missbrauchen sie nun mal die Macht. So ist es im Laufe der Geschichte immer gewesen. (Gut hat diese Thematik Ladislav Mnacko in seinem politischen Roman “Wie die Macht schmeckt” aufgearbeitet.)

      Ein System aber, das von künstlichen neuronalen Netzen, “total” kontrolliert wird, ist schwer zu ändern. Sollte ein skrupelloser Mensch die Macht in einem solchen System erlangen, wäre es dann schwierig, das zu ändern. Deswegen bin ich für den Datenschutz, auch wenn uns deswegen – im Vergleich zu China – die Datensätze fehlen, mit deren Hilfe wir effiziente künstliche neuronale Netze entwickeln können. 🙂

  85. Herr Konečný,
    hierzu noch kurz :

    Man muss aber keine Berichte in den Medien lesen, um Trump zu deuten, oder zu “missverstehen” wie Sie schreiben, dazu reichen Trumps eigene Tweets. Haben Sie diese gelesen?

    Es empfiehlt sich immer dem Trumpschen O-Ton zu lauschen, oder eben seinen sog. Tweets, denen der Schreiber dieser Zeilen zeitlich nicht fern von seiner Ankündigung zu “Runnen” gefolgt ist. – Spaßeshalber bezeichnet sich der Schreiber dieser Zeilen auch als Trumpologe (vs. Trumpist), er hat “verdammt” viel Zeit investiert, um das Missverhältnis zwischen der Person Trump und seinen Aussagen und der Leistung der Presse verstehen zu suchen.
    ‘Hasstiraden’ liegen nicht vor, Ihr Kommentatorenfreund empfiehlt sich mit Donald J. Trump und seinen politischen Einstellungen näher zu beschäftigen.
    So wie Dr. W Sie einschätzt, könnten Sie bei näherer Betrachtung der politischen Inhaltemenge Trumps etwas abgewinnen.
    MFG
    Dr. Webbaer (der gerade festgestellt hat, dass auch Leonie Seng etwas geschrieben hat, Dr. W wird nun “querlesen”)

    • Lieber Herr Dr. Webbaer,

      ich hoffe, Sie verstehen, wenn ich den Trump-Faden nicht weiter spinne. Ich würde in diesem Blog sehr gern weiterhin über “Gehirn & KI” diskutieren und über alles, was mit künstlichen neuronalen Netzen und maschinellem und natürlichem Lernen zusammenhängt, und die Politik hier auslassen. Obwohl ich ein politischer Mensch bin. Klar gehört auch natürliche Intelligenz zu unseren Themen. Doch wie es um natürliche Intelligenz und Herrn Trump steht, dazu haben wir zwei wohl ganz verschiedene Meinungen, obwohl wir uns bei künstlicher Intelligenz meistens verstehen. 🙂

      Liebe Grüße

      Jaromir

  86. PS und ganz schnell ergänzt,
    Frau Seng war wohl mit ihrer ‘Monster-Antwort’ ein wenig kritisch, anmerken will Dr. W im Moment hierzu nichts, will überlegen, sehr nett aber diese kleine Debatte, Dr. W findet beide, also Frau Seng und Herrn Konečný lesenswert.

  87. Hmm, hierzu denn dann doch noch vielleicht, nach bereits vorhergeganger Überlegung, die also bereits vorher vor lag, also so-o schnell können auch Webbaeren nicht rechnen :

    Wollen wir Maschinen/ Programme haben, die komplexe Dinge berechnen, ohne dass Menschen nachvollziehen können, was in ihnen vorgeht. Wenn solche Programme die Grundlage bilden für z. B. automatisierte Fahrzeuge, also Programme, die Resultate erzielen, die von Menschen als moralisch oder unmoralisch eingestuft werden können, macht die Überlegung nach Transparenz oder Regulierung durchaus Sinn. [Frau Seng]

    Maschinen, sogenanntes Machine-Learning ist gemeint, müssen über eine Schnittstelle verfügen, die es erkennenden Subjekten erlaubt, maschinelle Entscheidung (Maschinen entscheiden, es macht keinen Sinn hier unter Verweis auf den Determinismus Maschinen den Entscheid abzuerkennen) nachzuvollziehen.

    MFG
    Dr. Webbaer (der nochmals den beiden Involvierten, ein gutes Wort an dieser Stelle (ab 3:05), dankt)

    • Das ist eine richtige Anmerkung: Selbstverständlich müssen alle schwerwiegende Entscheidungen der künstlichen neuronalen Netze überprüft werden. Es wird ja von DeepMind und vielen anderen KI-Teams daran gearbeitet, den Entscheidungsprozess der Maschinen nachzuvollziehen. In der “computer vision” können ja bereits die einzelnen “Entscheidungsschritte” durch die Schichten von konvolutionellen neuronalen Netzen (Convolutional Neural Networks) visualisiert und somit nachvollzieht werden. Es ist nur eine Frage der Zeit, wie es auch bei anderen künstlichen neuronalen Netzen nachvollzieht werden kann.

      Nur haben der SZ-Autor und Frau Seng einen Denkfehler gemacht: Ein künstliches neuronales Netze kann seine Entscheidungen nicht erklären, weil ein künstliches neuronales Netz nun mal nur auf eine Aufgabe hin trainiert werden kann – um eben diese einzige Aufgabe zu erfüllen. Mehr ist nicht drin.

    • Dr. Webbaer: “Maschinen, sogenanntes Machine-Learning ist gemeint, müssen über eine Schnittstelle verfügen, die es erkennenden Subjekten erlaubt, maschinelle Entscheidung (Maschinen entscheiden, es macht keinen Sinn hier unter Verweis auf den Determinismus Maschinen den Entscheid abzuerkennen) nachzuvollziehen.”

      Jaromir: Auch das sehe ich wie Sie. Klar ist es Unsinn, wenn Frau Seng schreibt, Entscheidungen können nur von Menschen getroffen werden. Wenn ein künstliches neuronales Netz in einem selbstfahrenden Waymo-Auto “entscheiden” soll, ob das Auto nach links oder geradeaus fahren soll, dann entscheidet es. Genauso wie sich ein CNN in der computer vision für eine Kennzeichnung (label) entscheidet, bzw. ein RNN für einen Spielzug in einem Computerspiel. Wie sollen wir das sonst nennen, als “eine Entscheidung” zu treffen oder zu “entscheiden”?

      Man kann ja nach “decision making” im Zusammenhang mit künstlichen neuronalen Netzen googeln und bekommt 40 Millionen Einträge. Im maschinellen Lernen wird mit Entscheidungsbäumen (decision trees) gerechnet – das sind gängige Modelle des maschinellen Lernens. Wieso Frau Seng das als einen Fehler anprangert, wenn man sagt, eine Maschine treffe eine Entscheidung, weil nur Menschen Entscheidungen treffen würden, verstehe ich wirklich nicht.

  88. Wie gesagt, der Urgrund der Fehler bei den KNN ist der Mensch, egal ob’s um die Datensätze oder die Parameter und Algorithmen geht. Nicht die Netze selbst.

    Das erkennende Subjekt ist immer der ‘Urgrund’ des Seins, logisch, sprachlich so vorausgesetzt, ohne Erkenntnissubjekt ist keine Erkenntnis, ist nichts, sozusagen, den auch das Nichts ist definitorisch zu handhaben, zu pflegen und so.

    Ansonsten kann es auch “AI” verbocken, nämlich dann, wenn sie bes. Phantasie entwickelt und soziale Problematik bearbeitet, sie, also die “AI” kann sich auch von Zufall nähren, bspw. werden sog. Zufallsgeneratoren, die nicht den Zufall direkt meinen können (denn den gibt es nicht, haha, er ist zumindest nicht mathematisierbar) auch über äußere Parameter, wie bspw. die Temperatur, Nachkommastellen meinend, im Serverraum initialisiert.

    “AI” gibt es insofern erkenntnis-subjekt-gebunden, oder auch nicht, so gebunden.

    MFG + schönes Wochenende noch,
    Dr. Webbaer

    • Dr. Webbauer: Ansonsten kann es auch “AI” verbocken, nämlich dann, wenn sie bes. Phantasie entwickelt und soziale Problematik bearbeitet …”

      Jaromir: Eine solche KI gibt es aber nicht, und es wird sie noch lange nicht geben. Wenn überhaupt. Es gibt nun mal nur künstliche neuronale Netze, die mit geeigneten mathematischen Algorithmen ausgerüstet, das optimale Minimum der aufgestellten Kostenfunktion finden und somit ein Problem wunderbar lösen können. 🙂 Ganz phantasielos, doch viele Sagen: Mit “Magie”! 🙂

      Ihnen auch ein erbaulich interessantes Wochenende!

  89. Also, Frau Seng hat nicht immer den richtigen Punkt getroffen, auch Herr Dr. Konecny (‘Summa-Cum-Laude-Doktortitel’) womöglich nicht, sondern der Webbaer tut es.
    Mag allerdings beide, vely interessant, wie Dr. W findet.

    Dies hier – ‘Ein künstliches neuronales Netze kann seine Entscheidungen nicht erklären, weil ein künstliches neuronales Netz nun mal nur auf eine Aufgabe hin trainiert werden kann – um eben diese einzige Aufgabe zu erfüllen. Mehr ist nicht drin.’ – war Murks, denn Programmierarbeit kann auch Programmen deskriptives Output abfordern.
    Für die Programmierer verständliches, aber auch allgemein verständliches.
    Eigentlich würde Dr. W dbzgl. so vorab im Pflichtenheft so eingetragen sehen wollen.

    MFG
    Dr. Webbaer (der sich nun auszuklinken hat, Chapeau und Hut ab Euch beiden!)

  90. “AI”, die ‘bes. Phantasie entwickelt’ gibt es.
    Bspw. wären Karten-(bgl. mit dbzgl. Bemühung i.p. Poker) und Brettspiele wie bspw. Go oder Schach nicht derart maschinell angehbar, wie es sich ohne Phantasie (vs. brute force) darstellen würde.
    Maschinen sind in der Lage Regelmengen zu erarbeiten, die so nicht vom erkennenden Subjekt vorgegeben sind.
    Dr. W ging davon aus, dass sich die hier dankenswerterweise bereit stehende Inhaltearbeit auch so bemüht.
    MFG
    Dr. W (der nun abär wirklich weg muss, Frau Seng und auch Ihre Wenigkeit haben einige Pluspunkte gesammelt)

    • Dr. Webbauer: “AI”, die ‘bes. Phantasie entwickelt’ gibt es. Bspw. wären Karten-(bgl. mit dbzgl. Bemühung i.p. Poker) und Brettspiele wie bspw. Go oder Schach nicht derart maschinell angehbar, wie es sich ohne Phantasie (vs. brute force) darstellen würde. Maschinen sind in der Lage Regelmengen zu erarbeiten, die so nicht vom erkennenden Subjekt vorgegeben sind.

      Jaromir: Ich muss Ihnen hier leider widersprechen: Künstliche neuronale Netze haben keine Phantasie. Auch die nicht, die wunderbar alle mögliche Spiele spielen können. Sie können nur Muster in sehr großen Datensätzen finden, die wir Menschen nicht erfassen können und den Netzen vielleicht deswegen Phantasie oder Intuition zubilligen.

      Phantasie ist nach dem Duden die “Fähigkeit, Gedächtnisinhalte zu neuen Vorstellungen zu verknüpfen, sich etwas in Gedanken auszumalen”.

      Bestärkende neuronale Netze (RL – reinforcement learning), die beim Meistern der meisten Spiele die größte Rolle spielen, können sich nichts in Gedanken ausmalen, weil sie keine Gedanken haben. Sie haben auch kein Gedächtnis und keine neuen Vorstellungen. Sie lernen spielen, indem sie bei jedem Spielzug belohnt oder bestraft werden (trial & error). Aufgrund der statistisch-mathematischen Algorithmen, die den Netzen zugrunde liegen, können sie während der Lernphase ihre Belohnung maximieren.

      Am Anfang spielen die Netze völlig chaotische Züge, machen Fehler, die ein Kind in einem neuen Spiel nie machen würde. Nach einigen Millionen Partien entwickeln sie aber die richtige Strategie für das Spiel und werden somit unschlagbar – sie haben die besten Muster/Wege in allen möglichen Spielstellungen gefunden, die zum Sieg führen. Sie spielen aber nicht alle Züge durch (kein brute force), sondern nur die Züge, die die größte Belohnung versprechen.

      Ein RL-Netz braucht ein vorgegebenes Zielwert (goal), um spielen zu lernen. Ein Zielwert selbst kann sich das Netz nicht ausmalen, wie wenn es Phantasie hätte. Es kann nur Punkte sammeln. Das aber sehr gut.

  91. Lieber Herr Jaromir Konecny,
    Dr. W kann Ihnen folgen, vielen Dank für Ihre Reaktion, für Ihre Arbeit auch im Kommentarbereich.
    Mit Phantasie war eigenständiges, originäres Denken gemeint, das im Rahmen des sog. Machine-Learnings auch von “AI” mittlerweile bewerkstelligt werden kann.
    Von einstmals angelegten Vorschriften weggehend.
    Formal liegt auch hier nacktes Rechnen sozusagen vor, fürwahr.
    Sehr nett, danke +
    MFG
    Dr. Webbaer

  92. PS:
    Frau Leonie Seng wird hier sehr geschätzt, Dr. W beobachtet sie seit längerer Zeit, hat auch gewisse Exponate in Leserbriefen ihrerseits zur Kenntnis genommen, vor vielen Jahren, ist recht dankbar für diesen kleinen Disput.
    Der Webbaer ist ja auch nur ein “Emotionsbrötchen”.

  93. @Balanus:
    Diese Antwort habe ich tatsächlich übersehen, es tut mir Leid. Allerdings habe ich auch ein Problem damit, dass Datum und Uhrzeit nicht mehr angezeigt werden – daran habe ich mich, bei langen threads, orientiert.

    „» Sagte ich denn nicht schon, dass ich kein anthropozentrisches Weltbild habe? «”
    »Ich hatte, als ich „Individuum“ schrieb, zwar auch an Menschen gedacht, aber eben nicht nur. Auch die Raupe, die den Larven der Schlupfwespe als Futter dient, würde sich vermutlich einen funktionierenden Abwehrmechanismus wünschen (wenn sie denn könnte).
    Der Punkt ist einfach, dass das, was für das Ökosystem „gut“ und „richtig“ ist, von den Konstituenten des Ökosystems, den Organismen, noch lange nicht als „gut“ und „richtig“ empfunden werden muss (auf das Vorhandensein von Empfindungsfähigkeit kommt es hier nicht an).«

    Auf das, was Organismen als für sie „gut“ oder „schlecht“ empfinden, kommt es unter dem Aspekt, wie und dass die Natur funktioniert, nicht an. Sehen Sie, ich lege der Natur das Gesetz der Kausalität und dessen Regeln zugrunde, und danach funktioniert sie perfekt. Denn es ist ja nicht so, dass Organismen ihr solcherart ausgeliefert sind, dass sie an ihrer Situation nichts ändern könnten. Das tun Organismen seit es Leben gibt: sie passen sich den Umständen an, denn sie entwickeln und bringen Voraussetzungen mit, die ihnen das ermöglichen – bis zu einem gewissen Grad.

    »Dem Naturphänomen Klima beispielsweise ist es völlig egal, welche globale Durchschnittstemperatur herrscht, aber uns Menschen kann und sollte es nicht egal sein. Es ist in meinen Augen kein fragwürdiger Anthropozentrismus, wenn man hier zuvörderst das Wohl der Menschen im Blick hat. «

    Unter Anthropozentrismus verstehe ich, zu meinen, man müsse die Natur zum Wohle des Menschen korrigieren, bzw. sie so gestalten, dass sie ausschließlich unserem Nutzen dient, ohne Rücksicht auf die Konsequenzen für andere Lebewesen oder die Umwelt – es sei denn, wir sind zufällig selbst betroffen. Das halte ich für absolut fragwürdig.

    “»Nur das Argument, dass wir dies tun müssten, weil wir in einer bedrohlichen Umwelt mit begrenzten Ressourcen leben, stimmt nicht. «”

    »Doch, das Argument stimmt, denn das mit den begrenzten Ressourcen gilt für alle Lebensformen. «

    Nur haben wir die eben nicht im Blick – und aus dem Grund stimmt es auch nicht.

    »Es ist gehört zum Prinzip des Systems der belebten Natur, dass die Lebewesen um ihr Überleben „kämpfen“ müssen, und Überleben geht in aller Regel nur auf Kosten von anderen Lebewesen (wenn Sie mir nicht glauben wollen, dann vielleicht Charles Darwin, dem großen funktionalen Denker ;-)). Das Gesagte gilt insbesondere für jene Lebensformen, die am Ende einer Nahrungskette stehen. «

    Es geht doch nicht ums Glauben. Darwin hat festgestellt, dass es so ist, er hat m. W. aber nirgends gesagt, dass er es gutheißt. Vielleicht haben Sie das Prinzip des „Kämpfens“ ums Überleben missverstanden? Wenn z. B. eine Katze eine Maus oder einen Vogel fängt, weil sie Hunger hat und / oder ihren Nachwuchs versorgen muss, dann spazieren ihr die auch nicht in ihren Fang, sondern sie muss etwas dazu tun – und wenn sie Pech hat und die Maus oder der Vogel ihr entkommt, dann darf ihr das nicht zu oft passieren, wenn sie überleben will. Zudem muss sie ihr Revier gegen Rivalen verteidigen und sich vor Fressfeinden schützen.
    Was sie aber, im Unterschied zum Menschen nicht macht: sie züchtet keine Mäuse, hält sie nicht massenhaft unter grauenhaften Bedingungen in Käfigen und in Massentierhaltung, züchtet keine Überfluss, von denen sie die Hälfte zerschreddert, weil sie sie nicht braucht, macht keine Tierversuche, quält sie nicht zum Vergnügen, tötet sie nicht ihres Fells, ihrer Galle oder ihres Elfenbeins wegen… All das aber machen wir, gewissen- und rücksichtslos, in der Annahme, dazu berechtigt zu sein, die Natur zu unserem Nutzen (?) zu verändern.

    “» “Wir” beobachten Zustände und nur ausgesprochen selten Prozesse, und können Fließgleichgewichte bis zu einem gewissen Grad beschreiben.. «”

    » „Zustände“ im Sinne von Momentaufnahmen werden natürlich auch beobachtet, notwendigerweise, denn sie helfen, Prozesse und Veränderungen besser zu verstehen. «

    Nein, beobachtet wird wenn, dann die Abfolge von Zuständen. Zustände werden beachtet, es heißt Zustand , weil etwas Statisches, Stehendes beachtet werden kann (nur sich Bewegendes wird beobachtet, weil es sich verändert) ,so dass man dessen Einzelheiten und das Beziehungsverhältnis der Zustände beachten kann. Das Beziehungsverhältnis zeigt dann zwar die Veränderung von einem zum nächsten Zustand, nicht aber den Prozess.

    » Je komplexer ein System ist und je langsamer die Veränderungen erfolgen, desto schwieriger ist es, sämtlich die Einflussfaktoren zu erfassen. Vollständigkeit dürfte hier eh illusorisch sein. Aber es genügt ja, wenn nur hinreichend viele Faktoren erkannt und bedacht werden. «

    Nein, es genügt überhaupt nicht, nicht, wenn man es mit komplexen Systemen und Problemen zu tun hat. Das ist aber, was man als Funktionaler einem prädikativ denkenden Menschen nicht erklären kann: dass dies das Spannende ist, all das Komplexe, das nacheinander geschieht, gleichzeitig, simultan erfassen und in Wirkungszusammenhänge bringen zu können. Der Blick fürs Detail geht dabei verloren, aber man sieht die langfristigen Folgen, die Einflussfaktoren, die erst später wirkmächtig werden, solche, die allmählich virulent werden, aber als bedeutungslos abgetan werden, usw..

    “»Diese Überlegungen hätten angestellt werden müssen, bevor wir so leichtfertig etwas in Gang gesetzt haben, das wir nun nicht mehr in den Griff bekommen «”
    »Als man anfing, Kohle, Öl und Gas zu verheizen und zu verstromen, wie hätte man das denn verhindern können? Und mit welchem Argument? Noch nicht mal heute, wo man sehr viel mehr weiß, schafft man es, den CO2-Ausstoß deutlich zu mindern. Fehlendes Wissen um die Zusammenhänge ist wohl nicht das Problem. Sondern schlicht das egoistische Verhalten der großen Mehrheit. «

    Ich schrieb doch: bevor , nicht erst als man anfing bzw. angefangen hatte – da war es schon zu spät.
    Aber so etwas wie die Kohleverstromung geschieht ja nicht von jetzt auf gleich, sondern es entwickelt sich allmählich. Wenn man, wie der Zauberlehrling, die Geister bereits gerufen hat, ist es zu spät, um „Alles zurück auf Anfang“ zu rufen. Deshalb sehe ich auch nicht, dass es gelingen kann, den CO2-Ausstoß zu mindern, deutlich schon gar nicht. Wir sind inzwischen zu viele Menschen, und es sind zu viele, die nun auch das wollen, was wir, die privilegierte Minderheit, bereits haben. Klar können wir Autos bauen, die nur elektrisch betrieben werden, aber auch für die Herstellung dieser Fahrzeuge werden wir Ressourcen verbrauchen, den CO2- Ausstoß also nicht vermindern können, nicht, wenn 8 bis 10 Milliarden Menschen Auto fahren wollen, dazu Straßen brauchen, und, und, und.

    »Wenn hier nun die KI ansetzt, wenn es gelingen könnte, das egoistische Verhalten so zu kanalisieren, dass genau dieses Verhalten bewirkt, dass immer weniger klimaschädliche Gase freigesetzt werden, dann wär‘ das doch schon mal was. «

    Wie soll sie das denn anstellen? Nein, das Problem ist, Sie und auch Andere gehen immer davon aus, dass die Menschen sich so verhalten, weil sie egoistisch oder rücksichtslos sind. Aber das stimmt nicht. Eine Erfahrung, die Dörner und sein Team damals gemacht haben war, dass die Leute, wenn sie mit den Folgen ihres Handelns konfrontiert wurden, erschüttert und betroffen waren und sagten: Das haben wir nicht gewollt, wir wollten doch helfen.

    “» Warum betrachten Sie nur die gegenwärtige Situation und beziehen nicht die Vergangenheit und Zukunft in Ihre Überlegungen mit ein? «”

    »Wir können nur in der Gegenwart (ethisch) handeln, das Vergangene ist vorbei, aber das Zukünftige wird durch unser Handeln mitbestimmt. «

    Das ist ein Irrtum, denn die Gegenwart wird durch das Vergangene bestimmt, und wenn wir das nicht berücksichtigen, machen wir dieselben Fehler wieder und wieder.

    “» Was wir jedoch tun ist, allen Menschen eine Ethik überzustülpen, sie mit ihr zwangszubeglücken, ihm damit die Fähigkeiten (und das Recht) abzusprechen, aus Eigenem zu einer ethischen Haltung zu gelangen, und zu behaupten, nur der, der sich fremdbestimmen lässt, sei gut. «”

    » Sie meinen also (zum Beispiel), das Fahren besonders spritfressender Karossen sei nicht zu verurteilen, weil jedem zugestanden werden sollte, „aus Eigenem zu einer ethischen Haltung zu gelangen“? «

    Falsche Argumentation: Wer war es denn, der zugelassen hat, dass solche Fahrzeuge gebaut werden? Aber nun, nachdem sie da sind, es ganze Industriezweige gibt mit Millionen von Menschen, die dort Arbeit finden, die solche Karossen bauen, und Millionen Menschen, die sie fahren, nun kommt man ihnen plötzlich mit dem Argument, sie verhielten sich unethisch, und dass sie nun einsehen müssten, dass sie zwangsbeglückt werden müssen.
    So aber kommt bestimmt niemand zu einer ethischen Haltung.

    »Wenn wir warten wollen, bis auch der Letzte zur Einsicht gekommen ist, dann sollten wir uns schon mal auf eine schöne globale Warmzeit einstellen. «

    Das sollten wir in der Tat, nicht nur, weil Warmzeiten in der Erdgeschichte wesentlich häufiger der Fall waren als Kaltzeiten, sondern weil die Katastrophe sonst noch größer wird, als zu befürchten ist.

    »Die Frage: „Was wird passieren, wenn…“, kann mittlerweile mit relativ hoher Wahrscheinlichkeit beantwortet werden, aber was nutzt es, wenn zu wenige Menschen bereit sind, ihr Verhalten den Erkenntnissen anzupassen, eben weil sie ihre eigenen (ethischen) Vorstellungen von einem guten Leben haben. «

    Sehen Sie, das Problem der Mehrheit der Menschen ist, dass sie erst die Erfahrung machen müssen, dass etwas so sein wird. Es ihnen zu sagen, bringt nichts – klug ist man erst nachher. Hinzu kommt, dass sie es nicht glauben wollen, schon gar nicht, wenn sie diejenigen sind, die Opfer bringen müssen. Und solange es ihnen noch gut geht, werden sie nicht viel ändern. Restriktivere Maßnahmen führen allenfalls zu Hamsterverhalten oder einem „Nach mir die Sintflut“. Jetzt wird das Ganze zum Balanceakt: einerseits zu versuchen, zurückzufahren und andererseits das so vorsichtig zu tun, dass man keine Gewaltakte empörter Massen hervorruft, nicht die eigene Wirtschaft zu sehr schädigt – und nach Möglichkeit wiedergewählt wird.

    “» Wir sind nicht diejenigen, die sie [die Frage nach einem wünschenswerten Steady State] stellen dürften, weil uns die Fähigkeit fehlt, die Folgen abzusehen. Trotzdem tun wir es laufend, und wenn wir, wie jetzt beim Klima, damit konfrontiert werden, treffen wir schon wieder jede Menge Entscheidungen, deren weitreichende und langfristige Folgen für uns nicht erkennbar sind. «”

    »Nichtstun scheint mir aber auch keine vernünftige Handlungsoption zu sein. Was kann denn schon Schlimmes passieren, wenn wir versuchen, den CO2-Ausstoß zu verringern, etwa durch mehr fossilfreie Energiegewinnung für die Elektromobilität? »

    Erstens tun wir nicht nichts, sondern neben Richtigem viel Falsches, zweitens ist die Industrie schon dran an dieser Art Energiegewinnung, und drittens gibt es keine Gewähr, dass nicht auch diese Maßnahme wieder üble Folgen haben wird. Außerdem gibt es starke Kräfte, die dagegen arbeiten aus unterschiedlichen Gründen, und es dauert auch, bis die Anstrengungen Wirkung zeigen…

    “» Und deshalb habe ich gefragt, wie das Mängelwesen Mensch, das alle diese Katastrophen verursacht hat, nun plötzlich fähig sein soll, Maschinen zu bauen, die uns vor den Folgen unserer eigenen Fehler oder gar der Natur schützen soll. «”

    » Daraus [dass der Mensch eine Katastrophe nach der anderen verursacht] folgt aber nicht, dass es ihm nicht möglich wäre, Fehler zu erkennen und zu korrigieren. Das größte Hindernis, ich wiederhole mich, ist nicht das fehlende Wissen, sondern sind die individuellen Egoismen jener, die nur ihren eigenen Vorteil im Blick haben. Und wir müssen im Grunde auch nicht wissen, wie unser Gehirn arbeitet, um Computer und künstliche neurale Netze bauen zu können. Das Schöne ist doch dass „Fehler, die auf unserem Denken beruhen“, eine Maschine nicht machen kann (schon weil sie nicht denken kann). Es kommt also nur darauf an, die richtigen Programme für realistische Simulationen zu schreiben. «

    Genau diese Argumentation und diese Art zu denken, sind der Grund für menschengemachte Katastrophen. Menschen sind zwar auch egoistisch, meist aber nur bequem, gleichgültig und oberflächlich, sie haben genug mit sich selbst zu tun ,und es fehlt ihnen das Wissen und das Verständnis um größere Zusammenhänge. Wenn wir aber in einem solchen Umfang, wie wir es inzwischen tun, in die Natur eingreifen und sie verändern, dann ist es unbedingt notwendig zu wissen, wie das Gehirn arbeitet, das uns einerseits dazu befähigt, andererseits aber außerstande ist, die Folgen unseres Handelns vorherzusehen, um sich darüber klar zu werden, weshalb wir uns so und nicht anders verhalten – vor allem aber, um die richtigen Leute an den richtigen Stellen zu haben. Da wir es sind, die KI bzw. Roboter bauen, und da wir nicht wissen, wie unser Denken funktioniert, ist es genauso, wie wenn wir nicht denken können. Deshalb bauen wir KI, die das auch nicht können. Und wenn man ein Gehirn hat, das in Beziehungen denkt, dann baut man auch KNN und KI, die so funktionieren und nicht solche, die in Wirkungsweisen denken – schon weil man darauf gar nicht kommt. Folglich werden auch die Roboter und KI nicht anders denken und handeln als die, die sie bauen.

    »Die Natur folgt blind ihren eigenen Gesetzen. Sozusagen. Woraus folgt, dass wir aus den Gesetzmäßigkeiten der Natur keine ethischen Maßstäbe und Werte ableiten können. «

    Die Natur unterliegt den eigenen Gesetzen, und da wir Teil der Natur sind, unterliegen wir ihnen ebenfalls, auch wenn wir sie nicht kennenoder deshalb blind sind. Weshalb es die irrige Annahme gibt, es ließen sich daraus keine ethischen Maßstäbe ableiten…

    “» Was ist richtig, gibt es überhaupt etwas, das jenseits aller unserer menschlichen Ansichten, Einstellungen, Moralvorstellungen richtig ist? Die Antwort habe ich nicht in der Philosophie und Ethik und nicht in der Religion gefunden, sondern in der Ethologie und der Systemtheorie gefunden – und festgestellt, dass es weder Ethik noch Moral gäbe, wenn die Natur dafür nicht sie Voraussetzungen geschaffen hätte – …«”

    » Abgesehen davon, dass wir unsere Existenz sozusagen der Natur verdanken, inwiefern liefern Verhaltenslehre und Systemtheorie Antworten zu Fragen der Ethik und Moral? Wir haben es dabei doch um völlig verschiedene Beschreibungs- oder gar Seins-Ebenen zu tun. «

    So verschieden sind die Beschreibungsebenen nicht, und die Seins-Ebenen schon gar nicht. Vielleicht muss man, so wie ich, in eine Welt hineingeboren werden, in der man fremd ist, und in der auch die Umwelt einen spüren lässt, dass man fremd ist. Eine Umwelt, die einem ständig sagt, dass man nicht nur ständig alles falsch macht, sondern einfach falsch, imsinne von nicht hineinpassend, ist. In einer solchen Umwelt zu werden, wer man ist, wie es Helmut Wicht in seinem Blog schreibt, ist fast nicht möglich, weil man stets die Rückmeldung erhält, so wie man ist, ist man eben nicht richtig.
    Und wenn man dann aber Kinder hat und feststellt, diese haben und bekommen dieselben Probleme, dann fragt man sich – zumindest habe ich das getan – was mit mir nicht stimmt, was ich falsch mache und warum, und ob es nicht etwas gibt, jenseits menschlicher Regeln und Moralvorstellungen, an das man sich halten kann, weil es richtig ist. Verhaltenslehre bzw. Verhaltensbiologie macht Aussagen zu grundlegenden Verhaltensweisen, Prozessen, die so und nicht anders ablaufen, und Systemtheorie macht Aussagen zum Verhalten von Systemen, Prozessen, die so und nicht anders ablaufen. Und da ich ohnehin schon sehr viel über Angst- und Trieb-Abwehrmechanismen wusste und darüber, welche Ängste es sind, die abgewehrt werden müssen, war es nicht so schwer, ein Wirkungennetz zu erkennen, das alles miteinander verbindet und daraus ethisch richtiges und moralisch falsches Verhalten abzuleiten.

  94. Phantasie und Kreativität entsteht durch das zufällige Erzeugen oder Kombinieren von irgendwelchen Strukturen oder Mustern.
    Danach ist ein Mechanismus erforderlich, der die Kombinationsergebnisse nach irgendwelchen Regeln auswählt oder bewertet.
    Den echten Zufall kann man leicht durch das Messen des thermischen Rauschens erzeugen.
    Dieses Gesamtsystem erinnert stark an Mutation und Selektion.
    —–
    Zu dem Folgenden habe ich eine technische Frage:
    Welche Zielsetzungen wurden da eingebaut, und warum hält dieses System nicht einen kontinuierlichen 50-Hertz-Sinus-Ton für schön?
    The Three Sirens, a self learning robotic rock band, von Nicolas Anatol Baginsky.
    http://www.the-three-sirens.info/binfo.html

    • Zu dem 50-Hertz-Sinus-Ton kann ich leider nichts sagen. Wenn ich’s aber richtig überblicke, wurde die “Roboter-Band” “The Three Sirens” in den 90ern entwickelt. Damals hat man in Musikrobotern RNN (rekurrente neuronale Netze verwendet), die auch in der maschinellen Verarbeitung der menschlichen Sprache eingesetzt werden, weil sie dank ihrem “Kurzzeitgedächtnis” Sequenzen verarbeiten können. Erst nach 2000 kamen in Musikrobotern LSTM-Netze zum Einsatz (long short term memory), eine Weiterentwicklung von RNN.

      In den letzten Jahren hat sich aber auch in der maschinellen Audio-Verarbeitung viel getan: Heute versucht man in Musikrobotern konvolutionelle neuronale Netze einzusetzen (CNN – convolutional neural network) – hier war DeepMind mit ihrem WaveNet der Vorreiter – über die Google-Firma haben wir hier schon öfter gesprochen. CNN verwendet man normalerweise in der Bilderkennung.

      Einen wunderbaren Übersichtsartikel über neuronale Netze, die Musik generieren gibt es hier: Neural Nets for Generating Music

  95. @Balanus: das sogenannte Böse

    »Ich werd‘ nicht ganz schlau aus Ihrer Entgegnung, halten Sie nun eine gewalt- und kriminalitätsfreie Gesellschaft für wünschenswert oder nicht? Dass es die vermutlich nie geben wird, geschenkt, die (philosophische) Frage war (und ist), ob wir solch eine Gesellschaft überhaupt anstreben wollen oder sollen. Oder ob wir, wenn es denn die Möglichkeit gäbe, der Evolution ein wenig nachhelfen dürfen, indem wir den absolut sozialverträglichen Menschen züchten (im Rahmen des ethisch vertretbaren, versteht sich).«

    Ihre Fragen sind nicht so einfach zu beantworten, weil sie komplexe Sachverhalte auf eine Variable reduzieren, der man entweder zustimmt oder nicht. So einfach ist das aber nicht, weshalb ich sie anders beantworte:
    Mehrfach wurde behauptet, die Natur kenne keine Ethik oder Moral. Das trifft aber nicht zu. Sie kennt keine Moral, die einseitig einer Spezies Rechte zukommenlässt, die sie allen anderen verweigert -heißt: sie kennt keine Menschenrechte. Die aber liegen unserer Auffassung von Ethik und Moral zugrunde und daran messen wir sie. Sie schrieben, dass Darwin vom Kampf ums Überleben gesprochen habe, von Konkurrenz. Vielleicht hätte er irgendwann auch festgestellt, dass ein wesentlicher Faktor zum Überleben die Kooperation ist, es also beides geben muss: Konkurrenzkämpfe und Kooperationen.
    Beides ist in uns und allen sozial lebenden Populationen angelegt: zusammen und gegeneinander zu arbeiten. Und angelegt meint nicht fix und fertig, sondern biologische Voraussetzung, auf deren Basis gelernt werden kann. Ich hatte oben Abwehrmechanismen erwähnt: Sie werden entwickelt, wenn elementare Bedürfnisse nicht angemessen befriedigt wurden oder werden können und deshalb mit Angst besetzt sind. Zu diesen elementaren Bedürfnissen gehört das aggressive Bedürfnis, das in jedem von uns, nur individuell unterschiedlich stark ausgeprägt angelegt ist. Erziehung hat den Zweck, zu lernen, es angemessen zu befriedigen, nicht, es einfach auszuleben, sondern zu lernen, wie man sich durchsetzt, ohne Anderen Schaden zuzufügen, wie man angemessen auf Provokationen reagiert. Ein kleines Kind lebt diese Bedürfnis noch aus, es schreit, schlägt um sich, oder es zerstört Dinge auch einfach aus Neugier und findet Spaß daran. Die antiautoritäre Erziehung war der Meinung, wenn man Kinder gewaltfrei erziehen würde, dann würden sie automatisch zu friedlichen Menschen. es zeigte sich, dass das Gegenteil der Fall war: ein Teil der Kinder wurde dadurch zunehmend aggressiver – weil ihnen die Möglichkeit genommen wurde, sich am Gegenüber zu reiben und festzustellen, wie durchsetzungsfähig sie sind (man hat sie in Watte laufen lassen) der andere Teil wurde ängstlich, war ebenfalls nicht durchsetzungsfähig, sondern zum Opfer. Das heißt: Kinder wollen lernen, wie man sich angemessen durchsetzt, weil sie diese Fähigkeit zum Überleben brauchen.
    Wenn wir jetzt KI und Roboter schaffen, die diese Voraussetzungen von sich aus nicht mitbringen, müssen wir überlegen, wie die Programme aussehen sollen, die ihnen helfen zu unterscheiden, in welcher Situation sie mit welcher Form der Abwehr (oder des Angriffs) reagieren sollen.
    Wenn Sie also die Frage stellen,

    ob wir solch eine Gesellschaft überhaupt anstreben wollen oder sollen

    oder den sozialverträglichen Menschen schaffen dürfen, dann zeigt das ein eklatantes Unwissen dessen, was die Natur und die Evolution schon um ein Vielfaches besser und effizienter realisiert haben – nur das wir zu dämlich sind, das zu erkennen und es als “biologistisch” zu verwerfen, weil es unserer Auffassung widerspricht, wir seien als Kulturwesen von diesen biologischen Prozessen ausgenommen.
    Ich habe das noch gelernt, aber inzwischen lernt man darüber nur noch im Fachbereich Psychiatrie, wenn das Kind bereits in den Brunnen gefallen ist.

    »Mir ist nicht klar geworden, mit welchem Argument Sie eine biotechnische Verbesserung des Menschen ablehnen, wenn sie denn, wie gefordert und vorausgesetzt, völlig nebenwirkungsfrei möglich wäre.«

    Erstens, weil diese “biotechnische Verbesserung” völlig unnötig ist, weil die Evolution um ein Vielfaches hilfreichere, ethisch wertvolle Mittel zur Verfügung gestellt hat und wir ihr gerade nicht ein wenig nachhelfen, sondern vielmehr sie erst einmal beobachten und verstehen müssen , und zweitens, weil diese “Verbesserung” nur eine Verschlechterung sein kann.Denn wir haben nicht die Geduld, nur eine begrenzte Zeitspanne zur Verfügung und vor allem nicht das Wissen und die Weitsicht, um solch ein Projekt zum Erfolg zu führen.

    “» Was das “sogenannte” Böse angeht: es steckt in jedem von uns –«”

    »Und das ist gut so?«

    Ja, ist es! Denn wie gesagt, die Natur arbeitet effizienter. Die vier Grundbedürfnisse, das orale, das intentionale, das aggresive und das sexuelle sind von Anfang an in Jedem von uns angelegt – individuell verschieden stark ausgeprägt. Aber jedes hat während der Entwicklungsphase des Menschen seine Zeit, in der es besonders stark zum Tragen kommt, weil das Kind in dieser Phase das lernen und erwerben soll, was es für den Rest seines Lebens benötigt, um in und mit ihm zurecht zu kommen. Sinnvoller Weise entwickelt sich das intentionale Bedürfnis vor dem aggressiven. Und die angemessene Befriedigung dieses Bedürfnisses bildet die Grundlage für unsere Liebesfähigkeit und die Gewissensbildung. Man will selbst geliebt werden und deshalb verletzt man auch nicht, wen man liebt – auch dann nicht, wenn man wütend oder gekränkt ist. Wenn man in dieser Phase gut lernen durfte, was man sollte, dann sind das die besten Voraussetzungen dafür, bei der Entwicklung des aggressiven Bedürfnisses sozial verträgliches Verhalten zu lernen und zu internalisieren.
    Bedauerlicherweise geht dieses Wissen nicht konform mit den Vorstellungen unserer modernen Gesellschaft, weshalb es nicht mehr gelehrt und gelernt wird und man stattdessen lieber auf ideologiekonforme Machbarkeitsphantasien setzt.

    » Dann könnten wir ja auch künstliche Intelligenzen akzeptieren, die ebenso gebaut sind.«

    Warum sollten wir das wollen? Außer, wir wollten der Zerstörung unserer Welt und unserer menschlichen Gesellschaft noch mehr Vorschub leisten, um dann, nachdem alle gewachsenen Strukturen zerschlagen worden sind, eine schöne neue Welt zu erschaffen.

  96. @Balanus / 16. November 2018 @ 19:39

    »Mereologischer Fehlschluss?«

    Der Vorwurf mit dem mereologischen Fehlschluss zielt nach meiner Wahrnehmung auf einfältige “Du bist dein Gehirn“-Parolen diverser Hirnforscher, und Stephan Schleim hatte das ja auch schon hinlänglich thematisiert.

    Dass der eine implizite Entscheidung ausdrückende Satz »Ich nehme einen Apéritif« nicht sinnvoll ersetzbar ist durch den Satz »Mein Gehirn nimmt einen Apéritif«, wäre allerdings mit dem Hinweis auf einen mereologischen Fehlschluss bei letzterem in der Tat unzureichend begründet, wenn speziell danach gefragt ist, welche Entität denn hier überhaupt eine Entscheidung fällt.

    Den Satz von Leonie Seng, »Menschen treffen Entscheidungen,« würde ich interpretieren wollen als »Subjekte treffen Entscheidungen.« Oder präziser: »Einzig und allein Subjekten gestehen wir die Befähigung zu, Entscheidungen zu treffen.«

    Mit Hinblick auf Grim & Rescher will ich also sagen: Es hängt von meiner `form of reference‘ ab, ob ich einen gegebenen Referenten als eine zu Entscheidungen befähigte Entität beurteile oder nicht. Mein Gehirn entscheidet nichts, weil ich es nicht als ein Subjekt ansehe (denn dazu müsste ich ja reichlich durchgeknallt sein).

    »Ob Unterscheidung oder Entscheidung, ich sehe da keinen so großen begrifflichen Unterschied, hier konnte man eigentlich nichts missverstehen.«

    Sofern Unterscheidung bedeutet, eine Ungleichartigkeit zwischen zu vergleichenden Mustern identifizieren und gegebenenfalls daraufhin eine Aktion veranlassen zu können, so ist das doch eine Aufgabe, die zu bewältigen man gemeinhin auch “unbeseelten” algorithmischen Maschinen prinzipell zutraut. In diesem Sinne liegt meines Erachtens sogar ein himmelweiter begrifflicher Unterschied zwischen Unterscheidung und Entscheidung.

    • Ich rekapituliere hier, warum es bei der Diskussion um “Entscheidungen” ging und vielleicht noch geht:

      Ich habe mich gewundert, dass die SZ schrieb, “Künstliche Intelligenz solle gefälligst ihre Entscheidungen erklären, sodass Menschen sie nachvollziehen können”, da ich nun mal weiß, dass ein gängiges künstliches neuronales Netz nicht erklären kann, was es tut, denn es wird nur auf die einzige Aufgabe hin trainiert, die es tut. Um mich auf das SZ-Zitat beziehen zu können, habe ich das Wort “Entscheidungen” dann in meinem Blogtext weiter verwendet.

      Das hat Leonie Seng als einen Fehler kritisiert: NUR Menschen würden Entscheidungen treffen, meinte sie, keine Maschinen also.

      Hier gehe ich aber mit der SZ konform und denke, dass man sagen darf, Maschinen treffen Entscheidungen. Das künstliche neuronale Netz entscheidet sich nun mal in seiner Ausgabeschicht für diese Kennzeichnung oder diese, oder ob das selbstfahrende Auto bremsen oder nicht bremsen solle usw.

      In maschinellem Lernen wird gängig gesagt und geschrieben, dass Maschinen Entscheidungen treffen, deswegen gibt es in maschinellem Lernen ja auch das Modell der “Entscheidungsbäume”. “decision making” wird auch im angelsächsischen Sprachraum in der KI-Forschung exzessiv verwendet, man kann ja danach im Zusammenhang mit “artificial intelligence” oder “machinen learning” googeln.

      Wenn philosophisch Gebildete diesen Begriff, “eine Entscheidung treffen”, für Maschinen ablehnen, würde es mich schon interessieren, was man dann sagen sollte, wenn ein autonomes Waymo-Auto auf einer Kreuzung steht und sich für eine Straße “entscheidet”. Klar kann das Auto auch “eine Wahl treffen”, das kommt aber wohl auf dasselbe hinaus, denn dann würde der philosophisch Gebildete sagen: “Nur ein Mensch kann eine Wahl treffen!”

      Was macht die Maschine also?

      Klar können wir auch in unüberschaubare Tiefen tauchen, und hier tagelang darüber diskutieren, ob ein künstliches neuronales Netz sich bei der Klassifizierung für ein Objekt entscheidet oder Objekte unterscheidet. Was bringt es uns aber, wenn wir hier ausloten wollen, wie künstliche neuronale Netze funktionieren, oder ob natürliche neuronale Netze im Gehirn manche Aspekte der künstlichen Netze zeigen und vice versa?

  97. @Trice // 17. November 2018 @ 19:12

    Bei Ihnen wird über den Kommentaren kein Datum und keine Uhrzeit angezeigt? Merkwürdig, bei mir (Firefox) schon.

    » Sehen Sie, ich lege der Natur das Gesetz der Kausalität und dessen Regeln zugrunde, und danach funktioniert sie perfekt. «

    Das bedeutet aber doch nur, dass alle Vorgänge im Rahmen der Gesetzmäßigkeiten der Natur ablaufen—wie auch sonst? Von daher bleibe ich dabei, für das Individuum (Pflanze, Tier oder Mensch) folgt daraus nicht, dass alles perfekt immer läuft. Wenn etwa Niederschläge ausbleiben und Quellen versiegen, dann verdursten die Lebewesen aufgrund der perfekt funktionierenden Natur.

    Es stimmt, was Sie schreiben, „Organismen […] passen sich den Umständen an“, und das tun sie unter anderem, indem sie die Umwelt (ausschließlich) zu ihrem „Wohle korrigieren“. Damit tun sie genau das, was Sie im Falle des Menschen als „fragwürdigen Anthropozentrismus“ bezeichnen.

    In der Natur schwanken die Populationsgrößen meist um einen relativ konstanten Mittelwert herum. Die Menschenpopulation hingegen kennt seit Jahrtausenden nur eine Richtung, nach oben, und mit dem Aufkommen wissenschaftlicher Methoden wurde dieser Anstieg sogar exponentiell.

    Es steht zu erwarten, dass die „perfekt funktionierende Natur“ dieses Spiel dereinst beenden wird und die Menschenpopulation auf eine Größe schrumpft, die besser zu den nachwachsenden Ressourcen passt.

    » Darwin hat festgestellt, dass es so ist [Überleben auf Kosten anderer Lebewesen], er hat m. W. aber nirgends gesagt, dass er es gutheißt. Vielleicht haben Sie das Prinzip des „Kämpfens“ ums Überleben missverstanden? «

    Nein, habe ich nicht, „struggle for life“ halt („sich abmühen“). Was wichtiger ist: Darwin hat nicht von einer „perfekt funktionierenden Natur“ gesprochen, und zwar aus gutem Grund, eben weil das Lebendige ständig in Gefahr steht, zu sterben. Wobei nicht das Sterben an sich das „Schlimme“ ist, sondern das vorzeitige, gewaltsame Ende. Aber in einer Natur, wo alle irgendwie auf Kosten anderer existieren müssen, geht es halt nicht anders. Unter einer „perfekt funktionierenden Natur“ stelle ich mir schon etwas anderes vor.

    Wie gesagt, es gibt natürliche Gesetzmäßigkeiten, die wir nicht ändern können, die sind, wie sie sind, aber die wertende Feststellung „funktioniert perfekt“ scheint mir in Bezug auf Naturvorgänge wirklich nicht angemessen zu sein.

    » Das Beziehungsverhältnis zeigt dann zwar die Veränderung von einem zum nächsten Zustand, nicht aber den Prozess. «

    Natürlich nicht, habe ich auch nicht behauptet. Aber wenn man weiß, welche Zustände zwangsläufig (kausal) aufeinanderfolgen, dann kann man gegebenenfalls einen Prozess rekonstruieren. Prozesse selbst sind als Konstrukte wohl ebenso schwer direkt zu beobachten wie Systeme.

    » „Aber es genügt ja, wenn nur hinreichend viele Faktoren erkannt und bedacht werden.“

    Nein, es genügt überhaupt nicht, nicht, wenn man es mit komplexen Systemen und Problemen zu tun hat. «

    „Hinreichend“ bedeutet, dass mehr nicht gebraucht wird. Ansonsten wäre es nicht hinreichend.

    » Das ist aber, was man als Funktionaler einem prädikativ denkenden Menschen nicht erklären kann: dass dies das Spannende ist, all das Komplexe, das nacheinander geschieht, gleichzeitig, simultan erfassen und in Wirkungszusammenhänge bringen zu können. «

    Ich halte es für eine Illusion, zu glauben, man könne zahllose Ereignisse, die „nacheinander geschehen“, „simultan erfassen“. Zumindest, wenn es um Vorgänge geht, die man in hinreichend (!) ähnlicher Form nicht zuvor gesehen oder beobachtet hat. Also ohne ein bereits vorhandenes Wissen um die diversen Abläufe und Kausalzusammenhänge. Davon abgesehen ist unbestritten, dass manche besser im Abschätzen von möglichen Wirkungsfolgen und Kausalzusammenhängen sind als andere.

    » Ich schrieb doch: bevor , nicht erst als man anfing bzw. angefangen hatte – da war es schon zu spät.«

    Der Anfang des Heizens mit Kohle oder Turf liegt schon so weit zurück, da wusste man noch nicht mal, dass es Sauerstoff gibt, geschweige denn CO2. Und wer hätte denn den Verlauf der globalen Geschichte so lenken können, dass wir bereits heute die Energiegewinnung der Zukunft betreiben könnten?

    » Nein, das Problem ist, Sie und auch Andere gehen immer davon aus, dass die Menschen sich so verhalten, weil sie egoistisch oder rücksichtslos sind. Aber das stimmt nicht. Eine Erfahrung, die Dörner und sein Team damals gemacht haben war, dass die Leute, wenn sie mit den Folgen ihres Handelns konfrontiert wurden, erschüttert und betroffen waren und sagten: Das haben wir nicht gewollt, wir wollten doch helfen. «

    Diese Labor-Situation kann wohl kaum auf das Alltagsverhalten der Menschen übertragen werden. Denn mit welchen Folgen könnte man die Fahrerinnen besonders spritfressender Fahrzeuge schon konfrontieren? Zumal es sich vermutlich mehrheitlich um rein prädikativ denkende Menschen handeln dürfte, denen es schwer fällt, den funktionalen Zusammenhang zwischen CO2 und Klima zu verstehen.

    Die Frage: „Wer war es denn, der zugelassen hat, dass solche Fahrzeuge gebaut werden?“, verwundert mich. Hätte man das denn gesetzlich verbieten können? Wenn ja, dann könnte man das heute ja auch noch machen, wäre ein Anfang.

    Die Wahrheit ist, diese Fahrzeuge wurden von den (vermutlich prädikativ denkenden) Menschen nachgefragt. Menschen, denen es halt egal ist, wieviel CO2 pro gefahrenen Kilometer produziert wird. Die vielleicht sogar der Meinung sind, dass ein globaler Temperaturanstieg wünschenswert wäre, womöglich noch mit Blick auf die Erdgeschichte, also zu Zeiten, als menschliche Zivilisationen noch in weiter Zukunft lagen.

    » Und wenn man ein Gehirn hat, das in Beziehungen denkt, dann baut man auch KNN und KI, die so funktionieren und nicht solche, die in Wirkungsweisen denken – schon weil man darauf gar nicht kommt. Folglich werden auch die Roboter und KI nicht anders denken und handeln als die, die sie bauen. «

    Ich weiß, Sie sind davon überzeugt, dass es diese zwei Typen von Gehirnen gibt, die einen arbeiten so, die anderen anders. Aber warum schließen Sie aus, dass auch KI-Forscher in „Wirkungsweisen“ denken können? Zumindest manche von Ihnen müssten doch schon aus rein statistischen Gründen zur Gruppe der funktional denkenden Menschen gehören. Und ist es denn nicht ohnehin das Fernziel bei der KI-Entwicklung, dass man Maschinen baut, die mit hochkomplexen Zusammenhängen und Prozessen umgehen können? Um am Ende zu brauchbaren Ergebnissen zu kommen?

  98. Chrys // 18. November 2018 @ 17:12

    » Der Vorwurf mit dem mereologischen Fehlschluss zielt nach meiner Wahrnehmung auf einfältige “Du bist dein Gehirn“-Parolen diverser Hirnforscher, und Stephan Schleim hatte das ja auch schon hinlänglich thematisiert. «

    Ja, bei Stephan Schleim haben wir schon darüber diskutiert. „Einfältig“ erscheint diese „Parole“ meiner Meinung nach aber nur dann, wenn man sie irgendwie wörtlich nimmt und nicht sehen will, was mit dieser griffigen Kurzformel ausgedrückt werden soll.

    Vier Wörter genügen offenbar, um ein Grundverständnis der Neurobiologen auf den Punkt zu bringen: sämtliche Verhaltensäußerungen sind auf Prozesse im zentralen (und peripheren?) Nervensystem zurückzuführen.

    Davon abgesehen ist es natürlich völlig legitim, das Bezugssystem zu wechseln und zu sagen:
    » »Einzig und allein Subjekten gestehen wir die Befähigung zu, Entscheidungen zu treffen.« «

    Aber was bringt das? Dann stellt sich doch die Frage, was „Subjekte“ überhaupt sind, was es denn ist, was einen Organismus zu einem „Subjekt“ macht? Worin unterscheiden sich Subjekte voneinander? Und so weiter und so fort, der weiterführenden Fragen ist kein Ende.

    » In diesem Sinne liegt meines Erachtens sogar ein himmelweiter begrifflicher Unterschied zwischen Unterscheidung und Entscheidung. «

    Ja, in diesem Sinne. In einem anderen Sinne aber eben nicht. Im Kontext des in Rede stehenden Beitrags liegen die Begriffe jedenfalls semantisch nahe beieinander. Und von irgendwelchen logischen Fehlschlüssen kann überhaupt keine Rede sein.

    Ich weiß aus eigener Erfahrung, dass es mitunter schwer fällt, Redeweisen zu akzeptieren, die vom gewohnten Sprachgebrauch abweichen. Mir ist das bekanntlich mit dem Begriff ‚Evolution‘ so gegangen. Aber inzwischen habe ich mich damit abgefunden, dass der Evolutionsbegriff mehrdeutig gebraucht wird. Mit dem Begriff ‚Entscheidung‘ verhält es sich im Grunde nicht anders. Die Philosophen werden es akzeptieren müssen, so schwer es ihnen auch fallen mag, die Karawane zieht weiter, notfalls ohne sie…

  99. @Jaromir Konecny / 18. November 2018 @ 18:23

    Es ist doch häufig der Fall, dass sich ein Fachvokabular metaphorischer Lehnwörter bedient, die dann, als Fachterminus, eine neue und kontextuell begrenzte Bedeutung erhalten, die sich nicht — oder nur sehr bedingt — rückbeziehen lässt auf den Sprachbereich, dem das Wort ursprünglich entlehnt wurde. Der `tree’, der hinten im `decision tree’ steckt, wäre hierfür ein Beispiel; den hat die Graphentheorie der Botanik entlehnt. Der `tree’ als Graph birgt jedoch keinerlei Erkenntnis mehr für die Botanik. Mit der `decision’, die vorne in `decision tree’ steckt, sehe ich das einstweilen ähnlich, nur ist der Zusammenhang hier womöglich weniger transparent.

    Leonie Seng hat meines Erachtens hier einen durchaus validen Punkt genannt: Wenn wir einem neuralen Netz die Befähigung zugestehen, Entscheidungen treffen zu können, falls es künstlich ist, hätten wir keine sonderlich guten Argumente mehr, ihm dieses Feature wieder abzuerkennen, falls es natürlich ist, also etwa ein Gehirn. Wenn wir aber sagen, ein menschliches Gehirn würde Entscheidungen treffen, ist dies auf jeden Fall ein Kategorienfehler.

    Die Situation wäre eine andere für Robots, die von uns (zumindest mehrheitlich) nicht mehr als geistlose Maschinen, sondern als eigenständige Subjekte wahrgenommen würden. Es scheint mir sehr plausibel, dass es irgendwann tatsächlich dazu kommen wird. Gegenwärtig ist dieser Zustand definitiv aber noch nicht erreicht.

    • Chrys: Es ist doch häufig der Fall, dass sich ein Fachvokabular metaphorischer Lehnwörter bedient, die dann, als Fachterminus, eine neue und kontextuell begrenzte Bedeutung erhalten, die sich nicht — oder nur sehr bedingt — rückbeziehen lässt auf den Sprachbereich, dem das Wort ursprünglich entlehnt wurde. Der `tree’, der hinten im `decision tree’ steckt, wäre hierfür ein Beispiel; den hat die Graphentheorie der Botanik entlehnt. Der `tree’ als Graph birgt jedoch keinerlei Erkenntnis mehr für die Botanik. Mit der `decision’, die vorne in `decision tree’ steckt, sehe ich das einstweilen ähnlich, nur ist der Zusammenhang hier womöglich weniger transparent.

      Jaromir: Ja, das meine ich auch. Das wird gemacht und ist legitim. Wenn dem nicht so wäre, hätte man die Quantenmechanik nicht in Worten fassen können und neue Begriffe entwickeln müssen. Manchmal werden solche neuen abstrakten Begriffe tatsächlich vorgeschlagen. Meist muss aber die vorhandene Sprache ausreichen, wenn die Wissenschaft neue Theorien bzw. Modelle entwickelt.

      Vor allem ist es in der Wissenschaftskommunikation wichtig, also auch im Wissenschaftsjournalismus, Begriffe zu verwenden, die jeder Mensch auch versteht. Ansonsten erklärt man nichts und verwirrt nur, oder erzeugt Antipathien gegen die Wissenschaft. Was bringt es, wenn man ein neues abstraktes Modell mit noch abstrakteren neu dafür erfundenen Begriffen erklären will?

    • Chrys: Leonie Seng hat meines Erachtens hier einen durchaus validen Punkt genannt: Wenn wir einem neuralen Netz die Befähigung zugestehen, Entscheidungen treffen zu können, falls es künstlich ist, hätten wir keine sonderlich guten Argumente mehr, ihm dieses Feature wieder abzuerkennen, falls es natürlich ist, also etwa ein Gehirn. Wenn wir aber sagen, ein menschliches Gehirn würde Entscheidungen treffen, ist dies auf jeden Fall ein Kategorienfehler.

      Jaromir: Ich zitiere hier Wiktionary:

      Entscheidung:

      [1] Resultat einer Wahl zwischen mehreren Alternativen
      [2] Vorgang des Sichentscheidens; eine Wahl zwischen mehreren Alternativen
      [3] Recht: das Entscheiden einer Sache (oder in einem Streitfall)

      Meiner Meinung nach widergibt der erste Punkt recht gut das, was in der Ausgabeschicht eines künstlichen neuronalen Netzes passiert. Und so sehen es wohl auch alle andere KI-Forscher. Warum sollte man daran noch groß philosophisch herumdoktern?

      Leonie Seng hat meinem Blogbeitrag oben in einem – meiner Meinung nach – recht agressiven langen Kommentar viele Fehler vorgeworfen und mir “Halbwissen”. Nun: nachdem ich den Kommentar von Frau Seng gelesen habe, wusste ich, dass ich mich mit künstlichen neuronalen Netzen viel besser auskenne als sie, auch mit ihren mathematischen Grundlagen. Mein Blogartikel ging ja um die mediale Wahrnehmung von künstlichen neuronalen Netzen.

      Manche Kritik kam mir nicht nur falsch, sondern absurd vor: Ich kritisierte die SZ, weil die SZ gefordert hatte, künstliche neuronale Netze sollten “ihre Entscheidungen erklären”. Leonie Seng nahm die SZ dafür in Schutz und griff mich gleichzeitig an, dass ich “Entscheidungen treffen” im Zusammenhang mit künstlichen neuronalen Netzen verwende, weil nur Menschen Entscheidungen treffen würden. Wenn es hier also einen “Entscheidungen-Übeltäter” gibt :-), dann die SZ. Ich zitierte die SZ und bezog mich weiter im Blog nur auf das Zitat. Es gibt aber keinen “Entscheidungen-Übeltäter”, die SZ hat den Begriff richtig verwendet – siehe oben.

      Warum lache ich über die Kritik von Leonie Seng nicht? Als Schriftsteller und öffentliche Person muss man ja heutzutage bei Amazon oder YouTube viel Schlimmeres über sich lesen. An solche Sachen bin ich also gewöhnt. Mir liegt aber viel an diesem Blog. Und ich bin Euch sehr dankbar, dass Ihr mit mir und auch untereinander ohne mich hier so enthusiastisch diskutiert – über dieses hoch interessante Thema.

      Mich kostet jeder Blogbeitrag einige Tage Zeit. Ich recherchiere dafür ausführlich und schreibe wirklich nur das, was ich weiß und was Hand und Fuß hat, klar manchmal etwas satirisch überspitzt, da ich nun mal nicht nur Naturwissenschaftler bin sondern auch Schriftsteller und Bühnenliterat fürs Lustige. Wenn ich hin und wieder einen Fehler mache, schreibt man es hier, ich entschuldige mich für den Fehler, bin dankbar für den Hinweis und korrigiere den Fehler im Blogtext. Nachdem Leonie Seng mir zig Fehler vorgeworfen hatte, korrigierte ich keinen einzigen. Ich fand keine, die ich hätte korrigieren müssen. Grobe Fehler fand ich dagegen im Kommentar von Leonie Seng. Zum Beispiel als sie behauptete, es gebe keine selbstfahrenden Autos.

      Wenn man mich bei Amazon, YouTube oder Facebook so agressiv und ungerecht angreift, dann lache ich darüber. Diesen Blog nehme ich jedoch ernst und die Aufklärung über die künstlichen neuronalen Netze noch ernster: Ich denke, wenn die Medien anfangen, sich mit dem Thema tiefgehend zu beschäftigen, statt hinter jedem künstlichen neuronalen Netz Terminator oder Hal 9000 zu wittern, würden wir die Zukunft etwas vernünftiger ansteuern können, als wir das mit unserer Vergangenheit getan haben. Jeder, der über künstliche neuronale Netze für die Öffentlichkeit schreibt, sollte sich mit den künstlichen neuronalen Netzen auseinandersetzen und nicht nur nachplappern, was in anderen Zeitungen steht.

  100. Es gibt Bereiche, in denen es vor allem auf saubere und eindeutige Definitionen ankommt, und die Rolle von Definitionen in der Erkenntnis soll gewiß nicht unterschätzt werden. Wenn man aber dem Wesentlichen und Substantiellen nachgehen will, das in Begriffen sich anmeldet, dann muß man versuchen, des ihnen einwohnenden Lebens, ihrer Spannungen und Mehrdeutigkeiten inne zu werden, auf die Gefahr hin, daß man dabei auf Widersprüche stößt, ja, daß man sich selbst der Widersprüche schuldig macht. […] Seien Sie mißtrauisch gegen jenes übertriebene intellektuelle Sauberkeitsbedürfnis, das da bei jeder Diskussion vorweg verlangt, man müsse erst einmal genau wissen, was mit einem Begriff gemeint sei, ehe man ihn überhaupt verwenden könne. Der Prozeß der Klärung und Bestimmung der Begriffe ist nicht etwas, was der Erkenntnis vorangeht, die Begriffe sind nicht Instrumente, die man recht scharf schleifen muß, damit sie schneiden, sondern eben jener Prozeß vollzieht sich nur, indem Sie die Begriffe selber auf Gegenstände anwenden und Akte der urteilenden, inhaltlichen Erkenntnis selbst vollziehen.

    Max Horkheimer, Der Begriff der Bildung

  101. @Balanus / 19. November 2018 @ 11:12

    »Vier Wörter genügen offenbar, um ein Grundverständnis der Neurobiologen auf den Punkt zu bringen: sämtliche Verhaltensäußerungen sind auf Prozesse im zentralen (und peripheren?) Nervensystem zurückzuführen.«

    Was eben genauso falsch ist wie die Behauptung, die Thermodynamik liesse sich komplett auf die statist. Mechanik “zurückführen”. In beiden Fällen liegt ein “cum hoc, ergo propter hoc“-Fehlschluss vor, und naive Naturforscher fallen halt ganz gerne auf so etwas herein.

    »Und von irgendwelchen logischen Fehlschlüssen kann überhaupt keine Rede sein.«

    Doch, ganz gewiss kann davon die Rede sein. Worüber reden wir denn hier gerade?

  102. @Trice // 18. November 2018 @ 12:31

    » Mehrfach wurde behauptet, die Natur kenne keine Ethik oder Moral. Das trifft aber nicht zu.«

    Und warum nicht? Mir scheint, Sie sehen in der Natur eine irgendwie höhere Form der Moral, aus der wir Menschen unsere Vorstellungen von Ethik und Moral ableiten könnten. Ich halte das für falsch.

    Und es ist ja nicht so, wie Sie meinen, dass unsere ethischen Grundsätze sich nur auf den Menschen beziehen würden. Aber sie gelten nur für Menschen, denn nur der Mensch besitzt hinreichend Vernunft, um moralisch oder eben nicht moralisch handeln zu können. Kurzum: Wo in der Natur keine Vernunft, dort auch keine Ethik oder Moral. Dass wir vernunftbegabten Menschen unsere Moralvorstellungen nicht entgegen unserer biologischen Natur entwickeln können, steht auf einem anderen Blatt.

    »Sie schrieben, dass Darwin vom Kampf ums Überleben gesprochen habe, von Konkurrenz. «

    Von ‚Konkurrenz‘ schrieb ich nicht direkt, aber implizit schon, denn es ging ja darum, dass (fast) jede Lebensform auf Kosten anderer Lebensformen ums Überleben „kämpfen“ muss (nicht zuletzt wegen endlicher Ressourcen). Die innerartliche Konkurrenz hatte ich dabei weniger im Blick, ebenso wenig die innerartliche Kooperation, die in der Regel bloß dazu dient, sich gegenüber anderen Arten oder Populationen einen Vorteil zu verschaffen.

    » Beides ist in uns und allen sozial lebenden Populationen angelegt: zusammen und gegeneinander zu arbeiten. «

    Das kann auch gerne so bleiben. Mal steht der eigene Nutzen im Vordergrund, mal das Wohl der Gemeinschaft. So soll es sein.

    Was aber nicht so bleiben soll, ist, dass die Durchsetzung des eigenen Nutzens das Gemeinwohl gefährdet oder für die Gemeinschaft schädlich ist.

    » Wenn Sie also die Frage stellen,

    ob wir solch eine Gesellschaft überhaupt anstreben wollen oder sollen

    oder den sozialverträglichen Menschen schaffen dürfen, dann zeigt das ein eklatantes Unwissen dessen, was die Natur und die Evolution schon um ein Vielfaches besser und effizienter realisiert haben«

    Was bitteschön ist denn daran gut, dass manche Menschen sich naturgemäß und trotz guter Erziehung so verhalten (können), dass man sie sicherheitshalber wegsperren muss?

    Auf meine Frage, mit welchem Argument Sie eine biotechnische Verbesserung des Menschen ablehnen, antworten Sie:

    » Erstens, weil diese “biotechnische Verbesserung” völlig unnötig ist, weil die Evolution um ein Vielfaches hilfreichere, ethisch wertvolle Mittel zur Verfügung gestellt hat und wir ihr gerade nicht ein wenig nachhelfen, sondern vielmehr sie erst einmal beobachten und verstehen müssen, …«

    Welche Mittel sollen das denn sein? Ganz offenkundig sorgt die Natur dafür, dass es auch gewissenlose Menschen gibt, solche, unter denen der Rest der Menschheit leiden muss. Das beobachten wir bereits seit tausenden von Jahren. Und daran wird sich auch (von selbst) nichts ändern. Da sind die „Naturgesetze“ vor.

    » … und zweitens, weil diese “Verbesserung” nur eine Verschlechterung sein kann.Denn wir haben nicht die Geduld, nur eine begrenzte Zeitspanne zur Verfügung und vor allem nicht das Wissen und die Weitsicht, um solch ein Projekt zum Erfolg zu führen. «

    Dass wir den Menschen in punkto Gewissen nicht biotechnisch verbessern können, ist ja klar, meine Frage war aber, was wäre, wenn wir es doch könnten? Wäre es dann ethisch erlaubt oder sogar ethisch zwingend geboten, weil in diesem Falle Nichthandeln vielfaches vermeidbares Leid bedeuten würde? Mir scheint, Sie halten wenig von solchen hypothetischen, unrealistischen Fragen. Weil Sie meine „Verbesserung“ mal eben so in eine „Verschlechterung“ ummünzen.

    » Wenn man in dieser [Entwicklungs-]Phase gut lernen durfte, was man sollte, dann sind das die besten Voraussetzungen dafür, bei der Entwicklung des aggressiven Bedürfnisses sozial verträgliches Verhalten zu lernen und zu internalisieren. «

    Wie gesagt, es geht um jene, die sich „von Natur aus“ sozial unverträglich verhalten. Stephan Schleim würde ja sagen, so etwas gibt es nicht, ist alles nur eine Frage der richtigen oder falschen Umwelt. Das wäre eine mögliche Antwort. Sie aber sagen ja, so habe ich es zumindest verstanden, es ist gut, dass es „von Natur aus“ diese sozial unverträglichen Menschen gibt. Denn die Natur macht keine Fehler, auf lange Sicht wird die Spezies Mensch davon profitieren.

    Ich jedenfalls mache hinsichtlich der durchgängigen Sozialverträglichkeit keinen Unterschied zwischen künstlicher und menschlicher Intelligenz. Wäre sie bei Menschen ebenso realisierbar wie bei Robotern, müssten wir das in Angriff nehmen. Aus ethischen Gründen. Zum Wohle der Menschheit. Es wäre allemal besser, als Gefängnisse zu bauen, um einen Teil der Menschheit wegzusperren. .

  103. @Balanus
    »Bei Ihnen wird über den Kommentaren kein Datum und keine Uhrzeit angezeigt? Merkwürdig, bei mir (Firefox) schon. «

    Ich verwende auch Firefox, sehe aber Datum und Uhrzeit seit einigen Tagen nicht mehr, ich hab gemeint, es läge an scilogs.

    „» Sehen Sie, ich lege der Natur das Gesetz der Kausalität und dessen Regeln zugrunde, und danach funktioniert sie perfekt. «“

    »Das bedeutet aber doch nur, dass alle Vorgänge im Rahmen der Gesetzmäßigkeiten der Natur ablaufen—wie auch sonst? Von daher bleibe ich dabei, für das Individuum (Pflanze, Tier oder Mensch) folgt daraus nicht, dass alles perfekt immer läuft. Wenn etwa Niederschläge ausbleiben und Quellen versiegen, dann verdursten die Lebewesen aufgrund der perfekt funktionierenden Natur. «

    So gerne es mir Leid tut, aber ich bin geneigt zu sagen: genau das ist doch der Sinn der Sache!
    Wenn die Formel mit der Z-Variablen sagt „… wird in Zukunft (nicht mehr) existieren“ dann ist das so vorgesehen. Und einen lieben Gott, der die Menschen, weil nach seinem Bild geschaffen, nach dem Tod ins Paradies holt, den kann ich nicht bieten. Die Welt ist nun einmal so beschaffen, dass alles, was entsteht, eine Zeit lang existiert und dann wieder vergeht. Gilt für Galaxien wie für Planeten, wie für Lebewesen …
    Dass wir das nicht so prickelnd finden, ist klar – Galaxien können wir leider nicht fragen, vielleicht finden die es auch nicht prickelnd. Aber ich sehe auch keine Möglichkeit für Veränderung und Weiterentwicklung, ohne dass alles, was ist, irgendwann verschwindet und Platz wird für Neues

    »Es stimmt, was Sie schreiben, „Organismen […] passen sich den Umständen an“, und das tun sie unter anderem, indem sie die Umwelt (ausschließlich) zu ihrem „Wohle korrigieren“. Damit tun sie genau das, was Sie im Falle des Menschen als „fragwürdigen Anthropozentrismus“ bezeichnen. «

    Und? Worauf wollen Sie hinaus? Dass wir selber unser Teil dazu beitragen, von diesem Planeten zu verschwinden? Wo sehen Sie denn eine Notwendigkeit gegeben, die uns das Privileg einräumt, unser Leben auf Kosten anderer Lebewesen über alles Maß hinaus zu verlängern bzw. zu verbessern?

    »Es steht zu erwarten, dass die „perfekt funktionierende Natur“ dieses Spiel dereinst beenden wird und die Menschenpopulation auf eine Größe schrumpft, die besser zu den nachwachsenden Ressourcen passt.«

    Die Natur beendet gar nichts. Sehen Sie, es gibt drei Arten positiver Rückkopplung (mehr habe ich bisher nicht gefunden), die für uns in Frage kommen: entweder die Kurve, die momentan exponentiell ansteigt, fällt radikal ab – dann ist Ende Gelände; oder sie sackt vorübergehend etwas ab, fängt sich auf niedrigerem Niveau , auf dem sie sich vorübergehend einpendelt und steigt dann wieder an, fällt wieder ab usw. , bis irgendwann ebenfalls Ende ist und etwas Neues kommt. Die dritte Möglichkeit wäre ein abruptes Ende durch den Zusammenbruch größerer Ökosysteme. So oder so wird es irgendwann keine Menschen mehr geben. Wie schon geschrieben: ich hätte mir nur gewünscht, dass unser Ende ein würdiges ist und wir nicht als einer der größten Flops in die Geschichte des Planeten Erde eingehen.

    Darwin hat festgestellt, dass es so ist [Überleben auf Kosten anderer Lebewesen], er hat m. W. aber nirgends gesagt, dass er es gutheißt.

    »Was wichtiger ist: Darwin hat nicht von einer „perfekt funktionierenden Natur“ gesprochen, und zwar aus gutem Grund, eben weil das Lebendige ständig in Gefahr steht, zu sterben. Wobei nicht das Sterben an sich das „Schlimme“ ist, sondern das vorzeitige, gewaltsame Ende.«

    Nun ja, er hatte Theologie studiert und er hat darunter gelitten, Gott aus der Natur verbannt zu haben – nur konnte er halt nicht anders.

    »Aber in einer Natur, wo alle irgendwie auf Kosten anderer existieren müssen, geht es halt nicht anders. Unter einer „perfekt funktionierenden Natur“ stelle ich mir schon etwas anderes vor. «

    Und was stellen Sie sich vor?
    Das Christentum erschuf sich einen Himmel, in den alle guten Menschen nach ihrem Tod aufgenommen würden – einen Himmel, in dem es weder Leid noch Schmerz gibt, nur ewige Glückseligkeit … ich könnte mir keine schlimmere Hölle vorstellen, als eine endlose, eine nie endende Welt, in der jeder glückselig ist bzw. sein muss, und die nicht anders als unendlich langweilig sein kann, ohne jede Chance, ihr zu entrinnen. Wäre das für Sie perfekt?

    »Wie gesagt, es gibt natürliche Gesetzmäßigkeiten, die wir nicht ändern können, die sind, wie sie sind, aber die wertende Feststellung „funktioniert perfekt“ scheint mir in Bezug auf Naturvorgänge wirklich nicht angemessen zu sein. «

    Es ist eine Feststellung, keine Wertung. Wenn ich die Wahl hätte, würde ich auch eine Welt, eine Natur vorziehen, in der es weder Leid, noch Gewalt noch Schmerz usw. gibt. Aber ich kann eben auch sehen, dass sie eben deshalb funktioniert.

    » Aber wenn man weiß, welche Zustände zwangsläufig (kausal) aufeinanderfolgen, dann kann man gegebenenfalls einen Prozess rekonstruieren. Prozesse selbst sind als Konstrukte wohl ebenso schwer direkt zu beobachten wie Systeme. «

    Eigentlich nicht, es kommt darauf an, was man beobchtet.

    » „Aber es genügt ja, wenn nur hinreichend viele Faktoren erkannt und bedacht werden.“
    „Nein, es genügt überhaupt nicht, nicht, wenn man es mit komplexen Systemen und Problemen zu tun hat“
    „Hinreichend“ bedeutet, dass mehr nicht gebraucht wird. Ansonsten wäre es nicht hinreichend. «

    Deshalb schrieb ich, es genügt nicht, eben weil mehr gebraucht wird.

    » Ich halte es für eine Illusion, zu glauben, man könne zahllose Ereignisse, die „nacheinander geschehen“, „simultan erfassen“. Zumindest, wenn es um Vorgänge geht, die man in hinreichend (!) ähnlicher Form nicht zuvor gesehen oder beobachtet hat. Also ohne ein bereits vorhandenes Wissen um die diversen Abläufe und Kausalzusammenhänge. «

    Erstens sieht man nicht zahllose Ereignisse, sondern nur die Art und Weise, in der sie zusammenwirken. Was die Beobachtung von Vorgängen angeht, ist es eben das: man abstrahiert nur die Wirkungsweisen. Das ist ähnlich wie bei einem Raster, in das man diverse Objekte an verschiedenen Stellen einlaufen lässt und nur guckt, an welchen Stellen es zu Abweichungen, Änderungen, Konvergenzen, Divergenzen usw. kommt. Das Raster ist egal, die Objekte sind egal, man speichert nur das gesamte Bewegungsmuster mit den entsprechenden Änderung ab – und zieht es bei einer vergleichbaren Situation über diese drüber. Die Größe des Rasters spielt keine Rolle, auch die Änderungspunkte nicht, nur das Bewegungsmuster. Und es genügt, einen ähnlichen Anfang zu einem anderen Zeitpunkt in einer ganz anderen Situation festzustellen, um zu wissen, wie das ablaufen wird. Da man sehr wenige Anhaltspunkte benötigt, um auf den Gesamtprozess zu schließen, kann man ohne weiteres mehrere Ereignisse simultan erfassen.
    Das macht es aber ausgesprochen schwierig, den Gesamtverlauf zu schildern, weil zu viele Dinge gleichzeitig passieren und ineinandergreifen, die man simultan schildern müsste.

    » Ich schrieb doch: bevor , nicht erst als man anfing bzw. angefangen hatte – da war es schon zu spät.«

    » Der Anfang des Heizens mit Kohle oder Torf liegt schon so weit zurück, da wusste man noch nicht mal, dass es Sauerstoff gibt, geschweige denn CO2. Und wer hätte denn den Verlauf der globalen Geschichte so lenken können, dass wir bereits heute die Energiegewinnung der Zukunft betreiben könnten? «

    Es ist nicht das, was man wissen muss. Das Problem ist nicht das Heizen, sondern die wachsende Zahl an Menschen, die heizen müssen, wenn sie nicht frieren, wenn sie kochen wollen. Wäre das Wachstum der Weltbevölkerung nicht so rapide angestiegen, wäre es vermutlich immer noch kein Problem. Und dass es anstieg, war ja zu erkennen.

    „» Eine Erfahrung, die Dörner und sein Team damals gemacht haben war, dass die Leute, wenn sie mit den Folgen ihres Handelns konfrontiert wurden, erschüttert und betroffen waren und sagten: Das haben wir nicht gewollt, wir wollten doch helfen.“

    »Diese Labor-Situation kann wohl kaum auf das Alltagsverhalten der Menschen übertragen werden. «

    Nicht Ihr Ernst, oder? Dann dürften Psychologen überhaupt keine Untersuchungen mehr machen, weil ihre Ergebnisse ja ohnehin nicht aussagekräftig sind, oder wie?

    »Denn mit welchen Folgen könnte man die Fahrerinnen besonders spritfressender Fahrzeuge schon konfrontieren? Zumal es sich vermutlich mehrheitlich um rein prädikativ denkende Menschen handeln dürfte, denen es schwer fällt, den funktionalen Zusammenhang zwischen CO2 und Klima zu verstehen. «

    Ok, Sie kennen die Projekte nicht. In einem Projekt sollten die Probanden Entwicklungshelfer sein, in einem anderen waren sie Bürgermeister. In beiden hatten sie, was ihre Entscheidungen betraf, freie Hand, unähnlich der normalen Alltagssituation – aber untersucht wurde ja ihr Denken, es waren keine Probeläufe. In beiden Projekten arbeiteten die Probanden mit einem Computerprogramm, das die Folgen der Entscheidungen hochrechnete. Mit diesen Folgen wurden die Probanden bei der nächsten Sitzung konfrontiert und sollten dann weitere Entscheidungen treffen. Beim Entwicklungshilfeprogramm wurden 30 bis 50 Jahre simuliert, beim Bürgermeisterprogramm waren es etwas weniger. Die Sitzungen fanden in wöchentlichen Abständen statt und dauerten ca. ein Jahr. Und dabei stellte sich heraus, dass nur wenige Probanden die Gesamtsituation erfassen, Konsequenzen ihres Handelns erkennen konnten und aus den Fehlern lernten.
    Aber alle waren bestrebt, zu helfen bzw. es richtig zu machen, denn als Zielvorgabe erhielten sie, die Gesamtsituation der „Menschen“ zu verbessern. Dass im Entwicklungshelferprogramm elf von zwölf Probanden nach 30 bis 50 Jahren es geschafft hatten, ein Gebiet, dessen Bewohner sich bis dahin mehr schlecht als recht, aber eben doch ernähren konnten, auf Jahrhunderte hinaus unbewohnbar zu machen, damit hatte niemand gerechnet.

    »Die Frage: „Wer war es denn, der zugelassen hat, dass solche Fahrzeuge gebaut werden?“, verwundert mich. Hätte man das denn gesetzlich verbieten können? Wenn ja, dann könnte man das heute ja auch noch machen, wäre ein Anfang. «

    ‚tschuldigung, mit zugelassen war nicht gemeint, wer es erlaubt hätte, sondern dass es niemand hinterfragt hat. Und die Argumente derjenigen, die dagegen waren, hätten die Sache nicht aufgehalten.

    »Die Wahrheit ist, diese Fahrzeuge wurden von den (vermutlich prädikativ denkenden) Menschen nachgefragt. «

    Vermutlich waren es Funktionale, die die Ideen hatten, wie Edison beispielweise, aber gewollt haben diese Vorzüge irgendwann alle.

    » Ich weiß, Sie sind davon überzeugt, dass es diese zwei Typen von Gehirnen gibt, die einen arbeiten so, die anderen anders. Aber warum schließen Sie aus, dass auch KI-Forscher in „Wirkungsweisen“ denken können? «

    Tue ich nicht, siehe Edison, und von Neumann war sicher auch einer und Steve Jobs sowieso. Ich vermute sogar, dass sie in dieser Branche – im Vergleich zu anderen Branchen – überrepräsentiert sind.

    » Und ist es denn nicht ohnehin das Fernziel bei der KI-Entwicklung, dass man Maschinen baut, die mit hochkomplexen Zusammenhängen und Prozessen umgehen können? Um am Ende zu brauchbaren Ergebnissen zu kommen? «

    Ja, aber sie wissen eben nicht, wie ihr Denken funktioniert, und gehen wie praktisch Jeder davon aus, dass dies bei allen Menschen gleich ist. Hinzu kommt, dass die prädikative Denkart nachvollziehbarer ist. Jaromir Konecny hat doch hervorragend beschrieben, wie das bei KI funktioniert:
    “Bestärkende neuronale Netze (RL – reinforcement learning), die beim Meistern der meisten Spiele die größte Rolle spielen, können sich nichts in Gedanken ausmalen, weil sie keine Gedanken haben. Sie haben auch kein Gedächtnis und keine neuen Vorstellungen. Sie lernen spielen, indem sie bei jedem Spielzug belohnt oder bestraft werden (trial & error). Aufgrund der statistisch-mathematischen Algorithmen, die den Netzen zugrunde liegen, können sie während der Lernphase ihre Belohnung maximieren.
    Am Anfang spielen die Netze völlig chaotische Züge, machen Fehler, die ein Kind in einem neuen Spiel nie machen würde. Nach einigen Millionen Partien entwickeln sie aber die richtige Strategie für das Spiel und werden somit unschlagbar – sie haben die besten Muster/Wege in allen möglichen Spielstellungen gefunden, die zum Sieg führen. Sie spielen aber nicht alle Züge durch (kein brute force), sondern nur die Züge, die die größte Belohnung versprechen.”

  104. Was das Entscheiden betrifft, hatte ich mich ja schon vor langer Zeit resigniert entschieden, gegen @Balanus die Waffen zu strecken. Die Evolution der Sprache geht weiter. Mal gewinnt man, mal verliert man.

    So hat man ja allgemein auch kein Problem mehr damit, dass Schaltkreise gar nicht rund sind; man mit Neuronalen Netzen keine Fische fangen kann, und die auch nicht aus Neuronen bestehen, nicht mal aus etwas Vergleichbarem (Hard- und Software vs.Wetware); Rechner (Computer) gar nicht genau das machen, was man früher unter Berechnen verstand; und der Begriff Intelligenz wird möglicherweise auf ewig benutzt werden, ohne jemals ganz klären zu können, was genau er eigentlich bedeuten soll. Entscheidend ist das alles nicht.

    Einig sollten wir uns darin sein, dass weder der Verzicht auf bestimmte Begriffe noch eine Übertragung in andere, neue Kontexte für sich genommen bereits einen Erkenntnisgewinn darstellt.

    Es ist mir (nicht meinem Hirn) mittlerweile fast egal, ob mein Auto entscheidet oder dessen KNN, oder das Auto auf Grund von Berechnungen seines KNNs entscheidet, oder selbst das Auto nur berechnet hat, welcher Weg der günstigste für mich ist, Hauptsache ich bin schnell am Ziel (auch wenn das dem Auto egal ist) und hoffe, dabei nicht auf einen Holzweg geraten zu sein.

    • Joker: Es ist mir (nicht meinem Hirn) mittlerweile fast egal, ob mein Auto entscheidet oder dessen KNN, oder das Auto auf Grund von Berechnungen seines KNNs entscheidet, oder selbst das Auto nur berechnet hat, welcher Weg der günstigste für mich ist, Hauptsache ich bin schnell am Ziel (auch wenn das dem Auto egal ist) und hoffe, dabei nicht auf einen Holzweg geraten zu sein.

      Jaromir: Das ist ein grandiose Einstellung. 🙂

  105. @Chrys // 19. November 2018 @ 14:05

    Die oben von mir genannte Grundannahme der Neurobiologie wäre m. E. nur dann nachweislich ein „cum hoc, ergo propter hoc“-Fehlschluss, wenn zumindest hin und wieder tierliches Verhalten ohne Beteiligung eines Nervensystems beobachtet werden könnte. Da dies aber noch nie der Fall war, kann man vernünftigerweise annehmen, dass hier kein derartiger Fehlschluss vorliegt—oder aber ein „cum hoc, ergo propter hoc-Fehlschluss“-Fehlschluss.

  106. @Balanus / 19. November 2018 @ 19:47

    Bei einem Gas passiert auch nichts ohne Beteiligung der Gaspartikel (cum hoc), aber nicht alles am Gas ist auf die Gaspartikel zurückführbar (non propter hoc). Siehe thermisches Gleichgewicht, nullter Hauptsatz.

    Meines Wissens hat entsprechend Stephan Schleim nie behauptet, das Geistige funktioniere ohne Beteiligung des Nervensystems. Aber er widerspricht Dir beharrlich, wenn Du alles Geistige auf das Nervensystem zurückführen willst.

    Der Fehlschluss ist der von einer “Beteiligung” auf eine “Zurückführung”.

  107. @Chrys // 19. November 2018 @ 23:51

    » Der Fehlschluss ist der von einer “Beteiligung” auf eine “Zurückführung”.«

    Nun ja, was heißt hier „Beteiligung“. Ich habe den Begriff zwar gebraucht, aber eher im Sinne von „Vorhandensein“: Wo kein (intaktes) Nervensystem, da kein (normales) Verhalten.

    Auf keinen Fall war gemeint, dass es mindestens einen weiteren „Mitspieler“ bei der Generierung von Verhaltensäußerungen geben könnte. Wenn es aber (nach derzeitigem Kenntnisstand) keine anderen „Mitspieler“ gibt, dann liegt der Schluss nahe, dass Verhalten allein im Nervensystem generiert wird, insofern können Verhaltensäußerungen generell mit Recht auf Nervensysteme „zurückgeführt“ werden. Ergo, kein Fehlschluss, nirgends.

    Nebenbei, bei Stephan Schleim war der beteiligte „Mitspieler“ meines Wissens die Umwelt. Nachdem aber (abseits des Nervensystems) kein Mechanismus bekannt ist, mit dem die Umwelt aktiv an der Generierung von Verhaltensäußerungen beteiligt sein könnte, kommt auch die Umwelt als aktiver „Mitspieler“ nicht in Frage. Damit hat sich die Sache wohl erledigt.

  108. @Trice // 19. November 2018 @ 15:03

    » Dass wir das nicht so prickelnd finden, ist klar – …«

    Na Gottseidank, ich dachte schon, Lebewesen sollten ihr womöglich qualvolles Ableben als positives Zeichen einer perfekt funktionierenden Natur betrachten.

    Damit wäre für mich dieser Punkt hinreichend geklärt.

    Vielleicht noch eine Anmerkung zu Ihrer Entgegnung auf meinen Einwurf, dass man diese Labor-Situation bei Dörner „wohl kaum auf das Alltagsverhalten der Menschen übertragen“ könne:

    » Nicht Ihr Ernst, oder? Dann dürften Psychologen überhaupt keine Untersuchungen mehr machen, weil ihre Ergebnisse ja ohnehin nicht aussagekräftig sind, oder wie? «

    Ich schrieb das durchaus in Kenntnis der Projekte (in groben Zügen, versteht sich, Sie hatten es früher einmal geschildert). Die Probanden befanden sich in einer Situation, in der sie entscheidend den Gang der Dinge beeinflussen konnten. Wenn sich die Dinge dann nicht so entwickelt hatten wie geplant, reagierten sie verständlicherweise betroffen.

    In einer solchen Situation befinden sich die allerwenigsten Menschen, nur wenige sind oder fühlen sich derart verantwortlich für den Lauf der Dinge, wie es bei den Probanden bei Dörner offenkundig der Fall war.

    Wenn man dem Normalbürger die Konsequenzen seines Handelns vor Augen führt, dann zuckt der eher mit den Schultern, als dass er betroffen regiert. Denn was kann er als Einzelner schon ausrichten. Sein individueller Anteil am Gesamtgeschehen, für den man ihn verantwortlich machen könnte, ist schließlich denkbar gering.

    Nur deshalb darf meiner Auffassung nach nicht vom Verhalten der Versuchsteilnehmer auf das allgemeine Verhalten der Menschen in Alltagssituationen geschlossen werden. Das wäre dann wohl in der Tat ein Fehlschluss.

    Verallgemeinern lassen sich allenfalls die Ergebnisse aus den zuvor geplanten Versuchen. Und es war ja wohl nicht das Ziel der Versuche, herauszufinden, wie Menschen reagieren, wenn sie mit ihren Handlungsfolgen konfrontiert werden.

    Abschließende Bemerkung zur KI-Forschung: Wenn es zutrifft, dass in diesem Bereich die funktionalen Denker überrepräsentiert sind, dann verstehe ich nicht Ihre Skepsis hinsichtlich zukünftiger Entwicklungen. Sie schreiben, diese funktionalen Denker wüssten nicht, wie ihr eigenes Denken funktioniert. Aber immerhin dürften sie doch wissen, wie sie denken, sie dürften wissen, wie sie mit Beobachtungen umgehen, so wie Sie das für sich selbst geschildert haben (dass man nicht zahllose Ereignisse, sondern nur die Art und Weise sieht, wie sie zusammenwirken, usw.).

    Insofern wäre ich an Ihrer Stelle wohl doch eher optimistisch, was die Zukunft der KI-Forschung angeht.

  109. @Balanus / 20. November 2018 @ 13:49

    »Wo kein (intaktes) Nervensystem, da kein (normales) Verhalten.«

    Und wo keine Gaspartikel, da kein Gas. Das ist nur das “cum hoc”, das hier von niemandem bestritten wird.

    Es ist doch jedermanns Annahme, dass ein Organismus stets nur in einer “Umwelt” vorstellbar ist, wie im übrigen auch ein Gas thermodynamisch mit Bezug auf eine “Umgebung” gedacht wird, mit der ein Austausch von Arbeit oder Wärme stattfinden kann. Aber das ist ohne jeden Belang für Behauptungen von “Zurückführbarkeit”. Das Argument mit dem thermischen Gleichgewicht beim Gas ist davon nicht tangiert, und Stephan Schleim hat nie eingräumt, Dein Reduktionismus wäre plausibel, wenn man nur die Umwelt mit einbezieht — das wollen doch mal ganz deutlich festhalten.

    »Wenn es aber (nach derzeitigem Kenntnisstand) keine anderen „Mitspieler“ gibt, dann liegt der Schluss nahe, dass Verhalten allein im Nervensystem generiert wird, insofern können Verhaltensäußerungen generell mit Recht auf Nervensysteme „zurückgeführt“ werden.«

    Auch ein naheliegender Fehlschuss ist ein Fehlschluss. Dass er Dir naheliegend erscheint, macht die Sache nicht besser und sagt nur etwas aus über Deine Denkgewohnheiten. Im dem doch viel einfacher zu durchschauenden Beispiel dem Gas gibt es auch keine anderen “Mitspieler”, dennoch scheitert die naheliegende “Zurückführung” — das wäre hier ganz klar ein Fehlschluss! Was also übersiehst Du hier?

  110. @Balanus

    Ich habe festgestellt, dass, wenn ich auf Ihre Antworten eingehe, ich meinen Standpunkt bzgl. einer perfekt funktionierenden Natur nicht vermitteln kann, siehe Ihre Bemerkung:

    Na Gottseidank, ich dachte schon…

    Ihren verstehe ich allerdings noch weniger, :-(.
    Vielleicht wird es so deutlicher:
    Zur Natur zähle ich auch das Universum, mit allem was es ausmacht. Wenn ich davon ausgehe, dass es vor 13,8 Miliarden entstand aus nicht mehr als einem winzigen, unendlich dichten “Klümpchen” Strahlung und Elementarteilchen und mir anschaue, was sich daraus in diesem Zeitraum entwickelt hat, von dieser winzigen Ausgangsbasis ein Universum mit Milliarden und Milliarden von Galaxien mit Sonnensystemen und Planeten, auf denen sich aus anorganischer Materie Lebewesen entwickelten inklusive uns mit diesem Wunderwerk von Gehirn, und das unter sparsamsten Bedingungen – vorgegeben ist offenbar nur als Zielbedingungen (von den Naturgesetzen und-konstanten abgesehen) die grundlegende Struktur, Gegensätzlichkeit und die Entwicklung vom Einfachen zum Komplexen, dann funktioniert diese Natur aus meiner Sicht absolut perfekt.
    Und nun, nach fast 14 Milliarden Jahren, erscheint auf einem winzigen Planeten in einem winzigen Sonnensystem eine Spezies, die meint, das Ganze funktioniere so nicht richtig, weil sich im Laufe dieser Entwicklung zumindest hier auf der Erde ein Überlebensprinzip von fressen und gefressen werden etabliert hat, das Schmerz, Gewalt, Leid, Krankheit und Tod mit sich bringt und damit seinem, des Menschen, Wohlergehen abträglich ist – weshalb er eingreifen und die Natur korrigieren muss – in der offensichtlichen Annahme, dass Milliarden und Millionen Jahre nicht hinreichend waren, eine perfekte Welt ohne Leid zu entwickeln, weshalb er mit seinen gerade mal vier Mio Jahren prädestiniert ist, diese Fehler zu beheben.
    Obwohl schon Heraklit erkannt hat, dass Sättigung Hunger angenehm macht und schreibt, dass die Menschen nicht verstehen, wie das Unstimmige mit sich übereinstimmt, Lebendiges und Totes, Wachendes und Schlafendes, Junges und Altes, nur ein “Umschlagen” ist, weil es sich im Gegensatz ergänzt, scheint nicht angekommen zu sein. Auch nicht, dass es das eine nicht gäbe ohne das andere.
    Wenn sich in der Natur das eine entwickelt, dann auch das andere, und wenn es Gewalt gibt, dann gibt es auch ihr Gegenteil, den friedlichen Umgang miteinander. Aber man schafft das eine nicht, indem man das andere auszumerzen versucht, denn damit ruft man es erst hervor – weshalb es vernünftiger wäre, nicht gegen die naturgegebenen Bedingungen zu verstoßen, die die Menschen zu einem friedlichen Umgang miteinander befähigen, statt sie zu manipulieren, in der Annahme, sie dadurch gewaltlos zu machen. Es ist nämlich nicht die Natur -zu der auch unser Gehirn gehört -, die korrigiert werden muss, sondern unsere überzogene Vorstellung von uns selbst und unserer Intelligenz, unsere Anmaßung und Überheblichkeit, die unabhängig davon ist, ob wir zur prädikativen oder funktionalen Gruppe gehören, die uns daran hindert, zu verstehen, wie die Natur seit Jahrmilliarden funktioniert.
    Zu glauben, wir seien so immens besser als die Natur, dass wir es sogar schaffen, künstlich intelligente Maschinen zu bauen, die unsere Fehler, vor allem die Denkfehler, die wir machen, korrigieren und bessere Lösungen finden, ist geradezu aberwitzig – wie sollte das denn möglich sein, wenn diese selber Produkte unseres Denkens sind? Das schaffen auch funktionale Denker nicht, schon gar nicht, wenn sie ihre Gabe nicht nutzen. Und nein, sie wissen nicht, wie sie denken, sie wissen allenfalls, dass sie “irgendwie” anders denken, kreativer sind Aber über die Struktur ihres Denkens wissen sie nichts.
    Einstein hat zwar mal beschrieben, dass er nicht in Wörtern und Begriffen denkt, sondern mehr in Zeichen und Symbolen und das Ganze “muskulös” sei, aber er war halt auch der Meinung, als Kind geistig retardiert gewesen zu sein, und deshalb erst später über Dinge nachgedacht habe, über die andere Menschen als Erwachsene nicht mehr nachdenken. Das ist also eher ein Anlass zu Pessimismus.

    Im Übrigen war es das, was Dörner untersucht hat: wie ist menschliches Denken beschaffen ist, welche Denkfehler, die sich der Struktur ihres Denkens verdanken und nichts mit Intelligenz zu tun haben, machen Menschen im Umgang mit komplexen Problemen. Und eine Erfahrung war: sie sind mehrheitlich unfähig, mit solchen Problemen angemessen umzugehen. Die Reaktionen, wenn sie mit den Folgen ihrer Entscheidungen konfrontiert wurden, interessierten tatsächlich nur am Rande. Was sich aber sehr wohl verallgemeinern lässt und vom Verhalten nicht zu trennen ist, hatte Dörner wie folgt zusammengefasst (ich hatte es oben bereits aufgelistet:
    Handeln ohne Situationsanalyse
    – Konzentration auf nur eine Variable
    – ohne Berücksichtigung von Fern- und Nebenwirkungen (darum kümmern wir uns, wenn es soweit ist)
    – lineares Extrapolieren,
    – keine Fehlerkorrektur
    – keine Berücksichtigung der Ablaufgestalt von Prozessen (Rückkopplungen, Eigendynamik)
    – massive Probleme mit der Einbeziehung von Vergangenheit und Zukunft
    -Glaube, über die richtigen Maßnahmen zu verfügen, und sie deshalb immer wieder anzuwenden…

    Und da dies als die einzig richtige Art zu denken und zu handeln gesehen wird, gibt es keinen Grund, sie zu überdenken.
    Es sind die Menschen, die nicht perfekt funktionieren – aber das eben macht das perfekte Funktionieren der Natur aus: wer nicht perfekt funktioniert, wird irgendwann eliminiert. Trial and error.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +