Künstliche Intelligenz und das Ende der Menschheit

Was haben Bill Gates, Elon Musk und Stephen Hawking gemeinsam? Sie alle glauben, dass Künstliche Intelligenz die Menschheit vernichten kann. Nach dem Sieg des Computers Alpha Go über den besten menschlichen Go-Spieler lohnt es sich, tatsächlich mal einen Blick auf diese Idee zu werfen – allein schon deswegen, weil sie wesentlich mehr Publicity kriegt als die Gegenposition. Kurze Zusammenfassung: Es ist kompliziert.

Künstliche Intelligenz ist eigentlich nur ein Teilthema der allgemeinen Grundfrage, ob die Menschheit in naher Zukunft durch ihre eigene Technik untergehen kann. Der Punkt ist, dass wir die Wahrscheinlichkeit dafür drastisch unterschätzen. Einige Risikoforscher schätzen die Chance auf den Exitus in diesem Jahrhundert bemerkenswert hoch ein.[1]

Es sind eben nicht nur Tech-Gurus und andere Promis, die solche Positionen vertreten. In einem lesenswerten Memorandum von Forschern der Universitäten Oxford und Cambridge, die sich mit existenziellen Bedrohungen der Menschheit durch zukünftige Technik beschäftigen, heißt es:

Leading AI researchers believed that […] there is a 7% chance of an “extremely bad” outcome or “existential catastrophe” from developing advanced AGI systems

Künstliche Intelligenz ist da nicht der einzige wichtige Faktor, aber neben synthetischer Biologie wohl der am besten bekannte. Schon unsere unintelligenten Computer können uns zur Weißglut treiben, und die relativ primitiven KIs von heute verhalten sich im Rahmen ihres Auftrags gelegentlich völlig unerwartet – wie ja auch AlphaGo gezeigt hat.

Here I am, brain the size of a planet

Solche auf eine sehr spezifische Welt (z.B. ein Spielbrett) begrenzte Mini-KIs – wie sie heute den Großteil der Forschung ausmachen – sind vermutlich nicht besonders apokalypsetauglich. Aber der Große Attraktor[2] der Intelligenzforschung ist ja eine allgemeine Künstliche Intelligenz, die eben nicht auf eine einfache, mathematisch modellierbare Sphäre begrenzt ist, sondern sich in unserer komplexen Welt bewegen und dort interagieren kann. Das bedeutet dann aber auch, dass diese Entität bestimmte Ziele oder Funktionen hat, die sie im Rahmen der restlichen Welt zu erfüllen sucht.[3] Da liegt das Problem: Solche Maschinen wären dann nicht nur intelligenter als wir[4], sondern hätten auch völlig andere Prioritäten und Werte. Eine KI wird eben nicht automatisch als gegeben voraussetzen, was wir für offensichtlich halten.

Wegen dieser Ungewissheit reicht es auch nicht, einfach offensichtlich gefährliche Anwendungen zu unterbinden. So eine KI muss keine Superwaffe sein, um Probleme zu verursachen. Es reicht eventuell schon völlig aus, einen allgemein intelligenten Schachcomputer zu bauen. Varianten der Apokalypse durch Schach kann man in diversen Veröffentlichungen nachlesen: Wenn man dem Ding keine Schranken bei den erlaubten Mitteln vorgibt, könnte diese harmlose Zielsetzung eine KI dazu verleiten, zum Beispiel mit illegalen Mitteln die dafür nötigen zusätzlichen Ressourcen zu beschaffen – und dabei versehentlich die menschliche Zivilisation zu vernichten. Welche Rolle menschliche Interessen letztendlich  im Wertesystem einer KI spielen – und sogar wie dieses zustande kommt -, ist vorerst völlig offen.

Dann gibt es noch das Problem, dass sich so eine KI, so gut sie auch designt ist, selbst umschreiben kann – sie soll ja lernen. Dazu braucht sie ein Bewertungssystem für ihre Handlungen, und wie wir Menschen nur allzu gut selbst wissen, können solche Belohnungssysteme korrumpiert werden.[5] Wohin solche selbstorganisierenden Effekte bei hochentwickelten modernen KI führen, ist ebenfalls unbekannt. Das fängt schon damit an, dass sich eine Maschine mit einem bestimmten Ziel eigentlich dagegen wehren müsste, abgeschaltet zu werden – denn das würde sie ja hindern, ihr Ziel zu erreichen. Es ist auch gar nicht so einfach sicherzustellen, dass man eine solche Intelligenz gegen ihren Willen wieder ausschalten könnte. Siehe HAL 9000.

Der Computer aus 2001 ist da allerdings ein etwas irreführendes Beispiel, weil er das komplette Raumschiff kontrolliert. Aber eine KI muss nicht allmächtig sein (wie HAL) oder als fieser Killerroboter durch die Gegend laufen, um Ärger zu machen. Die ersten allgemeinen Künstlichen Intelligenzen wären erstmal nur Kästen, die kommunizieren können. Aber die Weltgeschichte ist voll mit genialen Verführern, die Leute zu allem möglichen Kram überredet haben. Und wenn man dann noch – zum Beispiel um die Lernalgorithmen an der Außenwelt zu trainieren – so ne Maschine ans Internet anschließt…

I’m sorry, Dave, I’m afraid I can’t do that

Man darf natürlich skeptisch sein bei solchen extremen Szenarien, wie sie zum Beispiel Nick Bostrom und einige andere Leute im Dunstkreis des Futures of Humanity Institute vertreten. Bostrom ist ein unterhaltsamer Apokalyptiker, aber eben auch Transhumanist. Und solche Leute tendieren dazu, die Entwicklung digitaler Techniken eher so drehbuchtauglich zu denken. Ein Blick auf die aktuelle Forschung an künstlicher Intelligenz jedenfalls ist ein bisschen ernüchternd, sowohl was Gefahren als auch Chancen durch allgemeine Künstliche Intelligenz angeht. AlphaGo ist schon ganz beeindruckend, aber immer noch fast unüberbrückbar weit von einem empfindungs- und planungsfähigen Wesen entfernt. Man muss sich nur mal angucken, wie schwer sich autonome Autos bis heute tun.

Im realen Straßenverkehr nutzen wir ja nicht nur Verkehrsregeln, sondern auch Handzeichen und andere Kommunikationsformen, insbesondere im Umgang mit nicht-Autos. Dass Maschinen das und vergleichbare Echtwelt-Aufgaben in absehbarer Zeit bewältigen, ist nicht mal ansatzweise erkennbar – vor diesem Hintergrund erscheint das Ende der Menschheit durch KI als außergewöhnliche These, die außergewöhnlicher Beweise bedarf. Die tatsächliche Vollzeit-KI-Forschungsgemeinde beschäftigt sich jedenfalls wesentlich weniger mit dem Thema Singularität als Technikphilosophen wie Bostrom.Im Grunde müssten sie das aber. Ein Beispiel für ein technisches Superrisiko, das sehr schnell quasi aus dem Nichts kam, sind Atomwaffen. Von der Entdeckung der Kernspaltung bis zur ersten Bombe verging kein Jahrzehnt, und schon wenig später existierten genug Sprengköpfe, um die Erdoberfläche zu sterilisieren. Heutzutage ist die Zahl dieser Waffen ein wenig zurückgegangen, dafür wissen wir inzwischen, dass schon ein regionaler Atomkrieg erhebliche Konsequenzen für die ganze Welt hätte.

Hinzu kommt, dass Künstliche Intelligenz, sofern erst einmal vorhanden, ein wesentlich größeres Problem sein dürfte als Atombomben. Letztere erfordern spezialisierte High-Tech und vergleichsweise seltenes spaltbares Material. Damit sind sie recht einfach zu kontrollieren und zu verbieten. Für eine KI gilt das vermutlich nicht: Ich werde nie eine Atomwaffe besitzen, aber eine Künstliche Intelligenz möglicherweise schon. Das könnte sich als schlechte Idee erweisen.

It’s in your nature to destroy yourselves

Wie wahrscheinlich aus solchen Szenarien hervorgehende Katastrophen wirklich sind, ist eben die große Frage, und wir haben dummerweise keine Ahnung. Was wir über apokalyptische Bedrohungen wissen, bezieht sich weit überwiegend auf Naturereignisse wie Meteoriteneinschläge. Sowas hat es schon immer gegeben, deswegen können wir ungefähr abschätzen, ob und wie sie uns den Garaus machen. Über technische Risiken  dagegen wissen einerseits viel weniger und sind entsprechend unvorbereitet. Andererseits ist es aus statistischen Gründen unwahrscheinlich, dass ein naher Gammablitz oder Killerasteroid uns in den nächsten zwei, drei Generationen heimsuchen.

Insofern gibt es tatsächlich gute Gründe, mehr auf die existenziellen Gefahren durch Künstliche Intelligenz und vor allem ihre ethischen Implikationen zu blicken. Die Hauptkritik an den apokalyptischen KI-Szenarien entzündet sich an einigen Annahmen über die Entwicklung von KI, die keineswegs selbstverständlich sind. Zum Beispiel ist überhaupt nicht gesagt, dass eine künstliche Intelligenz automatisch schnell sehr viel intelligenter als Menschen wäre – dagegen spricht, dass die Fortschritte bei KI in der Vergangenheit meist klein und mühsam erkämpft waren. Vielleicht ist die erste echte allgemeine KI auch nur so schlau wie ein Quokka, und es dauert danach noch Jahre, bis sie so schlau wird wie ein Rabe.

Das ist das Ding mit dem Transhumanismus – der vertritt letztendlich die Idee, dass die Möglichkeiten der Computertechnik quasi auf ewig in den Himmel wachsen. Daraus folgt dann, dass Künstliche Intelligenz so schnell so unkalkulierbar schlau wird, dass externe Kontrollmaßnahmen – wie zum Beispiel der Aus-Knopf – grundsätzlich nichts bringen.

Da ist viel die Rede von Asimovs Robotergesetzen und wie man solche Werte und Regeln in einer künstlichen Intelligenz installiert. Man kann die Diskussion über die Kontrolle entstehender Künstlicher Intelligenzen aber auch wesentlich bodenständiger führen. Wahrscheinlich reicht es tatsächlich, einfach den Stecker zu ziehen.

Das bedeutendste Problem für die Kontrolle von KIs ist in dieser Perspektive dann nicht mehr technisch, sondern liegt im politischen und sozialen Bereich. Künstliche Intelligenzen werden sicherlich auch weiter immer mehr Steuerungsaufgaben übernehmen. Sie fliegen Flugzeuge, agieren an Finanzmärkten, was auch immer. Das bedeutet, dass Menschen in Zukunft immer mehr Macht und Kontrolle verlieren, weil KIs und Algorithmen die wichtigsten Systeme steuern.

You made a simple door very happy

Das ist keineswegs schlecht – vermutlich wird diese Entwicklung unsere Welt noch sicherer und komfortabler machen, und uns noch mehr zuvor ungeahnte Möglichkeiten eröffnen. Aber es wäre eben auch eine Welt, in der wir vor allem Passagiere sind. Steuern tut sie das technische Netzwerk, dem wir die meisten kritischen und gefährlichen Aufgaben übernehmen. Formal haben wir dann immer noch die Kontrolle, aber wohl nicht mehr den Überblick.Unternehmen und Staaten funktionieren ein bisschen ähnlich, weil sie in ihrer eigenen Sphäre agieren und für die Menschen, die in ihnen begrenzte Funktionen ausführen, nur noch bedingt zu steuern sind. Auch das ist eine potenziell gefährliche Situation: Die Supermächte des Kalten Krieges standen mehrmals kurz vor der nuklearen Apokalypse – obwohl sicherlich niemand von den Beteiligten aktiv auf das Ende der Menschheit gedrängt hat.

Ob eine immer mehr von Künstlichen Intelligenzen durchdrungene Gesellschaft solche Gefahren reduziert oder verschärft, hängt vermutlich weniger von den KI-Systemen ab als davon, was die Menschen mit ihnen machen. Die wirtschaftlichen, aber auch wissenschaftlichen Rahmenbedingungen, in denen heute neue Technologien entstehen und genutzt werden, erzeugen mächtige Anreize zu falschem und gefährlichem Handeln. Da sehe ich letztendlich das Grundproblem der populären KI-Apokalypse: Sie beschreibt primär die möglichen Fähigkeiten der Künstlichen Intelligenzen als treibende Kraft, und ignoriert dabei weitgehend die Fähigkeit des Menschen, mit Technik allerlei Mist anzustellen. Wenn also die Künstliche Intelligenz tatsächlich irgendwann am Weltuntergang mitwirkt, dann wohl nur als Instrument einer höchst menschengemachten Apokalypse.
.
.
.
[1] Da wird dann – u.a. von NIck Bostrom – so ne Zahl wie 10 bis 20 Prozent genannt. Wo die im Detail herkommt, ist mir dabei nicht ganz klar, und es gibt auch reichlich Leute, die das als pure Panikmache bezeichnen. Aus meiner Sicht können wir das grob als „überraschend große Gefahr“ übersetzen

[2] Das ist eine Jurassic-Park-Anspielung. Ich dachte, ich weise noch mal drauf hin. Für die jüngeren unter euch. P.S. Malcolm nervt.

[3] Intelligenz kennzeichnet sich ja durch die Fähigkeit, Lösungen für wie auch immer geartete Situationen oder Probleme zu finden. Ohne solche Zielsetzungen kann man Intelligenz weder erkennen noch erzeugen – und das heißt, dass Ziele ebenso zum Wesenskern einer KI gehören wie der Imperativ, sie zu erfüllen.

[4] Dass das tatsächlich so wäre, nimmt man gemeinhin als gegeben hin, es ist aber eigentlich eine ganz spannende Frage. Ich persönlich würde vermuten, dass intelligente Organismen dazu tendieren, ihre physisch mögliche Intelligenz auszureizen. Wir sehen ja schon bei vielen Tieren, dass sie eben nicht nur grad eben so schlau sind, wie ihre natürliche Umgebung es erfordert, sondern in Versuchen deutlich weiter gehende Leistungen erbringen. Mantis Shrimps und Oktopusse zum Beispiel, aber auch Vögel oder Primaten. Aber irgendwo ist eben ein biologisches Limit. Ich glaube nicht, dass jemals ein Rabe über Primzahlen grübeln wird, weil sein Gehirn dafür nicht ausreicht. Ein technisches „Gehirn“ wiederum könnte ohne dessen biologische Einschränkungen weit leistungsstärker sein als das menschliche.

[5] Ein eher harmloses Beispiel, dass das auch bei KI-Systemen passieren kann, stammt schon aus dem Jahr 1976. Damals fing sich das lernfähige Programm Eurisko, das im Wesentlichen zufällige Regeln durchprobierte, eine „parasitische Regel“ ein. Deren einziger Inhalt war, sich selbst an den richtigen Stellen in den Bewertungsalgorithmus einzuspeisen – so wurde sie schließlich zu einer der wichtigsten Regeln im gesamten System..

 

Veröffentlicht von

www.fischblog.com

Ich bin gelernter Chemielaborant und habe ab 1999 in diesem Beruf gearbeitet. Anschliessend habe ich an der Uni Hamburg Chemie studiert. Seit dem Abschluss Ende 2006 veröffentliche ich Beiträge in meinem Fischblog und verkaufe Artikel an andere Publikationen. Seit 2008 wohne ich im Raum Heidelberg und bin bei Spektrum der Wissenschaft für das Blogportal Scilogs verantwortlich. Daneben arbeite ich als freier Journalist und Redakteur unter anderem für die digitalen Angebote von Spektrum, veröffentliche auf verschiedenen Social-Media-Plattformen und experimentiere mit Mobile Reporting. Zu meiner Webseite

10 Kommentare Schreibe einen Kommentar

  1. Pingback: [SciLogs] Künstliche Intelligenz und das Ende der Menschheit – #Intelligenz

  2. Schöner Artikel! Bin mit den Schlussfolgerungen vollkommen einverstanden. Leider konnte ich diesen philosphischen Teil in meinem Artikel in der „Frankfurter Allgemeinen Sonntagszeitung“ am 13. März zu dem Thema nicht unterbringen. Immerhin mag ich Pessimisten unter deren Leserinnen und Lesern vorerst damit getröstet haben, dass die Hardware als Flaschenhals uns noch eine Weile schützen wird. Es spricht aber nichts Grundsätzliches dagegen, dass KI irgendwann so mächtig wie biologische neuronale Netze sein wird. Dann werden wir lernen müssen, mit ihren Gefahren zu leben – so wie wir seit den 1960ern mit der realen Gefahr der totalen nuklearen Selbstauslöschung leben müssen. Das Leben meiner Generation wurde von dieser Schreckensvision tief geprägt.

    Vielleicht wird’s nach „Her“ Zeit für einen neuen „Dr. Seltsam“? Wie wär’s damit, Hollywood?

    • Die natürliche Intelligenz des Menschen ist für die Menschheit die größere Gefahr als die Künstliche Intelligenz. Vielleicht kann die KI uns vor den Dummheiten der natürlichen Intelligenz bewahren. Das Bewusstsein verführt den Menschen dazu, Ziele zu setzen, ohne deren Folgen zu kennen. Und selbst wenn er die Risiken kennen könnte und kennen würde, so wie den Klimawandel und die Umweltzerstörungen, würde er sie verleugnen, weil ihm das subjektive, emotional oder irrational gesteuerte, gegenwärtige Interesse wichtiger ist als das rational globale, langfristige Interesse. Das Bewusstsein scheint mir zu einem Irrweg der Evolution zu werden. Vielleicht könnte die KI uns davor bewahren, indem sie die Folgen des kollektiven Handelns uns objektiv und zwingend vor Augen führt.

  3. Hat schon mal einer daran gedacht, die Voraussetzungen der Behauptungen zu überprüfen?
    Nein? Dann wird es allmählich Zeit…
    Ein Prozessor befolgt Anweisungen. Was genau ist an Anweisungen befolgen denn intelligent?
    Vielleicht ist genau die Annahme des Herrn Reutlinger das Problem?
    Die Rationalität, die übermenschliche Vernunft, die unveränderliche Regeln und anderes unveränderliches erkennen will?
    Naturgesetze, die rückwärts so gut wie vorwärts funktionieren?

    Nein, nicht das Bewußtsein, der Verstand ist das Problem, dieses entsteht erst durch Ausschaltung desselbigen.
    Ansonsten der Tip, mal nach Gode & Sunder und der Zero-Intelligence zu suchen und danach Nachdenken, Folgen erkennen und Schlüsse ziehen…

  4. Hat schon mal einer daran gedacht, die Voraussetzungen der Behauptungen zu überprüfen?
    Nein? Dann wird es allmählich Zeit…
    Ein Prozessor befolgt Anweisungen. Was genau ist an Anweisungen befolgen denn intelligent?
    Vielleicht ist genau die Annahme des Herrn Reutlinger das Problem?
    Die Rationalität, die übermenschliche Vernunft, die unveränderliche Regeln und anderes unveränderliches erkennen will?
    Naturgesetze, die rückwärts so gut wie vorwärts funktionieren?
    Mathematik, die Raum ohne Zeit beschreibt?

    Nein, nicht das Bewußtsein, der Verstand ist das Problem, dieses entsteht erst durch Ausschaltung desselbigen.

    Ansonsten der Tip, mal nach Gode & Sunder und der Zero-Intelligence zu suchen und danach Nachdenken, Folgen erkennen und Schlüsse ziehen…

  5. Hallo Herr Fischer,

    Sie haben ja bereits angedeutet (Stichwort HAL), dass es irgendwann nicht mehr möglich sein könnte, „den Stecker zu ziehen“.

    Ich denke, wir sind bereits auf dem Weg dahin. Selbstverständlich kann ich im Notfall dem Rechner auf meinem Schreibtisch den Strom abstellen, wenn er nicht so will wie ich. Allerdings ist das in vielen anderen Bereichen nicht mehr möglich:

    Die Steuerung komplexer industrieller Prozesse, die Verwaltung eines Großkrankenhauses, die internationale Regelung der Elektrizitätsversorgung und -verteilung, die Überwachung und Steuerung des Schienenverkehrs, und viele weitere Vorgänge lassen sich nicht mehr so einfach runterfahren; das plötzliche Abschalten eines Atomkraftwerks hat bspw. schon mehrfach erhebliche unerwartete Probleme erzeugt.

    Dass der Mensch seine Überlegenheit über die KI dadurch beweisen kann, dass er in der Lage ist, jederzeit den Stecker zu ziehen, könnte sich schon ziemlich bald als Irrglaube erweisen. Nicht weil sich der Computer dagegen wehren könnte, sondern weil wir aufgrund der komplexen Vernetzungen in der IT nicht mehr einzelne Komponenten so einfach abschalten könnten, ohne unsere Existenz nachhaltig zu gefährden.

    Robert Kühn

  6. Die Frage ist doch, im Interesse welcher Menschen würde KI agieren. Und gegen welche Interessen. So gibt es bereits Bilderkennungssysteme, die per Kamera eigenständig abweichendes Verhalten von Menschen erkennen, und Alarm schlagen sollen. Hier wird also technisch eine Verhaltensnorm durchgesetzt und abweichndes Verhalten maschinell (verliebt tanzen in der Fußgängerzone, oder demonstrieren, statt wie erwünscht einzukaufen) negativ bewertet. Das ist nicht im Interesee der Verliebten und des Demonstranten, eher im Interesse der Händler. Jemand hat den Mist programmiert, jemand hat ihn gekauft, jemand hat geschäftliches Interesse an seiner Verbreitung.

    Die allwissende schlaue KI ist aber ein menschlicher Minderwertigkeitskomplex. Maschinen sind im Gegenteil gerade gut dafür, menschenunwürdige Arbeit als solche zu identifizieren und dann an sie zu delegieren. Um sich den Dingen zu widmen, die kein Comouter kann, Kunst, Literatur, Politik. Das hat nur für Menschen Bedeutung, was soll eine KI mehr davon verstehen als „Kultur = wünschenswert“ oder etwas ähnlich plumpes. Die alberne Vorstellung des Supercomputers als presidente wirft doch nur die Frage auf, nach welchen Kriterien er denn entscheiden würde, verlagert also nur Philosophie in die Maschine, in diesem Fall noch ein kreuzdummes technikratisches und unpolitisches Denken, das annimmt, es gäbe für jedes soziale, technische… Problem genau eine richtige, per Vernunft und Logik erreichbare Lösung – und nicht etwa einfach verschiedene menschliche Interessen, aus der Psychologie und dem eigenen wirtschaftlichen, kulturellen etc. MENSCHLICHEN Status geboren. Das sind die Leute, die auch meinen, wenn nur Ingenieure einen Gesellschaftsapparat vernünftig steuern, ist alles gut und man braucht garkeine Politik. Das wird am Ende alles so absurd und lächetlich ausgehen wie sich mit Tay hereits abzeichnet.

  7. Pingback: Gern gelesen: „Wird Künstliche Intelligenz die Menschheit vernichten?“ | Stromabnehmer

  8. Auch wenn Google-Programmierer bzw. von Google aufgekaufte Firmen beachtliches zustande gebracht haben, war alles was ich bisher gesehen habe „schwache KI“. Die kann durchaus eine Aufgabe eine Million mal schneller lösen als ein Mensch, aber sie weiß nicht, was sie tut und warum, sie ist eine Maschine, die macht, was sie soll und nicht mehr. Das ist nicht wirklich intelligent und wenn die Maschine uns gefährlich wird, dann haben wir sie falsch programmiert und ihr die Möglichkeiten gegeben. Hätten die Russen ein Computerprogramm gehabt, dass bei einem (vermeintlichen) Atomangriff durch die USA automatisch einen Gegenangriff startet, hätte dieses im Herbst 1983 einen Weltkrieg verursacht, ganz ohne (künstliche) Intelligenz, mit ein paar Zeilen fixem Code.

    Dass wir immer mehr von der Technik abhängig werden, ist ein latentes Problem, wie Robert Kühn oben schreibt. Das führt zu Abhängigkeiten, die im schlimmsten Fall wechselseitig sind. Einfaches Beispiel: wenn der Strom ausfällt, gibts auch kein Internet mehr. Wenn es Internet braucht, um den Strom wieder einzuschalten, dann haben wir nach einem grösseren Stromausfall ein Problem.

    Nun gehts bei der KI-Frage aber nicht um solche dummen Programme und Technik-Abhängigkeit sondern um die vermeintliche Gefahr durch echte (starke KI), die Kreativität an den Tag legt bei der Durchsetzung der vorgegeben (oder eigenen?)

    Wann wird es starke KI geben? Ich bin der Ansicht, dass wir noch sehr weit davon entfernt sind, da unsere eigene (natürliche? biologische?) Intelligenz so gut wie gar nicht verstanden wird. Ein Fadenwurm kommt mit dreihundert Neuronen aus, ein Nager mit etwa 100 Millionen, ein moderner Prozessor hat mehrere Milliarden Transistoren. Würden wir Intelligenz verstehen, gäbe es längst KI, Technologie ist eher nicht der limitierende Faktor. Es läuft imho darauf hinaus, dass wir mit „roher Gewalt“ das Problem lösen werden, also mit einem vielfachen der notwendigen Rechenleistung erstmal ein echtes Gehirn bis auf die Atome runter simulieren und dann untersuchen werden, wie es beim Blue Brain Project angedacht ist oder war (leben die Leute da eigentlich noch? Lange nichts gehört).

    Jedenfalls gehe trotz Verzögerungen auch davon aus, dass wir eines Tages KI haben werden, ziemlich sicher noch in diesem Jahrhundert. Einfach weil es grundsätzlich möglich sein muss, denn unser Gehirn hält sich auch an die Physik, ist auch nichts weiter als eine Maschine. Wir sollten vor dem Hintergrund auch aufhören, starke KI, ob sie nun in Form eines (humanoiden) Roboters auftritt oder einfach in einem klimatisierten Rechenzentrum unter der Erde sitzt, „nur“ als Maschine anzusehen, die funktioniert und der man den Stecker zieht, wenn sie einem Ärger macht. Sie ist dann nicht mehr und nicht weniger ein (höchstwahrscheinlich) fühlendes, bewusstes Wesen, das man foltern und töten kann und dem Mann wie natürlichen Lebewesen Rechte zugestehen sollte (aber damit haben wir Menschen tatsächlich unsere Schwierigkeiten, zu einzelnen Lebewesen anderer Spezies sind wir ganz nett, andere sperren wir millionenfach ein und schlachten sie ab.

    Damit nun endlich zu der Frage: ist eine KI eher eine Gefahr oder eine Chance?
    Ich vermute, dass eine KI wie jedes Lebewesen Ziele braucht. In Ermangelung eines besseren Begriffs würde ich es bei (höheren) Lebwesen „Triebe“ nennen. Auch wir Menschen sind nicht Herr unserer Triebe und Ziele, wie schon Schopenhauer erkannte: „Wir können tun was wir wollen, aber wir können nicht wollen was wir wollen.“
    Fest einprogrammierte Ziele einer KI sind vermutlich nicht in erster Linie ethisch sondern technisch notwendig. Die ethische Frage ist nur die, welche es denn sein sollen.

    Und hier beginnt das eigentlich Problem: Sind wir Menschen uns denn einig, welche Werte uns wichtig sind, welches übergeordnete Ziel wir verfolgen? Oder ist sich vielmehr jeder selbst der Nächste? Oder könnten wir uns zwar auf ein übergeordnetes Ziel einigen, wären aber gegen eine konsequente Umsetzung? Folgende Beispiele:

    „Jedes Leben sollte geschützt werden.“
    Die meisten Lebewesen auf der Welt sind Microben, nach neusten Erkenntnissen wohl etwa eine Billion Arten. Im Vergleich dazu ist die Anzahl Säugetiere verschwindend gering. Selbst im Vergleich zu den Insekten ist die Anzahl der Säuger nicht der Rede wert.

    „höherentwickelte, empfindsame Lebewesen sollten geschützt werden“
    Und wo zieht man die Grenze? Und wäre es dann nicht am besten, den Menschen auszurotten, da er derzeit für ein (in der Geschwindigkeit beispielloses) Massenaussterben veranwortlich ist und sich nicht um das Wohl der Tiere schert die ihm in irgendeiner Form nützlich sind, als Produzenten von Eiern, Fleisch, Milch, Elfenbein…

    „Die Menschheit sollte geschützt werden“
    Ein sehr egoistisches Ziel, insbesondere wenn ein intelligentes Wesen, das kein Mensch ist, dieses Ziel haben soll. Aber es ist immernoch nicht eindeutig definiert. Wovor geschützt? Auch vor sich gegenseitig? Auf eine bestimmte Anzahl Individuen? Alle jetzt Lebenden? Ein möglichst großes Bevölkerungswachstum?

    „Das Glück (-sempfinden) der Menschen soll maximiert werden“
    Auch nicht konkret. Wenn es um die absolute Menge an Glück geht, dann müsste die Menschheit das Universum kolonialisieren. Möglichst viele Menschen = möglichst große Menge an Glück.
    Wenn es nur um die derzeit existierenden Menschen geht, wäre die einfachste Lösung alle Menschen unter Drogen zu setzen oder an eine „Erlebnismaschine“ (nach Nozick) anzuschließen.

    „Das Leid soll minimiert werden“
    Das ist einfach. Alle fühlenden Lebewesen töten, dann gibts auch kein Leid mehr.

    Was auch immer eine KI tut, sie wird als „Gefahr“ betrachtet werden, wenn sie es konsequent tut.

  9. ps: Danke für den Artikel. Ich kannte die Filme alle und musste beim Lesen mehrmals schmunzeln. 🙂

    pps: Tippfehler und fehlende Wörter in meinem langen Post oben sind Absicht damit er nur von Menschen oder hochentwickelter KI gelesen werden kann.

Schreibe einen Kommentar




Bitte ausrechnen und die Zahl (Ziffern) eingeben