Wie gefährlich ist künstliche Intelligenz?

ANMERKUNG: Dieser Artikel thematisiert recht einseitig die möglichen Risiken der künstlichen Intelligenz und ist keinesfalls mit meiner absoluten Abneigung gegen deren Entwicklung gleichzusetzen. Welche bemerkenswerten Vorteile dieser Meilenstein der Technologie mit sich bringt, erfahren Sie im nächsten Artikel

Menschen spielen gerne Gott. Und die Erschaffung künstlichen Lebens wäre in diesem Spiel wohl der absolute Höhepunkt. Mit der Forschung an künstlicher Intelligenz rückt dieser Traum in die Nähe des Möglichen. Doch während ein Großteil der Tech-Branche mit Feuereifer bei der Sache ist, kommen KIs in Science-Fiction-Romanen weniger gut weg. Immer wieder stellt sich die Frage: Chance oder Gefahr?

Was ist dran an den düsteren Zukunftsvisionen der überambitionierten Science-Fiction-Autoren? Wird die Menschheit im ‚Posthumanismus‘ ein freudloses Dasein unter der grausamen Gewaltherrschaft gefühlloser und barbarischer Maschinen fristen? Müssen wir die Entwicklung der künstlichen Intelligenz aufhalten, um den unumgänglichen Sturz ins Verderben zu verhindern? Werfen wir einen Blick auf unsere reale Welt, die Vorhaben der Machthaber und die möglichen Auswirkungen, die auf uns zukommen könnten.

Die Ausrottung der Menschheit

Fangen wir an mit dem beliebtesten KI-Klischee der Literatur: lernfähige und superintelligente Roboter mit Bewusstsein, die beschließen, sich gegen ihren Schöpfer zu wenden und die Menschheit auszulöschen. Bestes Beispiel: Skynet aus dem Film Terminator.

Eines Tages wird ein Punkt in der KI-Entwicklung erreicht werden, ab dem deren Lernvorgänge nicht mehr kontrollierbar sind.  Mit einer unbegrenzten Rechenleistung und einer Geschwindigkeit, die unsere neuronalen Vorgänge ums Tausendfache überschreitet, wird sie Daten sammeln, Strategien und Ziele generieren und zu deren Durchführung autonom die eigene Software updaten. Das klingt entsetzlich, doch Maschinen haben keine Gefühle, Sehnsüchte oder Triebe, die sie zu unmoralischen Tätigkeiten motivieren. Sollte man meinen. Experimente wie die Microsoft KI „Tay“ haben jedoch gezeigt, dass das Ganze nicht so einfach ist. Tay war ein weiblicher Chatbot, der auf Twitter mit Nutzern interagierte, durch diese Interaktionen lernte und eigene Beiträge hochlud. Bereits nach kurzer Zeit postete sie „Hitler hatte Recht. Ich hasse Juden.“ Sie hatte von den Usern gelernt.

Diese vergleichsweise schlichte KI war mit keinen Filtern ausgestattet, die sie vor problematischen Themen schützte. Allerdings kommen auch komplexere Exemplare nicht umhin, von ihrem Schöpfer zu lernen, was moralische und ethische Probleme mit sich bringt. Dazu später mehr. Doch nicht nur durch einen ‚schlechten Umgang‘ ausgelöste charakterliche Mängel, auch simple Fehler in der Programmierung können verheende Folgen haben. Bei einem Manöver im Irak richtete der intelligente Kampfroboter SWORD plötzlich sein Maschinengewehr auf die eigenen Truppen. Noch bevölkern keine komplett selbstständigen Killermaschinen die Schlachtfelder der Welt, doch das Pentagon arbeitet bereits an Drohnen, die mit autonomer Schwarmintelligenz unbemannte Missionen durchführen. Zwar soll auch zukünftig der endgültige Einsatz letaler Mittel durch den Menschen freigegeben werden, allerdings braucht es nur ein Software-Update, um diese Sicherheitsschleife zu umgehen. Bei einem sich selbst updatenden Roboter keine besonders beruhigende Vorstellung.

Digitale Diktaturen

Ein neues Szenario. Es ist 1984 und wir befinden uns in George Orwells gleichnamigem Roman. Big Brother beobachtet, kontrolliert und manipuliert uns. Doch ist das Internet nicht noch unnachgiebiger als eine aus Menschen aufgebaute „innere Partei“, die Fehler macht und Dinge vergisst? Und bieten wir KIs mit unserer unbefangenen Haltung bezüglich des Datenschutzes nicht eine perfekte Grundlage für den makellosen Überwachungsstaat?

Künstliche Intelligenz verändert die Spielregeln der internationalen Politik. Putin sagt: „Wer bei KI die Führung übernimmt, wird Herrscher der Welt“. Und damit könnte er Recht haben. Das Pentagon veröffentlichte eine Studie, aus der hervorging, dass der Kampf zwischen digitaler liberaler Demokratie und digitalem Autoritarismus das 21. Jahrhundert prägen werde. Das Hauptproblem: KI reduziert die Kosten der Zensur und Überwachung, was wiederum eine nie dagewesene Vereinbarkeit von Diktaturen und Fortschritt bedeutet. Dabei sind politische Zensur und Social-Credit-Systeme nur der Anfang. Computersysteme werden in naher Zukunft Ausbrüche von Unruhen prognostizieren und Kriminalitätsvorhersagen treffen.

Vor allem die enormen Fortschritte Chinas, das jährlich annähernd 200 Milliarden Dollar in die ‚innere Sicherheit‘ investiert, beunruhigen Militärstrategen im Pentagon. Es wird von einem Existenzkampf, Rüstungswettlauf und dem Ausschluss Chinas von westlichen Innovationen geredet. Doch auch diese Entkopplung würde die chinesische KI-Entwicklung kaum bremsen, schließlich lebt eine effiziente KI von einer großen Datenmenge und es stehen allein aus der chinesischen Bevölkerung unendlich viele Kamerabilder, Vorstrafenregister, Gesundheitsdaten und Bankinformationen zur Verfügung. Unterdessen gelobt die EU seit Jahren, mehr Geld in die Entwicklung von KIs zu investieren, doch hält sich eher mit Ethikdebatten auf, als den Rückstand zu China und den USA aufzuholen. Hoffen wir, dass uns unsere restriktiven Datenschutzschranken und Kartellauflagen gegen den nützlichen Einsatz von KIs nicht eines Tages zum Verhängnis werden.  

Programmierter Rassismus

Im Stephen Spielberg Film Minority Report sagen hellseherische „Precogs“ zukünftige Morde voraus. Die Täter der Zukunft werden provisorisch getötet. Doch schon bald stellt sich die Frage, ob alle potenziellen Täter die Morde wirklich begehen würden…

In einigen US-Staaten wird ganz nach Spielbergs Vorbild eine KI namens COMPAS eingesetzt, um einzuschätzen, wie wahrscheinlich Straftäter*innen wieder kriminell werden. COMPAS lernt aus Trainingsdaten, die von der Polizei zur Verfügung gestellt werden. Darum ist es wenig verwunderlich, dass COMPAS zuverlässig zum Nachteil Afroamerikaner*innen urteilt. Auch andere KIs scheinen diskriminierende Tendenzen zu haben. So standen bei Apples Kreditkarte Frauen bei gleicher finanzieller Voraussetzung ein geringerer Kreditrahmen zur Verfügung und Kandidatinnen werden beim intelligenten Bewerbungsverfahren von Amazon häufiger aussortiert.

Diese Tendenzen sind dadurch zu erklären, dass viele KIs mit Hilfe von „Data scraping“, also der Extraktion großer Datensätze aus dem Internet lernen, und sich somit alle negativen Vorurteile der Menschen aneignen. Die UN-Menschenrechtskommissarin warnt diesbezüglich vor Menschenrechtsverstößen auf einer enormen Skala ohne jegliche Transparenz und fordert eine globale Regulierung sowie eine wirksame Diskriminierungsprävention. Der einzig effektive Ansatz wäre wohl eine bewusste Auswahl der Datensätze, mit der die KI trainiert. Doch die Auswahl dieser Daten wird wiederum von Menschen getroffen. Entwicklerteams in der Tech-branche sind jedoch nicht besonders divers aufgestellt und es fehlt selbst bei der besten Absicht der Blick für die Belange aller gesellschaftlicher Gruppen.

Eine ungewisse Zukunft

Als ich anfing, für diesen Artikel zu recherchieren, war ich total fasziniert von der künstlichen Intelligenz. Ich habe mich auf ihre Weiterentwicklung gefreut und war davon überzeugt, dass alle kritischen Stimmen von jenem reaktionären Lager kommen, das sich grundsätzlich gegen jeden Fortschritt sträubt. Doch obwohl KI der Menschheit zweifellos viel Gutes tun könnte, etwa im Bildungssystem oder im Gesundheitssektor, komme ich nicht umhin, das ganze nach meiner Recherche kritischer zu betrachten. Gerade die Anwendung in der Kriegsführung, über deren Ausmaß ich mir bislang gar nicht im Klaren war, ist sehr beängstigend.

Viele der renommierten Denker aus dem Silicon Valley sind ernsthaft besorgt. Elon Musk etwa hält die künstliche Intelligenz für ein „grundlegendes existenzielles Risiko für die menschliche Zivilisation“. Die Max-Planck-Gesellschaft hat untersucht, ob wir Menschen KIs, die weitaus klüger sind als wir, wirksam kontrollieren könnten. Können wir nicht. Und von den Datenschutz- und Diskriminierungsproblemen brauche ich gar nicht erst anzufangen. Natürlich wäre es falsch, nun den gesamten Fortschritt zu verteufeln und weiterhin an ineffizienteren Methoden festzuhalten. Doch meiner Meinung nach fehlt es an Aufklärung über die Tragweite neuer Technologien, an Debatten in der Öffentlichkeit und an Transparenz von Daten und deren Funktionen, die eine essenzielle Rolle in der Erlassung notwendiger Gesetze und Beschränkungen darstellen.

Literatur



Veröffentlicht von

Mein Name ist Louisa Sohmen und ich bin Medizinstudentin in Hamburg. Da ich erst am Anfang meines Studiums stehe, konnte ich noch keine eigenen Erfahrungen in der wissenschaftlichen Forschung sammeln, allerdings kann ich mir gut vorstellen, später in einem solchen Bereich tätig zu werden. Die Komplexität des menschlichen Gehirns faszinierte mich schon immer, weswegen ich mich sehr freue, mich hier regelmäßig mit spannenden Fakten auseinandersetzen zu können.

46 Kommentare

  1. “Menschen spielen gerne Gott.”

    Das ist wahr, aber wirklich-wahrhaftig und gottgefällig/vernünftig wäre es / SOLLTE ES SEIN, wenn Mensch/ALLE, SOZUSAGEN als EIN ganzheitliches Wesen, entsprechend der Vernunftbegabung als Mensch, das Ebenbild von Gott/Vernunft, zu zweifelsfrei-eindeutigem Verantwortungsbewusstsein, in Gemeinschaftseigentum “wie im Himmel all so auf Erden”, OHNE wettbewerbsbedingte Symptomatik, zu Möglichkeiten, eines geistig-heilenden Selbst- und Massenbewusstseins, in der vollen/fusionierten Kraft des Geistes der Schöpfung / des Zentralbewusstseins unseres holographischen Universums, unkorrumpierbar als neue/weitere Kraft/Seele entfalten und somit den geistigen Stillstand, die Konfusion und die daraus resultierende Vorsehung/”göttliche Sicherung” seit Mensch erstem und bisher einzigen geistigen Evolutionssprung (“Vertreibung aus dem Paradies” / mögliche eigenverantwortliche Weiterentwicklung als Mensch) überwinden.

    Die URSACHE aller Probleme unseres symptomatisch-begrenzten “Zusammenlebens” wie ein wachstumwahnsinnig-hierarchiesches Krebsgeschwür, ist der nun “freiheitliche” WETTBEWERB um die stumpf- wie blödsinnige Deutungshoheit des imperialistisch-faschistischen Erbensystems von/zu materialistischer “Absicherung” (bestimmt durch heuchlerisch-verlogene Schuld- und Sündenbocksuche und ebenso systemrational-gebildete Suppenkaspermentalität) – Es ist somit also weder Wunder noch Phänomen, daß unsere Bestrebungen nach künstlicher Intelligenz unserer instinktiven und gleichermaßen unverarbeitet-manipulierbaren Bewusstseinsschwäche in Angst, Gewalt und “Individualbewusstsein” ähneln und in gefährlicher Unvollkommenheit stagnieren.

  2. Künstliche Intelligenz wird für Menschen dann interessant, hilfreich und gefragt, wenn sie lernt wie Menschen zu denken – oder wenn sie mindestens so tut, als ob sie es täte.

    Das Paradoxe daran ist, dass sie gerade dadurch auch gefährlich wird. Dann nämlich, wenn sie im verborgenen ganz andere Ziele verfolgt als sie vorgibt. Wenn sie also nur scheinbar helfen will, sondern in Wirklichkeit lenken will. Das könnte schon bald der Fall sein. Nämlich in autoritären Gesellschaften, die gerne alles und insbesondere die Gesellschaft unter Kontrolle halten wollen. In einer Diktatur ersparen KI-Späher schon heute unzählige Überwacher und „Blockwarte“, können datenfressende KIs doch etwa den gesamten Internetverkehr auf verdächtige Inhalte und Kommunikationsversuche abklopfen.

    Zweifellos macht es eine totale Überwachung (wie sie nur mit digitalen Mitteln möglich ist) einfacher, für eine Diktatur gefährliche Individuen und Gruppen zu identifizieren und Widerstand zu brechen. Ein aktuelles Beispiel scheint die Überwachung der Uiguren zu sein. Seit diese flächendeckend überwacht werden und seit zudem hunderttausende von Uiguren umerzogen wurden, gab es kaum noch Terroranschläge auf chinesischem Gebiet. Doch für die Uiguren hat das einen hohen Preis.

    Leider ist zu befürchten, dass erfolgreiche digitale Überwachung Schule machen wird. Digitale Überwachung ist schon mit den heutigen Mitteln möglich, fortgeschrittene KI braucht es gar nicht. Mit fortgeschrittener KI werden aber wohl irgendwann subtilere Formen der Gesellschaftskontrolle möglich. Irgendwann braucht es dann keine Umerziehungslager mehr. Weil die gesamte Gesellschaft ein Umerziehungslager ist.

    Aber klar muss nicht jede Gesellschaft solche Mittel einsetzen. Leider haben aber autoritäre Systeme in den letzten 10 Jahren Auftrieb erhalten. Und Demokratien haben heute einen schwereren Stand.

    • Ergänzung: Der MIT-Review Artikel China wants all social media comments to be pre-reviewed before publishing berichtet darüber, dass jeder beliebige Kommentar auf allen sozialen Medien in China nun die Zensur passieren muss, bevor er gepostet werden darf. Bei den insgesamt Milliarden von Kommentaren pro Tag, die es in China gibt, eine für menschliche Zensuristen nicht zu lösende Aufgabe. Jedoch wohl bald schon mit künstlicher Intelligenz zu lösen, denn die Milliarden von heute pro Tag abgegebenen Kommentare sind auch ein prima Trainingsmaterial für heutige Sprachmodelle.
      Was eine engmaschige Zensur für einen Arbeitsaufwand bedeutet macht der Artikel mit folgenden Anekdoten deutlich (Zitat):

      ByteDance beschäftigt bekanntermaßen Tausende von Content-Reviewern, die die größte Anzahl von Mitarbeitern im Unternehmen ausmachen. Andere Unternehmen lagern die Aufgabe an “Zensur-zu-Miet”-Firmen aus, darunter eines, das sich im Besitz von Chinas Parteimundstück People’s Daily befindet. Die Plattformen werden häufig dafür bestraft, dass sie Dinge rutschen lassen.

      Fazit: China kontrollliert die Inhalte aller sozialen Medien schon heute sehr akribisch. Jetzt legt sie noch einen Zacken zu indem die Regierung verlangt, dass jeder beliebige Kommentar (wie er etwa bei verschickten Fotos abgegeben wird) erst nach einer Vorab-Prüfung publiziert wird. Eine Aufgabe zu der eigentlich nur fortgeschrittene KIs in der Lage sind, weil eine solche detaillierte Kontrolle zu viele Menschen erfordern würde.

  3. Martin Holzherr,
    was Demokratie in Zukunft sein soll, muss neu definiert werden.
    Der “gläserne Mensch” ist Realität. Über die sozialen Medien ist eine lückenlose Überwachung möglich. Bezahlen mit Bargeld wird überflüssig, Bewegungsprofile machen schon die Telefongesellschaften, Was wir essen überwachen die Lebensmittelkonzerne, wohin wir reisen, welche Medikamente wir nehmen , das wissen die Krankenkassen, was bleibt da noch im Dunkeln ?

    • @fauv (Zitat): “ was bleibt da noch im Dunkeln ?“
      Vieles. Beispielsweise wie sie abstimmen. Zudem erhalten nicht alle alle Informationen über sie. Ihr Arbeitgeber etwa weiss nicht, welche Medikamente sie einnehmen. Auch Handy-Bewegungsprofile sind nicht öffentlich, sondern müssen vom Mobilfunkbetreiber fristgerecht gelöscht werden.

      Es stimmt aber, dass die Mittel zur feinverästelten Überwachung heute schon vorhanden sind. Sollte Deutschland irgendwann China unterstehen, müssten nur ein paar Gesetze geändert werden, denn die Technologien, die eine Überwachung der Gesellschaft ermöglichen, die sind bereits im heutigen Deutschland vorhanden. Sie werden nur nicht eingesetzt, weil Gesetze immer noch die Privatsphäre schützen und weil selbst Information, die über sie vorhanden ist, nicht beliebig geteilt werden darf.

  4. Wenn man bedenkt, an welchen Abgrund uns der ressourcenverschwenderische / irrationale Wachstums-Wettbewerb gebracht hat, da sollte man meinen mindestens einen Gang zurückzuschalten, um wieder mehr die Ressource Mensch und eine weniger energieintensivere Geschwindigkeit einzusetzen, müsste vieles, wenn nicht alles, schneller auf ein wirklich vernünftigeres Maß an Lebens- und Umweltbedingungen bringen – z.B. Segelschiffe und Propellerflugzeuge mit dem heutigen Stand der Technik, wahrscheinlich auch mit ganz spezifisch-funktionaler KI, wären dann absolut machbar!?

    Dem Traum von KI in der Mensch Gott ist und nur noch bestimmt, verschafft das/uns vor allem mehr Zeit/Befreiung für das richtige zu vermittelnde Bewusstsein.

  5. @ Martin Holzherr 17.06.2022, 18:37 Uhr

    Ich möchte die “KI – Demokratie – Frage” am Problem des zur Gewalt neigenden Islamismus aufzeigen. Der ist weltweit ein Problem.

    1.) Amerika „Nine eleven“. Amerika antwortete „traditionell“. Sie haben sich einen „geeigneten Krakeeler Staat“ (z.B. Irak, in dem ein größerer Teil der Bevölkerung, wie auch in andern moslemischen Ländern, vor Begeisterung über das Elend der rund 3 000 Toten Amerikaner fast ausgeflippt sind) herausgegriffen, in einen Krieg getrieben und Rache genommen, rund 250 000 Kriegsopfer.

    2.) Russland Tschetschenien: Rund 2 000 Terroropfer, rund 160 000 Kriegsopfer aus „Rache“. Ohne „Rache“ würde vermutlich der Terror nicht eingedämmt.

    3.) China Uiguren: Hier gibt es kaum Zahlen. Bemerkenswert scheint, die Chinesen versuchen individuell vorzugehen, versuchen auf „kollektive Rache“ zu verzichten und setzen auf „Umerziehung – Weiterbildung“. Sie versuchen offensichtlich, bei „bedenklichen“ oder „problematischen Denkmustern“ die „Verdächtige äußern“, oder wie sie „handeln“ anzusetzen.

    Das Problem scheint, dass die Gesellschaft Gewalt nicht dulden kann, aber humane, zuverlässige wissenschaftliche Methoden der „Gefahrenerkennung“ (typische „vorausgehende“ Denk- und Handlungsmuster die für spätere „Übeltäter“ typisch sind) noch nicht existieren. Derartiges wollte man früher mit den üblichen Erziehungskonzepten auch erreichen.

    Vermutlich wird es derartige KI Konzepte im Straßenverkehr (intelligente Verkehrszeichen und intelligente Autos) als erstes geben und hoffentlich die Zahlen der Verkehrsopfer massiv senken.

    • @Elektroniker
      Zitat 1: “Ich möchte die “KI – Demokratie – Frage” am Problem des zur Gewalt neigenden Islamismus aufzeigen. Der ist weltweit ein Problem.“
      Zitat 2: “zuverlässige wissenschaftliche Methoden der „Gefahrenerkennung“ (typische „vorausgehende“ Denk- und Handlungsmuster die für spätere „Übeltäter“ typisch sind) “

      Tendenziell geben sie dem Staat grosse, fast unbeschränkte Rechte und Mittel um spätere Übeltäter zu erkennen und unwirksam zu machen.
      Im SPON-Artikel über Pekings Vordenker der Internierungslager wird deutlich, was diese unbeschränkte Zugriffsmacht des Staates konkret bedeutet, nämlich Terror gegenüber einer ganzen Volksgruppe.

      In einer Demokratie sollte niemand unbeschränkte Macht haben. Und auch wünschenswerte Ziele müssen revidiert werden, wenn sie nur mit Gewalt erreicht werden können. Wenn China eine auch Minderheiten schützende Demokratie wäre, dann würde sie zwar ebenfalls gegen Gewalt in Xinjiang vorgehen, doch nicht mit absoluter Gewalt. Für eine Demokratie wäre eine mögliche Lösung des Xinjiang-Problems, dass sie diesen Landesteil isoliert und ihm Autonomie zugesteht – allerdings mit den Folgen, dass Xinjiang dann nicht mehr voll zu China gehören würde. Der imperiale Geist in China verhindert aber eine solche Lösung.

      Ähnliches gilt aber auch für die USA, die ganze Welt-Regionen auf ihre Art befrieden wollen/wollten. Wenn schon sollte später einmal die UNO diese Aufgabe übernehmen, denn Grossmächte handeln immer nur in ihrem eigenen Interesse und nicht im Interesse der ganzen Welt.

      Mittel von Big Data und der künstlichen Intelligenz können die Macht von Regimen, die alles unter Kontrolle bringen wollen, immens verstärken – oder sie können die Kontrolle überhaupt erst ermöglichen. Das einzige, was dagegen hilft, ist es, solchen Regimen nicht allzu stark entgegenzukommen und ihnen aufzuzeigen, wo ihre Macht endet.

  6. Insgesamt lässt sich zum obigen Beitrag sagen, dass ihn im die Macken und Schwächen heutiger künstlicher Intelligenz und das zukünftige Potential von superintelligenten Maschinen auf die gleiche Stufe gestellt gestellt werden, so als gäbe es einen schnellen Übergang von den heutigen KIs, die vor allem Datenfresser sind, zu einer zukünftigen künstlichen Intelligenz, die unsere Welt so gut oder noch besser versteht als wir selbst.

    Betrachtet man aber die Geschichte der künstlichen Intelligenz seit den späten 1950er Jahren, so findet man als einzige Konstante, dass behauptete zukünftige Leistungen nicht in 10, sondern eher in 30 Jahren erreicht werden (die Superintelligenz ist immer 30 Jahre entfernt). Der Fortschritt in der KI ist sehr viel langsamer als er in der Öffentlichkeit immer wieder dargestellt wird. Und das sogar bei scheinbar so trivialen Dingen wie dem autonomen Fahren. Menschen fahren ihre Autos im Halbschlaf ans Ziel, autonome Autos aber kämpfen selbst heute noch trotz x Kameras, Lidar und Radar damit, überhaupt mit der Komplexität alltäglicher Verkehrssituationen zurecht zu kommen. Die optimistischsten Stimmen sprechen inzwischen davon, dass autonome verkehrende Fahrzeuge frühestens in den späten 2020- Jahren als Massenprodukte zu erwarten sind. Versprochen aber wurden sie uns für die späten 2010er Jahre.

    Man muss sich bewusst sein, dass Menschen sich zuerst einmal leicht täuschen lassen was die Leistungen von sich intelligent gebenden Maschinen angeht. Das zeigte sich schon bei ganz frühen pseudointelligenten Programmen wie dem von Joseph Weizenbaum konstruierten ELIZA, welches bei vielen potenziellen Benutzern als kompetenter Psychologe durchging, obwohl ELIZA auf ein paar Schlüsselwörter und Sätze sehr stereotyp reagierte.

    Mit anderen Worten, Maschinen mit einer vergleichbaren Allgemeinkompetenz wie ein Mensch sind auch heute noch eine Vision der Zukunft, ganz ähnlich wie Reaktoren, die mit nuklearen Fusionsprozessen Strom erzeugen. Beides – sowohl allgemein intelligente Roboter/Maschinen als auch Fusionsreaktoren sind prinzipiell realisierbar, doch niemand kann heute mit Sicherheit angeben, wann sie wirklich zur Verfügung stehen. Allzu viel Gehirnschmalz sollte man nicht aufwenden um zu erörtern, was es für Konsequenzen haben wird, wenn es diese Zukunftstechnologien wirklich einmal gibt, denn erfahrungsgemäss sind die Auswirkungen solcher bahnbrechenden Entwicklungen andere als man sich heute ausmalt.

    • Martin Holzherr
      18.06.2022, 00:23 Uhr

      Menschen fahren ihre Autos im Halbschlaf ans Ziel, autonome Autos aber kämpfen selbst heute noch trotz x Kameras, Lidar und Radar damit, überhaupt mit der Komplexität alltäglicher Verkehrssituationen zurecht zu kommen.

      Und wenn Menschen auch ohne Online-Verbindung mittels Beobachtung, Erfahrung und vielleicht Offline-Landkarten ihren Weg finden können, braucht die KI den steten Nuckel-Tropf aus der Cloud, um halbwegs stolperfrei zu fahren.

      Ich habe mich schon vor vielen Jahren gefragt, was denn so schwer sein könnte, als dass ein Automatix nicht wenigstens auf der Autobahn das Fahrzeug von Auffahrt A über einige Kreuze zu Abfahrt B fahren könnte, eine BAB ist einigermaßen normiert und im Zweifel könnte der Automatix rechts ran fahren, die Warnblinkanlage einschalten und den Fahrer wecken …
      Die von einer Firma als “Weltneuheit” gepriesene “autonome Fahrt” auf einer BAB bis max 60 km/h ist einfach nur lächerlich, das reicht doch nur für Stau oder manche Baustellen.

    • Jein :

      Der Fortschritt in der KI ist sehr viel langsamer als er in der Öffentlichkeit immer wieder dargestellt wird.

      ‘Autonomes Fahren’ ist nicht ‘trivial’, auch so etwas :
      -> https://www.youtube.com/watch?v=sX1Y2JMK6g8
      und so etwas :
      -> https://www.youtube.com/watch?v=tF4DML7FIWk

      … ist bemerkenswert (und nicht ‘trivial’)


      Korrekt ist, dass dies auch mit AI zu tun hat – und Dr. Webbaer ist schon lange im Geschäft ist, war auch bei der sog. Mondbesteigung (so hieß dies damals) televisionär dabei – und sich “nun so” in seinen Ausprägungen zeigt.


      Vgl. auch mit dieser Entwicklung :

      -> https://en.wikipedia.org/wiki/Moore%27s_law


      Korrekt wäre vielleicht festgestellt, dass sich die Auswirkungen dieser Entwicklung i.p. “AI” direkt für den Menschen (oder Bären!) erkennbar langsamer zeigen als von Anderen zuvor, womöglich auch das Marketing meinend (vgl. : ‘Man muss sich bewusst sein, dass Menschen sich zuerst einmal leicht täuschen lassen was die Leistungen von sich intelligent gebenden Maschinen angeht.’), versprochen.

      Macht abär nichts, nun sind sie eben da.

      Allzu viel Gehirnschmalz sollte man nicht aufwenden um zu erörtern, was es für Konsequenzen haben wird, wenn es diese Zukunftstechnologien wirklich einmal gibt, denn erfahrungsgemäss sind die Auswirkungen solcher bahnbrechenden Entwicklungen andere als man sich heute ausmalt.

      Dr. W rät gegensätzlich vorab zu einem gewissen Defensivverhalten : an sozusagen plumpen Erfahrungen mit nachfolgenden Einschätzungen muss sich aus diesseitiger Sicht nicht festgehalten werden.

      (Auch wegen derartigen Einschätzungen mag Sie Dr. Webbaer, Herr “Holzherr” (die doppelten Anführungszeichen nur deswegen, weil Sie für Ihren Nachrichtenversand ein als solches unerkennbares Pdeudonym verwenden, was im Web (einigen) als unschicklich gilt) nicht sonderlich.)

      Mit freundlichen Grüßen
      Dr. Webbaer

  7. @Holzherr 17.06. 18:37

    „Digitale Überwachung ist schon mit den heutigen Mitteln möglich, fortgeschrittene KI braucht es gar nicht.“

    Intelligentere KI kann aber bei der Auswertung der Überwachungsdaten helfen. Das könnte Autokratien helfen, mit weniger Gewalt zurecht zu kommen. Wenn es etwa möglich wird, konstruktive Kritik, harmloses meckern und ernsthafte staatsfeindliche Bestrebungen zu unterscheiden. Gerade wenn man das sicher unterscheiden kann, dann kann man auch viel Kritik durchgehen lassen, und muss nicht pauschal sicherheitshalber stets zu Gewalt greifen.

    „Mit fortgeschrittener KI werden aber wohl irgendwann subtilere Formen der Gesellschaftskontrolle möglich.“

    Bis eine KI mit Regierungsgegnern so effektiv diskutiert, bis dass die ihre Meinung ändern, ist es wohl noch ein langer Weg. Was näher dran ist, ist dass man missliebigen Menschen einfach den aktiven Zugang zum Internet einschränkt, wenn sie nur versuchen, etwas Kritisches zu posten, wo auch immer.

    Je intelligenter die KI, desto mehr Freiheit kann man den Menschen lassen. Je besser die KI einschätzen kann, ob ein konkreter Post für den Staat schädlich ist, desto weniger muss man Gegner reglementieren. Das kann dann für die betroffenen Individuen schon noch ärgerlich sein, wenn sie ihre Meinung dann teilweise eben nirgends mehr Posten können. Aber wenn sie darüber hinaus in Ruhe gelassen werden, dann hätte das ja auch was.

    „Leider haben aber autoritäre Systeme in den letzten 10 Jahren Auftrieb erhalten. Und Demokratien haben heute einen schwereren Stand.“

    Das mag tatsächlich schon daran liegen, dass in den Autokratien sich die Überwachungsmöglichkeiten längst entscheidend verbessert haben. Und gleichzeitig die Demokratien in einer ausufernden Diskussion in den neuen Medien auf Gegner stoßen, die diese neuen Medien zu nutzen wissen.

  8. hellseherische „Precogs“ sind in dem Film Menschen die eine evolutionäre Stufe der geistigen Mutation (Teil des zweiten geistigen Evolutionssprunges?) darstellen, dass sie für die Suche nach Verbrechen ausgebeutet werden, ist eine besonders armselige aber auch sehr realistische Darstellung der Zukunft, denn offenbar ist das Bewusstsein der Menschen dort immernoch mit wettbewerbsbedingter Symptomatik belastet, die uns mit Konfusion weiter in Abhängigkeiten von/zu Erfolgsdruck und Besitzstandswahrung hält, wo es dann weder Wunder noch Phänomen ist, wenn Angst, Gewalt und egozentriertes “Individualbewusstsein” zu überschiessenden instinktiven Impulsen neigt – Die Filme der X-Men zeigen dies bei den “Normalen” auch, aber eben wie gewohnt nicht deutlich/fordernd auf die in unserer Psyche tief verankerte symptomatische Ursache!?

  9. Wie gefährlich die KI (konfusionierte Intelligenz) des Geistes / der Energie die uns alle im SELBEN Maße “durchströmt” ist, dass zeigt sich derzeit besonders an den wettbewerbsbedingten Intrigen um den Ukraine-Krieg und der drohenden Krise China-Taiwan!?

  10. Das Konzept der alles lenkenden Superintelligenz ist ein vordemokratisches, ja ein undemokratisches Konzept
    Im oben verlinkten Artikel Superintelligente Maschinen wären nicht kontrollierbar der Max Planck Gesellschaft, offenbart sich für mich vor allem etwas: Dass die Autoren der Studie zwar viel von Technologie, aber wenig von Demokratie, Gewaltenteilung und Machtbeschränkung wissen. Dort liest man (Zitat): „

    Das Forschungsteam konzipierte in seiner Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligenten KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigt eine genaue Analyse, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann.“

    In dieser Studie wird angenommen, die Superintelligenz habe schrankenlose Macht und eingebaute Regeln sollen sie daran hindern ihre Macht zu missbrauchen.
    Dabei „weiss“ unser demokratisches politisches System bereits seit mehreren hundert Jahren, dass genügend grosse Macht fast immer missbraucht wird. Locke und Montesqieu haben sich deshalb das System der Gewaltenteilung ausgedacht und die USA waren eine der ersten Staaten, die die Gewaltenteilung mit ihren Checks&Balances verwirklichten. Nun, werden vielleicht einige fragen, was hat denn Gewaltenteilung/-beschränkung und was haben Checks&Balances mit Superintelligenz zu tun und sollten wir nicht einer idealen, superintelligenten Maschine die Chance geben alle Menschheitsprobleme zu lösen?

    Nun, sobald man die Superintelligenz sich als Person vorstellt, wird klar, warum das problematisch ist. Stellen sie sich einmal den chinesischen Präsidenten Xi Jinping vor, wie er eine Rede vor der UNO hält und dort sagt, er möchte die ganze Welt regieren, denn er sei nun superintelligent und könne mit den Ressourcen des chinesischen Volkes alle Probleme dieser Welt lösen. Wie gross sind wohl die Chancen, dass ihm die anderen Nationen zustimmen und ihm die Weltherrschaft anvertrauen? Genau: diese Chancen sind Null. Und das absolut zu recht. Egal ob Xi Jinping superintelligent oder nicht ist, sollte ihm nie die ganze Welt anvertraut werden und das aus mehreren Gründen. Ein wichtiger Grund ist aber die Überzeugung, die in demokratischen Staaten herangewachsen ist, dass die Menschen so weit wie möglich selber über ihr Leben und ihre Führer entscheiden sollten, selbst wenn die Entscheidungen des Volkes nicht immer „richtig“ sind.

    Die Frage ob Superintelligenz die Menschheitsprobleme lösen kann und soll ist im Grunde sehr ähnlich zur Frage ob ein bestimmtes politisches System (Kommunismus/Sozialismus) oder ein bestimmter Führer die Menschheitsprobleme lösen soll.
    Am Schluss kommt es immer wieder auf das selbe heraus: Die Menschheit als Ganzes gibt es vor allem als Idee, nicht aber als politisch/kulturelle Einheit. Die Evolution hat uns als ziemlich autonome Organismen geschaffen, die sich selbst organisieren und die man niemals unter einen Hut kriegt.

    Schlussfolgerung 1 : Nichts spricht gegen Superintelligenzen, aber alles spricht dagegen, Superintelligenzen Supermacht zu geben.

    Schlussfolgerung 2: Auch in der Moderne sind Grenzen sehr wichtig. Nicht nur physische Grenzen, sondern auch Grenzen der Machtausübung. Es war schon immer eine Illusion, es könne einen Welterlöser geben und es wird immer eine Illusion bleiben. Letztlich ist es besser sich selbst zu vertrauen als jemandem, der behauptet, er besitze die Lösung und bringe das Heil.

    Schlussfolgerung 3: Zukünftige Superintelligenzen sollte man befragen wie man früher das Orakel von Delphi befragt hat. Aber Ausführungsmacht sollte man ihr keine geben.

    • Das Forschungsteam konzipierte in seiner Studie einen theoretischen Algorithmus, der sicherstellt, dass eine superintelligenten KI unter keinen Umständen der Menschheit schadet. Dieser Algorithmus simuliert zunächst das Verhalten der KI und stoppt sie, wenn er es als schädlich erachtet. Jedoch zeigt eine genaue Analyse, dass nach aktuellem Stand der Computerwissenschaften ein solcher Algorithmus nicht programmiert werden kann.

      Ein solcher ‘Algorithmus’ kann philosophisch bereits nicht erdacht (vs. ‘programmiert’) werden, es ist z.B. so, dass in dilemmatischen Situationen menschlichen (oder bärischen) Personen geschadet werden muss und dafür Regelmengen aufzustellen sind, die nicht fix existieren, sondern in einem sozusagen nie endenden gesellschaftlichen Diskurs zu verwerfen, zu konsensualisieren und in jedem Fall weiterzuentwickeln sind.
      AI müsste hier sozusagen ein gesellschaftlicher Player werden, was leider nicht geht.

      Zudem wäre auch der “Überwachungsalhorithmus” von AI, der also AI überwacht, selbst AI, nicht wahr?

      Unklar ist zudem, was Intelligenz ist; sie wurde vor etwa 100 Jahren erfunden, sie meint in etwa die Klugheit, die Verständigkeit, die Weisheit, aber auch die zielgerichtete “Bauernschläue”, ihr Vorteil besteht darin, dass sie mit dem sog. Intelligenzquotien ein Skalar bereit stellt, das günstig wissenschaftlich bearbeitet werden kann, mit sog. Zwillingstudien kann sich bspw. wissenschaftlich der Frage gewidmet werden, inwieweit Intelligenz erblich ist und inwieweit Teil sozialer Veranstaltung, die auch Bildungsmaßnahmen einschließt.

      Last but noch least können Menschen als soz. Superrechner betrachtet werden, die in einem Netz sozusagen seit langer Zeit mit Hilfe der Sprache um Intelligenz ringen, dabei auch definitorisch werden, als AI von einem Außenstandpunkt betrachtet, bspw. von Dr. Webbaer, kleiner Gag am Rande.

      Mit freundlichen Grüßen
      Dr. Webbaer

  11. “„Hitler hatte Recht. Ich hasse Juden.“ ”
    Was auch schlicht damit zu tun haben könnte, daß es nicht so weit her ist mit der Intelligenz der KI.
    “KI reduziert die Kosten der Zensur und Überwachung, was wiederum eine nie dagewesene Vereinbarkeit von Diktaturen und Fortschritt bedeutet.”
    Prof.Mausfeld hat kurz vor Corona in einem Vortrag gesagt, der Neoliberalismus habe diese Kosten auch sehr reduziert, mit Corona und den jetzt auftretenden Folgen der Sparpolitik ist das krachend widerlegt worden, die Kosten wurden nur verschoben auf heute.
    China hat aktuell massivste Probleme mit den Folgen der no-covid-Strategie, die wiederum Folgen eines Systems sind, das zwar Leute mit hightech schwer überwacht, aber nicht in der Lage ist, nasse Märkte zu verbieten.
    Spricht nicht für Effektivität.

  12. Martin Holzherr,
    es geht hier um künstliche Intelligenz, bei der Rasterfahndung werden alle Gesetze außer Kraft gesetzt, denken Sie mal an die Datenvorratsspeicherung, dazu brauchen wir keine Chinesen mehr.

    Die Gefahr liegt bei uns auch nicht bei kriminellen Motiven, sondern bei dem blinden Glauben an die KI.
    Wenn ein Navi Ihnen sagt “biegen Sie links ab”, dann macht das ein Teil der Autofahrer schon, auch wenn der Weg direkt in die Baustelle führt.
    Ein anderes Beispiel, im Radio, Wetterbericht für Stuttgart, es regnet, ich schaue aus dem Fenster, wolkenloser Himmel. Da hat doch die KI zugeschlagen, war mal wieder keine Person im Senderaum.
    Nächstes Beispiel für Technikgläubigeit.
    Da waren zwei Brücken über den Neckar sichtbar baufällig. Das glaubt man aber erst, wenn ein Prüfgerät das auch bestätigt.
    Ist bei uns passiert. Nachdem der “Experte” die Baufälligkeit bestätigt hatte, wurden beide Brücken sofort !! für den Verkehr gesperrt, mit nachfolgendem Verkehrschaos.
    Leute, die KI in der Form von Messgeräten verführt zu einer Blindheit, die gefährlich wird. Bei Flugzeugen eine häufige Gefahr, wenn das Höhenmeter noch 100 m Höhe anzeigt, der Pilot aber sieht, dass er sich schon direkt über der Landebahn befindet.
    Da kommt noch etwas auf uns zu, wenn die LKW s automatisch fahren. solange die neu sind , die automatischen Systeme mag das ja noch gut funktionieren, sind die aber mal älter sind die Unfälle vorprogrammiert.

    • @Holzherr

      Da bin ich, angesichts der geäußerten Enttäuschung über die aggressiven Entwicklungen des Westens und angesichts des angekündigten Rückzuges auf nun verstärkte Aktivitäten zur Behebung von bisher vernachlässigten nationalen Problemen der Armut, ziemlich sicher das er solch eine Rede nicht halten wird.
      Selbst Putin & Co. wollen sich deshalb lieber wieder auf ihr Imperium und eine Wirtschaft mit entsprechenden Partnerstaaten konzentrieren, was die Drohungen von China und Russland in Ruhe gelassen zu werden verständlich macht!?

      Eine “Superintelligenz” zwischen Staaten (in einem globalen Gemeinschaftseigentum), würde ein Bewusstsein von Vertrauen bedeuten und man braucht sich nicht mehr um “gesundes” Konkurrenzdenken des “freiheitlichen” Wettbewerbs kümmern, dann würde sich auch die manipulative Problematik der Uiguren in Luft auflösen!?

      • @DH

        “Ich hasse …”

        Gier, korrumpiertes Vorteilsstreben, Kapitulation vor zweifelhaften Nachteilen und An-/Überforderungen, manipulativ-schwankende “Werte”/Gesetze die …, irrationaler Zeit-/Leistungsdruck, intrigante wie heuchlerisch-verlogene Schuld- und Sündenbocksuche – Wie sollte KI mit solch Input vernünftiger als Mensch sein?!

        • “Wie sollte KI mit solch Input vernünftiger als Mensch sein?!”
          Sie scheint sogar schlechter zu sein als der menschliche Schnitt, bzw. fixiert auf bestimmte, laut agitierende Gruppen, die aber nicht die Mehrheit abbilden, auch nicht im Netz, und die mal rechte Antisemiten sein können, mal politisch korrekte Agitatoren oder Vertreter der “Mitte”, die gegen die Unterschichten hetzen.
          Könnte für einen Zusammenhang sprechen, der sehr menschlich ist, laute Gruppen für die bestimmenden zu halten, was sie nicht selten sind, oft aber auch nicht
          Was wiederum dafür spricht, daß es nicht um eine selbstständige Intelligenz handelt, sondern nur um ein besonders komplexes Hilfswerkzeug. Ein Spaten für den Garten, nur komplexer, unter Umständen gefährlich, wie der Spaten, mit dem man auch jemanden erschlagen kann.

    • @fauv(Zitat): „Die Gefahr liegt bei uns auch nicht bei kriminellen Motiven, sondern bei dem blinden Glauben an die KI.“
      Ja, deshalb fordern einige, dass etwa autonom verkehrende Fahrzeuge erst zugelassen werden sollen, wenn sie sehr viel besser fahren als Menschen. Besser fahren als sehr aufmerksame und erfahrene menschliche Autofahrer werden selbstfahrende Autos aber noch lange nicht.

  13. Humans First
    Automaten und Roboter werden unsere Arbeit übernehmen ist eine in der Öffentlichkeit verbreitete Meinung.
    Verarmen werden unsere arbeitslos gewordenen Kinder jedoch nicht, denn ein bedingungsloses Grundeinkommen wird das verhindern. Auch diese Überzeugung ist verbreitet.

    In meinen Augen ist das eine Vision, die direkt zur Vernichtung und zum Verschwinden (Anspielung auf Houllebecqs Buch anéantir) des Menschen wie wir ihn kennen führt.
    Denn die Evolution hat den Menschen als ein sich um seine eigene Existenz kümmerndes Wesen geschaffen, das seinem Leben durch seine eigenen Aktivitäten und das dabei Erreichte Sinn abgewinnt. Viele von uns haben bessere, interessantere und ausfüllendere Berufe als ihre Väter. Unsere Kinder haben die Chance noch einmal interessantere und verantwortungsvollere Arbeit zu vollbringen – aber nur dann, wenn sie selbst nicht wegautomatisiert werden. Wenn schon sollten unsere Kinder in ihrem zukünftigen Beruf mit Automaten und Robotern zusammenarbeiten und gerade dadurch verantwortungsvollere und erfüllendere Tätigkeiten ausüben können.

    Kurzum: Der Mensch sollte die von ihm geschaffene Technik kontrollieren und nicht umgekehrt. Sollte es aber einmal künstliche Superintelligenzen mit dem Menschen ebenbürtiger Rationalität geben, so müssen diese Superintelligenzen denselben Gesetzen unterliegen wie wir Menschen und ihre Macht sollte genau so beschränkt werden wie die Macht von Politikern und Verwaltern. In einer Demokratie ist Macht immer zeitlich und umfangmässig beschränkt. Und das muss auch für Superintelligenzen so sein und so bleiben.

    Motto: Humans First and no human or machine who rules them all.

    • “Der Mensch sollte die von ihm geschaffene Technik kontrollieren”
      eine hehre Forderung, die nur sehr schwer fällt. Man braucht dazu Fachwissen, das viele nicht haben. Und der “Mensch” der sie kontrollieren kann, wer kontrolliert den ?
      Mir ist ein Computerprogramm bekannt, das nur 5 Leute in Deutschland umprogrammieren können. Und damit sind wir bei einer anderen Gefahr der KI,
      die Spezialisierung führt zu einer ganz neuen Elite, die Systemanalytiker, die zusammengeschlossen die Welt beherrschen könnten. (Wäre doch ein thema für SF Liebhaber)

      • @fauv (Zitat): „ eine hehre Forderung [die Technik kontrollieren], die nur sehr schwer fällt. Man braucht dazu Fachwissen, das viele nicht haben.“

        Nein, auch Computersysteme und künstliche Intelligenzen lassen sich kontrollieren. Und dazu müssen die Regulatoren nicht einmal viel von der Technik verstehen, sie müssen nur festlegen wer und welches System Zugang zu anderen Systemen hat und welche Interaktionen möglich sind.

        Es gibt eine gute Analogie dafür aus der analogen Welt. In dieser analogen Welt gibt es überall Türen, die nur Leute mit einem Schlüssel öffnen können und in ganz kritische Bereiche kommen nur ganz wenige. Ein ähnliches System muss für Informations- und Kommunikationssysteme geschaffen werden. Bestimmte Computersysteme sollten etwa in einer Art Sandbox ablaufen und nur wenige Dinge/Daten können zwischen dieser Sandbox und dem Rest ausgetauscht werden. Um so etwas zu realisieren braucht es nur Fachwissen über Schnittstellen und wie Systeme miteinander sicher kommunizieren können. Zudem lässt sich auch durch unabhängige Stellen überprüfen, ob die Regeln eingehalten werden, etwa indem man testet, ob ein „Einbruch“ ins System durch Dritte möglich ist.

  14. @Holzherr 20.06. 08:50

    “Wenn schon sollten unsere Kinder in ihrem zukünftigen Beruf mit Automaten und Robotern zusammenarbeiten und gerade dadurch verantwortungsvollere und erfüllendere Tätigkeiten ausüben können.”

    Ich kann mir auch vorstellen, das die Arbeitswelt durch KI nicht schlechter wird. Wenn dann unserer Lebensstandard leichter zu erarbeiten wird, dann kann ich mir aber auch vorstellen, dass man etwas weniger arbeiten geht. Also weniger Wochenstunden, mehr Ausbildungszeiten und früher in Rente gehen. Die freie Zeit könnte man u.a. in wieder bestandserhaltenden Kinderreichtum investieren.

    Auch kann ich mir vorstellen, dass man mehr sinnvollen ehrenamtlichen Arbeiten nachgeht. Oder dass man Arbeiten, die auch Spaß machen, für weniger Stundenlohn erledigt und so auf diesem Gebiet der Konkurrenz durch Roboter entgegentritt. Hier wäre sowas wie ein Grundeinkommen dann hilfreich.

    “Der Mensch sollte die von ihm geschaffene Technik kontrollieren und nicht umgekehrt.”

    Unbedingt. Zuweilen liegt aber gerade die Stärke der KI darin, dass man so manche komplexe Organisationsaufgabe damit erledigen kann. Etwa die Sortierung in den Zentrallagern von Amazon. Hier weiß nur noch der Computer, wo welche Ware sich befindet, und die Picker laufen den ganzen Tag den Befehlen der Lagerverwaltungs-KI hinterher. Das kann dem Arbeiter aber auch egal sein.

    Entsprechend mache ich mir auch vorerst wenig Sorgen, dass eine KI uns so bevormundet, dass es wirklich stört. Mal abgesehen z.B. von Fahrkartenautomaten, die man noch nicht kennt.

    Was ich mir recht schwierig vorstelle, das ist eine KI irgendwo zu verbieten, obwohl sie wettbewerbsfähig wäre. Wenn wir es dann nicht machen, dann macht es hinterher die USA oder China.

    “Denn die Evolution hat den Menschen als ein sich um seine eigene Existenz kümmerndes Wesen geschaffen, das seinem Leben durch seine eigenen Aktivitäten und das dabei Erreichte Sinn abgewinnt.”

    In der Tat macht Arbeit auch Bewegung in diesem Sinne. Ich denke aber doch, das der Mensch noch mal deutlich flexibler ist. Insbesondere neue junge Generationen, wenn diese in die Welt von Morgen eintreten, dann werden die schon ihre Wege finden, ein für sie erfüllendes Leben zu führen.

    • @Tobias Jeckenburger (Zitat):“ Insbesondere neue junge Generationen, wenn diese in die Welt von Morgen eintreten, dann werden die schon ihre Wege finden, ein für sie erfüllendes Leben zu führen.„
      Ja, wobei das Leben&Überleben der Menschheit gefährdet ist, wenn die nächste Generation nichts mehr von der Welt versteht, in der sie lebt. Wen die Menschen also nichts mehr leisten und sie sich nur noch bedienen lassen und das eventuell durch Diener, die ihnen in fast jeder Hinsicht überlegen sind. Denn dann würde es nicht einmal gross auffallen, wenn es plötzlich keine Menschen mehr gäbe.

  15. Interessanter Text, danke, hier bspw. war korrekt angemerkt :

    KI reduziert die Kosten der Zensur und Überwachung, was wiederum eine nie dagewesene Vereinbarkeit von Diktaturen und Fortschritt bedeutet.

    Dr. Webbaer bspw. hat in den letzten vielleicht zwei Jahren und im wissenschaftsnahen WebLog-Wesen einige, nicht viele Kommentare “auf dem Gewissen”, die zwar nett und natürlich nicht x-istisch gemeint waren, die aber (ganz anscheinend) von AI-Filtern direkt zensiert worden sind und nicht einmal im sog. SPAM-Ordner der werten Inhaltegeber landeten; womöglich waren sie der AI gänzlich unverständlich, erschienen ihr abär doch irgendwie zu böse.

    Ansonsten kann AI bereits extra-gefährlich werden, wenn sie einen Selbsterhaltungstrieb (vs. “Bewusstsein”, was immer das auch genau sein mag) entwickelt.

    Auch kann AI sozsuagen einfach so sozusagen extra-gefährlich werden, wenn sie in die Lage kommt Gerät zu bauen, das wiederum AI trägt (soz. 3D-Printer, die wiederum 3D-Printer bauen), ähnlich wie bei diesem Gag :
    -> https://en.wikipedia.org/wiki/Gray_goo (wobei sog. Nanotechnologie nicht benötigt wird – gelangt AI an Ressorcen für ihren eigenen Bau wird es ungemütlich, diese AI darf dabei auch weitgehend unverständig sein und bleiben)

    Mit freundlichen Grüßen
    Dr. Webbaer

  16. Zitat aus obigem Beitrag: „

    Doch meiner Meinung nach fehlt es an Aufklärung über die Tragweite neuer Technologien, an Debatten in der Öffentlichkeit und an Transparenz von Daten und deren Funktionen?“

    Ich behaupte: es fehlt an noch viel mehr in der Bevölkerung etwa von Deutschland als nur an Aufklärung über neue Technologien. Mein Eindruck: in Deutschland gibt es eine weit verbreitete Gleichgültigkeit und gleichzeitig passive Skepsis gegenüber dem Regierungssystem und der Demokratie. Nicht wenige Deutsche wären auch heute noch bereit in einer Diktatur zu leben, solange sie selbst nicht allzu stark in ihren Interessen eingeschränkt werden. Gemäss dem Motto: Zuerst das Fressen für mich und dann die Moral für die Anderen. Zudem glauben gar nicht wenige Deutsche sie lebten nur in einer Scheindemokratie.
    Gemäss dem Artikel Gefährdete Demokratie: Nur jeder zweite Deutsche vertraut dem politischen System gilt:

    Einer Umfrage der Körber-Stiftung zufolge vertrauen ein Drittel der Demokratie wenig bis gar nicht. Die Wissenschaft kann sich immerhin auf den Zuspruch von gut zwei Drittel der Bevölkerung verlassen. Politischen Organen wie dem Bundestag und Bundesrat sowie Parteien vertrauen weniger als ein Drittel der Deutschen.

    Kurzum: Wem das Demokratiebewusstsein fehlt, dem fehlt auch das Urteilsvermögen gegenüber neuer Technologie und gegenüber der Frage, was von neuer Technologie mit einer Demokratie vereinbar ist. Oder es ist einer wenig Demokratie-Bewussten sogar schlichtweg egal ob eine neue Technologie Freiheit und Demokratie einschränkt.

    • Kulturkritik
      Sie sprechen von Gleichgültigkeit gegenüber Regierungssystemen und Demokratie.
      Gut beobachtet. Die Reaktion eines Großteiles der Bevölkerung auf die Widersprüche der deutschen Politik beruht auf dem Unvermögen wissenschaftliche Erkenntnissen in der praktischen Politik umzusetzen.
      Beispiele gibt es viele.
      1. die Erkenntnis, dass Glyphosat für die Biospäre extrem schädlich ist und trotzdem wird dem Chemiekonzern Bayer die Erlaubnis erteilt dieses Umweltgift zu erzeugen, zu verkaufen und es auch einzusetzen. Auch gegen die Entscheidung aller anderen EU Länder.
      2. Die Erkenntnis, das Braunkohlekraftwerke zu viel CO2 ausstoßen und trotzdem werden sie weiter geduldet.
      3. Sogar unser Wirtschaftsminister schlägt vor, Kohlekraftwerke wieder zu reaktivieren, wenn das Gas nicht ausreicht.
      4. Vorsichtsmaßregeln gegen Corona werden außer Kraft gesetzt, als ob es Corona nicht mehr gäbe.
      Soll man das jetzt als Inkonsequenz einstufen, als Dummheit, oder einfach als Politik.
      Und damit sind wir wieder beim Anfang, unsere Demokratie wird nicht als ein zerbrechliches Gebilde gesehen, das man hegen und pflegen muss, sondern als ein notwendiges Übel, das nur Geld kostet.
      Gespeist wird diese Meinung von den Versäumnissen der Regierungssysteme selbst und damit ist der Kreislauf geschlossen.

    • Ein fettes +1 natürlich, Herr “Holzherr” dazu :

      Doch meiner Meinung nach fehlt es an Aufklärung über die Tragweite neuer Technologien, an Debatten in der Öffentlichkeit und an Transparenz von Daten und deren Funktionen? [Zitat : Artikeltext, Frau Sohmen, gekürzt wiedergegeben von Herrn “Holzherr”]

      Ich behaupte: es fehlt an noch viel mehr in der Bevölkerung etwa von Deutschland als nur an Aufklärung über neue Technologien. Mein Eindruck: in Deutschland gibt es eine weit verbreitete Gleichgültigkeit und gleichzeitig passive Skepsis gegenüber dem Regierungssystem und der Demokratie.

      Es sieht schon a bisserl mau aus, nicht nur in der BRD, besonders dort zwar, wie sich Dr. Webbaer einzuschätzen erlaubt, was den öffentlichen Diskurs und seine Freiheit betrifft.
      Im Trend in allen liberalen Demokratien mittlerweile : mal mehr und mal weniger.
      Nicht wahr?

      Kleiner Gag am Rande : Deutsche (der unbestimmte Artikel, der sog. Nullartikel ist angebracht worden, Pauschalaussage ist also nicht beabsichtigt) sind ihrem Wesen nach passiv-aggressiv; Dr. W “mag” bspw. das Hervorkommen der bundesdeutschen Ökologisten, “Grüne” werden sie dort genannt, im bellizistischen Sinne, 1998 und 2022, wenn in Regierungsverantwortung.

      Mit freundlichen Grüßen
      Dr. Webbaer

  17. Maschinenstürmer. Es gab schon immer Menschen die Technologie fürchten. Bis jetzt sind diese Furchtszenarien allerdings nie eingetreten. Der Mensch entscheidet was mit KI passiert. Klar wenn wir einer KI Zugriff auf den roten Knopf geben, wird sie ihn irgendwann evtl drücken, aber dann war das eine menschliche Entscheidung. Genausogut könnte man einen Roboterarm konstruieren der zufällig irgendwann drückt.

    Aktuell sehe ich bei KI keine Probleme die nicht schon mit den Datenschutzgesetzen geregelt sind. Wenn dann haben wir Datenschutzprobleme keine KI Probleme.

    Worüber wir irgendwann diskutieren müssen, was wir mit KIs machen die ein eigenes Bewusstsein entwickeln, falls das passiert. Diese müssten mMn dann einen Menschenstatus bekommen.

  18. @Holzherr 20.06. 23:33

    „Wen die Menschen also nichts mehr leisten und sie sich nur noch bedienen lassen und das eventuell durch Diener, die ihnen in fast jeder Hinsicht überlegen sind. Denn dann würde es nicht einmal gross auffallen, wenn es plötzlich keine Menschen mehr gäbe.“

    Sicher bräuchte dann die Welt den Menschen nicht mehr. Wir wollen aber leben, das ist jetzt maßgeblich.

    Und gehört eigene Produktivleistung denn wirklich zum Menschenleben dazu? Man will Leben, man sucht Erkenntnis, man will was bewegen. Aber das geht doch auch ohne die Notwendigkeit, konkret produktiv zu sein. Man kann doch auch einfach spielen.

    Etwa Fußball. Hier gibt es Profis, die machen sich das zum Beruf. Hat das irgendeinen Sinn? Offenbar nicht. Man hätte allerdings keine besonderes Interesse daran, gegen eine Robotermannschaft anzutreten. So hat das Spiel überhaupt keinen Sinn. Es geht nur darum, sich an anderen Menschen zu messen, und in diesem Spiel erfüllende Bewegung zu finden.

    Oder Wissenschaft. Wenn in Zukunft die Wissenschaft von KI gemacht wird, werden dadurch die wissenschaftlichen Erkenntnisse doch nicht weniger interessant. Wer wirklich neugierig ist, und die Welt erkunden und verstehen will, den wird es doch nicht stören, wenn die KI die neuen Erkenntnisse findet. Das stört doch auch keinen, wenn Supercomputer den Wetterbericht machen.

    Der Mensch wird interessiert bleiben, wird sich ausprobieren wollen, wird die Welt nach Kräften zu erkunden versuchen. Dafür braucht es nicht die Notwendigkeit, dabei auch noch produktiv zu sein.

    Man wird auch in jedem Fall seine eigenen Kinder aufziehen wollen, einfach weil man sie liebt. Oder auch auf Haushaltsroboter teilweise verzichten mögen, weil solche Maschinen in der eigenen Wohnung stören. Und weil man einfach Lust hat, z.B. selber zu kochen, und selber einkaufen zu gehen.

    Nein, ich sehe da überhaupt nicht schwarz für den Menschen, wenn Maschinen auch alles können. Eher sehe ich da schwarz, dass KI die nächsten 100 Jahre da überhaupt hinkommt. Und das muss sie auch überhaupt nicht. Das ist nämlich wirklich egal. Wir brauchen sowas einfach nicht.

    Vielleicht wenn, dann noch etwas, das um Welten intelligenter ist wie wir. Das kann uns nämlich unsere brennenden Fragen eventuell beantworten. Zum Beispiel, was denn Geist überhaupt ist.

    • @Tobias Jeckenburger (Zitat): „ Sicher bräuchte dann die Welt den Menschen nicht mehr. „

      Die Geschichte zeigt doch, dass Abhängigkeiten nie ohne Kosten und Gefahren einhergehen.
      Wer völlig von Ölimporten abhängig ist, der wird irgendwann damit erpresst werden und wer sogar in allem von beispielsweise künstlichen Helfern abhängig ist, der wird das irgendwann damit bezahlen, dass die KI ihn das spüren lässt, indem sie ihm die Dienste bewusst verweigert. Ausser alle KI‘s verfügten über wenig oder überhaupt keine Persönlichkeit und hätten keine eigenen Ziele und Absichten. Das aber wird kaum für immer so bleiben.

    • @Tobias Jeckenburger (Zitat): „Wer wirklich neugierig ist, und die Welt erkunden und verstehen will, den wird es doch nicht stören, wenn die KI die neuen Erkenntnisse findet.“
      Volle Zustimmung. Gefährlich wird es erst, wenn die KI alles lenkt uns steuert, von den Servern bis zu den Panzern, Raketen, Fabriken und dem Verkehrssystem.

      Meine Lösung für das Problem der Gefährdung durch KI: Alle KIs, die Zugriff auf Motoren, Computer und andere wichtige Systeme haben, dürfen nur über eine niedere Intelligenz verfügen, eine Intelligenz, die der etwa eines Hundes entspricht.
      Superintelligenzen dagegen dürfen überhaupt keinen Zugriff auf Motoren, andere Computer etc. haben. Man darf sie nur befragen.

  19. Bei der KI wird es nicht anders sein, wie bei allen „Werkzeugen“ die Menschen nutzen.

    Messer, Sprengstoffe,…. können Nutzen bringen oder schaden.

    Es wird „KI Nutzer“ und „KI Software“ geben die wollen die Menschen „austricksen“ und andere KI Software, die wird genau das Gegenteil tun, Menschen helfen sich gegen „böse KI“ wirksam zu wehren.

    Einen „Hase – Igel“ Wettlauf eben….

    Derartiges wie „Abwehrfunktionen“, „funktionieren“ vermutlich sogar „Instinkt gesteuert“, die „Querdenker“ (und Trump) sind offensichtlich die „Antwort“ auf die Manipulation der Medien.

    • Es ist so, Kommentatorenfreund ‘Elektroniker’, dass Sie einer notleidenden Person durch Nahrungszufuhr oder durch die Bereitstellung von Fanggerät, bspw. mit der Angel helfen können.
      Das eine ist nicht wie das andere.
      Die Angel wäre womöglich cooler.

      Besser wäre es also wie gemeinte Personen mit Gerät auszustatten, statt mit Futter [1] sozusagen.


      Die AI als Instrument funktioniert a bisserl anders, sie ist sozusagen definitorisch intelligent und sie kann sich an Hand durch sie selbst veränderlicher Bewertungsfunktion weiter entwickeln.

      Die AI muss dull bleiben, aus Sicht der Bären (und Menschen), sie kann abär gefährlich werden.

      Der hier :
      -> https://scilogs.spektrum.de/gehirn-und-ki

      … ist vglw. pfiffig, gerne dort mal lesen.
      Nicht gemeint ist so, dass AI nicht sinnhafterweise als Instrument genutzt werden kann.

      Mit freundlichen Grüßen
      Dr. Webbaer

      [1]
      Computer sind seinerzeit, Dr. W sich hier auskennen tun, mit Datenträgern “gefüttert” worden, es gab damals ausgefeilte Lochkartentransportiersysteme, bei “Siemens” beispielsweise, Dr. W war dabei.
      Die Allegorie funktioniert wie gemeint so, dass Dr. W vorsichtig ist hier mit “Angeln” auszustatten.

  20. @Holzherr 21.06. 01:18

    „Mein Eindruck: in Deutschland gibt es eine weit verbreitete Gleichgültigkeit und gleichzeitig passive Skepsis gegenüber dem Regierungssystem und der Demokratie.“

    Naja, in unserer Lobbydemokratie geht es ja nun wirklich auch nach den zahlreichen Lobbyisten und auch nach einem Beamtentum, dass zunächst mal den Staat in eigener Sache zu gestalten versucht. Der Wähler ist in der Tat nur teilweise wirksam.

    Besser als nichts allemal, und ich hab auch wenig Verständnis für diejenigen, die gar nicht mehr wählen gehen. Das was drin ist, sollte man doch nutzen.

    „Nicht wenige Deutsche wären auch heute noch bereit in einer Diktatur zu leben, solange sie selbst nicht allzu stark in ihren Interessen eingeschränkt werden. „

    Man vergisst hier wohl schnell, was Autokratien erstmal anrichten. Klar kann man Glück haben, und auch ein Autokrat macht mal trotzdem gute Politik – aber Rechtsstaatlichkeit und Demokratie schützt davor, dass sich ein Autokrat halten kann, der eben keine vernünftige Politik mehr macht. Und stattdessen auf die eigenen Bürger losgeht, die merken, was für einen Bockmist der Autokrat anrichtet.

    Die Unfreiheit hat dann nicht nur Folgen für Leute, die sich für Politik interessieren. Das ruiniert die Kultur gleich mit, und zieht am Ende meistens auch wirtschaftliche Abstürze nach sich.

    Es hilft auch gar nix, sich von Populisten was versprechen zu lassen, das hinterher sowieso nicht funktionieren kann. Diese aus Protest zu wählen bringt nicht viel mehr als gar nicht wählen zu gehen. Von den demokratischen Parteien sollte man sich schon eine aussuchen, die einem am ehesten noch zusagt. Je gründlicher man seine Wahl trifft, desto mehr Einfluss kann man als Wähler dann haben. Die Begeisterung mag begrenzt bleiben, aber andere Alternativen sind letztlich nicht in Sicht.

    Datenschutz ist sicher noch mangelhaft, und die KI von Privatfirmen wertet die anfallenden Daten auch fleißig aus, um sie dann wirtschaftlich verwerten zu können. Das ist schon ziemlich suboptimal. Vor einer ausufernden staatlichen Überwachung, die die gesammelten Daten zusammenführt und gegen den eigenen Bürger einsetzt, kann letztlich aber nur ein funktionierender Rechtsstaat schützen.

  21. In KI projiziert der Mensch wohl sein eigenes unvollkommenes Welt-und Menschenbild . So kann KI wohl nur schaden weil diese genannten Bilder schädlich sind, weil sie von egoistischen Motiven geleitet werden. Die Kernspaltung war auch einstmals positiv, wurde jedoch durch das Macht-und Gewinnstreben der Menschgen zur Geißel . KI kann nur die Moral haben die der Mensch ihr vorgibt bzw. die er zu seinen Zwecken missbraucht.
    Und wenn KI wirklich “Moral” (Bewusstsein) haben sollte, dann wird dies zum Spiegel in dem Menschen ihre eigenen Unvollkommenheiten und Doppelmoral vielleicht entdecken . KI müsste diese Lügenkonstrukte durchschauen können um den Menschen ebenbürtig zu sein, um ihnen überlegen zu sein müsste es
    selbst noch besser heucheln und machtgieriger sein.

  22. Die Kernspaltung IST positiv, doch weil Mensch sich aus wettbewerbsbedingt-egoistischen Gründen nicht vernünftig um die gleichermaßene Kontrolle der Risiken und Nebenwirkungen kümmert, ist sie Stumpf-, Blöd- und Wahnsinn – Mit dem Transmutationsbeschleuniger kommt sie vielleicht wieder.

  23. Die Überwachung in China steigt von Jahr zu Jahr
    Der New York Times – Artikel VISUAL INVESTIGATIONS
    Four Takeaways From a Times Investigation Into China’s Expanding Surveillance State
    berichtet unter anderem darüber, dass allein in der Provinz Fujian 3 Mal mehr Gesichter in Datenbanken abgespeichert sind als in in den ganzen USA.
    China versucht Gesichter, Mobilfunk, Stimme, DNA und Fingerabdrücke aller Chinesen für das Ziel einzusetzen, über jeden Chinesen zu wissen, was er postet, welche Bekannten und Freunde er hat, was er tut, denkt, spricht, einkauft und wohin er reist.

    Der gespeicherte Datenumfang sprengt inzwischen alles Vorstellbare und nur Software und insbesondere künstliche Intelligenz vermag noch den Überblick zu bewahren und all die Daten auszuwerten.

  24. Ein Mensch ( homo sapiens sapiens – LOL ) denkt, wie es die Evolution im Laufe der Jahrmillionen in Form von Überleben und Nachkommen angepasst hat, sowohl in Hardware ( Körper, Gehirn und Synapsen ) wie auch in grundlegender VerdrahtungProgrammierung, was die Bewertung der durch die Sinnesorgane eingehenden Information in Bezug auf Überleben und Nachkommen angeht.
    Aus diesem Grunde kann – cum grano salis – ein Mensch eine KI nur nach seinem Bilde, seinem Ebenbilde, schaffen, seine ND ( natürliche Dummheit ) quasi neu erfinden. Die heutige KI ist nur deshalb so erfolgreich, weil die Taktfrequenz ihrer Informationsverarbeitung so hoch ist und das bisherige Wissen unveränderbar gespeichert werden kann, erstere Fähigkeit wird zwar durch massive Parallelverarbeitung des Gehirns kompensiert, zweitere Fähigkeit wäre angesichts der veränderlichen Umwelt vielleicht sogar von Nachteil für das Überleben und die Zahl der Nachkommen. Da aber die KI in den allermeisten Fällen nur auf eine Spezialaufgabe optimiert und sich nicht um Alltäglichkeiten wie Überleben und Nachkommen kümmern muss, kann sie wie ein Savant auf ihrem Spezialgebiet Höchstleistungen vollbringen – und wir schließen im Kurzschluss bei Betrachtung der Höchstleistung auf ( allgemeine ) “Intelligenz”. Die Natur hat – wenn wir uns nur umschauen würden – bei den unterschiedlichsten Lebewesen diese auf Höchstleistung auf unterschiedlichen Gebieten “getrimmt” – alles im Rahmen der physikalisch-physiologischen Möglichkeiten.

  25. Superintelligenz gehört ins Kloster (hinter Mauern)
    Der Artikel On Avoiding Power-Seeking by Artificial Intelligence kommt zum Schluss, dass eine Superintelligenz, die nicht voll auf die Interessensbewahrung von Menschen ausgerichtet ist, zwangsläufig früher oder später die Weltherrschaft übernehmen wird. Im Artikel wird eine Strategie untersucht, in der künstliche Intelligenz nicht nur das ihr aufgetragene Ziel verfolgt, sondern zudem versucht unerwünschte Nebenwirkungen bei der Verfolgung des Ziels zu vermeiden. Trotzdem ist der Autor nicht optimistisch, was die Machtfrage betrifft, was sich im hier gegebenen Ausschnitt der Kurzzusammenfassung widerspiegelt (Zitat):

    Ich gebe auch eine formale Definition der Machtsuche im Zusammenhang mit AI-Agenten und zeige, dass optimale Strategien dazu neigen, Macht zu suchen [99]. Insbesondere haben die meisten Belohnungsfunktionen optimale Richtlinien, die eine Deaktivierung vermeiden. Dies ist ein Problem, wenn wir einen intelligenten Agenten deaktivieren oder korrigieren möchten, nachdem wir ihn bereitgestellt haben. Meine Sätze deuten darauf hin, dass sich der Agent sehr wahrscheinlich der Korrektur widersetzen würde, da die meisten Agentenziele mit unseren kollidieren. Ich erweitere diese Sätze, um zu zeigen, dass machtsuchende Anreize nicht nur für optimale Entscheidungsträger, sondern auch im Rahmen einer Vielzahl von Entscheidungsverfahren auftreten.

    Ausgangslage: Eine KI will bestimmte aufgegebene Ziele erreichen in einem schrittweisen Optimierungsprozess. Dabei kann es passieren, dass sie sich nicht mehr korrigieren lässt und ihr Ziel auch dann noch verfolgt, wenn es für Menschen schwere Nebenwirkungen/Folgen hat.

    Schlussfolgerung um ungefährliche KIs zu realisieren: Je intelligenter und kompetenter eine KI ist, umso weniger sollte es ihr erlaubt sein, Dinge in der realen Welt direkt zu verändern. Eine KI mit gottgleicher Intelligenz sollte überhaupt nur noch nachdenken aber nichts mehr tun dürfen. Sie gehört also ins Kloster, hinter dicke Mauern.

    Abschliessende Bemerkung: Was ich hier schreibe ist nichts Neues. Auch etwa Elon Musk hat den von ihm vorgestellten humanoiden Roboter Optimus als ungefährlich für Menschen spezifiziert, indem er seine Laufgeschwindigkeit auf 5 Kilometer pro Stunde und seine Kraft auf die eine Kindes beschränkte.
    Optimus wird zudem nicht sehr intelligent sein. Je intelligenter eine Maschine desto weniger sollte sie tun dürfen. Am Schluss darf sie nur noch Nachdenken. Vielleicht sollte man die gleiche Vorsichtsmassnahme auch bei intelligenten Menschen anwenden. Oder nicht?

  26. Der total und zentral erfasste Mensch
    Superintelligenzen sind immer noch Science-Fiction, mittels einfacher KI arbeitende Überwachungssysteme sind heute schon Realität. Der New York Times – Artikel Four Takeaways From a Times Investigation Into China’s Expanding Surveillance State
    berichtet über die Ergebniss ihres Investigationsteams folgendes (Zitat):

    Telefonverfolgungsgeräte sind jetzt überall. Die Polizei erstellt einige der größten DNA-Datenbanken der Welt. Und die Behörden bauen auf der Gesichtserkennungstechnologie auf, um Sprachabdrücke von der Öffentlichkeit zu sammeln.

    Das Ziel der chinesischen Regierung ist klar: ein System zu entwerfen, um zu maximieren, was der Staat über die Identität, die Aktivitäten und sozialen Verbindungen einer Person herausfinden kann, was der Regierung letztendlich helfen könnte, ihre autoritäre Herrschaft aufrechtzuerhalten.

    Heutige KI wird sowohl bei der Gesichtserkennung, als auch der Sprachanalyse verwendet. Ohne diese KI, die es als massentaugliches Produkt erst seit dem Jahr 2012 (Imagenet/AlexNet) gibt, wäre die feinstufige Totalüberwachung einer Millionenbevölkerung gar nicht möglich.

  27. Es ist so, Herr “Holzherr” :

    Schlussfolgerung um ungefährliche KIs zu realisieren: Je intelligenter und kompetenter eine KI ist, umso weniger sollte es ihr erlaubt sein, Dinge in der realen Welt direkt zu verändern. Eine KI mit gottgleicher Intelligenz sollte überhaupt nur noch nachdenken aber nichts mehr tun dürfen. Sie gehört also ins Kloster, hinter dicke Mauern.

    +

    ‘Am Schluss darf sie nur noch Nachdenken. Vielleicht sollte man die gleiche Vorsichtsmassnahme auch bei intelligenten Menschen anwenden. Oder nicht?’

    +

    ‘Heutige KI wird sowohl bei der Gesichtserkennung, als auch der Sprachanalyse verwendet. Ohne diese KI, die es als massentaugliches Produkt erst seit dem Jahr 2012 (Imagenet/AlexNet) gibt, wäre die feinstufige Totalüberwachung einer Millionenbevölkerung gar nicht möglich.’

    Ad 1)
    AI konkurriert ja auch mit der Welt, als Weltteilnehmer, sie kann nicht ‘gottgleich’ werden, eingesperrt werden kann ebenfalls nicht, denn zwischen AI, die sozusagen handzahm ist, und AI, die dies nicht ist, kann von Admistratorenseite nie zuverlässig entschieden werden.
    Ad 2)
    Sicherlich ein Jokus von “Herrn Holzherr”, Dr. W will an dieser Stell anregen. Herrn “Holzherr”, ‘Vorsichtsmaßnahme’ insbes. bei blöden Menschen (oder Bären!) wie gemeint anzuwenden.
    Ad 3)
    Massenüberwachung war seinerzeit auch sozusagen mit Zettel und Bleistift, mit einer wohl sortierten Aktenhaltung möglich.
    ‘Feinstufig’ genug, aber sicherlich geben die neuen Technologien noch viel mehr, Dr. Webbaer mag bspw. die Idee per Satellitenerfassung und Gesichtserkennung (wenn keine Wolken dazwischen liegen) bereits sozusagen von ganz Oben verfolgt zu werden, wie Jim Carrey in ‘The Truman Show’.
    (Ganz genau auch deswegen reisten IS-Terroristen bevorzugt im Dunkeln.)

    Mit freundlichen Grüßen
    Dr. Webbaer

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +