Mit Künstlicher Intelligenz an die Weltspitze – die Beispiele China und Deutschland

BLOG: Beobachtungen der Wissenschaft

Grenzgänge in den heutigen Wissenschaften
Beobachtungen der Wissenschaft

Der Begriff „Künstliche Intelligenz“ (KI) ist mehr als 60 Jahre alt (er wurde 1956 von John McCarthy auf einer Konferenz in Dartmouth geprägt). Aber erst in den letzten fünf bis zehn Jahren hat sich dieses Feld zu einer zukünftigen Schlüsseltechnologie mit immer mächtigerem Einfluss auf unser Leben entwickelt. Dabei geht es immer mehr auch um Aufgaben, die bisher der menschlichen Kognition vorbehalten waren: Muster erkennen, Ereignisse, deren Eintreffen durch Unsicherheit getrübt sind, vorhersagen und Entscheidungen unter komplexen Bedingungen treffen. KI-Algorithmen können zunehmend die Welt um uns herum wahrnehmen und interpretieren. KI-Forscher behaupten sogar, dass sie schon bald zu Emotionen, Mitgefühl und echter Kreativität fähig sein werden. Doch ungeachtet, ob sie eines Tages diese spezifisch menschlichen Fähigkeiten haben werden, erkennen können KI Systeme diese bei uns Menschen bereits schon heute. Das Lesen von Emotionen aus einem menschlichen Gesichtsausdruck ist für eine entsprechende KI unterdessen sogar einfacher als für Menschen. Und bei Schachturnieren, bei denen Computer nicht zugelassen sind, gelten besonders ungewöhnliche und kreative Züge als ein Indiz dafür, dass jemand schummelt und heimlich auf einen Computer zurückgreift.

Was hat diese Technologie, die vor 15 Jahren noch als Spielwiese für Freaks galt, plötzlich so derart mächtig werden lassen? Es war die Entwicklung eines speziellen Ansatzes, der alles verändert hat. Dieser wird als „Deep Learning“ bezeichnet und beschreibt eine vom menschlichen Gehirn inspirierte Architektur von künstlichen Neuronen und ihren Verbindungen untereinander. Wie der Name vermuten lässt, können diese Netzwerke sehr viele Neuronenschichten tief sein und noch weit mehr Parameter enthalten. Diese neuronalen Netze werden auf riesige Mengen markierter Daten “trainiert”. Danach nutzen sie das, was sie „gelernt“ haben , d.h. wie sie auf der Basis der Lerndaten ihre vielen verschiedenen Parameter eingestellt haben, um subtile Muster in anderen Datenbergen zu erkennen. So brauchte es neben dem neuen Struktur-Paradigma des Deep Learning noch etwas Zweites, um die KI zu erwecken: gewaltige Datenberge. Genau diese wurden mit der immer weiteren Verlagerung unsere Aktivitäten in die Online-Welt verfügbar: Die grossen amerikanischen Internetfirmen Google, Facebook und Microsoft, aber zunehmend auch ihre chinesischen Pendants, Baidu, Tencent und Alibaba sammeln, speichern und nutzen die vielen Daten über unser Verhalten, unsere Vorlieben und unsere Intentionen, die wir so bereitwillig zur Verfügung stellen. Mit der Kombination aus Rechenpower und Datenbergen wurde die KI in kürzester Zeit immer besser darin, Sprachen und Texte zu verstehen, Gesichter zu erkennen, Schach und Go zu spielen, MRI Bilder und Hautgewebe nach bösen Tumorzellen zu untersuchen oder auch die Wahrscheinlichkeit eines Kreditausfalls oder Kreditkartenbetrugs einzuschätzen.

All dies bedeutet aber auch, dass sich der Schwerpunkt der KI-Entwicklung in den letzten zwei bis drei Jahren dramatisch verändert hat, von Projekten in Spitzenforschungslaboren in spezialisierten Instituten (inkl. jener bei Google, IBM oder Facebook) zu Anwendungen in der realen Welt mit realen Daten. Wie schnell die Entwicklung der KI-Forschung verläuft, zeigt die weitere Entwicklung der KI von AlphaGo. Nur 18 Monate nach AlphaGos spektakulärem Sieg über den besten menschlichen Spieler hatte Google bereits eine neue Version einer Go spielenden künstlichen Intelligenz geschaffen. AlphaGo Zero brauchte nun gar nicht mehr mit alten Spielen gefüttert zu werden, um seine Spielstärke zu erreichen. Wie der bekannte Dr. B. aus Stefan Zweigs Schachnovelle liessen ihn seine Entwickler nur noch gegen sich selbst spielen und so lernen. Bereits nach drei Tagen und 4.9 Mio. Partien hatte AlphaGo Zero eine Fertigkeit im Go-Spiel erreicht, die ihn seinen noch auf realen Partien ausgebildeten Vorgänger und Bezwinger des Weltmeisters AlphaGo in 100 Spielen mit 100 zu Null besiegen liess. Nicht weniger beeindruckend war AlphaGo Zeros Performance im Schachspiel. Er gewann in 100 Partien gegen den bis dahin weltbesten Schachcomputer, der mit Millionen von historischen Schachpartien und der jahrhundertealten Erfahrung schachspielender Menschen gefüttert worden war und eine Rechenleistung von 70 Millionen Stellungen pro Sekunde besass, 28 Mal und spielte 72 Partien Remis (verlor also kein einziges Mal). Das Erstaunliche dabei: Er hatte das Schachspielen nur vier Stunden zuvor erlernet, in dem er, ausgestattet ausschliesslich mit den Regeln, vier Stunden gegen sich selbst spielte und dabei seine neuronalen Verbindungen optimierte, ohne dass ihm jemals irgendwelche Eröffnungen oder Spielstrategien vorgesetzt worden waren. Dazu konnte er „nur“ 80‘000 Stellungen pro Sekunde bewerten. In nur vier Stunden vom Anfänger zur unschlagbaren, besten Schachmaschine der Welt! Eine KI wie AlphaGo Zero ist so mächtig, weil sie „nicht mehr durch die Grenzen des menschlichen Wissens beschränkt“ sei, sagt einer der Erschaffer von AlphaGo und AlphaGo Zero, Demis Hassabis. Diesen Satz muss man sich mal auf der Zunge zergehen lassen.

Diese Entwicklungen wiederum führen eine noch ganz andere Konsequenz nach sich: War bisher die USA mit ihren führenden KI-Forschungsinstituten und Software-Firmen unangefochtener Anführer der KI-Revolution, so ist in den letzten zwei Jahren China mit seinem immens grossen Markt von über einer Milliarde Menschen, seinen immensen und vollständig ungeschützten Datenmengen, die Internetbenutzer dort hinterlassen, und seinen hartnäckigen und aggressiven Unternehmern sehr schnell zu einer KI-Supermacht herangewachsen, wie es der Unternehmer und einflussreiche Investor Kai-Fu Lee in seinem neuen Buch AI Superpowers. China, Silicon Valley, and the new World Order eindrucksvoll beschreibt. Hier erweist sich gerade eine Begebenheit, die uns in Europa die Haare  zu Berge stehen lässt, als einer der grössten Wettbewerbsvorteile: das komplette Fehlen jeglichen Datenschutzes. Wird schon in den USA dieses Thema sehr kleingeschrieben, so sehen die Chinesen zum Thema „persönlicher Datenschutz“ nicht einmal den geringsten Diskussionsbedarf. Im Gegenteil: Der freie Zugang der chinesischen Internetfirmen zu den persönlichen Daten ihrer Kunden wird als grösster Vorteil von Baidu und Tencent im globalen Wettbewerb um die Führerschaft in Sachen KI gepriesen. Tatsächlich wurde KI von der kommunistischen Regierungspartei Chinas im Juli 2017 als einer der wichtigsten Wachstumsgebiete erkannt und seitdem massiv gefördert. Insbesondere der überlegene Sieg von AlphaGo über den Weltmeister im Go, dem Nationalspiel Chinas, hat die politische Führung in China zum Thema KI aufgeweckt. Von KI-Experten wird dieser Moment bereits als Chinas „Sputnik-Schock“ bezeichnet. Der Staat begann, die chinesische Wirtschaft geradezu mit Geldern für KI-Entwicklungen zu überfluten. So stellte die Stadt Beijing unlängst 2.1 Mrd. US-Dollar zur Verfügung, um in den Aussenbezirken der Stadt einen KI-Industriepark zu bauen, Shanghai und 17 andere chinesische Städte haben ähnliche Ambitionen, die Stadt Tianjin hat sogar angekündigt, einen 16 Mrd. US-Dollar-Fonds aufzusetzen (100 Mrd. Yuan), um in lokale KI-Firmen und -Institutionen  zu investieren. Dazu kommen umfangreiche Investitionsprogramme, um KI-Ingenieure und -Experten auszubilden, staatliche Zuschüsse für KI-Unternehmer und steuerliche Vorteile für die Firmen. Das zieht auch immer signifikantere private Investitionen nach sich: Das Gesamtvolumen chinesischer Investments (privat und staatlich) in KI und Robotik beträgt bereits schätzungsweise 300 Mrd. US Dollar. Insbesondere in den letzten Monaten hat China mehr Investmentkapitel in KI aufgebracht als die USA. Mit diesem neuen KI-Ökosystem, einer Mischung aus der Fülle staatlicher Geldern, dem Aufbaus einer intelligenten Infrastruktur, massiven Investitionen in die KI-Forschung und den weltweit ambitioniertesten Unternehmern ist der Aufstieg Chinas zur KI-Supermachen kaum mehr aufzuhalten.

Man vergleiche dies mit der Initiative der deutschen Bundesregierung, wie sie kürzlich in ihrer Publikation Strategie Künstliche Intelligenz festgehalten wurde und auf dem Digital-Gipfel zum Schwerpunkt KI am 4. Dezember verabschiedet wird. Die Bedeutung von KI für unsere Zukunft haben die deutschen Politiker nun auch erkannt. Der Bericht erfasst klar, dass Deutschland und Europa beim Thema KI ins Hintertreffen geraten ist. Ob diese Einsicht, vergleichbar mit der der chinesischen Führung nach der menschlichen Niederlage im Go, mit der Performance der deutschen Fussballnationalmannschaft im Jahr 2018 zu tun, ist nicht bekannt. Doch das Ziel ist hochgesteckt: Die Kanzlerin will Deutschland in Sachen Künstliche Intelligenz zum “weltweiten Spitzenreiter” machen. Und dafür ist sie bereit, Geld in die Hand zu nehmen: 500 Millionen Euro pro Jahr. Im Vergleich zu den chinesischen Geldern ist dies allerdings ein Taschengeld. Dabei hat Deutschland in Sachen KI einiges aufzuholen: Deutsche Forscher sind mit Tagungsbeiträgen bei grossen internationalen Fachkonferenzen kaum zu sehen. Diese werden dominiert von den amerikanischen Firmen Google, Microsoft und Facebook, sowie zunehmend auch von chinesischen Wissenschaftlern und Ingenieuren, auch wenn sich diese noch etwas zurückhalten (wollen sie doch vielleicht ihre Ergebnisse lieber noch für sich behalten). Und das lassen sich diese Firmen auch einiges kosten: Die Einstiegsgehälter für ausgebildete KI-Experten liegen zwischen 300‘000 und 500‘000 US-Dollar!

Um in maschinellem Lernen und KI schnell Fortschritte zu machen, braucht es drei Dinge: 1 eine enorme Rechenleistung; 2. grosse Datenmengen und 3. Innovationen, also KI-Experten. Auf allen drei Ebenen hinken Deutschland und Europa stark hinter den USA und China her. Das wird sich mit drei Milliarden Euro in fünf Jahren kaum ändern. Mit einem Taschengeld vom Nachzügler zum “weltweiten Spitzenreiter” zu werden entspricht reinem Wunschdenken. Da braucht es schon einen fundamentaleren Wandel. Wo die Deutschen allerdings schon wesentlich weiter sind, ist beim Bewusstsein, dass es auch eine Diskussion um die verantwortungsvolle Gestaltung der KI-Technologie braucht. So entstand die neue KI-Strategie für Deutschland, wie in dem Strategiepapier betont wird,  „in einem umfassenden demokratischen Prozess“. Man will „Rahmenbedingungen für die ethische Anwendung Künstlicher Intelligenz schaffen“ und „gesellschaftliche Dialoge zu den Chancen und Auswirkungen künstlicher Intelligenz fördern“. Das ist sehr löblich, finden sich doch Sätze wie diese kaum in den entsprechenden Willensbekundungen chinesischer oder amerikanischer Herkunft. Doch sind dies mehr als hehre Worte? Man spricht von einer „menschenzentrierten Entwicklung und Nutzung von KI-Anwendungen“, vom Ziel eines „hohen Niveaus an IT-Sicherheit, damit Manipulation, Missbrauch und Risiken für die öffentliche Sicherheit dieser sensitiven Technologie bestmöglich verhindert werden“. Das klingt doch eher nach politischer Besänftigung und Einlullerei. Hier fehlt der Mut zur klaren Aussage. So mancher echter KI-Experte scheut vor solchen nicht zurück. Der KI-Pionier Stuart Russel zeichnet das drastische Bild von uns Menschen in einem Auto, welches auf eine Klippe zufährt und wir dabei hoffen, dass der Benzintank leer ist, bevor wir in den Abgrund stürzen. Wie Elon Musk behauptet auch Russel, dass KI für den Menschen so gefährlich werden kann wie Nuklearwaffen. Experten betteln teils förmlich um staatliche Rahmengesetze und Regulierungen. Dahinter steckt ihre ernste Sorge, dass politische Entscheidungsträger die technologischen Entwicklungen verschlafen, sie nicht ernst genug nehmen oder, wie in den allermeisten Fällen, sie überhaupt nicht verstehen. So verdeutlicht auch der neuste Bericht der Bunderegierung auf geradezu exemplarische Weise ein altes Dilemma: Der wissenschaftlich-technologische Fortschritt besitzt unterdessen eine derart rasante und komplexe Entwicklungsdynamik, dass er sich dem Vorstellungs- und Gestaltungsraum der allermeisten politischen und gesellschaftlichen Entscheidungsträger entzieht. Und mit einem solchen Tröpfeln von Taschengeld auf eine zukünftige Schlüsseltechnologie werden Deutschland und Europa bald gar nicht mehr in der ersten Liga spielen. Dann kann man auch beim Ausspielen der Meisterschaft nicht mehr mitreden. Das wäre sehr bedauerlich, denn ein derartig wichtiges Spielfeld komplett den amerikanischen Kapitalisten oder chinesischen Kommunisten zu überlassen, könnte sich als fatal erweisen.

Avatar-Foto

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

8 Kommentare

  1. Die Aussage des Autors

    …“Das Lesen von Emotionen aus einem menschlichen Gesichtsausdruck ist für eine entsprechende KI unterdessen sogar einfacher als für andere Menschen.“…

    enthält das Wort andere zuviel. Es sei denn, er hält die Maschine für einen Menschen.

    Wie auch immer…

    Der Begriff »Künstliche Intelligenz« ist irreführend und bei genauer Betrachtung grundsätzlich falsch. Da auch komplexere und verschachtelte Algorithmen, die auf (informations-)mathematischen Verknüpfungen aufbauen, keine allgemeinmethodischen Lösungswege generieren.

    Das „schlechte Witzland“ Deutschland, angeführt von der »Kanzlerin«, erhebt perspektivisch den Anspruch auf die Position des weltweiten Spitzenreiters. So ist das, wenn man in den letzten Zügen des »dekadenten Nichts« liegt. Auch Erich Honecker sagt man nach, daß er von dem realen Leben seiner DDR-Bürger nichts mitbekam.

  2. Nur wenige US-Amerikaner gehören zu den Erfindern/Entwicklern von Deep Learning und trotzdem liest man hier War bisher die USA mit ihren führenden KI-Forschungsinstituten und Software-Firmen unangefochtener Anführer der KI-Revolution, so ist in den letzten zwei Jahren China …
    Es geht hier also um Macht und die an AI interessierten Mächte sind es wegen ihrer enormen Investitionen in KI: Sie kaufen alles auf inklusive AI-Forscher.
    Hier die Liste der führenden Deep Learning – Forscher: Yoshua Bengio (Montreal), Geoffrey Hinton (Toronto), Yann LeCun (Franzose,Toronto), Andrew Ng (geboren in London, chinesisch/amerikanischer Forscher), Adam Coates (Stanford, Baidu), Andrej Karpathy (Slowakei->Toronto), Demis Hassabis (Grossbritannien).

    Man muss wohl zwischen echter AI-Forschung und AI-Anwendung unterscheiden. Der Schwerpunkt bei den Grossmächten USA und China liegt bei den AI-Anwendungen. Ob sie AI entscheidend weiterentwickeln ist noch offen. Doch man kann sicher sein: Egal ob ein AI-Forscher in Deutschland, Kanada oder der Slowakei entscheidende Fortschritte macht, er/sie oder mindestens seine/ihre Forschung wird schliesslich in den USA oder in China landen.

  3. Dass AI ein Machtspiel ist in dem die einzelnen Forscher nur noch eine untergeordnete Rolle spielen zeigt auch Lars Jaeger, wählt er doch er doch den KI-Pionier Stuart Russel (Cyc-Projekt) und den begeisterten Science Ficton Leser Elon Musk als Zeugen für die Gefährlichkeit heutiger AI, nicht aber einen der Pioniere, die Deep Learning auf den Weg gebracht haben. Yann LeCun (convolutional neural nets) äussert sich da völlig anders und hält die Intelligenz heutiger AI für deutlich unter der einer Ratte wie man im Interview Facebook’s head of AI wants us to stop using the Terminator to talk about AI nachlesen kann. Er spricht sogar von Cargo Cult Science, beispielsweise in Facebook AI Director Yann LeCun on His Quest to Unleash Deep Learning and Make Machines Smarter Und das Human Brain Project ist für ihn Ausdruck von Cargo Cult Sciene, denn der Versuch das Hirn nachzubauen sei vergleichbar mit dem Versuch ein Flugzeug durch Kopie eines Vogels zu bauen. In Wirklichkeit hätten neuronale Netze wie sie beim Deep Learning verwendet werden aber nur wenig mit biologischen Netzwerkgeflechten zu tun.

  4. Allein schon das Erkennnen subtiler Muster und die Berechnung eines Resultats für ein Muster kann vorher unlösbare Probleme lösen – und genau das macht Deep Learning: Es kann nach einem Training nicht nur Muster, sondern auch die zugehörigen Resultate/Aktionen erkennen und ausgeben. Intelligenz im üblichen Sinne zeigt Deep Learning bei diesen Aufgaben nicht, sondern eher ein sehr gutes “Bauchgefühl”.
    Angesetzt auf die Daten des Large Hadron Collideres kann Deep Learning auf diese Weise neue Teilchen und die zugehörigen Zerfallsprozesse erkennnen. Angesetzt auf Gendaten kann Deep Learning so die Faltung des zum Gen gehörigen Proteins in wässriger Lösung “voraussagen”. Der MIT-Artikel Die KI von DeepMind wird die Entdeckung von Medikamenten beschleunigen, indem sie vorhersagt, wie sich Proteine falten. geht darauf ein.

    Fazit: Deep Learning ist ein grosser Fortschritt des Maschinenlernens mit sehr vielen, sehr diversen Anwendungen. Ob Deep Learning zu echter Intelligenz führt, ist allerdings noch nicht erwiesen. Doch selbst wenn es das nicht tut, bleibt es ein äusserst wertvolles Werkzeug auf das man nicht mehr verzichten wird.

  5. Die KI-Szene als Szene von Machtspielen sieht auch der NZZ-Artikel Künstliche Intelligenz, natürliche Gier
    – der Konferenzname NIPS (30 Jahr alt) wurde in NeurIPS umbenannt um auf Kritik einer KI-Informatikern einzugehen “NIPS lasse an Geschlechtsteile” denken. Letztlich wurde wohl aus Renommegründen umbenannt und weil es ums liebe Geld geht.
    – Im Gefolge des AI-Hypes gehe es bei der NIPS nicht mehr um Wissensaustausch sondern um Anwerbung neuer Angestellter wo die Wall-Street und Silicon-Valley-Hedgefunds mitmischen
    – Heute ist die KI-Szene eine Ellbogengesellschaft

  6. Künstliche Intelligenz als Inbegriff unbegrenzter Macht, angestrebt von den KI-Gläubigen und KI-Gläubigern USA+China, die KI mit Milliarden-Investitionen an sich reissen, dann aber Künstliche Intelligenz auch als potenzieller zukünftiger, die Menschheit versklavender Weltenherrscher. Das ist es, was uns Lars Jaeger im obigen Beitrag vermitteln will (und womit er bei Science-Fiction bewanderten Lesern auf viel Resonanz stossen wird).

    Für den deutschen Philosophen Julian Nida-Rümelin dagegen reimt sich künstliche Intelligenz eher auf digitale Demenz, denn so etwas wie künstliche Intelligenz könne es nicht geben, sei doch Denken, Begreifen und Begründen dem Menschen vorbehalten.
    Michael Springer dekonstruiert Nida-Rümelins Digitalen Humanismus und das Denkgebäude des Julian Nida-Rümelin im spektrum-de-Artikel Der Mensch in der Automatenwelt recht gut, geht er doch anders als viele andere Rezensenten auch auf diejenigen philosophischen Grundannahmen Rümelins ein, die schwer mit einem naturwissenschaftlichen Weltbild vereinbar sind. Nida-Rümelin bezeichnet gemäss Michael Springer den Naturalismus als »offensichtlich falsch«,denn der Naturalismus könne beispielsweise die Qualia (Erlebnisqualitäten wie Farbe, Schmerz) nicht erklären. Naturalismus bedeutet aber letztlich nur, dass die Welt wissenschaftlich erklärbar ist und dass alles mit rechten Dingen zugeht. Wer das in Zweifel zieht, der muss sich mit Wundern aushelfen und ist damit kein ernstzunehmender Diskussionspartner mehr für Naturwissenschaftler.

    Für Nida-Rümelin gibt es nur schwache KI und damit letztlich nur Maschinen, die alle ihre Intelligenz über die Intelligenz der von Menschen geschriebenen Programme erhalten. Nach Nida-Rümelin haben Computer keine Intentionen, keine Absichten und sie werden das auch nie haben. Auch Gefühle und Empfindungen von Computern werden immer nur Vortäuschungen sein. Nida-Rümelin verbucht auch John Searle’s Gedankenexperiment eines Chinesischen Zimmers, welches Englisch nach Chinesisch übersetzt, das aber nur gemäss fest eingebauten Regeln arbeitet, als Argument für sich.

    Hier möchte ich mich vor allem folgendem Gegenargument Michael Springers anschliessen (formuliert als Frage): Könnte eine autonome, lernfähige Maschine, deren Komplexität an die höherer Tiere heranreicht, niemals eine Art Innenleben entwickeln?

    Genau: denn höhere Tiere, selbst Haushunde haben im Urteil der meisten Menschen bereits ein komplexes Innenleben und das noch komplexere Innenleben von Menschen inklusive seiner Urteilsfähigkeit muss man doch als Weiterentwicklung dessen auffassen, was andere höhere Säugetiere schon zeigen.
    Womit wir wieder beim Naturalismus sind, denn angewendet auf dieses Beispiel ist die Aussage des Naturalismus nichts anderes als folgendes: Alles was ein Wurm, ein Hund oder ein Mensch tut, hat eine natürliche Erklärung.
    Und wenn Roboter irgendwann ähnlich agieren wie heutige Menschen, dann hat auch das eine natürliche Erklärung. Wunder braucht es jedenfalls keine.

  7. Julian Nida Rümelin glaubt nicht einmal an schwache künstliche Intelligenz (so tun als ob), geschweige denn an “starke künstliche Intelligenz” (so sein wie wir). Dies offenbart er schon zu Beginn des Interviews mit Capital, das folgendermassen übertitelt ist: Die ultimative Grenze Künstlicher Intelligenz Zitat: Sie halten den Anspruch einer solchen „starken KI“ für unerfüllbar? JULIAN NIDA-RÜMELIN: Ja, und auch den einer schwachen. Horribile dictu – beide Varianten halte ich für unerfüllbar.
    Für Nida-Rümelin ist schon der Ansatz falsch, etwas als kognitiv ebenbürtig zum Menschen zu betrachten, nur weil es sich gleich verhält. Doch genau das macht der Turing-Test, der einen Interviewpartner – z.b. einen KI-Clone von Nida-Rümelin – als intelligent einstuft, nur weil er intelligent antwortet. Was sich gleich verhält ist für Nida-Rümelin allenfalls eine gute Simulation – aber nicht das echte Ding.
    Aber sogar die schwache künstliche Intelligenz hält Nida-Rümelin für nicht erreichbar. Er hält es also für unmöglich, dass ein künstlicher Agent die gleichen geistigen Leistungen wie ein Mensch erbringen/simulieren kann. Er begründet das unter anderem mit Gödels Unvollständigkeitssatz, welcher besagt, dass in einem hinreichend komplexen System wahre Aussagen existieren, die aber innerhalb des Systems nicht beweisbar sind. Und nach Nida-Rümelin ist das genau das Schicksal von Algorithmen: Sie bleiben immer innerhalb eines Systems und können deshalb Dinge, die das System übersteigen nicht lösen, nicht beweisen. Nida-Rümelin sieht das Verhältnis Algorithmus versus menschlicher Lösungsversuch im Falle von logischen Aussagen so: Der Mensch erkennt in wenigen Versuchen, warum eine logische Aussage korrekt oder falsch ist und kann auch richtige Aussagen konstruieren. Der Computer dagegen spiele eventuell Millionen Möglichkeiten durch, bis er durch Gegencheck die richtige gefunden habe. Hier hätte ich schon mal einen Einwand: Gerade mit künstlichen neuronalen Netzen, mit Deep Learning können kombinatorische Explosionen vermieden werden und das künstliche neuronale Netz kann mit überschaubar vielen Schritten zu einer vernünftigen Aussage kommen. Doch darauf geht Nida-Rümelin nicht ein. Vielmehr diskreditiert er die künstlichen neuronalen Netze als etwas, was nur entfernt biologischen neuronalen Netzen ähnelt und schon gar nicht dem Gehirn, sondern wenn schon, dann nur Teilen des Gehirns. Das stimmt sogar. Nur ist es für mich nicht relevant. Ganz anders als Nida-Rümelin zählt für mich allein die erbrachte kognitive Leistung. Ob das nun Ähnlichkeit mit Vorgängen im Gehirn hat oder nicht spielt eine untergeordnete Rolle. Und ich behaupte: Fast alle Menschen denken und handeln auch so. Wenn sich ein Gegenüber als rationalen Argumenten zugänglich erweist und auch selbst rational argumentieren kann, dann ist dieses Gegenüber für mich und wohl für die meisten Menschen bis zum Beweis des Gegenteils ein rationales Wesen. Selbst wenn das Gegenüber ein Alien ist, also ein nichtmenschliches Geschöpf.

    Fazit: Nida-Rümelin hält nur Menschen für Autoren/Gestalter ihres Lebens und auch nur Menschen können seiner Ansicht nach Verantwortung übernehmen. Computer aber sind und bleiben für Nida-Rümelin Instrumente. Sie können weder menschliche Aufgaben übernehmen noch dem Menschen als Akteure gefährlich werden. Denn sie sind gemäss Nida-Rümelin keine Akteure.

  8. Trotz aller Erfolge von Deep Learning sind gerade seine Schwächen bedeutend. Es werden zu viele Daten gebraucht zum Lernen. Während der Mensch das meiste mit einer handvoll Beispielen lernen kann, brauchen die KNN Milliarden von Beispielen. Meistens ist der Irrtum des Menschen klein, zum Beispiel Leopard mit Gepard verwechseln. Während wenn eine KI sich irrt, kann der Unterschied alles mögliche sein eine Zahnbürste mit einem Baseballschläger. Man kann eine KI dazubringen ein Bild als etwas völlig anders zu erkennen mit Änderungen, die einem Menschen noch nicht einmal auffallen.

    Das alles spricht dafür, dass wir bei der Künstlichen Intelligenz von einer Intelligenz auf einer ähnlichen Stärke wie wir sehr weit entfernt sind und besonders noch keinerlei Idee haben, wie man dahin kommen kann. Hier sind einige Blogs, die weiter darauf eingehen.
    AI winter
    Rodney Brook

    Beide sind sehr zu empfehlen, aber auf Englisch.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +