Mensch und Maschine
Vor kurzem habe ich zwei Talks mit KI-Spezialisten gemacht, die unterschiedlicher nicht sein könnten.
Florian Röhrbein ist Neurorobotiker mit philosophisch ausgeprägter Verwurzelung. Für die Kombination seines Studiums mit dem Hauptfach Informatik und dem Nebenfach Psychologie musste er erst kämpfen, da sich die Sinnhaftigkeit dieser Mischung den Informatik-Oberen der TU München damals nicht erschloss. In seinen wissenschaftlichen Stationen nach dem Studium bis zu Habilitation hat er unter anderem an der Universität der Bundeswehr, an der Universität Bremen und der TU München sowie am Albert Einstein College of Medicine in New York wissenschaftlich gearbeitet und sich dabei im Grenzbereich zwischen neurologischen und informatischen Aspekten der Robotik bewegt. Zwischenzeitlich war er drei Jahre bei Honda, wo er als Senior Scientist an den kognitiven Fähigkeiten des Roboters Asimo mitgewirkt hat. Denn auch die Grenzüberschreitungen zwischen Forschung und Industrie hält er für befruchtend. Seit kurzem ist er jetzt wieder in die Industrie gewechselt, zum Maschinenbauer Kärcher, wo er im allgemein ausgebrochenen Industrie-Trend zur Künstlichen Intelligenz mit all seinem Wissen aus Forschung und Industrie die KI-Strategie des Maschinenbauers gestalten und das Unternehmen wie die Produktpalette mit Künstlicher Intelligenz fürs Kärchern in der Zukunftswelt fit machen will. Denn er glaubt an die Chance, die deutsche und europäische Unternehmen im Markt von morgen haben. Kurz gesagt: Röhrbein ist ein brillianter Geist, der gern tiefgängig denkt und Grenzen sprengt.
Sepp Hochreiter hat eine ganz andere Vita: Er gilt heute als Pionier der neuronalen Netze. Schon in seiner Diplomarbeit 1991 veröffentlichte er einige wichtige grundlegende mathematische Erkenntnisse. Darunter war das von ihm erstmals mathematisch erfasste Problem des sogenannten „verschwindenden Gradienten“, eine der Hauptursachen dafür, warum es in den achtziger Jahren unmöglich war, die damals schon bekannten tiefen neuronalen Netze so zu trainieren, dass sie brauchbare Lernergebnisse produzieren konnten. Denn Sie vergaßen über die tieferen Schichten neuronaler Netze hinweg relativ schnell das zuvor Gesehene. Der passionierte Schachspieler erkannte als erster, wo die theoretische Ursache des Problems lag und löste es auch.
In den Neunzigern interessiert sich die wissenschaftliche Welt allerdings überhaupt nicht für seine Ideen. Erst viel später erkannte man die Bedeutung seiner Entdeckungen. Hochreiters zukunftweisende Erkenntnisse nutzen heute beispielsweise Amazons Alexa oder auch die Übersetzungsmaschine von Google. Schon als Jugendlicher hatte sich Hochreiters mathematische Hochbegabung gezeigt, doch sein Elternhaus wollte eigentlich, dass er als ältester Sohn den Familienbetrieb in Oberbayern übernimmt und Landwirt wird. Hochreiter machte erst im zweiten Bildungsweg das Abitur und begann so seine wissenschaftliche Laufbahn als Informatiker an der TU München. Sie wäre beinahe gescheitert, weil sein Ansinnen, das Vordiplom statt in vier schon nach zwei Semestern abschließen zu dürfen, negativ beschieden wurde. „Ich habe mich extrem gelangweilt und hätte beinahe aufgehört“, sagt der Ausnahme-Mathematikus heute über den Beginn seines Studiums. Inzwischen ist er an der Uni Linz angekommen. Dort ist der in der Öffentlichkeit eher zurückhaltende Professor seit 2018 Leiter des Instituts für Machine Learning. In zahlreichen Projekten zu neuronalen Netzen arbeitet er hier auch mit der Industrie zusammen – beispielsweise Automobil-Konzernen und Pharma-Unternehmen.
Mit beiden habe ich in meiner Reihe „Forscher & Fakten“ über das weite Feld Mensch und Maschine gesprochen, darüber also, was aus ihrer so unterschiedlichen Perspektive künstliche Intelligenz von menschlicher unterscheidet, was sie leisten kann, was aber auch nicht. Weiter geht es um Aspekte, wofür KI in der Industrie einsetzbar ist – und zuletzt auch darüber, ob sich der Mensch vor dem, was da auf uns zukommt, Sorgen machen muss: ob die Künstliche Intelligenz uns Menschen bald überflügeln wird.
Beide KI-Forscher stellen die KI vom Kopf wieder auf die Füsse, also wieder auf die Grundlagen – und diese Grundlagen sind Mathematik und sind die Aufgaben, die Forscher und Anwender mit KI lösen wollen. Heutige künstlich intelligente Systeme sind tatsächlich Systeme, die bestimmte Aufgaben, die bisher Menschen vorbehalten waren, teilweise besser lösen können als unsereins. Doch von der Welt wissen diese KI-Systeme absolut gar nichts, denn wie Sepp Hochreuter richtig sagte, sind diese KI-Systeme in keinerlei Weise evolutionär fit. Ja sie wissen nicht einmal, dass sie existieren und haben bisher noch nie darum gebettelt sie doch bitte nicht abzuschalten (was ja bei Lebewesen dem Tod entsprechen könnte).
Allerdings können KI-Systeme sehr mächtige Werkzeuge sein, sie können in Minuten Korrelationen aufdecken, die sonst entweder für immer verborgen geblieben wären oder die früher ganze Abteilungen von Fachleuten beschäftigt hätten. Insoweit können KI-Systeme durchaus mit anderen mächtigen Werkzeugen wie Waffen, Wanzen oder klassischen Überwachungsmitteln wie dem Abhören von Telefonaten, dem Mitlesen von Briefen etc. verglichen werden – nur dass diese Mittel nun auf Millionen von Kunden/Konsumenten losgelassen werde. Eingesetzt aber werden solche KI-Werkzeuge und Mittel nicht von KI-Systemen sondern von Firmen, die etwa wissen wollen wie ihre Kunden, Wähler oder Gegner ticken. Und immer häufiger sind auch die Reaktionen auf die von der KI gefundenen Korrelationen und Zusammenhänge bereits fest vorprogrammiert oder werden wiederum von KI-Systemen aufgrund von Zielfunktionen (z.B. präsentiere Werbung, die wirkt und den Kunden zum Kaufen veranlasst) auf raffinierte Weise ausgewählt. Alles ist also schon vorgespurt. Zwar machen die KI-System letztlich genau das, was die Menschen, die sie einsetzen, wollen, doch im Detail bleibt den KI-Systemen sogar die Wahl der Mittel überlassen, denn die menschlichen Auftraggeber wollen vielleicht nur möglichst viel Kundengelder akquirieren und überlassen es der künstlichen Intelligenz, das zielführendste Mittel (antrainiert oder online erlernt) auszuwählen.
Gut auch, dass Florian Röhrbein darauf hinweist, dass neuronale Netze und Deep Learning nur gerade der neueste Hype in der KI-Forschung sind und dass es noch sehr viel mehr Ansätze gibt um komplexe Aufgaben mit KI zu lösen (z.B. Bayesianische Netzwerke, Gauss Prozesse, Markov-Ketten und vieles mehr). Deep Learning und neuronale Netze sind heute vor allem darum so populär, weil sie Klassifikationsaufgaben (ist es ein Baum oder eine Ampel) meisterlich lösen können und weil sie auch End-to-End-Learning ermöglichen, was bedeutet, dass sich die Aufgabe allein durch Trainieren und ohne jeden weiteren Eingriff in die Zwischenrepräsentationen bewältigen lässt. Zudem hat sich herausgestellt, dass Neuronale Netze/Deep Learning Systeme umso besser werden, je mehr Daten sie präsentiert bekommen – und über einen Mangel an Daten kann man sich ja heute nicht mehr beklagen (vor allem haben Firmen wie google und Facebook genau diese Datenberge, die KI interessant machen).
Florian Röhrbein hat zudem noch mehr als Sepp Hochreuter darauf aufmerksam gemacht, dass unsere Gesellschaft bestimmt, was mit künstlicher Intelligenz gemacht werden darf und wo die Rechte des Einzelnen und das Konzept der liberalen Demokratie den KI-Anwendungen Grenzen setzen soll. Sicher ist ein Sozialkreditsystem wie in China geplant, mit Mitteln der künstlichen Intelligenz noch weit raffinierter und informativer möglich, als wenn da nur Bürokraten werkeln. Doch allein schon die Idee eines Sozialkreditsystems ist mit einer liberalen Demokratie kaum vereinbar – ob nun mit oder ohne künstliche Intelligenz.
Persönlich hätte ich noch eine Vision, die von keinem der Diskussionspartner und auch von Susanne Päch nicht aufgebracht wurde. Nämlich, dass Künstliche Intelligenz ja nicht den grossen Firmen vorbehalten bleiben muss, ja dass es auch denkbar ist, dass künstliche Intelligenz privat einsetzbar wird. In Form beispielsweise eine KI-Ratgebers, der nur für mich und für niemanden sonst arbeitet. Ein KI-Ratgeber etwa, der sogar die Manipulationsmittel der anderen durchschaut und mich auf Bots und andere KI-Mittel aufmerksam macht und mich vor ihnen warnt. Demokratisierung der künstlichen Intelligenz also!
Es wird wirklich ständig absurder…
Mathematik ist Sprache, folglich hat ein Mathematiker eine Sprachbegabung.
Eine Sprachbegabung sagt nichts über den Verstand dieses Menschen aus.
Die Welt besteht nicht aus Sprache.
Was ist Digitaltechnik?
Es ist _analoge_ Technik, die im Grenzbereich betrieben wird. Sie ist und bleibt dabei immer analog.
Was machen Computer überhaupt?
Sie imitieren und simulieren Sprache, denn 0&1 ist nichts anderes als Sprache. Es existiert kein Zustand des Null und Eins, wir tun nur so ‘als ob’.
Wir simulieren ein Mäusehirn und sogar ein Menschenhirn?
https://www.beobachter.ch/gesellschaft/forschung-es-geht-auch-fast-ohne-hirn
Der Mensch ist keine Fähigkleit der Sprache.
Sprache ist eine Fähigkeit des Menschen.
Sprache ist nicht logisch, sie ist nicht einmal verständlich…
Logisch (oder auch nicht) ist, auf was ein Mensch mit Sprache ‘zeigt’, aber nicht die Sprache selbst, das ist das Problem des Idealisten mit platonischem Unverstand, daß er der Sprache eine Fähigkeit zuweist und diese sich zugleich selbst abspricht.
‘Formale Logik’ ist nicht logisch, sie ist dialektisch.
https://pastebin.com/SBzsnv3u
Formalienreiter brauchen keinen Verstand:
Eine Prognose hierzu
Wer ernsthaft in Erwägung zieht, Ideale zu realisieren, wird nicht nur grandios scheitern, er ist es, der die Selbtzerstörung durch seine Ideologie in die Welt bringt.
Mit anderen Worten
Wer den Zustand der Welt betrachtet, wird Weisheit eher bei indigenen Völkern finden, aber sicher nicht in der Philosophie oder heutiger Wissenschaft(s Religion).
(Kleiner Hinweis: Ich kritisiere die Einseitigkeit der ideologisch betriebenen Wissenschaft)
FMA
wir denken in Begriffen , das sind abgeschlossene Denkeinheiten. Wenn man diese Denkeinheiten aneinanderfügt, bekommen wir Sätze, in denen die Begriffe assoziativ oder konstruktiv zusammengesetzt sind. Damit wir uns verständigen können, muss ein Konsens über die Denkeinheiten bestehen.
Bei der Darstellung von Begriffen und Sätzen kann man sich Über Laute verständigen (Sprache, die gesprochen wird) oder man kann die Begriffe mit Zeichen kodieren (Schrift).
Die einfachste Kodierung in der Darstellung ist das Binärsystem. Um aber zu dieser Form zu kommen, muss aber die Sprache vorher viele Schritte der Kodierung durchlaufen.
Laut in Buchstabe, Buchstabe in ASCII Form, ASCII als Zahl, Zahl in Zehnerdarstellung in 2 er Darstullung = Dualsystem.
Sonst ist nicht geheimnisvolles dahinter. Zahl und Buchstaben haben die gleiche Funktion.
Die Welt , wie wir sie sehen und wie wir sie verstehen, können wir also genausogut mit Zahlen darstellen= Mathematik , als auch mit Buchstaben = Sprache.
Oder noch einfacher, die Maschine ist eine vereinfachte Darstellung des Menschen.
@Herrn Holzherr: Der Personal Assistant ist eine spannende Idee und bringt zweifellos Vorteile in der beschriebenen Form. Er kann mächtig sein und deshalb sehe ich darin auch erhebliche Veränderungen auf die Entwicklung der Persönlichkeit. Gesetzt, es gäbe ihn: Dann leben wir im Grunde in einer auf das sogenannte “Ich” immer perfekter zugeschnittenen Blase. Wo bleibt der Überraschungseffekt, die zufällige und unerwartete Konfrontation mit dem ganz Anderen, der wir uns nie gestellt hätten und die doch bestimmend in unser Leben eingreift? Von all dem wird mit dem Personal Assistant sicherlich vieles weitgehend weggefiltert. Aber andererseits passt er perfekt in den aus meiner Sicht nicht veränderbaren Trend, dem unsere Gesellschaft unterliegt und mit dem sich der Fokus der Individualität in Richtung der Sozietät verschiebt. Aber solche Gedanken habe ich ja schon einmal vor längerer Zeit in einem Gespräch mit dem Evolutionsbiologen Friedemann Schrenk und zur biokulturellen Evolution vielleicht sogar etwas zu engagiert diskutiert.
@bote 19: Sprache als Mathematik – Gefühle als Mathematik? In beiden Fällen ist zweifellos eine sehr gute “Simulation” möglich. Ob dies die Realität vollständig abbilden kann? Wenn ja, dann kann der Mensch und sein Bewusstsein nicht nur simuliert werden, sondern künftig mathematisch gänzlich beschreibbar sein.
Susanne Päch
Sie äußern da einen radikalen Gedanken. Gefühle mathematisch darstellen.
Wenn man Gefühle mit Medikamenten , Drogen, Blumen stimulieren kann, dann braucht man nur noch die Wirkmechanismen zu analysieren.
So wie ein Bild einen Gefühlsausbruch verursachen kann, natürlich immer im Kontext mit der Person, die das Bild sieht, so kann jedes andere Gefühl mit einem Auslöser stimuliert werden.
Die mathematisch/chemische Darstellung wäre dann nicht eine Erklärung, sondern eine chemische Reaktion, hervorgerufen durch einen Gegenstand.
So wie Katzenhaare eine Allergie auslösen oder man an Erdnusskernen sterben kann.
Die grundsätzlichen Fragen unserer Existenz, wie Tod, Existenzängste, Lebensziele wird man wahrscheinlich nicht darstellen können. Zum Glück oder Gottseidank nicht !
@bote19: Ich weiß nicht, ob der Gedanke gar so radikal ist. Wenn ich Robotiker korrekt verstehe, dann sind sie heute in der Lage, mit dem sogenannten Reinforcement Learning das Lernen algorithmisch mittels Neugier zu verstärken. Neugier gehört, wenn ich wiederum die Psychologen richtig interpretiere, neben Ekel, Freude, Angst, Ärger und Trauer zu den sechs Grundemotionen. Wenn man also Neugier bereits simulieren kann, warum dann nicht auch – und zumindest grundsätzlich – die anderen Gefühle? Für mich stellt sich nur die Frage, ob die mathematisch beschriebene Simulation eben Simulation bleibt oder möglicherweise nicht. Persönlich tendiere ich allerdings zu “nicht”, sonst wäre die vom Menschen entwickelte und auf dessen Logik aufbauende Mathematik tatsächlich universell gültig. Das halte ich für wenig wahrscheinlich. Anders gesagt: Ich glaube nicht, dass der Mensch mit der Mathematik die Omnipotenz besitzt, die Welt nachbauen zu können. Zum Glück oder Gottseidank zuletzt auch von mir!
@Susanne Päch: Filter-Bubbles sind soziale Phänomene. Es gab sie früher mehr als heute, denn Katholiken etwa lasen andere Zeitungen als Protestanten und sie verkehrten vor allem unter sich. Heute bilden sich in den diversen Internetgemeinschaften wieder solche Bubbles, weil dort Meinungen von einer ganzen Gruppe von Menschen gelesen werden und Gruppen sind nun mal von Natur aus diskriminierend.
Ein persönlicher Ratgeber und Assistent, der nur mir verpflichtet ist, bewirkt genau das Gegenteil eines Gruppendrucks, denn er erzählt ja nichts weiter und ist wenn schon mit einer guten Freundin vergleichbar, der man alles erzählen.
Was sie dazu schreiben, bedeutet nur dass sie an Persönliche Assistenten gar nicht glauben. Sie denken auch dahinter stecke wieder Google oder Facebook.
Heutige Künstliche Intelligenz kann der Menschheit nicht gefährlich werden, denn ihre Intelligenz ist zu eng fokussiert und ein Bewusstsein oder überhaupt ein eigenes Denken fehlt. Das ist nicht nur die Ansicht von Florian Röhrbein und Sepp Hochreiter, sondern auch von Yoshua Bengio, einem der Väter des Deep Learning (Die Gründungsstätten von DeepLearning liegen in Kanada (Bengio,YannLeCun,Hinton,etc) und im IDSIA-Institut (Schmidhuber,Hochreuter).
Bengio hat in mehreren Interviews die realen Gefahren von AI genannt. Er sieht sie in den Anwendungen für den realen und den Cyber-Krieg, für die Überwachung und Beeinflussung von Menschen. Er wirbt für das Recht auf Privatheit und will mehr KI-Forscher aus Drittweltländern ausbilden. Die Visionen von Elon Musk und anderen KI-Warnern sieht er als reine Science Fiction. Unter der Liste seiner Reden, die in Selected Recent Talks aufgelistet sind, gibt es neben fachlichen Themen auch gesellschaftlich/ethische wie etwa diejenige, die er für Amnesty International gehalten hat (“Beyond the Hype: How we can make AI work for humanity”)
@ Herrn Holzherr
Erstens: Das ist aber in jedem Fall noch ein weiter Weg!
Zweitens – gesetzt es gäbe ihn: Unterschied zur Freundin oder, wie bei mir, dem Ehemann, ist die Schnittstelle ins Netzwissen, das mein menschlicher Partner halt wie ich auch nicht hat. Es geht um das Delta. Was da wie gefiltert wird und wie die Algorithmen aussehen, unter denen sie mit meiner Persönlichkeit und meinem Bewusstseinsinhalt korrreliert sind, das scheint mir ziemlich komplexe Thematik zu sein. Ich habe viel Zutrauen zu mir und meiner Leistungsfähigkeit – noch dazu in der Zukunft! Aber ich fürchte, das werde ich wohl nicht schaffen selbst zu entwickeln … also: Wer hat’s erfunden?
@ Herr Holzherr: Die militärische Anwendung von KI habe ich in meinen Talks nicht aktiv in die Debatte geworfen, sie steht für mich leider außer Frage, ebenso allerdings auch die Tatsache, dass wir sie als Gesellschaft nicht (!) werden verhindern können.
Künstliche Intelligenz richtig einschätzen bedeutet auch ihre Schwächen kennen. Gerade in Yoshua Bengios Vorträgen findet man wertvolle Hinweise darauf, was Künstliche Intelligenz heute eben nicht kann.
Beispielsweise in den Folien Challenges towards AGI, wo Bengio sehr viele Schwächen von KI nennt, zuerst aber folgende KI-Fortschritte nennt, die kürzlich stattfanden:
Einbau von Aufmerksamkeit+Gedächntis in KI, Anwendung nicht nur auf Text,Bilder und Sprache sondern auf alle denkbaren Datenstrukturen bis hin zu chemischen Bindungen, Netzwerken etc., die Erzeugung von Daten gemäss Qualitätsvorgaben, und das Eindringen in immer mehr Anwendungsgebiete wie Gesundheitswesen, Robotik, Umweltanalyse, Dialogführung.
Dann aber kommt eine lange Negativliste:
– Supervisioniertes Lernen dominiert => (Millionen von) Daten müssen mit Lösungen markiert werden
– Das Erkennen von Objekten basiert of auf oberflächlichen Mustern und ist leicht täuschbar
– Sprache wird zwar gut übersetzt aber nicht verstanden (oder nur auf oberflächliche Art)
– Es fehlt Common Sense und Allgemeinwissen so dass ein KI_System beim Satz “Die Frauen hörten auf, Pillen zu nehmen, weil sie schwanger waren.” nicht weiss ob die Pillen oder die Frauen schwanger waren. Denn ein KI-System weiss nicht was eine Frau ist.
– KI-Systemen haben kein Verständis unserer physikalischen Welt (3 Dimensionalität etc) und keine psychologisches Verständnis und sind damit sogar 3-jährigen Kindern unterlegen
Diese Liste zeigt schon einmal, dass heutige KI-Systeme zwar zu menschenähnlichen Leistungen etwa beim Erkennen oder Übersetzen fähig sind, doch sehr vertrauenswürdig sind diese Systeme bis jetzt nicht, denn die Leistung basiert of auf einer sehr oberflächlichen Analyse und es gibt immer wieder Fehler, die Menschen nie passieren würden.
Um zu allgemeiner Intelligenz zu kommen müssen KI-Systeme nicht nur erkennen, sondern auch über das Erkannte nachdenken können. Sie müssen Ursachen erkennen und schliesslich basieren auf den erkannten Ursachen sinnvoll Handeln können.
Davon sind wir noch weit entfernt. Das sieht man etwa daran, dass es heute kein KI-System gibt, welches Kompetenzen über sein enges Anwendungsfeld selbstständig erwirbt. Google Translate etwa übersetzt hundertausende von Sätzen in hunderte von Zielsprachen. Doch dadurch hat Google Translate nichts über die Menschen oder Länder gelernt in deren Sprachen es etwas übersetzt. Google Translate ist und bleibt so dumm wie es ist – ausser der Mensch ersetze Google Translate irgendwann durch etwas Besseres, etwas Verständigeres.
Was unterscheidet den Mensch von der Maschine ?
Rein äußerlich, der fehlende menschliche Geruch, die fehlende Wärme, der fehlende individuelle Wortklang, die individuelle Kleidung, die individuelle Gestik.
Der Maschine muss zuerst die Individualität “eingepflanzt” werden. Das lässt sich technisch alles realisieren.
Sogar Gefühle kann man einer Maschine einprogrammieren. Bei entsprechenden Reizwörtern werden die Augenbrauen hochgezogen, der Körper strafft sich, die Tonlage wird verändert, Testosteron wird zerstäubt, das beindruckt sogar einen Hund.
Solche Szenarien lassen sich abspeichern und bei Bedarf abrufen.
Roboter mit den Fähigkeiten eines Dieners/Faktotums würden ziemlich alles verändern, denn damit wären fast alle Arbeiten ob nun Lohnarbeiten oder Hausarbeiten automatisierbar. Doch davon sind wir weit entfernt trotz scheinbar fortgeschrittener künstlicher Intelligenz. Denn KI-Programme sind heute nicht in der Lage den Alltag zu bewältigen. Sie sind zwar gut in Aufgaben für die sie trainiert wurden, können das Gelernte aber kaum auf andere Gebiete übertragen. Ihnen fehlt das Allgemeinwissen, der gesunde Menschenverstand, jegliche Geschicklichkeit (humanoide Roboter haben bis jetzt nicht einmal einen natürlichen Gang). Sie verstehen die Gesamtsituation nicht und können keine Schlüsse ziehen.
Es gibt zwar Ansätze um das zu ändern. Doch keiner der bis jetzt verfolgten Ansätze hat die konzeptionelle Einfachheit des Deep Learnings und der tiefen neuronalen Netze und bei keinem der verfolgten Ansätze gibt es ein Traingingsprozedere oder einen Lernansatz mit dem man aus einem anfangs dummen, unwissenden Roboter einen immer gescheiteren, wissenderen schaffen könnte.
Allerdings gibt es heute ganze Heerscharen von Forschern, die sich mit diesem und ähnlichen Problemen beschäftigen. Doch das ist keine Garantie für einen raschen Erfolg. Sogar selbstfahrende Fahrzeuge sind heute kein Selbstläufer. Es gibt zwei Ansätze für selbstfahrende Fahrzeuge.
1) der Ansatz von Waymo, der auf zuverlässigen 3D-Karten (mittels LIDAR erstellt), GPS und einer mehr oder weniger konventionellem Fahrtenplaner beruht.
2) der Ansatz von Tesla und anderen, welche mit einer Kombination von Kameras und Radargeräten arbeiten und die Daten einem neuronalen Netz zur Verarbeitung übergeben.
Nur der Ansatz 1) verfügt bis jetzt über die notwendige Zuverlässigkeit für selbstfahrende Fahrzeuge (Level 4), während mit Teslas Ansatz nur gerade Assistenzsysteme (Level 3) realisierbar sind. Ein Tesla-Fahrzeug fuhr wahscheinlich aufgrund eines Klassifikationsfehlers in einen Autobahnteiler mit tödlichen Folgen für den Fahrer, der nicht aufmerksam war.
MH
wir sind von dem Hausfaktotum noch weit entfernt. Aber, wie es die Nachfolger der Zeichentrickfilme beweisen, die Vielfalt in der Gestik und Bewegung kommt dem wirklichen Menschen sehr nahe.
Auch bei der Sprachsteuerung von Geräten zeigt sich Fortschritt. Bei dummen Fragen gibt der Sprachcomputer schon intelligente Antworten.
Der Unterschied Mensch und Maschine wird also immer kleiner.
Das eigentliche Problem ist das fehlende Selbstbewußtsein von Robotern.
Verteidigt er sich selbst, wenn er angegriffen wird und dieses Szenario ist in seiner Software noch nicht vorgesehen?
Kann man Software schaffen, die sich selbst erschafft ?
Sobald Roboter Gefühle haben sollten, werden sie auch Bewertungsprozesse vornehmen, da Gefühle nichts anderes sind . Wenn sie also bewerten, werden sie neue Erkenntnisse haben und integrieren und sie werden über Sinn und Unsinn ihrer Existenz “nachdenken” . Und sie würden den Menschen mit “ihren Gefühlen” bewerten
und vielleicht ihr eigenes Menschenbild erschaffen. Hoffen wir, dass sie die Menschen dann lieben und nicht hassen. Bei der künstlichen Intelligenz in der Militärtechnik könnten diese Gefühlschwankungen fatale Folgen haben…
Menschen wollen Roboter mit Gefühlen, Affekten und allem was zum Menschen gehört. Doch gerade dadurch werden Roboter echt gefährlich. So gefährlich wie Menschen nämlich, nur dass Roboter eventuell in bestimmten Bereichen über Superfähikgeiten verfügen und diese dann in ihrer Wut gegen unliebsame Menschen oder die ganze Menschheit richten.
Der Mensch war aber schon immer so: Er liebt das Risiko allein schon des Nervenkitzels wegen und seine Schöpfungen müssen mindestens so gefährlich sein wie er selbst, damit er sie ernst nehmen kann. Nicht nur das 350 Kilometer schnelle Rennauto sondern auch der Killerroboter als Freund und Helfer (um eigene Feinde zu bedrohen) gehören zu diesen Schöpfungen, die er sich nicht nehmen lassen will.
Golzower
Gefühle als Bewertungsprozesse.
Diese Idee ist gut, wobei man ergänzen muss, dass die Bewertung kein intellektueller Akt ist.
Gefühle haben eher eine Schutzfunktion.
Angst ist notwendig um nicht Stärkeren zum Opfer zu fallen.
Ekel ist notwendig, um nicht verdorbene Nahrung zu sich zu nehmen.
Zorn ist notwendig, für die Paarung , um den Rivalen zu vertreiben.
Wohlbefinden ist notwenig um dem Körper Ruhe zu geben.
Den Mechanismus , wie die Gefühle entstehen und welcher Schlüsselreiz notwendig ist, sind schon teilweise bekannt. Ein Hund kann z.B. riechen, wenn ein Mensch Angst hat. Dann greift er an. Nicht vorher.
Ich habe jetzt das Gefühl, das ich Schluss machen muss.
@ bote19
Kein Mensch kann in Begriffen, in Sprache ‘denken’, sonst müßte er sich Ideale vorstellen können, die ja nicht existieren.
Ein Mensch versucht das, was er denkt in Worte, in Begriffe zu fassen.
Denken, Erleben, geht der Sprache voraus. Das Verstehen kann nicht in Begriffen liegen.
Außer bei einem Formalienreiter, der braucht per Definition keinen Verstand. Rituelles Sprechen ist die Heimat der übernatürlichen, übersinnlichen und übermenschlichen Vernunft. Das können eben nur Pfaffen mit Kontakten ins Jenseits und dem mechanistischen Weltbild.
Denken kommt bei _nicht_ übersinnlich begabten Menschen üblicherweise vor dem Maulen. (siehe bspw. chinesisches Zimmer)
Ansonsten bleibt es dabei, die Verblödung durch den Kategorienfehler Sprachbegabung ist stetig zunehmend.
Der rationale Homo Oeconomicus, der Vernunftmensch.
Er ist ein emotionalisierter moralisierender Vollpfosten und als solcher gerade nicht in der Lage zu fühlen.
Die Einteilung der Welt in binäre Gut&Böse- (Schuld&Unschuld, Recht&Unrecht, 0&1) Kategorien. Das gibt seiner Welt und seinem Dasein Struktur. Da ist ein Verstand mit seinem Einfühlungsvermögen total hinderlich. Das Verstehen setzte ja eine Tätigkeit voraus. Das braucht der wahre Gläubige nicht. Der hat ja schließlich seine unveränderlichen Naturgesetze (Grundunterscheidungen der Philosophie Hoyningen)
http://bit.ly/2qpuA93
Reduktionismus, Ritualismus sind die Lösung des Problems durch vernünftigende Offenbarung. Die vom Blitz der Bestimmmtheit Getroffenen, welch ein Gottesakt.
„Wesen der Wirklichkeit“ oder „Mathematikwahn“?
http://bit.ly/2HkOWaF
Viele Menschen sind bereits so kaputt, das ahnste nicht mal mehr im Ansatz, da hilft auch kein Alkohol mehr…
FMA
du bist auf eine wichtige Unterscheidung gestoßen, dem Denken in Begriffen und dem Denken als Assoziation.
Wenn ein techniker oder Physiker Zusammenhänge untersucht, denkt er in begriffen bzw. in mathematisch/physikalischen Formeln.
Das ist sehr anstrengend.
Wenn du überlegst, was du deiner Frau zum Valentinstag am 14.2. schenkst, dann überlegst du welche Blumen sie mag. Du malst dir in deiner Phantasie aus, wie sie auf einen Rosenstrauch reagieren würde, den man enpflanzen kann, oder lieber nur einen Strauß, oder eine Schachtel Pralinen, dabei überlegst du dir , ob das ihrem Übergewicht gut tut, du denkst assoziativ.
Oder aber, was ganz häufig vorkommt, dir fällt nichts ein. Warum fällt dir nichts ein?
Weil dir eine Idee fehlt, ein Wort, das Wort heißt : “Mittagessen”. Du lädtst deine Frau zu einem Mittagessen ein. Das wird sie überraschen und sie freut sich, dass sie nicht kochen muss. Also, das Denken hängt von einem einzigen Begriff ab, “Mittagessen”.
Ohne dieses Wort/Begriff, wärst du nicht auf diese Lösung gekommen.
Bei dem Pfarrer heißen die Schlüsselwörter : Nächstenliebe und Gott und nächste Beerdigung. Darum kreisen seine Gedanken, und so entsteht eine Predigt.
Anmerkung: Mir deinen radikalen Ansichten kannst du den Alkoholikern mal ins Gewissen reden. Es gibt ja auch Light Bier, Champagner alkoholfrei, nur am Valentinstag dürfen sie Schnapspralinen essen. Ist doch eine gute Idee ?!
Florian Röhrbeins Hinweis, dass KI sich nicht auf Deep Learning und neuronale Netze reduzieren lässt wird durch den jüngsten Erfolg der Firma DeepMind bestätigt: AlphaStar, ein Programm welches erstmals professionelle Spieler von StarCraft II besiegt hat, basiert nicht auf mit Backpropagation trainierten neuronalen Netzen und Deep Learning, sondern auf evolutionären Algorithmen oder zusammengefasst gemäss AlphaStar: An Evolutionary Computation Perspective: Starcraft II kombiniert Lamarkian Evolution (LE), Competitive coevolutionäre Algorithmen (CCCEAs) und Qualitätsvielfalt-Algorithmen (QD) mit einem spektakulären Effekt. Wir hoffen, dass diese Perspektive sowohl der Evolutionary Computing Gemeinschaft als auch den Deep Reinforcment Gemeinschaften (RL) die Möglichkeit gibt, dieses wichtige KI-System besser zu schätzen und darauf aufzubauen.
Nur wenige dieser Algorithmen sind der breiten Öffentlichkeit überhaupt bekannt.
Qualitätsvielfalt-Algorithmen (QDs) beispielsweise optimieren explizit für ein einziges Ziel (Qualität), aber benutzen dabei eine Vielzahl von Lösungsarten über eine Sammmlung von Lösungsphänotypen, um eine größere Vielfalt in Lösungsmenge zu fördern.
@Martin Holzherr in Sachen Deep Mind: “evolutionary computation” – den Begriff habe ich noch nie gehört (was in der Tat nicht viel aussagt), dagegen das Deep Reinforcement schon – das Thema wurde auch im Gespräch mit Hochreiter gestreift. Vielleicht ist “evolutionary computation” aber auch das, was als “brain computation” bezeichnet wird? Oder ist das noch mal was anderes?
Evolutionäre Algorithmen evolvieren Lösungen mittels Mutation, Rekombination, Selektion und Reproduktion – wie in der biologischen Evolution. Die Lösungen für das Problem entsprechen der Population von Lebewesen in der Biologie, die dann ihre evolutionäre Fitness beweisen müssen. Mit jeder Generation sind die Lösungen fitter und die fitteren Lösungen verdrängen zunehmend die weniger fitten.
Noch eine generelle Bemerkung zu den heutigen Erfolgen der künstlichen Intelligenz: Softwarefortschritte haben daran den kleineren Verdienst. Eigentlich funktionieren viele der schon lange verfolgten Ansätze wie eben evolutionäre Algorithmen oder Supervised Deep Learning (mit schrittweiser Verbesserung mittels Backpropagation). Doch erst seit seit die Hardware 100 bis 1000 Mal schneller ist als sie es in den 1980/90-er Jahren war, erst seither sind diese Ansätze in der Praxis einsetzbar. Wichtig für den Erfolg waren Graphical Processor Units (GPUs) welche für die entscheidenden Berechnungen eine massive Parallelität ermöglichen.
Es gibt übrigens vielversprechende Ansätze, die auch heute noch nicht effizient berechnet werden können. Einer dieser Ansätze sind Gauss Prozesse. Gauss Prozesse haben gegenüber Deep Learning den Vorteil, dass bei jeder Klassifzierung auch noch die Wahrscheinlichkeit angegeben werden kann, dass die Klassifzierung korrekt ist und dass sie auch mit kleinen Trainingssets zu guten Resultaten kommen können. Doch die Berechnungen sind sehr aufwendig.
Kirchen stellen sich auch gegen geltendes Recht, z.B. zeigen die Kirchenoberen ihre Kollegen, die Kinder missbrauchen, regelmäßig nicht bei der Polizei an, und setzen stattdessen noch die Opfer unter Druck. Nicht nur das ist Kriminell und Verfassungswidrig.
Jetzt schreibt auch DeepMind selbst über die Methoden, die AlphaStar erlaubt haben das Computerspiel StarCraft II auf professionellem Niveau zu spielen. AlphaStar: Mastering the Real-Time Strategy Game StarCraft II berichtet, dass Relationales Deep Reinforcement Learning kombiniert mit einem Deep LSTM Kern, einem autoregressivem Strategie-Kopf mit einem Zeiger-Netzwerk und einer zentralisiserten Wertedatenbank zum Einsatz kam und beschreibt, dass hier ein Multiagenten-System mit ganzen Population von Lösungskandidaten nötig wurde um mit der Reichhaltigkeit der Starcraft II -Strategien zurechtzukommen.
Jedenfalls sind die AI-Mittel, die bei Starcraft II eingesetzt wurden bereits sehr vielfältig und hochkomplex und werden in ihrem Zusammenwirken wohl selbst von den Entwicklern nur noch teilweise verstanden. Hier ein Ausschnitt aus dem Text (übersetzt von DeepL):
Im Laufe der Liga und der Schaffung neuer Wettbewerber entstehen neue Gegenstrategien, die in der Lage sind, die früheren Strategien zu besiegen. Während einige neue Wettbewerber eine Strategie verfolgen, die lediglich eine Weiterentwicklung einer früheren Strategie ist, entdecken andere drastisch neue Strategien, die aus völlig neuen Bauaufträgen, Einheitenzusammensetzungen und Mikromanagementplänen bestehen. So wurden beispielsweise in der AlphaStar-Liga schon früh “kitschige” Strategien wie sehr schnelle Anstürme mit Photonenkanonen oder Dunklen Templern bevorzugt. Diese riskanten Strategien wurden im Laufe des Trainings verworfen, was zu anderen Strategien führte: zum Beispiel die wirtschaftliche Stärke zu gewinnen, indem man eine Basis mit mehr Arbeitern überforderte oder zwei Orakel opferte, um die Arbeiter und die Wirtschaft eines Gegners zu stören. Dieser Prozess ähnelt der Art und Weise, wie Spieler in den Jahren seit der Veröffentlichung von StarCraft neue Strategien entdeckt haben und zuvor favorisierte Ansätze besiegen konnten.
@ bote19
Wie kann ein sich stetig veränderndes Lebewesen, wie ein Mensch, sich einen _unveränderlichen_ mathematischen Kreis vorstellen, sich ein Bild davon machen?
Nicht einmal die alten Pythagoreer sind davon ausgegangen, daß Ideale im ‘Diesseits’ existieren könnten, ganz zu Schweigen von den anderen ollen Griechen…aber bote19 und die KI kann die Ideenleere lehren.
Denken ist abstrakt und geht dem Begriff voraus, sonst bestünde die Welt aus Sprache. Das ist sehr offensichtlich grober Unfug. Im Anfang war das Wort, wird in Kirchen u.ä. geleert.
Ich jedenfalls deute/zeige/weise mit Sprache auf ‘etwas’ und dieses ‘etwas’ ist logisch (oder auch nicht). Die Sprache selbst ist nicht logisch. Mathematik, ein Ideal, ist _nicht_ logisch, denn nicht Existentes hat keine Logik. Unveränderliches, wie Ideale, haben keine Folge, sie haben daher auch keine Folgerichtigkeit.
Ich stelle mir ungefähr gar kein Bild vor, wenn ich mich unterhalte oder mir Gedanken mache. Zuwas auch, die Gedanken sind weit abstrakter, da das Erleben nur abstrakt und nicht konkret/ideal erfahrbar sein kann, als dies mit Bildern und/oder Sprache ausdrückbar wäre. Ich mache mir eine Vorstellung, wenn ich ausdrücklich dazu aufgefordert werde und greife auch dann nur auf eine Erinnerung zurück, aber das ist kein ‘Abbild’ von irgendetwas.
Die Welt ist nicht komplex und auch nicht kompliziert. Sie wird es nur für diejenigen, die den sinnlosen Versuch machen, die Welt selbst konkret & in Folge ideal beschreiben zu wollen und dabei doch nur die Welt mit ihrer Schwulstsprache zukleistern. Ein Wissen vorgaukeln, das nicht da sein kann.
Sie weisen Sprache eine Fähigkeit zu, die sie sich selbst zugleich absprechen.
So wird die Sprache intelligent gemacht, sie hat den gemessenen IQ und der Mensch unterliegt der Dummheit.
Aber ich denke auch, daß all dies nicht hilft, Gläubige von ihrem inszenierten Bühnenbild, ihrer Illusion, abzubringen. Simplify Your Life.
Wünsche allgemein noch viel Freude am mechanistischen Hirn, wahrscheinlich sind hierzu ja 42 zusätzliche Knöchelchen verbaut.