Wunder der KI: ein Fotoalbum mit Imperatoren aus dem Alten Rom und ein Märchen

Ein altrömisches Facebook

Jeden Tag erfahren wir Erstaunliches aus der Welt der Künstlichen Intelligenz (KI). Heute berichte ich über ein solches Wunder der KI: Wie 54 römische Imperatoren mit Hilfe eines Modells aus künstlichen neuronalen Netzen (KNN) zum Leben erweckt wurden. Zumindest sehen sie auf frischen Portraitfotos so lebendig aus wie wir auf unseren Selfies.

Solche Fotoporträts hat der kanadische Virtual-Reality-Designer Daniel Voshart mit Hilfe der Web-App Artbreeder erstellt und darüber einen Blogpost bei Medium veröffentlicht. Die Grundlage von Artbreeder sind GAN – generative adversial networks (erzeugende gegnerische Netze), die 2014 von Ian Goodfellow entwickelt wurden. Wie dieses Modell aus künstlichen neuronalen Netzen funktioniert, erkläre ich Ihnen am Ende dieses Beitrags anhand eines grimmschen Märchens. Irgendwie lassen mich Märchen nicht los.

Mit Artbreeder kann jeder Internetnutzer verschiedene Fotos zu einem nie dagewesenem Bild fusionieren. (Eine hübsche Anleitung dazu finden Sie hier.) Für seine kreative Arbeit nutzte Daniel Voshart neben Artbreeder Photoshop und Hinweise aus historischen Berichten. So entstanden aus Büsten von altrömischen Imperatoren realistische Fotoportraits – ein altrömisches Facebook.

Bild: Daniel Voshart auf Medium. Veröffentlichung mit Genehmigung von Daniel Voshart unter Einhaltung von Creative Commons BY-NC-SA.

Ein kindlicher Wunsch

Dank KI wissen wir jetzt, wie Caligula oder Nero ausgesehen haben. Meine Kultherrscherin Kleopatra ist leider nicht dabei, und das aus einem einfachen Grund: Kleopatra war keine römische Kaiserin, sondern die letzte weibliche Pharaonin des ägyptischen Ptolemäerreiches. Trotzdem war sie die Geliebte von zwei mächtigen römischen Kaisern: Julius Cäsar und Marcus Antonius.

Warum ist Kleopatra meine Kultherrscherin? Sie war die Heldin des ersten Monumentalfilm, den ich im Jahr 1968 sah – mit etwa 12. Sie brachte den Frühling in meine Geburtsstadt Prag, der leider nicht allzu lange dauerte. Sollte Daniel Voshart auch bei der echten Kleopatra zeigen, dass sie fotogen gewesen sei, würde er mich beglücken.

Elisabeth Taylor im Spielfilm Cleopatra aus dem Jahr 1963. Quelle: 20th Century Fox / Public domain.

Eine nachgeschobene Anmerkung zu diesem Absatz: Nach dem Posten dieses Blogbeitrags hat Daniel Voshart mich darauf aufmerksam gemacht, dass er mit Hilfe von Artbreeder bereits auch Kleopatra rekonstruiert hatte:
https://twitter.com/dvoshart/status/1282000958109753345?s=19

Erzeugende gegnerische Netze – GANs

Wie oben gesagt: Die Grundlage von Artbreeder bilden GAN. GAN sind die Künstler und Fälscher unter den Modellen aus künstlichen neuronalen Netze. Sie können nie dagewesene Bilder schöpfen, sind aber auch die Grundlage von DeepFakes und ihrer frauenverachtenden Abart DeepNude. Mit DeepNude-Apps können beliebigen Frauen nur anhand von ein paar Fotos nackte Körper verpasst werden.

Zurück aber zu GAN: Beim Schreiben meines Buches über Künstliche Intelligenz “Ist das intelligent oder kann das weg?” habe ich über Ian Goodfellows GANs gegrübelt. (Mein KI-Buch erscheint in diesen Tagen bei Langen/Müller.) Dabei fiel mir wieder einmal ein, wie viel magische Poesie in künstlichen Neuronalen Netzen steckt: Ein GAN-Modell funktioniert genauso wie ein schönes Märchen der Gebrüder Grimm. Vielleicht entdecken Sie den Titel selbst, wenn ich GAN kurz erkläre. Diese KI-Modelle setzen sich aus zwei künstlichen neuronalen (oft konvolutionellen) Netzen zusammen: aus dem Generator und dem Diskriminator. Der Generator erzeugt aus Zufallsdaten ein Bild und schlägt dieses Bild dem Diskriminator vor. Der Diskriminator urteilt, ob das erzeugte Bild zu einem bestimmten Datensatz gehöre.

Die Erschaffung einer nie dagewesenen Ziege

Zum Beispiel erzeugt der Generator des GAN-Modells das Bild einer Ziege. Ohne zu wissen, wie eine Ziege aussieht. Dabei bekommt der Generator einfach als Eingabe ein Vektor aus einer Zufallszahlenverteilung, verarbeitet es und schickt das Vektor aus seiner Ausgabe an den Diskriminator. (Ein Vektor ist ein Zahlentupel.) Das Vektor repräsentiert mathematisch das neue Ziegenbild. Programme können ja nichts mit Bildern anfangen – sie brauche Zahlen. Der Generator versucht also, dem Diskriminator dieses Ziegenbild als ein echtes “unterzujubeln”. (Bitte, lassen Sie sich durch die “Vermenschlichung” der Handlungen eines solchen Algorithmus nicht irritieren. Dahinter steckt nur das maschinelle Lernen mit etwas Mathematik.)

Der Diskriminator vergleicht aber dieses Bild (Vektor) mit Bildern (Vektoren) einer echten Verteilung von allen möglichen Ziegen. Dafür wird der Diskriminator an Abertausenden Ziegenbildern trainiert. Sein neuronales Netz lernt beim Training mit Ziegenbildern Merkmale, die eine Ziege definieren. Deswegen weiß der Diskriminator über Ziegen Bescheid und kann das gefälschte Ziegenbild ablehnen: “Nö! Das ist keine Ziege.” Daraufhin passt der Generator das Ziegenbild etwas mehr den Anforderungen des Generators an und schlägt das neue Bild dem Generator vor. Das geschieht so oft, bis der Diskriminator meldet: “Ja, so sieht eine Ziege aus.”

Tiefgehend erklärt die Funktion der GANs ein Blogartikel von Joseph Rocca Understanding Generative Adversarial Networks (GANs). Wie Gesichter mit GANs generiert werden, wird anschaulich in diesem Video gezeigt:

Ein Märchen für KI

Mit diesem Wissen können wir endlich das Märchenreich betreten: Erinnert das GAN-Modell Sie an ein Grimm’sches Märchen? An welches? Ja! Genau! “Der Wolf und die sieben Geißlein”: Mama Geiß geht einkaufen. Sie sagt den Geißlein, sie sollen niemandem die Tür aufmachen. Denn der Wolf sei ein fieser Zeitgenosse, der sich gerne verstelle: Als der Wolf (Generator) anklopft und sich für Mama Geiß ausgibt, entlarven die Geißlein (Diskriminator) den Schurken sofort: “Nein, unsere Mama hat eine viel feinere Stimme.” So frisst der Wolf Kreide, um der Geiß mehr zu ähneln. Seine Stimme wird feiner.

Doch die Fälschung ist bei Weitem nicht perfekt: Der Wolf legt seine schwarze Pfote ans Fenster, und die Geißlein rufen: “Wir machen nicht auf, unsere Mutter hat keinen schwarzen Fuß wie du: du bist der Wolf!” Deswegen lässt der Wolf sich die Pfote beim Bäcker mit Teig bestreichen und mit Mehl bestäuben. Am Ende lassen sich die Geißlein doch überlisten und lassen ihn rein. Zum Glück verschlingt der Wolf alle Geißlein am Stück, weil er ein Vielfraß ist. Und so kann Mama Geiß sie aus seinem Bauch befreien.

Bei unserem Modell hat Wolf (Generator) die alte Geiß nie gesehen. Die Geißlein (Diskriminator) aber sind jung und naiv: Obwohl sie den Wolf bei jeder Fälschung entlarven, verraten sie ihm dabei immer mehr, wie ihre Mama aussieht. Somit kann der Wolf immer besser lernen, die Geiß zu fälschen. Außerdem schauen sich die Geißlein bei jeder neuen Fälschung ein Album mit den Fotos ihrer Mama an, um ihr Bild nicht zu vergessen. Wenn Sie sich jetzt noch vorstellen, dass der Wolf seine Erscheinung viele Male verbessert, weil die Geißlein jede neue immer wieder ablehnen (diskriminieren), dann wissen Sie, wie GANs funktionieren.

Wissenschaft ist die Poesie der Realität

Mit GAN kann man viel anstellen. Der YouTuber Denis Shiryaev hat mit GAN die allerersten Filme der Filmgeschichte “restauriert”. Jetzt sehen die Szenen darin aus, wie gestern gedreht. Am Film “Die Ankunft des Zuges in La Ciotat” der Gebrüder Lumière aus dem Jahre 1896 können wir heute unsere Neugier auf die Welt von damals befriedigen. Sicher können wir aber nicht mehr – durch viel Filme, 3D-Filme und VR-Brillen verwöhnt – die Angst der damaligen Zuschauer nachempfinden, als eine Lok von der Leinwand zu ihnen ins Kino zu rasen schien. Damals, am Ende des 19. Jahrhunderts, sollen die Zuschauer aus dem Vorführungssaal geflüchtet sein. Auch viele andere Filmgeschichte-“Inkunabel” konnten mit KI zum Leben erweckt werden.

Ich hoffe, Sie erfreuen sich so wie ich an den lebensechten Portraits von Nero und Caligula aus und an den Wundern, die künstliche neuronale Netze vollbringen können. Das Spiel mit der Künstlichen Intelligenz hat jedoch erst begonnen. Noch viel Erstaunliches kommt auf uns zu.

PS:

GAN und DeepFakes sind auch das Thema des zweiten Bandes meiner Kinderkrimi-Reihe “#Datendetektive” im Tessloff-Verlag. In den lustigen Krimis darf ich Kindern zeigen, wie KI, Roboter und digitale Welten funktionieren. Auch Erwachsene schreiben mir, dass sie bei der Lektüre einiges lernen. 🙂 Die wunderhübschen Illustrationen sind von Marek Blaha. Beide Bände sind gerade erschienen:

Avatar-Foto

Liebe Besucherin, lieber Besucher,

 
willkommen auf meinem SciLogs-Blog "Gehirn & KI".
 
Ich möchte hier über alle möglichen Aspekte der Künstliche-Intelligenz-Forschung schreiben. Über jeden Kommentar und jede Diskussion dazu freue ich mich sehr, denn wie meine Mutter oft sagte:
 
"Solange die Sprache lebt, ist der Mensch nicht tot."
 
Neues über künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen poste ich häufig auf meiner Facebook-Seite: Maschinenlernen
 
Hier etwas zu meiner Laufbahn: ich studierte Chemie an der TU München und promovierte anschließend am Lehrstuhl für Theoretische Chemie der TU über die Entstehung des genetischen Codes und die Doppelstrang-Kodierung in den Nukleinsäuren.
 
Nach der Promotion forschte ich dort einige Jahre lang weiter über den genetischen Code und die komplementäre Kodierung auf beiden Strängen der Nukleinsäuren:
 
Neutral adaptation of the genetic code to double-strand coding.
 
Stichworte zu meinen wissenschaftlichen Arbeiten: Molekulare Evolution, theoretische Molekularbiologie, Bioinformatik, Informationstheorie, genetische Codierung.
 
Zur Zeit bin ich Fachdozent für Künstliche Intelligenz an der SRH Fernhochshule und der Spiegelakademie, KI-Keynote-Speaker, Schriftsteller, Bühnenliterat und Wissenschaftskommunikator. Auf YouTube kümmere ich mich um die Videoreihe unserer SRH Fernhochschule "K.I. Krimis" über ungelöste Probleme und Rätsel der Künstlichen Intelligenz.
 
U. a. bin ich zweifacher Vizemeister der Deutschsprachigen Poetry Slam Meisterschaften.
 
Mein Buch „Doktorspiele“ wurde von der 20th Century FOX verfilmt und lief 2014 erfolgreich in den deutschen Kinos. Die Neuausgabe des Buches erschien bei Digital Publishers.
 
Mein Sachbuch über Künstliche Intelligenz "Ist das intelligent oder kann das weg?" erschien im Oktober 2020.
 
Im Tessloff-Verlag erscheinen meine von Marek Blaha wunderschön illustrierten Kinderkrimis "Datendetektive" mit viel Bezug zu KI, Robotern und digitalen Welten.
 
Viel Spaß mit meinem Blog und all den Diskussionen hier :-).
 
Jaromir

43 Kommentare

  1. Is Fake Life more convincing then Real Life ?
    Künstliche Intelligenz kann Realität vortäuschen. Auf für den Laien oder Unaufmerksamen auf kaum unterscheidbare Art und Weise. Davon bin ich überzeugt. Denn dafür gibt es schon einige gute Annäherungen. Nicht nur visuell vortäuschen, sondern beispielsweise auch in der Art und Weise wie eine Frage beantwortet wird. GPT-3 (ein Sprachgenerator, der „Leerstellen“ mit überzeugendem Sprachmaterial füllen kann) etwa kann in die Rolle von Elon Musk oder Bill Gates schlüpfen und Antworten geben, die vom Original stammen könnten. GPT-3 macht das ohne GAN, also ohne Modell für die Nachahmung, sondern mit einem Transformer-basierten Abbildungsprozess, dem praktisch alle im Internet veröffentlichten Texte zum Frass vorgeworfen wurden (wie einem hungrigen Wolf um im selben Bild zu bleiben wieJaromir Konecny weiter oben). Die „Nachahmung„ im Fall von GPT-3 besteht darin, Leerstellen im Text mit statistisch passendem Material zu füllen, wobei eben als Kontext die textuelle Umgebung der „Leerstelle“ benutzt wird. Ähnlich wie ein gehirngeschädigter Alkoholiker Gedächtnislücken mit sogenannten Konfabulationen füllt, also mit Erfindungen/Erzählungen, die scheinbar Sinn machen, so füllt GPT-3 Leerstellen mit passendem Unsinn/Sinn.
    Doch das Konfabulieren und Imitieren muss nicht bei Bildern und Texten stehenbleiben. Auch Verhalten kann imitiert werden. Dafür gibt es sogar schon ganz viele Ansätze, wobei der Ansatz mit „Verhaltens-GAN“ aber besonders vielversprechend ist, weil er robust gegenüber kleinen Abweichungen vom Original ist. Der arxiv-Artikel Behavioural Repertoire via Generative Adversarial Policy Networks berichtet über den Versuch Verhalten generativ adversariell nachzuahmen, was beim Ballwerfen mit Hindernissen gut zu funktionieren scheint, liest man doch (übersetzt von DeepL): Durch die Nutzung unseres generativen Policy-Netzwerks kann ein Roboter neue Verhaltensweisen ausprobieren, bis er eines findet, das in einer neuen Umgebung funktioniert. Wir demonstrieren diese Idee mit einer Anwendung von robustem Ballwerfen in Gegenwart von Hindernissen. Wir zeigen, dass mit diesem Ansatz eine größere Vielfalt an Verhaltensweisen erreicht wird als mit einem bestehenden evolutionären Ansatz, wobei gleichzeitig eine gute Wirksamkeit der abgetasteten Verhaltensweisen erhalten bleibt, so dass ein Baxter-Roboter beim Ballwerfen in Gegenwart von Hindernissen öfter Ziele trifft.

    Schwache Künstliche Intelligenz: Vortäuschung von Echtheit durch „SoTunAlsOb“
    Heute staunen wir über lebensecht wirkende Menschen in von künstlicher Intelligenz konstruierten Bildern. Morgen werden wir noch viel mehr staunen über lebensecht agierende und argumentierende Fake-Menschen, denn es ist nur eine Frage der Zeit bis sich ein Roboter statistisch gesehen gleich wie ein Mensch verhalten kann, so dass er gleich spricht, gleich antwortet, über ähnliche Träume berichtet und nicht weiter auffällt, obwohl er rein gar nichts versteht und keinen einzigen klaren Gedanken hat.

    Wer weiss, vielleicht gibt es ja auch Menschen, die sich wie „echt“ verhalten, dabei aber keinen klaren Gedanken haben?

      • Genau. Ein P-Zombie tut beispielsweise so als ob es weh tut obwohl er nichts empfindet.
        Ich bin aber ähnlicher Meinung wie Daniel Dennet: Nur vortäuschen funktioniert auf die Länge nicht: 1) weil es zu schwierig ist im richtigen Moment immer das Richtige vorzutäuschen 2) weil sich logische Widersprüche einstellen oder weil Unwissen existiert wie man beispielsweise zwei verschiedene Dinge gleichzeitig vortäuscht.

        Tatsächlich ist Vortäuschen von Leistung ein echtes Problem der heutigen künstlichen Intelligenz. Aktuell beispielsweise beim selbstfahrenden Auto. Heutige selbstfahrende Autos, trainiert mit künstlicher Intelligenz, wissen beispielsweise nicht, dass der Radfahrer, der auf der Gegenspur gerade überholt wird und der Radfahrer, den das System nach dem Überholvorgang erkennt, derselbe Radfahrer ist. Dieses Wissen scheint tatsächlich nicht nötig zu sein um sicher zu fahren. Doch Waymo, also googles Fahrdienst hat gerade entschieden, dass dieses Wissen dennoch essentiell ist und baut nun das Erkennen von ganzen Fahrverläufen mit vorübergehender Identifikation des Verkehrsteilnehmers in sein selbstfahrendes System ein. Und ja, ich bin überzeugt, ohne das geht es nicht, ohne das kann ein selbstfahrendes System nie die Leistung eines professionellen Fahrers erreichen.

  2. @Scheinbewusstsein

    Mich würde es wundern, wenn es möglich wäre, KI-Systeme zu bauen, die sich wie wir mit unserer Innenwelt verhalten, aber definitiv keine eigene Innenwelt haben.

    Wenn man das auf uns zurücküberträgt, wäre das ein Hinweis darauf, dass auch wir ohne Bewusstsein und Innenwelt biologisch ordnungsgemäß funktionieren könnten. Wieso sollte aber die biologische Evolution Bewusstsein in einer Innenwelt hervorbringen, wenn das vermeidbar wäre?

    Dass wir eine Innenwelt haben, bedeutet dann, dass wir sie auch brauchen, und dass eine richtige KI, die wie wir funktioniert, auch eine eigene Innenwelt braucht. Man müsste also gucken, wie diese Innenwelt bei uns bzw erstmal bei Mäusen funktioniert, und das dann nachbauen, wenn wir wirklich KI mit funktionierendem Bewusstsein bauen wollen.

    Die Scheinbewusstseins-KI würde vermutlich ständig Unsinn anstellen, wenn sie auf den wilden Alltag losgelassen würde. Vielleicht sieht man das schon bei selbstfahrenden Fahrsystemen für den wilden Stadtverkehr mitten zwischen von Menschen gefahrenen Fahrzeugen, dass sich hier Schwächen zeigen, die nur mit künstlichem Bewusstsein wirklich vermieden werden können.

    • Dass wir eine Innenwelt haben, bedeutet dann, dass wir sie auch brauchen, und dass eine richtige KI, die wie wir funktioniert, auch eine eigene Innenwelt braucht.

      Natürlich brauchen wir unsere Innenwelt, denn sie treibt uns an und wir spiegeln die Welt in ihr. Zukünftige künstliche Intelligenzen, die nicht nur scheinintelligent sondern echt intelligent sind und die zudem einen Willen und Ziele haben werden genau so wie wir eine Innenwelt haben. Joscha Bach ist ein guter Verkünder einer solchen vom Menschen inspirierten künstlichen Intelligenz.
      From Artificial Intelligence to Artificial Conciousness ist ein guter TED-Vortrag von Joscha Bach in dem er erklärt wie der Mensch funktioniert und wie eine menschenähnliche Maschine funktionieren müsste.

      Zitat: Die Scheinbewusstseins-KI würde vermutlich ständig Unsinn anstellen, wenn sie auf den wilden Alltag losgelassen würde.
      Nein, das würde sie nicht. Das zeigt ja bereits GPT-3, der Sprachgeberator, der recht vernünftige Konversationen führen kann. Übrigens: auch wir Menschen verbringen den grössten Teil unseres Alltags im automatischen Modus in dem wir einfach ohne viel zu denken Gedanken, Gefühle und Verhalten abrufen und (re)produzieren.
      Dass GPT-3 aber das Weltverständnis fehlt kann man ganz einfach feststellen indem man ihn mit Unsinn konfrontiert, denn GPT-3 weiss nur mit Dingen umzugehen, die es gibt, nicht aber mit Dingen, die es nicht gibt. Das zeigt folgende Konversation mit GPT-3:

      Q: How many eyes does a giraffe have?
      A: A giraffe has two eyes.

      Q: How many eyes does my foot have?
      A: Your foot has two eyes.

      Q: How many eyes does a spider have?
      A: A spider has eight eyes.

      Q: How many eyes does the sun have?
      A: The sun has one eye.

      Q: How many eyes does a blade of grass have?
      A: A blade of grass has one eye.

      Doch wenn man über „normale„ Dinge mit GPT-3 redet, dann kommt er rüber wie du und ich und sagt beispielsweise folgendes

      Q: What is your favorite animal?
      A: My favorite animal is a dog.

      Q: Why?
      A: Because dogs are loyal and friendly.

      Q: What are two reasons that a dog might be in a bad mood?
      A: Two reasons that a dog might be in a bad mood are if it is hungry or if it is hot.

      Q: How many eyes does a giraffe have?
      A: A giraffe has two eyes.

      Q: How many legs does a frog have?
      A: A frog has four legs.

      Q: Are there any animals with three legs?
      A: No, there are no animals with three legs.

      Q: Why don’t animals have three legs?
      A: Animals don’t have three legs because they would fall over.

      Tönt doch vernünftig. Und nun einen Rat: wenn sie herausfinden wollen wie vernünftig ein Mensch ist, dann sagen die ihm etwas mild unvernünftiges und beobachten dann wie er reagiert. An seiner Reaktion können sie dann erkennen ob er die Welt wirklich versteht.

  3. @Martin Holzherr 09.10. 22:38

    „…ein guter TED-Vortrag von Joscha Bach in dem er erklärt wie der Mensch funktioniert und wie eine menschenähnliche Maschine funktionieren müsste…“

    Leider reicht mein Englisch nicht für diesen Vortrag. Ich vermute aber mal, dass echte künstliche Innenwelten noch Jahrzehnte vor uns liegen. Wir haben, so weit ich weiß, auch kaum eine Ahnung, wie die Unsere auf neurologischer Ebene funktioniert. Hirnforscher haben vor lauter Verzweiflung sogar schon so getan, als hätten wir gar keine relevante Innenwelt. Ich denke da z.B. an die Libet-Experimente, die versuchen sollten, den freien Willen wegzuerklären.

    Ihre Beispiele von Konversationen mit GPT-3 zeigen, dass dieses KI-System offenbar schnell improvisiert, wenn es an seine Grenzen kommt. Wirklich attraktiv als Gesprächspartner scheint das noch nicht zu sein. Zum Brötchen bestellen wird es aber reichen können.

    Was den Hang zum Unsinn bei bewusstlosen KI-Systemen angeht, da wird ganz aktuell die Entwicklung von Selbstfahrsystemen zeigen, wie weit man damit kommt. Vielleicht hakt es hier tatsächlich mit dem Stadtverkehr, wenn sich ein einzelnes selbstfahrendes Fahrzeug mitten unter die von Menschen Gesteuerten Fahrzeuge mischen muss, ohne den Verkehr aufzuhalten. Womöglich braucht es hier die Kommunikation mit anderen Verkehrsteilnehmern, und mit übergeordneten Systemen, die zur Straße gehören, um das Manko der fehlenden Innenwelt und des fehlenden Weltverständnisses auszugleichen.

    • @Tobias Jeckenburger (Zitat):

      Was den Hang zum Unsinn bei bewusstlosen KI-Systemen angeht, da wird ganz aktuell die Entwicklung von Selbstfahrsystemen zeigen, wie weit man damit kommt.

      Selbstfahrende Autos sind schon dann recht nützlich, wenn sie Kollisionen vermeiden, wenn sie im richtigen Moment die Spur wechseln, mit Kreuzungen zurechtkommen und nichts Falsches tun in Situationen, die sie nicht kennen wie etwa einer kaum befahrbaren Baustelle, einer plötzlich endenden Strasse oder einem auf derselben Spur entgegenkommenden Autofahrer. Davon sind wir gar nicht so weit entfernt.

      Kollisionen zu vermeiden ist beispielsweise gar nicht so schwierig. Dazu berechnet das System die Fahrpfade aller Verkehrsteilnehmer in der Nähe und berechnet voraus, ob sich das eigene Auto mit einem anderen Fahrpfad kreuzt. Allein damit sinkt die Zahl der schweren Unfälle wenn mit Fahrassistent unterwegs gegenüber gegenüber dem selbstfahrenden Menschen. Allerdings ist es noch ein weiter Weg vom Unfälle vermeidenden Fahrassistent zum vollen selbstfahrenden System in einer schwierigen Umgebung.

      In einer übersichtlichen Umgebung kann Waymo allerdings bereits jetzt selbst fahren: eben wurde bekanntgegeben, dass Waymos Robottaxis nun in Phoenix, Arizona für alle Bürger verfügbar sind. Das kann man im Artikel Waymo will allow more people to ride in its fully driverless vehicles in Phoenix nachlesen.

  4. Bewusst gemachte Imperfektionen sollen Echtheit/Authentizität beweisen
    Schon heute besitzen Deep Fake Portraits Imperfektionen uns sie noch echter erscheinen zu lassen.

    Die Warze im Gesicht, die graue Haarsträhne oder die Lachfältchen sind eine Art Ausweis für Echtheit/Authentizität.
    Das dachte ich auch beim obigen Bild von Elisabeth Taylor im Spielfilm Cleopatra aus dem Jahr 1963 (Quelle: 20th Century Fox / Public domain). Denn auf dem Bild sieht man eine unregelmässige Pigmentierung auf der linken Thoraxseite, also gerade über ihrer linken Brust: dort gibt es eine unregelmässige Trennlinie zwischen dunkelbrauner und weisser Hautfarbe.
    Ich denke: vor 20 Jahren hätte man so etwas aus dem Bild herausretouchiert und heute würde man es in ein künstlich erzeugtes Bild hineinretouchieren um es echter erscheinen zu lassen.

    • Ja, das ist eine interessante Frage, inwieweit GANs lernen, kleine Störungen und Unsymmetrien in die erzeugten Gesichter einzubauen. Am Ende geht es hier aber um “representation learning” (feature learning) – das Lernen von Merkmalen eines Datensatzes. Wenn Merkmale wie Muttermale, Warzen und kleine Unsymmetrien zu Gesichtern gehören, werden die GANs sie auch lernen. Der Diskriminator lernt ja aus einem großen Datensatz von Gesichtern, wie Gesichter aussehen. Deswegen muss man solche Sachen gar nicht “hineinretuschieren”, denke ich. Muss das aber noch ein bissl durchdenken. 🙂

  5. @ Martin Holzherr

    „Bewusstlos“ sind KI Systeme deswegen, weil sie (derzeit) kein „Empfindungsbewusstsein“ haben. Sie haben selbstverständlich auch ein stark ausgeprägtes „Innenleben“, aber keine Empfindungen wie z.B. Lust und Schmerz. Empfindungen haben nur so etwas wie eine „abstrakte“ aber keine reale Bedeutung. Beim Menschen ist es eher umgekehrt.

    Hätten KI Systeme echtes „Empfindungsbewusstsein“, würden ihnen „Schutzgesetze“ (wie z.B. Tierschutzgesetze) „zustehen“. Das würde sie praktisch wertlos machen, weil sie womöglich ein teures Eigenleben entwickeln und ethisch Rücksicht genommen werden müsste. Einen Roboter kann man sozusagen „kalt lächelnd“ bei einem gefährlichen Einsatz „opfern“ einen Menschen nicht.

    „Innenleben“ bedeutet, es gibt Information verarbeitende „Denkprozesse“, aber keinen Input oder Output und auch keine besonderen „Filter“, sowohl beim Menschen als auch beim KI Roboter. Beim Roboter ist das Innenleben eben ohne Empfindungen wie Lust und Schmerz. Eine reale „Abbildung von Information“ (im Sinne der Mathematik) gibt es im Roboter als auch im Menschen.

    Vermutlich hält man mich deswegen für verrückt, aber ich vermute dass Empfindungen z.B. in einer Empfindungssensorik dann entstehen, wenn durch verschiedene Einflüsse verursacht, Elektronen aus ihrem Valenzband, anschaulich aus ihre „Umlaufbahn“ (um die Atomkerne) fliegen und sich an bestimmten Stellen anreichern. Dies kann im neuronalen System hinsichtlich ihrer Örtlichkeit und ihres zeitlichen Verhaltens ausgewertet werden.

    Bei den selbstfahrende Autos scheint mir, abgesehen vom normalen „Autofahrerkönnen“ wichtig, dass sich die Autos sozusagen selbständig (über das 5G Netz) „verabreden“ können in welchem „Zeitschlitz“ sie jeweils über eine Kreuzung fahren wollen. Das würde das lästige Stop und Go verringern, wenn eine ganze Kette von Autos anhalten und danach wieder wegfahren muss und damit die Umweltbelastung minimieren. Selbstverständlich sollten auch die Verkehrsunfälle minimiert werden.

    Es scheint auch klar, dass KI Systeme, noch mehr als Menschen, Probleme mit Ironie und Sarkasmus haben.

    Das „Vortäuschen von Leistung“ ist nicht nur ein echtes Problem der heutigen künstlichen Intelligenz. Bei jeder Prüfung versucht ein Kandidat Eindruck zu „schinden“, ist doch auch bei der natürlichen Intelligenz naheliegend.

    Bei modernen Information verarbeitenden Systemen gibt es eine „Akkumulatorfunktion“ (Datensammlerfunktion), die ähnlich im „Zentrum der Verarbeitung“ steht, wie beim Menschen das Bewusstsein.

    Ursprünglich wurden die Bauelemente, es waren damals „Relaisschaltungen“, vom Techniker direkt verdrahtet um einfache Steuerungsfunktionen zu realisieren. Es gab eigentlich keine Form von Bewusstsein. Danach „erfand“ man die einfachen auf Gatterfunktionen beruhenden Systeme.

    Es gab sogenannte „Verteiler“, einer Art von Vorstufe zum Akkumulator (Datensammler) und letztlich zum Bewusstsein, die beide sozusagen im Zentrum der Informationsverarbeitung stehen.

    An den „Verteilern“ mussten die Techniker sogenannte „Rangierarbeiten“ durchführen. Bedeutet, sie haben auf besondere Weise „Drahtbrücken“ (zwischen Schaltungsausgängen und Eingängen) eingelötet um bestimmte Funktionen der Schaltung zu bewirken. (Also z.B. Maschinen in einer Fabrik die erforderlichen Prozessabläufe steuern, oder auch weltweit Telefonverbindungen aufgebaut werden können).

    Die, letztlich „Bewusstsein“ erfordernde Arbeit der Techniker wurde später durch die „Programmsteuerung“ die vom Programmierer festgelegt wird ersetzt. Die von Neumann Maschinen wurden entwickelt, auch der Akkumulator (hier als „Datenzusammenfasser“) fixer Bestandteil von Prozessoren und eine Art Vorstufe zum zentralen Bewusstsein, wurde bedeutsam. Durch KI Systeme wurden einfache Programmierarbeiten ersetzt.

    Beim Menschen erfolgt die Strukturerweiterung, deren Programmierung (Synapsenbildung) des „Wissen“ gemäß der Hebbschen Regel im Sinne von Eric Kandel auf allen Ebenen und nicht nur auf den „Zwischenschichten“ (die am ehesten dem Bewusstsein entsprechen).

    Es entwickelt sich alles mittels „Generatoren und Diskriminatoren“ weiter, wie es Herr Konecny formuliert hat. Es entspricht auch dem Darwinschen Prinzip. Es gibt einen gewissen Trend zur Optimierung, zum immer „Angepassterem“.

    Das Libet Experiment, erklärt nur, dass nicht jeglicher Output über die hauptsächlich das Bewusstsein abbildenden Strukturen (meiner Meinung nach sind es Zwischen- bzw. Endschichten bei den Gehirnorganen) geführt werden muss. Ist auch klar, die Impulse die z.B. den Herzschlag steuern „laufen“ nicht wirklich relevant über das Bewusstsein.

    • „Innenleben“ bedeutet, es gibt Information verarbeitende „Denkprozesse“, aber keinen Input oder Output und auch keine besonderen „Filter“, sowohl beim Menschen als auch beim KI Roboter.

      Weiss nicht, denn Innenleben bedeutet gemäss Wikipedia:

      Innenleben bezeichnet:

      – umgangssprachlich die Psyche (gleichbedeutend dafür ebenfalls: „sein Inneres“)
      – Innenleben (Film), Spielfilm von Woody Allen
      – als metaphorischer Ausdruck den äußerlich nicht sichtbaren Funktionsmechanismus eines technischen Gerätes, zum Beispiel einer Uhr

      Sie als Techniker denken bei Innenleben wohl an das Innenleben einer Uhr oder eines elektronischen Bauteils. Für die meisten bedeutet Innenleben aber psychische Prozesse, die Erlebtes verarbeiten oder die Gedanken, Gefühle, Wünsche und Vorstellungen beinhalten oder aktivieren.
      Innenleben muss nicht sensorisch sein, psychische Prozesse umfassen mehr als Lust und Schmerz.

      Zitat:

      Das „Vortäuschen von Leistung“ ist nicht nur ein echtes Problem der heutigen künstlichen Intelligenz. Bei jeder Prüfung versucht ein Kandidat Eindruck zu „schinden“, ist doch auch bei der natürlichen Intelligenz naheliegend.

      Zustimmung. Die Frage, die sich mir hier stellt, ist die, ob man genügend leisten kann, wenn einem etwas fehlt. Beispiel: Können sie gut Autofahren, wenn sie die Fahrzeuge, Fussgänger etc., die ihnen begegnen sofort wieder vergessen, also nicht wissen, dass das Fahrzeug, das gerade hinter ihnen war, nun vor ihnen ist.
      Einfache Fahrassistenten sind tatsächlich nicht in der Lage ein anderes Fahrzeug „mental“ zu verfolgen. Es fehlt ihnen also etwas, über das gesunde Menschen verfügen.

    • Das Libet Experiment, erklärt nur, dass nicht jeglicher Output über die hauptsächlich das Bewusstsein abbildenden Strukturen (meiner Meinung nach sind es Zwischen- bzw. Endschichten bei den Gehirnorganen) geführt werden muss.

      Ja, das ist doch klar, Bewusstsein umfasst nur einen ganz kleinen Teil unserer Hirnaktivität. Wenn wir alles bewusst tun müssten, kämen wir nirgends wohin.
      Erstaunlicherweise ist das vielen nicht bewusst. Libets Experiment zeigt aber noch etwas anderes. Es zeigt, dass das, was uns bewusst wird, schon kurz vor dem Bewusstwerden in unserem Hirn vorbereitet wurde. Das passt zu folgender Wikipedia-Einleitung:

      Im Libet-Experiment wurde gezeigt, dass das motorische Zentrum des Gehirns mit der Vorbereitung einer Bewegung bereits begonnen hat, bevor man sich dessen bewusst wird, dass man sich für die sofortige Ausführung dieser Bewegung entschieden hat. Der zeitliche Abstand beträgt etwa 0,35 s, die wirkliche Bewegung erfolgt dann noch etwa 0,2 s später.

      Auch das überrascht mich gar nicht, denn bewusst werden kann nur, was irgendwo bereits vorbereitet und entschieden wurde.

  6. Herzlichen Dank für den Hinweis auf diese interessante Spielerei zum Thema machine learning. Die Porträts kommen sehr lebensecht rüber, aber ob die dargestellten Personen tatsächlich so ausgesehen haben, muss wohl bis zur Erfindung einer Zeitmaschine offen bleiben, zumal Daniel Voshart selbst schreibt, dass ihm für einige der Kurzzeit-Imperatoren nur Münzporträts zur Verfügung standen, die nun wirklich nicht sehr genau gearbeitet sind.
    Es wäre vielleicht ganz interessant, wenn man sich Statuen oder Büsten von Persönlichkeiten vornehmen würde, von denen es auch Photographien gibt, und das GAN-Ergebnis dann mit den Fotos abgleicht -die einzige Validierungsmethode, die mir gerade einfallen will.

    • Ich habe für den schönen Zuspruch zu danken! Sie haben recht, dass wir hundertprozentig nicht wissen, ob die Kaiser tatsächlich so ausgesehen haben. Das ist eine gute Idee, Büsten von Personen mit GANs zu bearbeiten, von denen es auch Fotos gibt, um maschinenerzeugte und echte Fotos zu vergleichen. Nur wissen wir recht gut, dass künstliche neuronale Netze nichts anderes machen, als die beste mögliche Repräsentation eines gegebenen Datensatzes zu finden. Deswegen: Wenn die Bildhauer die Kaiser einigermaßen gut erfasst haben, müssten auch die Fotos einigermaßen stimmen, zumal Daniel Voshart die Bilddaten mit Details aus historischen Quellen ergänzte.

      Ein kleiner Vergleich dazu sind auch die historischen Filme, die mit GANs aufgefrischt wurden und die man bei YouTube findet. Die Sachen darin sehen auch ziemlich echt aus und die Menschen sowieso. 🙂

      • Wenn die Bildhauer die Kaiser einigermaßen gut erfasst haben, müssten auch die Fotos einigermaßen stimmen

        Das ist genau der Punkt. Büsten und viel mehr noch Statuen von Herrschern waren nie ausschliesslich dazu gedacht, den Untertanen ein reales Bild von ihren Herrschern zu vermitteln, sie transportierten immer auch eine bestimmte politische Zielsetzung. Das kann man an den Kaiserbildern übrigens sehr schön sehen: während die Antoninen nach Traian sich gerne als Weltweise darstellen liessen (Philosophenbart, ruhige, gefasste Gesichtszüge) wurden die Soldatenkaiser der 3. Jhds. mit Dreitagebart und tiefen, zerfurchten Gesichtszügen dargestellt, um die Last ihres Amtes entsprechend rüberzubringen.
        Es wäre interessant herauszufinden, inwieweit GAN hinter die Propaganda schaut und den tatsächlichen Menschen sichtbar machen kann.

  7. Noch eine kleine Anmerkung zu Ihrem Wunsch, auch Kleopatra einer solchen Behandlung zu unterziehen: wenn Sie sich Ihre Sicht auf diese bedeutende Herrscherin erhalten wollen, sollte dieser Wunsch besser unerfüllt bleiben. Kleopatra war das Ergebnis von 200 Jahren Inzucht (die Ptolemaier, obwohl Makedonen, übernahmen die Sitte der ägyptischen Pharaonen, nur innerhalb der Familie zu heiraten). So etwas ist der äußeren Erscheinung normalerweise eher abträglich, man muss sich nur mal die alten Habsburger-Porträts anschauen, da wäre auch mit Photoshop nichts mehr zu machen gewesen.
    Ausserdem dürfte Kleopatra in ihrem Dreissigern auch einige Kilo zu viel auf die Waage gebracht haben, wenn man den Schilderungen über die exzessiven Gastmähler glauben kann, die sie mit Marcus Antonius regelmässig feierte -dass auch ihr Vater Ptolemaios Auletes als fettleibig geschildert wird, ist ein weiteres Indiz.
    Ich werde mich jedenfalls bei meiner Vorstellung von Kleopatra lieber an dem Film orientieren als an der historischen Wahrscheinlichkeit, wobei übrigens ansonsten der Film historisch erstaunlich akkurat ist (Ausnahmen wie die Beziehung Cäsars zu seinem angeblichen Sohn Kaisarion oder die Darstellung der Schlacht von Actium einmal aussen vor gelassen). Jedenfalls unterscheidet sich der Kleopatra-Film sehr wohltuend von den üblichen Hollywood-Schmonzetten wie Quo Vadis oder Ben Hur.

    • Ihre Gedanken zu Kleopatra sind mir auch durch den Kopf gegangen, als ich beim Verfassen des Textes nach Kleopatras Büsten und Statuen googelte. 🙂 Da würde Liz Taylor auch als Statue viel besser aussehen. So verbleiben wir besser bei Hollywood und seinen Illusionen. Zumal Sie den Film so der Geschichte verpflichtet einordnen.

  8. @ Martin Holzherr

    „Innenleben“ ist ein sehr vager und eigentlich nur ein metaphorischer Begriff. Technische Systeme haben keine Empfindungen, demnach auch kein „Leben“. Prozess sind allerdings beteiligt, in technischen und auch psychischen Systemen. Der „Prozesscharakter“ des „Psychischen“ wird mitunter bezweifelt.

    Sensorik bedeutet, dass Sachverhalte mit Informationscharakter so „umgesetzt“ werden, dass sie in technischen oder auch biologischen Systemen z.B. zur Prozesssteuerung verwendet werden können.

    Gemeinsam ist ihnen in der Regel dass Sensoren nichtelektrische Messgrößen in elektrische Signale umwandeln.

    Eine besondere Sensorik ermöglicht es z.B. einen Blutstropfen so auszuwerten, dass man für die Gesundheit wichtige Parameter erhält, z.B. den Blutzuckerwert.

    Das Auge als sensorisches Organ wertet die Farbwerte oder die Helligkeitswerte der einzelnen Bild Pixel aus, „übersetzt“ sie in elektrische Signale, wobei meiner Meinung nach auch die typischen Farbempfindungen entstehen.

    Die Signalfolgen aus den verschiedenen sensorischen Organen werden in den (neuronalen) Gatteranordnungen verknüpft. Dabei entstehen die für das Innenleben typischen psychischen Prozesse, die Erlebtes verarbeiten oder die Gedanken, Gefühle, Wünsche und Vorstellungen „abbilden“.

    Psychische Prozesse umfassen die üblichen Sachverhalte abbildenden (informellen) Prozesse (ähnlich wie auch in der Technik) und zusätzlich die „realen“ Qualiafunktionen (Farben, Größen, ….) inklusive Lust und Schmerz als besondere Phänomene.

    • @Elektroniker: Josch Bach sieht Affekte/Gefühle als modifizierende Faktoren bei Aufmerksamkeit und Verarbeitung und er sieht Motivation als Antrieb um Ziele zu erreichen. So formuliert bedeutet das, dass er sich Affekte und Motivation nicht nur bei Menschen sondern auch bei „Denkmaschinen“ vorstellen kann. Tatsächlich hat er bereits Projekte gestartet, dies bei kognitiven AI-Projekten zu implementieren. Im Artikel A Motivational System for Cognitive AI hat er dies näher beschrieben.

      Meiner Meinung nach gibt es sehr viele psychische Prozesse, die nötig sind, damit wir etwas tun, etwas anstreben und damit wir uns in einer gewissen Weise verhalten.

      Übrigens: Qualia sind in meinen Augen auch eine Art internes Bewertungssystem, das Daten für uns „emotionalisiert“ und damit wichtig macht. Jedes genug leistungsfähige Informationssystem muss Daten bewerten, denn viele Daten sind unwichtig und es gilt die Aufmerksamkeit auf die wichtigen Daten zu lenken. Empfindungen wie Schmerz oder Farbe helfen bei dieser Aufmerksamkeitslenkung und auch dabei das Wichtige zu erinnern und das Unwichtige zu ignorieren.

      • Ergänzung: Bewusstsein, Motivation, Gefühle, Affekte, Empfindungen als nicht überlebensnotwendige Luxusmanifestationen zu sehen, ist wahrscheinlich völlig falsch. Denn all das steht bei höheren Organismen im Dienste des Lebens und Überlebens eines im Grunde autonomen Organismus, der sich aber richtig verhalten und orientieren muss, um erfolgreich zu sein.
        Auch die Annahme, nur der Mensch verfüge über Bewusstsein, halte ich für falsch. Bewusstsein in unterschiedlichem Masse gibt es bei vielen höheren Tieren und es nicht ein Luxusgut, sondern nötig um komplexere Aufgaben zu bewältigen, um Aufgaben zu bewältigen, die nicht mehr allein instinktgesteuert ablaufen können.

        Dass die von uns gebauten Maschinen bis jetzt kein Bewusstsein haben oder benötigen, liegt vor allem daran, dass wir Maschinen immer für einen bestimmten Zweck bauen. Bis jetzt gibt es keine von Menschen gebaute Maschinen, deren Zweck ein autonomes Leben/Existieren ist. Deshalb benötigen die bis jetzt vom Menschen gebauten Maschinen auch keine höheren kognitiven Funktionen, ja sie benötigen nicht einmal Instinkte und Bedürfnisse, denn keine Maschine muss bis jetzt selber dafür sorgen, dass sie mit Strom oder Treibstoff versorgt wird.

  9. @ Martin Holzherr

    Zitat: „Josch Bach sieht Affekte/Gefühle als modifizierende Faktoren bei Aufmerksamkeit und Verarbeitung und er sieht Motivation als Antrieb um Ziele zu erreichen. So formuliert bedeutet das, dass er sich Affekte und Motivation nicht nur bei Menschen sondern auch bei „Denkmaschinen“ vorstellen kann. ….
    Meiner Meinung nach gibt es sehr viele psychische Prozesse, die nötig sind, damit wir etwas tun, etwas anstreben und damit wir uns in einer gewissen Weise verhalten.“

    Ich meine, dass in der individuellen Bewertung der komplexen Motivationen und der Steuerung zum erreichen von (oft auch individuellen) Zielvorgaben die eigentliche „Individualität“ des Menschen sozusagen „verborgen“ ist. Umgekehrt versuchen die Psychologen (z.B. aus therapeutischen Gründen) die komplexen Motivationen aus den erkennbaren Handlungen oder aus typischen Assoziationen (aus Psychotests) abzuleiten.

    „Denkmaschinen“ könnten, entsprechend manipuliert, sozusagen in eine bestimmte (gewünschte) „Richtung“ denken.

    Zitat: „Qualia sind in meinen Augen auch eine Art internes Bewertungssystem, das Daten für uns „emotionalisiert“ und damit wichtig macht. Jedes genug leistungsfähige Informationssystem muss Daten bewerten, denn viele Daten sind unwichtig und es gilt die Aufmerksamkeit auf die wichtigen Daten zu lenken.“

    Vermutlich tragen Qualia auch dazu bei, dass sich die Denkmuster im Gehirn verstärkt „verankern“ können und die Zugriffsfähigkeit (über die zusätzlichen Assoziationsketten) verbessert wird.

    • @Elektroniker (Zitat): „Denkmaschinen“ könnten, entsprechend manipuliert, sozusagen in eine bestimmte (gewünschte) „Richtung“ denken.
      Ja, genau wie bei uns sexuelle Neigungen oder Bedürfnisse nach Anerkennung und Erfolg uns in eine bestimmte Richtung lenken. Es ist die Evolution und indirekt der Überlebenstrieb, der uns „manipuliert“.

      Ebenso könnte etwa eine zukünftige autonome Raumfähre den Wunsch nach Erkundung des Weltraumes haben aber gleichzeitig einen Hunger auf Rohstoffe, die es für den Antrieb braucht und eine Angst vor anderen Raumschiffen, von denen es befürchtet ausgeschlachtet zu werden.

      Zitat: Vermutlich tragen Qualia auch dazu bei, dass sich die Denkmuster im Gehirn verstärkt „verankern“ können und die Zugriffsfähigkeit (über die zusätzlichen Assoziationsketten) verbessert wird.
      Ja, so sehe ich das auch. Qualia bedeuten ja, dass Wahrnehmungen eine Erlebnisqualität haben und was erlebt wird, kann später im Traum und in der Erinnerung rekapituliert werden und zum Teil eines Lernprozesses werden bei dem Dinge haften bleiben.

  10. @ Martin Holzherr

    Man kann nicht behaupten dass („größere“) Computersysteme tatsächlich „Bewusstsein“ hätten, aber die Techniker haben bereits vor rund 40 Jahren „Systeme der Selbstüberwachung“ in ihre damaligen „Großrechenanlagen“ eingebaut.

    Was der Drucker ausgegeben hat (z.B. über den Status der laufenden Jobs, sich anbahnende Störungen, Empfehlungen für das Bedienpersonal, allenfalls der Start von Prüfprogrammen um die Systemintegrität zu überprüfen ….) nannten sie scherzhaft „Gefühlsäußerungen“.

    Die Techniker haben in ihrem „Spieltrieb“ immer gerne versucht mit den technischen Systemen Menschen nachzuahmen, übrigens nicht nur Menschen.

    Bei den Fahrerassistenzsystemen haben sie sogar versucht die „Schutzengel“ nachzuahmen. Sie haben einige Sensoren und Kameras zusätzlich im Auto eingebaut und passende „Schutzengerlfunktionen“ einfach in einen Bordcomputer einprogrammiert…..

  11. Artificial Intelligence hat bis jetzt erst Intelligenzleistungen auf eng begrenzten Gebieten erreicht. Beispielsweise in der Erkennung und Klassifizierung von Gegenständen in Bildern, in der Übersetzung von einer Sprache in eine andere oder beim Spielen von Atari-Games.

    Bis jetzt gibt es aber noch keinen einzigen AI-Agenten, der auch nur das rudimentäre Weltverständnis eines Hundes hat. Ein AI-Agent kann also nicht einmal einen einzigen Tag in „freier Wildbahn“ bestehen und in dieser „lärmigen“ Umgebung einige kleinere Kompetenzen an den Tag legen. Warum? Ich denke das liegt auch daran, dass es bis jetzt kein (technisches) Bedürfnis dafür gab. Maschinen, die sich wie Hunde verhalten, brauchten wir bis jetzt nicht. Jetzt gibt es zwar einen hundeähnlichen Roboter von Boston Dynamics, aber auch der hat noch nicht die Kompetenzen eines wirklichen Hundes. Er kann Gegenden nicht frei erkunden, sondern muss darauf vorbereitet werden.

    Echte Fortschritte in der Alltagsbewährung könnten meiner Meinung nach aber selbstfahrende Autos bringen. Denn auf der Stufe eines Menschen selbst zu fahren ist recht anspruchsvoll – jedenfalls viel anspruchsvoller als uns viele weismachen wollen. Das zeigt sich ja auch daran, dass es noch keine selbstfahrenden Autos gibt, die sich in einer beliebigen Strassenumgebung zurechtfinden können. Irgendwann wird es das aber geben. Und ein paar Jahre später wird uns das selbstfahrende Auto am Morgen dann vielleicht gestehen, dass es sich heute gar nicht gut fühle und dass es ganz schlecht aus einem seiner nächtlichen Trainingsläufe (aka Träume) aufgewacht sei.

  12. Martin Holzherr,
    Bei der künstlichen Intelligenz geht es weniger um Bewußtsein als um den praktischen Nutzen.
    Man denke an die militärischen Drohnen. Die haben ihr Zielgebiet im Speicher und finden selbständig den Weg dorthin. Sie vergleichen ihre Umgebung mit den Daten des Zielgebietes.
    Man könnte so eine Sehhilfe für Blinde konstruieren, das den Weg zum Supermarkt im Speicher hat und ständig den Weg des Blinden mit dem Weg im Speicher vergleicht. Es könnte mit dem Sprachmodul dem Blinden genau sagen, “vor dir ist die Hauptstraße mit einer Ampel.” Drücke auf den Knopf und warte das Signal ab”. Wenn der Blinde z.B. bei Rot geht erfolgt eine Warnung, ebenso, wenn die Ampel abgeschaltet ist.
    Gibt es sowas schon ?

    • Danke! Solche Kommentare freuen mich sehr. Ich bin oft erstaunt, wie wir hier in den Kommentaren zu einem Blogtext von mir sehr schnell über allgemeine künstliche Intelligenz diskutieren, statt über die wunderbaren praktischen Errungenschaften der künstlichen neuronalen Netze, über die es in dem Beitrag geht. 🙂 Als ob es nicht Wunder genug wäre, dass ein Computerprogramm aus Büsten von römischen Kaisern lebensechte Fotoportraits machen kann.

    • @hwied: Ja und Nein. Ein ständiger Begleiter/Assistent etwa für einen Sehbehinderten wäre gerade dann besonders nützlich, wenn er vieles erledigen könnte. Also nicht nur beim Sehen helfen, sondern auch beim Kochen und Staubsaugen, beim Fenster putzen und wenn er das Telefon abzunehmen gilt. Auch hin und wieder eine Geschichte erzählen oder mit ihm über seinen Alltag sprechen täte dem Sehbehinderten gut.

      Zitat: Man könnte so eine Sehhilfe für Blinde konstruieren
      AI-Sehhilfen gibt es schon für IOS und Android und jetzt soll es sie für Google Glass (Die smarte Videobrille) geben wie folgender Artikel berichtet:
      Envision Announces AI-Powered Smart Glasses For The Blind And Visually Impaired
      Dort liest man (übersetzt von DeepL):

      Envision bringt seine preisgekrönte, unterstützende Technologie in Google Glass ein, um blinden und sehbehinderten Menschen mehr Unabhängigkeit und Zugang zu visuellen Informationen in ihrer Umgebung zu ermöglichen.

  13. Die nächste Stufe nach einem altrömischen Facebook wären Videosequenzen, die die altrömischen Kaiser agierend im Alltag zeigen. Etwa in einer Loge des Kolloseums wenn sie mit Daumen hoch oder runter über das Leben eines Gladiators entscheiden. Also Videos im TikTok Stil.

    • Das AI Video-Projekt für einen Tag im Leben eines altrömischen Kaisers sollte sein Material aus Übrigbleibseln wie Gebäuden, Münzen, Gegenständen und Beschreibungen aus der damaligen Zeit zusammenschustern können und basierend darauf sollte die AI ein möglichst getreues Video „halluzinieren“.

      Warum wäre das wegweisend? Weil solch eine Rekonstruktion/Halluzination einer vergangenen oder erdachten Wirklichkeit von Menschen ständig gemacht wird. Wir Menschen erschaffen uns ständig Modelle und füllen Lücken mit erdachten Lückenfüllern – oder wir kaufen uns etwas was die Lücke füllt.

  14. Kaiser Augustus als Phantombild: Kann KI träumen ?
    Phantombilder sind Täterzeichnungen aufgrund von Beschreibungen/Merkmal-listen – gezeichnet von dafür Geschulten. Typischerweise werden sie bei der Verbrechersuche verwendet, wenn es Zeugenaussagen aber keine Bilder gibt.

    Ein Phantombild von Kaiser Augustus, also einer historischen Figur, wäre auch denkbar und warum sollte dazu nicht ein KI-Programm als Zeichner/Entwerfer in der Lage sein? Tatsächlich hat Microsoft Research einen solchen Phantomzeichner programmiert. Mit den Feinheiten von Gesichtern kennt er sich vielleicht noch nicht aus, Szenen aber kann er recht gut visualisieren wie uns das von ihm erzeugte Bild von 4 Skifahrern zeigt, das er zu folgendem Satz gezeichnet hat: A group of skiers are together as they are ready to ski. . Mehr dazu in A picture from a dozen words – A drawing bot for realizing everyday scenes—and even stories

    Wir alle übersetzen ständig von einer Repräsentation in eine andere. Im Buch „Normal People“ von Sally Rooney etwa gibt es viele Szenen, die so plastisch beschrieben sind, dass sie sich beim Lesen wie von selbst in Bilder verwandeln. Doch eine solche Übersetzung in ein anderes Medium lässt der Phantasie sehr viel Raum und jeder ergänzt die Details wohl auf andere Art und Weise. Es scheint mir tatsächlich eine interessante Aufgabe auch für ein AI-Programm, solchen Visualisierungen vorzunehmen. Dabei könnte die künstliche Intelligenz als Hintergrundwissen all das benutzen was es etwa in der Wikipedia oder gar im gesamten Internet gibt um zu möglichst überzeugenden, stimmigen Darstellungen zu kommen. Das wäre in meinen Augen auch ein Schritt in Richtung menschenähnliche kognitive Leistung.

    • Ergänzung: Microsofts Phantomzeichner benutzt ebenfalls ein GAN um Szenen zu visualisieren. Oder wie man dort liest (übersetzt von DeepL):

      Das Herzstück des Zeichenroboters von Microsoft Research AI ist eine Technologie, die als Generative Adversarial Network (GAN) bekannt ist. Das GAN besteht aus zwei maschinellen Lernmodellen – einem Generator, der Bilder aus Textbeschreibungen erzeugt, und einem Diskriminator, der Textbeschreibungen verwendet, um die Authentizität der erzeugten Bilder zu beurteilen. Der Generator versucht, gefälschte Bilder am Diskriminator vorbeizubekommen; der Diskriminator hingegen will sich nicht täuschen lassen. Durch Zusammenarbeit drängt der Diskriminator den Generator zur Perfektion.

      Der Zeichnungsroboter wurde auf einem Datensatz von 100.000 Bildern trainiert, die jeweils mit auffälligen Objektbeschriftungen und Segmentierungskarten und fünf verschiedenen Beschriftungen versehen sind, so dass die Modelle individuelle Objekte und semantische Beziehungen zwischen Objekten konzipieren können. So lernt der GAN beispielsweise, wie ein Hund aussehen sollte, wenn man Bilder mit und ohne Hundebeschreibungen vergleicht.

      Da frag ich mich: wann gibt es ein Programm, welches eine Geschichte selber visualisiert und das dann auch noch in verschiedenen Stilen. Etwa als Soap Opera, als Anime/Comic oder in Form einer Fotoserie wie ich sie selbst geschossen und als Album verewigt haben könnte.

      • Wenn jemand ein Buch visualisieren oder gar in einen überzeugenden, kaum logische Fehler oder Stilbrüche enthaltenden Film umsetzen kann, dann zeigt er/sie damit, dass er/sie einiges verstanden hat. Denn die Person, die dazu in der Lage ist muss sowohl die innere Logik und die Konventionen von bestimmten Textsorten (wie etwa Romanen, Biographien, Essays) verstanden haben wie auch die Logik und die Konventionen des Zielmediums und der Übersetzungsprozess muss überzeugend sein. Schon beim Übersetzen von einer Sprache in eine andere zeigt sich das, aber noch viel mehr beim Visualisieren von Texten. Ja ich denke, ein Programm, das Texte überzeugend visualisiert oder das in der Lage ist allein aus dem über das römische Reich veröffentlichten Material einen stimmigen Film oder einen packenden Comic zu machen, ein solches Programm würde Verständnis und Intelligenz beweisen. Wie weit sind wir heute davon entfernt? Ich denke
        1) gar nicht so weit wenn es nur um stilistische Fragen, Fragen der Form und der Eingängigkeit geht
        2) wir sind noch sehr weit entfernt davon sobald es um echte Originalität und eine tiefere Durchdringung der Materie geht oder sobald man Fragen zum Warum und Wie stellen darf.

        Bildlich gesprochen: Intelligenz und Verständnis zeigt sich an den Korngrenzen, an den Unebenheiten und Verbindungen und nicht an der Gestaltung der Oberfläche.

    • Beim Schreiben des Beitrags habe ich einige Statuen von Kleopatra und Münzen mit ihrem Gesicht gefunden. Wenn man genug solche “Abbildungen” von Kleopatra hätte, könnte man daraus vielleicht doch einige Merkmale von ihr “filtern. Hier gibt es übrigens eine interessante Besprechung einer Kleopatra-Biographie.

  15. Ein sehr guter Beitrag zur KI, der auch die Phantasie anregt. Als Beispiel ein selbstfahrendes Auto. Was muss der Fahranfänger lernen, wenn er Unfälle vermeiden will ?
    Er muss die Größe und den Fahrstil seines “Gegners” berücksichtigen.
    Wenn sich zwei Fahrzeuge auf einer engen Straße begegnen, dann muss einer halten und der andere fährt. Aber wer ?
    Das macht die KI für uns. Sie stellt eine Rangordnung fest.
    !. Größeres Auto vor dem kleineren Auto.
    2. Schnelleres Auto vor langsamerem Auto.
    3. Mann vor Frau .
    4. Beschleunigendes Fahrzeug vor abbremsendem Fahrzeug.
    5. EinschÄtzung der eigenen Entschlossenheit und Berücksichtigung.
    6. ???
    Hoffentlich habe ich nicht damit zuviele Klischees bemüht. Meine Unfallfreiheit seit 55 Jahren spricht dafür.

  16. @hwied (Zitat): Wenn sich zwei Fahrzeuge auf einer engen Straße begegnen, dann muss einer halten und der andere fährt.
    Das ist für Fahrassistenten bereits ein nicht triviales Problem. Darum funktionieren die meisten heute erst auf der Autobahn.
    Ein KI-Agent nimmt seine Umgebung wahr und ergreift Maßnahmen, die seine Chance maximieren, seine Ziele erfolgreich zu erreichen. Ein Fahrassistent will an einen bestimmten Ort fahren ohne zu kollidieren, unter Einhaltung der Verkehrsregeln und das unter Berücksichtigung der Fahrsituation. Tendenziell wird ein Fahrassistent verlangsamen/halten oder ausweichen wenn eine Kollision droht. Er ist also ein defensiver Fahrer.

  17. Martin Holzherr,
    nicht trivial, d.h. jetzt beginnt die Intelligenz. Man könnte die Situation weiterspinnen, indem das eine Auto mit dem anderen kommuniziert, indem sie von der gleichen App gesteuert werden. Das wäre ein gangbarer Weg, wenn der eine fährt, muss der andere stoppen.

    • @hwied (Zitat) Man könnte die Situation weiterspinnen, indem das eine Auto mit dem anderen kommuniziert, indem sie von der gleichen App gesteuert werden
      Ja, wobei V2V Vehicle to Vehicle – Kommunikation schon voraussetzt, dass beide Fahrzeuge darüber verfügen. Keine überzeugende Lösung, denn der Fahrer sollte auch mit alten Fahrzeugen und Fussgängern kommunizieren können. Es gibt Versuche mit speziellen visuellen Zeichen: Das Auto strahlt zum Beispiel einen Fussgängerstreifen auf die Strasse, wen er dem Fussgänger Vortritt gewährt oder es benutzt ein spezielles Lichthupensignal um dem andern Fahrzeug anzuzeigen (siehe: Ford Tests Light-Based Visual Language To Help Autonomous Vehicles Communicate With Pedestrians ), dass es fahren oder stehen bleiben soll. Es gab schon Versuche damit. Doch solange das nicht standardisiert ist, funktioniert es nicht.

  18. Martin Holzherr,
    Standardisierung ist das Zauberwort. Microsoft hatte vor 40 Jahren die Computersoftware standardisiert und den weltweiten Siegeslauf damit begonnen.
    Die EU fordert ja Assistenzsysteme in die Neufahrzeuge einzubauen.
    Und jetzt wäre der geeignete Augenblick, wo die Autobranche unter Schock steht, mit einer Software zu werben, die das Unfallrisiko minimiert und die das Verkehrsverhalten revolutionieren kann.
    Jedes Fahrzeug, dass mit dieser Software ausgerüstet ist, das bekommt eine gelb-blaue Dachantenne und signalisiert damit technischen Fortschriitt. Ander e Farbkombinationen sind auch möglich.
    Man könnte auch, für Frauen viel interessanter, sofort zwischen beiden Fahrzeugen eine Funk-Sprachverbindung herstellen, automatisch versteht sich und die beiden Frauen können per Smalltalk die Situation lösen.
    Und…..bei dieser Verbindung erscheint autonematisch das Gesicht des Verkehrspartners auf dem eigenen Display. Dann freut sich auch Herr Konecny.

    • Herr hwied, sie sollten vielleicht die Branche wechseln – wenn sie nicht schon in der Werbebranche, als Innovator oder Lobbyist tätig sind,

  19. Martin Holzherr,
    Danke für das Kompliment!

    In der Realität gibt es schon zigtausende von guter und brauchbarer Software .
    Das Drama dabei bleibt, dass das niemand weiß, jedenfalls nicht jemand, der gerade selbst so ein Produkt entwickelt und auch die Möglichkeit hat, es auf dem Markt durchzusetzen.

    Aber …….vielleicht liest gerade jemand mit und greift diesen oder jenen Gedanken auf. Das ist doch auch eine schöne Perspektive für uns.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +