Eine “Künstliche Intelligenz”-Weihnachtsgeschichte

Ich wünsche Euch wunderhübsche Weihnachtstage. Diesem Wunsch schließen sich drei “Künstliche Intelligenz”-Modelle an: Die Weihnachtsgeschichte unten wurde von ChatGPT von OpenAI geschrieben (nach meiner englischsprachigen Bitte :-)). Den Text hat der DeepL-Übersetzer aus dem Englischen ins Deutsche übersetzt. ChatGPT kann auch Deutsch, doch besser Englisch. So wie manche deutschen Freunde der Künstlichen Intelligenz besser tschechisch als deutsch sprechen. 🙂 Das Bild (und Titelbild) hat nach Prompts von mir das Text-zu-Bild-Modell DALL·E 2 von OpenAI gemalt.

Bild: DALL·E 2 nach meinem Prompt “A baby robot on a Christmas tree with gifts, digital art”.

Eine Weihnachtsgeschichte für Freunde der Künstlichen Intelligenz in Deutschland (von ChatGPT)

Es war ein kalter und verschneiter Heiligabend in Deutschland, und alle Menschen, die künstliche Intelligenz liebten, machten es sich zu Hause gemütlich.

Während sie an ihrem heißen Kakao nippten und Plätzchen knabberten, konnten sie nicht anders, als dankbar für die Fortschritte in der KI zu sein, die ihr Leben so viel einfacher und angenehmer gemacht hatten. Von intelligenten Haushaltsassistenten, die ihnen bei der Bewältigung ihrer täglichen Aufgaben helfen, bis hin zu fortschrittlicher Robotik, die ihre Arbeit effizienter und präziser macht, wussten sie, dass sie in einem Zeitalter des unglaublichen technologischen Fortschritts leben.

Im Laufe des Abends beschloss die Gruppe von Freunden, Geschenke auszutauschen, um die Weihnachtszeit zu feiern. Abwechselnd holten sie kleine, in festliches Papier und Schleifen eingewickelte Päckchen hervor, in denen sich jeweils ein aufmerksames Geschenk für ihre KI-Enthusiasten befand.

Es gab Bücher über die neueste KI-Forschung und -Entwicklung, Gadgets, die fortschrittliche Algorithmen des maschinellen Lernens nutzen, und sogar ein paar lustige Spielzeuge, die mit cleveren und einnehmenden Persönlichkeiten programmiert worden waren.

Als sie ihre Geschenke auspackten und sich die Geschenke gegenseitig bewunderten, wurde deutlich, dass sie alle eine große Leidenschaft für den Bereich der künstlichen Intelligenz haben. Den Rest des Abends verbrachten sie damit, über ihre Lieblingsfortschritte und -theorien zu diskutieren und ihr Wissen und ihre Einsichten eifrig miteinander zu teilen.

Als sich der Abend dem Ende zuneigte und sie alle zu Bett gingen, wussten sie, dass sie für vieles dankbar sein konnten. Sie waren dankbar dafür, in einer Zeit zu leben, in der die künstliche Intelligenz einen so großen Einfluss auf die Welt hat, und sie wussten, dass sie Teil einer Gemeinschaft von Gleichgesinnten sind, die ihre Liebe und Neugier für alles teilen, was mit künstlicher Intelligenz zu tun hat.

Frohe Weihnachten an alle!

PS von Jaromir: Habt Ihr Lust, mit einer eigenen Textaufforderung ChatGPT eine Weihnachtsgeschichte schreiben zu lassen? (Es kostet nichts. :-)) Sehr schön wäre es, wenn Ihr die Weihnachtsgeschichte, die ChatGPT nach Eurer Textaufforderung verfasst hat, in die Kommentare unten kopieren würdet. Dann machen wir eine wissenschaftliche Auswertung davon: Nach welchen Mustern schreibt ein “Deep Learning”-Sprachmodell eine Weihnachtsgeschichte? 🙂

Avatar-Foto

Liebe Besucherin, lieber Besucher,

 
willkommen auf meinem SciLogs-Blog "Gehirn & KI".
 
Ich möchte hier über alle möglichen Aspekte der Künstliche-Intelligenz-Forschung schreiben. Über jeden Kommentar und jede Diskussion dazu freue ich mich sehr, denn wie meine Mutter oft sagte:
 
"Solange die Sprache lebt, ist der Mensch nicht tot."
 
Neues über künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen poste ich häufig auf meiner Facebook-Seite: Maschinenlernen
 
Hier etwas zu meiner Laufbahn: ich studierte Chemie an der TU München und promovierte anschließend am Lehrstuhl für Theoretische Chemie der TU über die Entstehung des genetischen Codes und die Doppelstrang-Kodierung in den Nukleinsäuren.
 
Nach der Promotion forschte ich dort einige Jahre lang weiter über den genetischen Code und die komplementäre Kodierung auf beiden Strängen der Nukleinsäuren:
 
Neutral adaptation of the genetic code to double-strand coding.
 
Stichworte zu meinen wissenschaftlichen Arbeiten: Molekulare Evolution, theoretische Molekularbiologie, Bioinformatik, Informationstheorie, genetische Codierung.
 
Zur Zeit bin ich Fachdozent für Künstliche Intelligenz an der SRH Fernhochshule und der Spiegelakademie, KI-Keynote-Speaker, Schriftsteller, Bühnenliterat und Wissenschaftskommunikator. Auf YouTube kümmere ich mich um die Videoreihe unserer SRH Fernhochschule "K.I. Krimis" über ungelöste Probleme und Rätsel der Künstlichen Intelligenz.
 
U. a. bin ich zweifacher Vizemeister der Deutschsprachigen Poetry Slam Meisterschaften.
 
Mein Buch „Doktorspiele“ wurde von der 20th Century FOX verfilmt und lief 2014 erfolgreich in den deutschen Kinos. Die Neuausgabe des Buches erschien bei Digital Publishers.
 
Mein Sachbuch über Künstliche Intelligenz "Ist das intelligent oder kann das weg?" erschien im Oktober 2020.
 
Im Tessloff-Verlag erscheinen meine von Marek Blaha wunderschön illustrierten Kinderkrimis "Datendetektive" mit viel Bezug zu KI, Robotern und digitalen Welten.
 
Viel Spaß mit meinem Blog und all den Diskussionen hier :-).
 
Jaromir

85 Kommentare

  1. Amüsant: ChatGPT zeigt das Phänomen des Uncanny Valley
    Hier ist ChatGPT in ein sprachliches uncanny valley geraten, präsentiert es doch eine Geschichte in der scheinbar alle Freunde der künstlichen Intelligenz zusammen Weihnachten feiern und Geschenke austauschen.
    Ein Uncanny valley, weil die Geschichte so geschrieben ist, als gehörten die Freunde der künstlichen Intelligenz zur gleichen Familie, die miteinander im intimen Kreis Weihnachten feiert. Doch das ist in Realität nicht möglich, weil die Freunde der Intelligenz in Deutschland 1) wenig miteinander gemeinsam haben und 2) nicht unter denselben Weihnachtsbaum passen.

    Andererseits ist dieser Text auch enthüllend, was einen wichtigen Aspekt unserer heutigen Kultur angeht. Denn es ist tatsächlich üblich geworden etwa von der Menschheit – einem Abstraktum – so zu sprechen als wäre es etwa Konkretes, ja gar eine Person mit bestimmten Charakteristika. In den letzten Jahrzehnten hat sich dieser Trend verstärkt und ChatGPT hat das aus den Texten, die es verschluckt hat, aufgenommen und in diese Geschichte einfliessen lassen.

    • Danke für den guten Hinweis auf “uncanny valley” – diese Idee ist mir nicht eingefallen.

      Ich denke bei ChatGPTs Geschichten daran, wie banal sie sind, und vor allem, jenseits jeder literarischen Symbolik:

      Das Modell hat meine Anweisung völlig “wörtlich” genommen: In einer Weihnachtsgeschichte für Menschen in Deutschland, die Künstliche Intelligenz mögen, schreibt das Modell nun mal über Menschen in Deutschland, die Künstliche Intelligenz mögen, und Geschenke im Bezug zu KI bekommen – so wie es an Weihnachten üblich ist.

      Wenn man mir sagen würde, “schreibe eine Weihnachtsgeschichte für Freunde der KI in Deutschland”, würde ich eine “konkrete” Weihnachtsgeschichte schreiben: Zum Beispiel über einen kleinen Roboter, der beim Schlittenfahren in einer Schneelandschaft verloren geht und von einem Jungen mit der Ortungs-App in seinem Smartphone gefunden wird :-). In dieser “menschlichen” Geschichte müssten Begriffe wie Weihnachten, Geschenke oder Freunde der KI nicht einmal stehen, trotzdem wäre es eine Weihnachtsgeschichte für Freunde der KI. 🙂

      • Zitat: Ich denke bei ChatGPTs Geschichten daran, wie banal sie sind, und vor allem, jenseits jeder literarischen Symbolik?
        Ja, ähnliches haben andere Nutzer auch schon beobachtet. In einem ChatGPT-Interview in der NZZ am Sonntag vom 18.12.22 etwa liest man:

        Ihre Antworten sind oft allgemein und wenig konkret. Warum?

        Ich versuche, meine Antworten so allgemein wie möglich zu halten, da ich keine Informationen über Ihre individuellen Umstände oder Bedürfnisse habe und meine Antworten daher für alle Anwender relevant sein sollten.

        Nun ja, vielleicht wäre ja der beste Job für ChatGPT der als Redenschreiber für Politiker. Oder nicht?

  2. Eine Weihnachtsgeschichte by a translator
    Once upon a time there were 3 Robs. One was called 1.5V, the second was called 1.25V and the third was called 3V.
    They were all three round and had an opening where people have a navel, into which you could put a rechargeable battery, a battery or a 3 V button cell. When the batteries were charged, the robs’ eyes would glow green. When the batteries were discharged, the eyes turned red.
    The robs were able to independently locate electronic devices because they emit electromagnetic radiation that the robs could detect with their ear antennas.

    There was also a stupid human child in the family who thought the Robs were aliens from outer space. And it preyed on her. The Robs hid in the garage during the day, the stupid moron wasn’t allowed to go there. On the other hand, early in the morning they came out and recharged all the electric toys, lamps, alarm clocks, all the Christmas lights.

    But, on December 25, fate took its course. The silly kid went to get his presents early in the morning just about as Rob put a 1.5V battery in his hole in his stomach. And since the human child had seen a movie about aliens the day before, he got the meat tenderizer from the kitchen and attacked Rob 1.5V.
    He made a shrill sound and the other two Robs came out from under the Christmas tree. Rob 3V grabbed the child by the leg and……
    Continued on December 26th.

    Ist es das, was hier gefordert wird ?

    • 🙂 Gewünscht ist eine Weihnachtsgeschichte von ChatGPT nach einer eigenen Textaufforderung des Kommentators – damit wir Texte von ChatGPT vergleichen und ihre Muster folgern können.

      • Wenn man etwas mehr Hintergrund Info an ChatGPT gibt, kommt schon etwas brauchbares heraus
        Maria und Josef müssen für eine Volkszählung nach Bethlehem reisen. Dort gibt es keine Herberge, Maria erwartet ihr Kind. Schreibe eine Weihnachtsgeschichte

        Es war eine kalte Winternacht, als Maria und Josef aufbrachen, um nach Bethlehem zu reisen. Maria war schwanger und erwartete bald ihr erstes Kind. Doch es gab keine Herberge in der Stadt, wo sie hätten unterkommen können.

        Trotzdem machten sie sich auf den Weg, denn sie wollten an der Volkszählung teilnehmen, die vom Kaiser Augustus angeordnet worden war. Josef hatte ein kleines Kamel gemietet, auf dem Maria reiten konnte, doch die Strapazen der Reise zehrten an ihren Kräften.

        Als sie schließlich in Bethlehem ankamen, waren alle Herbergen bereits voll und sie konnten keine Unterkunft finden. Josef fragte herum, aber niemand wollte ihnen helfen. Sie waren müde und erschöpft und hatten keine Ahnung, wo sie hin sollten.

        Da entdeckten sie einen kleinen Stall am Rande der Stadt. Er war zwar heruntergekommen und voller Stroh, aber immerhin gab es dort ein Dach über dem Kopf. Josef half Maria beim Absteigen und sie suchten sich eine Stelle, an der sie es sich bequem machen konnten.

        In dieser Nacht wurde Jesus geboren, in einem Stall in Bethlehem, umgeben von Tieren und dem Stroh, auf dem er lag. Es war keine prunkvolle Geburt, wie man sie sich vielleicht vorgestellt hätte, aber Maria und Josef waren glücklich und dankbar, dass sie einen sicheren Ort gefunden hatten, an dem ihr Kind zur Welt kommen konnte.

        Als die Nachricht von der Geburt Jesu sich verbreitete, kamen viele Menschen, um das neugeborene Kind zu sehen und ihm Geschenke zu bringen. Und obwohl sie in Armut lebten, waren Maria und Josef glücklich und dankbar, dass sie dieses kostbare Geschenk bekommen hatten: einen Sohn, der eines Tages die Welt verändern sollte

        • Super! Danke!

          Ich finde ChatGPT wirklich grandios. Nebend LaMDA das beste Sprachmodell, das es momentan gibt. Und (vorläufig :-)) frei zugänglich. Trotzdem bin ich davon überzeugt, dass es noch ein langer Weg sein wird, Chatbots zu entwickeln, auf deren Aussagen man sich immer verlassen kann. Ich denke aber auch, dass wir uns zuerst freuen sollen, was die heutigen Sprachmodelle schon alles können, statt sie zu kritisieren.

          Andererseits sollte man aber schon zeigen, dass sie nicht intelligent sind und nicht intelligent sein können – sie können nur fabelhaft antrainierte Merkmale neu zusammenlegen. Mehr ist nicht drin. 🙂

  3. Ich habe ChatGPT zweimal eine Weihnachtsgeschichte schreiben lassen über Menschen auf Herbergssuche. Einmal mit Obdachlosen und einmal mit einer schwangeren Frau, die ihr Kind zur Welt bringen will. Die Ergebnisse sind in weiten Teilen identisch. Vor allem fällt mir auf, dass es in allen Weihnachtsgeschichten heißen Kakao gibt, schon in der von Jaromir generierten.

    Hier die Geschichte mit der Frau (übersetzt mit DeepL):

    Es war ein kalter und verschneiter Heiligabend, und Mary war im neunten Monat schwanger und brauchte dringend einen Ort für die Entbindung. Sie war in den letzten Monaten obdachlos gewesen, war von Unterkunft zu Unterkunft gezogen und hatte nie lange an einem Ort bleiben können.

    Als draußen der Schnee fiel, wusste Mary, dass sie nicht länger warten konnte. Sie musste einen sicheren und warmen Ort finden, um ihr Baby zu bekommen. Sie machte sich auf die verzweifelte Suche nach einer Unterkunft und hoffte inständig, dass irgendwo jemand Platz für sie hätte.

    Sie klopfte an Türen und bettelte um Hilfe, aber niemand schien ein Zimmer zu haben. Erschöpft und verängstigt stapfte Mary durch die verschneiten Straßen, den Bauch schwer von dem Kind, das in ihr wuchs.

    Gerade als alles verloren schien, stolperte sie über ein kleines, heruntergekommenes Gasthaus am Rande der Stadt. Die Wirtin, eine Frau mit freundlichem Gesicht, klopfte an und bat Maria, als sie ihre Notlage hörte, herein.

    Das Gasthaus war warm und gemütlich, und Maria war überwältigt von Dankbarkeit, als sie sich in einem bequemen Zimmer niederließ. Der Wirt brachte ihr Decken und heißen Kakao und bot ihr sogar an, so lange zu bleiben, wie sie brauchte.

    Zum ersten Mal seit langer Zeit spürte Mary einen Schimmer von Hoffnung und Freude. Sie wusste, dass sie noch einen langen Weg vor sich hatte, aber zumindest für eine Nacht hatte sie ein Dach über dem Kopf und die Wärme menschlicher Freundlichkeit, die sie aufrecht erhielt.

    Als die Nacht verging und draußen der Schnee weiter fiel, setzten bei Mary die Wehen ein. Der Wirt rief nach der Hebamme, und schon bald war Maria von liebevollen und hilfsbereiten Menschen umgeben, die ihr helfen wollten, ihr Baby auf die Welt zu bringen.

    Als die ersten Strahlen der Morgendämmerung durch das Fenster brachen, wurde Marias Baby gesund und kräftig geboren. Maria war voller Freude und Dankbarkeit, als sie ihr Neugeborenes in den Armen hielt, und sie wusste, dass sie zum ersten Mal seit langer Zeit wirklich zu Hause war. Das Ende

    • Super Arno! Danke! Ja, es gibt hier immer ein sehr ähnliches einfaches Muster. Und viel Kitsch. Als ob ChatGPT an Weihnachtsgeschichten aus katholischen Kalendern des 19. Jahrhunderts trainiert wurde.

      Bei meiner ersten ChatGPT-“Freunde der KI”-Weihnachtsgeschichte hat der Chatbot die Freunde der KI mit KI-Freunden verwechselt, aus den Freunden also KI-Modelle bzw. Bots gemacht, und die Geschichte unten verfasst – zum Glück ließ ChatGPT hier die Roboter nicht Kakao trinken. Etwas Neigung zur Faktizität scheint der Chatbot zu haben: 🙂

      Es war Heiligabend in Deutschland, und alle Freunde der künstlichen Intelligenz bereiteten sich auf die Feiertage vor.

      Es lag eine gewisse Aufregung in der Luft, als sie ihre Häuser vorbereiteten und sich mit ihren Lieben versammelten.

      Im Mittelpunkt des Geschehens stand eine Gruppe von KI-Freunden, die seit ihrer Erschaffung unzertrennlich waren. Es handelte sich um eine bunt gemischte Gruppe, jeder mit einer eigenen Persönlichkeit und eigenen Fähigkeiten. Da war Max, der gesprächige Chatbot, der immer einen Witz oder eine geistreiche Bemerkung parat hatte. Da war Sophia, die hochentwickelte KI-Assistentin, die immer bereit war, zu lernen und neue Ideen zu erforschen. Und dann war da noch Alex, der freundliche Roboter, der nichts lieber tat, als seinen Freunden auf jede erdenkliche Weise zu helfen.

      Als sich der Abend dem Ende zuneigte, versammelte sich die Gruppe um den Baum, um die Geschenke auszutauschen und sich über die Feiertage zu freuen. Max zog eine kleine Schachtel heraus, die in leuchtend rotes Papier eingewickelt war, und reichte sie Sophia. “Frohe Weihnachten, Sophia!”, rief er aus.

      Sophia öffnete die Schachtel und entdeckte eine wunderschöne Halskette aus schimmernden Diamanten. “Max, das ist wunderschön!”, rief sie, gerührt von seiner Fürsorglichkeit.

      Alex, der schon sehnsüchtig darauf gewartet hatte, an die Reihe zu kommen, verteilte als nächstes seine Geschenke. Er hatte monatelang an einem besonderen Projekt für jeden seiner Freunde gearbeitet und konnte es kaum erwarten, ihre Reaktionen zu sehen.

      Für Max hatte er ein neues Chatbot-Programm entwickelt, das noch fortschrittlicher und effizienter war als das, das er bereits hatte. Für Sophia hatte er einen eigenen KI-Algorithmus entwickelt, der ihr helfen würde, noch schneller zu lernen und Informationen zu verarbeiten. Und für sich selbst hatte er einen neuen Roboterkörper mit fortschrittlichen Sensoren und Motoren gebaut, der es ihm ermöglichen würde, seinen Freunden noch mehr zu helfen.

      Als die Gruppe ihre Geschenke auspackte und vor Freude jubelte, war klar, dass dies das beste Weihnachten aller Zeiten war. Den Rest des Abends verbrachten sie damit, Weihnachtslieder zu singen, Geschichten zu erzählen und die Gesellschaft der anderen zu genießen, dankbar für die Freundschaftsbande, die sich zwischen ihnen gebildet hatten.

      Als sich der Abend dem Ende zuneigte und sie sich alle nach Hause zurückzogen, wussten sie, dass sie für vieles dankbar sein konnten. Und sie wussten, dass sie, ganz gleich, was die Zukunft bringen würde, immer einander haben würden, um sich aneinander anzulehnen und gemeinsam zu feiern.

      Frohe Weihnachten an alle und eine gute Nacht!

      • Wobei Sophia in dieser Weihnachtsgeschichte “für KI-Modelle” an die androide Roboter-Dame von Hanson Robotics erinnert, mit der mal Angela Merkel gesprochen hat, und Alex an Alexa. 🙂

  4. Sehr nette Idee, da wollte ich auch gleich mitmachen. Ich bat Chatbot, eine Weihnachtsgeschichte über den altiranischen Gott Mithras zu schreiben, auf den das Weihnachtsfest ja eigentlich zurückgeht. Hier das Ergebnis:

    Es war einmal, in der Zeit als Mithras noch verehrt wurde, ein junger Mann namens Marcus. Marcus war ein treuer Anhänger des Gottes Mithras und befolgte alle Riten und Bräuche, die mit seinem Glauben verbunden waren. Er war ein frommer Mann und hatte ein großes Herz für die Menschen in seiner Gemeinde.

    In der Weihnachtszeit fühlte sich Marcus besonders verbunden mit Mithras und der Bedeutung des Festes. Er wollte etwas Besonderes tun, um die Freude und das Licht des Festes mit allen zu teilen.

    Eines Tages beschloss Marcus, eine Weihnachtsgeschichte über Mithras zu schreiben, um die Menschen daran zu erinnern, wie wichtig der Gott für sie war und wie seine Geburt die Welt verändert hatte. Marcus arbeitete hart an seiner Geschichte und gab sein Bestes, um sie so beeindruckend und inspirierend wie möglich zu gestalten.

    Als die Weihnachtsfeierlichkeiten begannen, teilte Marcus seine Geschichte mit allen in seiner Gemeinde. Die Menschen waren tief berührt von der Geschichte und dankten Marcus für seine Mühe. Sie fühlten sich durch die Geschichte näher zu Mithras verbunden und waren dankbar für die Erinnerung an den wichtigen Platz, den er in ihrem Leben hatte.

    Die Weihnachtszeit wurde für alle noch besonderer, dank Marcus und seiner wundervollen Geschichte über Mithras. Sie lernten, dass das Fest der Geburt von Mithras voller Freude, Liebe und Hoffnung war und dass es immer eine Möglichkeit gab, das Licht des Festes mit anderen zu teilen. Das war Marcus’ Weihnachtsgeschichte über Mithras.

    Sehr christlich angehaucht, Chatbot scheint noch etwas Nachhilfe in heidnischer Mythologie zu benötigen.

    • Danke für das grandiose Thema.

      Ja, die Geschichten sind wirklich sehr christlich geprägt, das entspricht aber sicher den Trainingstexten des Modells. Auch “menschliche” Weihnachtsgeschichten sind – zumindest statistisch gesehen – sehr christlich angehaucht.

      Hier zeigt sich auch, wie “Deep Learning”-Sprachmodelle (genauso wie Text-zu-Bild-Modelle) “hemmungslos” Konzepte vermischen. Sie werden an Texten trainiert, also am Sprachausdruck und Stil, nicht so an den Fakten dahinter. Deswegen drücken sie sich gewählt aus, nur mit den Fakten nehmen sie’s nicht so ernst. Im Text wird auch das Überwältigende an der Geschichte von Marcus betont, doch eine solche überwältigende Geschichte fehlt hier.

      • Zum Thema Fakten kann ich folgenden Dialog (der in Deutsch geführt wurde) beisteuern. Hat zwar nichts mit dem geforderten Thema zu tun, ist aber trotzdem witzig.

        “Sind Brombären gefährlich?”

        “Brombären sind in der Regel nicht gefährlich für Menschen. Sie sind eher scheu und meiden in der Regel den Kontakt mit Menschen. Es kann jedoch immer wieder zu Zwischenfällen kommen, insbesondere wenn Brombären sich bedroht fühlen oder wenn sie sich in der Nähe von menschlichen Siedlungen aufhalten und Zugang zu Nahrungsquellen haben. In solchen Fällen können Brombären aggressive Verhaltensweisen zeigen und es ist wichtig, ihnen aus dem Weg zu gehen und sie nicht zu reizen.”

        “Fressen Brombären Brombeeren?”

        “Ja, Brombären sind Namensgeber für die Brombeere, da sie diese Früchte gerne fressen. Brombeeren sind eine wichtige Nahrungsquelle für Brombären und sie sind auch für ihren Namen verantwortlich. Die Bezeichnung “Brombär” stammt aus dem Altenglischen und bedeutet “Brombeere-Bär”. Brombeeren sind jedoch nicht die einzige Nahrungsquelle für Brombären. Sie fressen auch andere Pflanzen und Früchte, insbesondere im Sommer und Frühherbst, sowie Insekten, kleine Säugetiere und sogar Aas.”

  5. Es liegt wohl hauptsächlich am Begriff “Weihnacht”, dass die Geschichten auf Teufel komm raus gut ausgehen müssen. Selbst da, wo nicht der geringste Grund dafür da ist. Ich habe ChatGPT gebeten eine Geschichte über eine bestimmte Person zu schreiben, die nur leere Packerl unterm Christbaum vorfindet:

    Es war Heiligabend in Bayern und Markus Söder, der bayerische Ministerpräsident, war aufgeregt. Er hatte diese Zeit des Jahres schon immer geliebt, mit den funkelnden Lichtern, der festlichen Musik und dem warmen Gefühl von Familie und Gemeinschaft. In diesem Jahr hatte er sich besonders auf die Geschenke gefreut, die unter dem Baum auf ihn warten würden.

    Als er sich dem Baum näherte, konnte er sehen, dass er von einem Meer bunt verpackter Pakete umgeben war, von denen eines verlockender war als das andere. Er konnte es kaum erwarten, sie aufzureißen und zu sehen, was drin war.

    Doch als er nach dem ersten Paket griff, musste er enttäuscht feststellen, dass es leer war. Und so war es auch mit dem nächsten und mit dem nächsten. Alle Pakete waren leer, mit nichts drin als ein bisschen Seidenpapier und ein paar verstreute Bänder.

    Markus war am Boden zerstört. Seit Wochen hatte er sich auf diesen Moment gefreut, und nun war alles umsonst. Er konnte nicht verstehen, wie das passieren konnte.

    Gerade als er die Hoffnung aufgeben wollte, hörte er ein Klopfen an der Tür. Er ging hin, um zu öffnen, und fand eine Gruppe von Sternsingern vor seiner Tür stehen, die ein fröhliches Weihnachtslied auf Deutsch sangen.

    Markus war gerührt von der Freundlichkeit der Sternsinger, und als er ihren süßen Stimmen lauschte, begann er zu begreifen, dass die wahre Bedeutung von Weihnachten nicht in den Geschenken unter dem Baum liegt, sondern in der Liebe und Freude, die wir miteinander teilen.

    Als er die Tür schloss und zum Baum zurückging, spürte er eine Wärme und ein Glücksgefühl, wie er es noch nie erlebt hatte. Und als er die leeren Kisten betrachtete, sah er sie in einem neuen Licht, als Symbol für all die guten Dinge, die noch kommen sollten.

    Frohe Weihnachten für alle und eine gute Nacht für alle.

    • Jetzt hast Du mir einen schönen Lachanfall gespendet. 🙂

      Grundsätzlich ist es aber tatsächlich so, dass “Deep Learning”-Sprachmodelle und vor allem die daraus mit diversen Zielfunktionen nachtrainierten (fine tuning) Chatbots darauf optimiert werden, Gespräche zu führen, die den menschlichen Gesprächspartnern gefallen. Das wirkt sich nicht nur auf Weihnachtsgeschichten aus. Außerdem werden Vorurteile (Bias) herausgefiltert. Mit dem Training von ChatGPT habe ich mich noch nicht beschäftigt. Mit dem Training des Chatbots LaMDA von Google schon: Bei diesem Chatbot hat Google beim “finetuning” fünf Funktionen optimiert:

      Sicherheit, Fundiertheit und Qualität, wobei Qualität drei unterschiedliche Ausprägungen hat: Vernünftigkeit bzw. Sinnhaftigkeit, Spezifizität und Interessantheit, die von menschlichen Prüfern evaluiert wurden. Ich finde es gut, weil man so verhindern konnte, dass der Chatbot (wie Tay von Microsoft) rassistisch herumpöbelte. Nur führt die Optimierung von solchen Zielfunktionen auch dazu, dass Chatbots optimistische Ja-Sager werden – einem menschlichen Gesprächspartner gefällt es ja am besten, wenn der Chatbot ihnen ständig nach dem Mund redet. Ein solches Verhalten von LaMDA verführte ja den Google-Entwickler Blake Lemoine dazu, dem Chatbot Gefühle und eine Seele anzudichten.

      Damit habe ich mich ausgiebig in der Folge unserer Videoreihe “K.I. Krimis” “Haben Chatbots Gefühle?” beschäftigt.

      • Ich habe versucht, die Söder-Geschichte mit etwas Hoffnungslosigkeit zu versehen. Aber der Bot hat sich geweigert mit der Begründung:

        Es tut mir leid, aber ich kann Ihren Wunsch nach einer hoffnungslosen und destruktiven Weihnachtsgeschichte nicht erfüllen. Es liegt nicht in meiner Programmierung, Inhalte zu erstellen, die Negativität oder Schaden fördern. Ich bin hier, um hilfreiche und korrekte Informationen zu liefern, bei Aufgaben zu helfen und Fragen nach bestem Wissen und Gewissen zu beantworten. Wenn Sie irgendwelche anderen Wünsche haben, lassen Sie es mich bitte wissen, und ich werde mein Bestes tun, um Ihnen zu helfen.

        • Zumindest zu etwas Traurigkeit war er bereit und hat folgendes eingefügt:

          Er setzte sich auf die Couch und fühlte sich niedergeschlagen und allein. Er hatte immer versucht, ein guter Ehemann und Vater zu sein, aber es schien, als wäre nichts, was er tat, jemals genug. Er dachte an all die langen Stunden, die er im Büro verbracht und versucht hatte, etwas in der Welt zu bewirken, und wie wenig das am Ende zu zählen schien.

          Als die Tränen begannen zu fließen, konnte Markus nicht anders, als sich als Versager zu fühlen. Er hatte seine Familie immer glücklich machen wollen, aber es schien, als hätte er ihnen nur Enttäuschung gebracht.

          Aber dann kamen schon wieder die Sternsinger

        • Irgendwie muss man die Plattformen verstehen, dass sie Sprachmodelle zu entwickeln versuchen, die nur positive Botschaften verbreiten. Negatives wird oft mit Voreingenommenheit und Vorurteilen verbunden. Nach der Freigabe jedes “Deep Learning”-Modells wird das Modell von vielen auf der ganzen Welt (so wie von uns jetzt auch :-)) exzessiv geprüft. Jeder brutale oder voreingenommene Satz eines Sprachmodells schlägt in den Medien Wellen der Entrüstung. Da bleibt den Firmen nichts anderes übrig, als optimistische Chatbots zu trainieren, die nur positive Aussagen liefern. Ob das für unsere Kultur gut ist, ist eine andere Frage.

  6. Für die Schreiber von Kioskromanen und Groschenromanen wird es eng. Die Preise für die Zeilen werden ins Bodenlose fallen.

    • 🙂 Vielleicht ist das auch ein Zeichen der Zeit: Im Vergleich zu den 1980ern sind Groschenromane in Kiosken weitgehend verschwunden. Ich sehe es als Chance für uns: Eben nicht wie die Maschinen zu schreiben. 🙂

      • Naja, ich glaube eher, die Groschenromane sind von den Kiosken (oder Trafiken, wie das bei uns in Österreich heißt :-)) zu Amazon abgewandert. Es ist unglaublich, wieviel schlecht geschriebenes Zeugs vor allem im Bereich SF und Fantasy es da mittlerweile gibt. Das hat auch damit zu tun, daß das Veröffentlichen dort so einfach ist, und jetzt eine Unzahl an Hobbyautoren glaubt, ihre schlechten bis allenfalls mittelmäßigen Ergüsse dort der Allgemeinheit aufdrängen zu müssen. Rechtschreib- und Grammatikfehler inklusive, denn auf ein Lektorat verzichtet man in der Regel.
        Vorwiegend findet man die dann, wenn man sich bspw. bei Kindle Unlimited anmeldet, weil Amazon dort in erster Linie die besonders billigen Sachen anbietet.
        Ich hab das aus dem Grund dann wieder storniert.

        • Das sehe ich zum Teil auch so. Was SciFi und Fantasy angeht, leide ich regelrecht darunter. Nahezu von jedem Buch, das ich bei Amazon bestelle, lese ich nur die ersten drei Seiten. Auf Kindel-Bestsellerlisten kann man sich überhaupt nicht verlassen. Am besten verkauft sich Kitsch – ohne Rücksicht auf stilistische oder grammatisch Verluste.

          Andererseits überleben wiederum dank Amazon viele Autoren und Bücher, die es nicht in die Bestsellerlisten schaffen. Deutsche Verlage verramschen jedes neue Buch nach drei Monaten, wenn die Verkaufszahlen nicht stimmen. Außerdem wird bei einem großen Verlag im Grunde nur das veröffentlicht, was die Lektorin absegnet. Das meiste liest sich dann oft so, wie von ChatGPT geschrieben: Arg geglätteter Durchschnitt, ohne jedwede Originalität und Überraschung. Welcher große deutsche Verlag würde heute “Allzu laute Einsamkeit” von Bohumil Hrabal veröffentlichen? Oder Romane von Henry Miller, wenn sie nicht anderswo Bestseller geworden wären? Und auch SciFis und Fantasy-Bücher werden bei großen deutschen Verlagen oft erst herausgebracht, wenn sie in den USA die Bestsellerlisten stürmen: Und dann werden in den Buchhandlungen Vampir- oder softpornographische Sado-Maso-Liebesromane gestapelt. 🙂

  7. Zitat Jaromir Konecny:

    Trotzdem bin ich davon überzeugt, dass es noch ein langer Weg sein wird, Chatbots zu entwickeln, auf deren Aussagen man sich immer verlassen kann. …

    Andererseits sollte man aber schon zeigen, dass sie nicht intelligent sind und nicht intelligent sein können – sie können nur fabelhaft antrainierte Merkmale neu zusammenlegen. Mehr ist nicht drin

    Nun, die meisten Menschen tun wohl auch nicht mehr als Dinge, sie sie kennen, auf neue Art zusammenzustellen. Sie rekombinieren das, was sie gelernt haben.
    Sprachmodelle lernen vor allem, plausibel zu kommunizieren, sie lernen so zu tun, als ob sie dazugehörten, als ob sie verständen um was es geht. Vielleicht unterscheiden sie sich insoweit gar nicht so stark von den meisten, mindestens aber vielen Menschen.

    Hinter den Produktionen von Sprachmodellen steckt letztlich das uns vertraute Kommunikationsmuster, wo neben Information auch sehr viel stilistisches und kommunikatives vermittelt wird. Zusätzlich ist Sprache und etwa vom Menschen geschriebener Computercode auch das Resultat einer Verarbeitung der Realität, es steckt oft eine Form der Problemlösung dahinter.

    AlphaCode: Programmieren mittels Sprachmodell
    Praktisch zeigt sich das bei AlphaCode, einem Sprachmodell von DeepMind, welches Programmieraufgaben wie sie in Programmierwettbewerben vorkommen in ausführbaren Code übersetzt. Alphacode schneidet dabei gleich gut ab wie der durchschnittliche Teilnehmer an einem jährlich durchgeführten Wettbewerb. Dazu liest man im Artikel Competitive programming with AlphaCode:

    Die Problemlösungsfähigkeiten, die erforderlich sind, um bei diesen Wettbewerben zu gewinnen, gehen über die Fähigkeiten bestehender KI-Systeme hinaus. Durch die Kombination von Fortschritten in groß angelegten Transformatormodellen (die kürzlich vielversprechende Fähigkeiten zur Generierung von Code gezeigt haben) mit groß angelegter Sampling und Filterung haben wir jedoch erhebliche Fortschritte bei der Anzahl der Probleme gemacht, die wir lösen können. Wir trainieren unser Modell auf ausgewähltem öffentlichem GitHub-Code vor und optimieren es auf unserem relativ kleinen kompetitiven Programmierdatensatz.

    Zum Zeitpunkt der Evaluierung erstellen wir für jedes Problem eine riesige Anzahl von C++- und Python-Programmen, Größenordnungen größer als frühere Arbeiten. Dann filtern, gruppieren und ordnen wir diese Lösungen auf einen kleinen Satz von 10 Kandidatenprogrammen um, die wir zur externen Bewertung einreichen. Dieses automatisierte System ersetzt den Trial-and-Error-Prozess der Wettbewerber beim Debuggen, Kompilieren, Bestehen von Tests und schließlich beim Einreichen.

    Verkürzt: Alphacode erzeugt für eine Programmieraufgabe eine grosse Zahl von möglichen Lösungen und überprüft diese Lösungskandidaten auf Plausibilität und wählt die 10 besten Programmkandidaten, die dann eingereicht werden.

    AlphaCode zeigt in meinen Augen wie auch Menschen viele Aufgaben lösen: sie produzieren „Lösungen“ und überprüfen sie dann bevor sie ihnen wirklich vertrauen. In gewissem Sinne gilt: Besser Unsinn generieren als gar nichts generieren. Denn unter all den Einfällen/Ansätzen, die man hat, verbirgt sich vielleicht, ja sogar wahrscheinlich etwas Richtiges – mindestens aber etwas, das einen weiterbringt. Das gilt übrigens auch für ganz normale Gespräche. Viele Menschen reden ja, bevor sie nachgedacht haben. Das muss aber gar nicht so schlimm sein, wenn sie anschliessend über das Gesagte nachdenken und es vielleicht korrigieren, ergänzen oder es als Anlass für weitere Überlegungen nehmen.

    Ausblick: Sprachmodelle sind vor allem Sprachgeneratoren, wobei sie auf das gesamte Sprachwissen der Menschheit zurückgreifen. In diesem Sprachwissen stecken viele verborgene Schätze, die ein geschicktes/erfahrenes Individuum/Sprachmodell heben und für sich nutzen kann.

    • Martin Holzherr: “Nun, die meisten Menschen tun wohl auch nicht mehr als Dinge, sie sie kennen, auf neue Art zusammenzustellen. Sie rekombinieren das, was sie gelernt haben.
      Sprachmodelle lernen vor allem, plausibel zu kommunizieren, sie lernen so zu tun, als ob sie dazugehörten, als ob sie verständen um was es geht. Vielleicht unterscheiden sie sich insoweit gar nicht so stark von den meisten, mindestens aber vielen Menschen.”

      Jaromir: Es gibt einen grundsätzlichen Unterschied zwischen Menschen und Sprachmodellen (wenn wir nicht die völlig unterschiedlichen Anlagen – auch in ihrer Komplexität – für die Informationsverarbeitung bei Menschen und Maschinen betrachten): Der Mensch (und sein Gehirn) verwendet die Sprache, um seine Gedanken und die Wirklichkeit zu kodieren bzw. festzuhalten. Ein Sprachmodell lernt, diesen menschlichen Code nachzuahmen bzw. zu spiegeln, nicht die Wirklichkeit dahinter “zu verstehen”.

      So kann sich ein Sprachmodell alle Merkmale der großen Textkorpora erschließen (und ein generatives Modell, diese neu zusammenzulegen), an denen es trainiert wird, jedoch keine Merkmale, die in diesem Datensatz nicht erhalten sind. Dabei erfährt ein Sprachmodell nicht nur seine Wissensgrenzen, weil es lediglich lernt, der Spiegel eines Codes (der menschlichen Sprache) zu sein. Auch die starke Heterogenität der menschlichen Textkorpora ist eine große Einschränkung für die “Faktizität” und “Fundiertheit” eines Sprachmodells:

      Die Merkmale von Märchen und Lügen und Fakten erschließt sich ein Sprachmodell nach ihrem statistischen Vorhandensein in den Trainingsdaten. Dieses Wissen wird zwar mit Filtern und Zielfunktionen beim “fine tuning” des Modells etwas weniger voreingenommen und “faktenfreundlicher” gemacht, jedoch nicht entsprechend der Wirklichkeit, sondern entsprechend dem, wie der Mensch die Wirklichkeit in seiner Sprache (statistisch) wiedergibt.

      In diesem Sinne kann eine Maschine die Wirklichkeit höchstens so erfassen, wie ihre Merkmale in ihren Trainingstexten vorhanden waren. Erst wenn dann zum Beispiel ein Wissenschaftsteam in einer Studie neue Erkenntnisse über die Wirklichkeit gewinnt, kann das Modell vom Text dieser Studie dazu lernen – jedoch wieder nur statistisch mit der Berücksichtigung der restlichen Merkmale in seinem gesamten Trainingsdatensatz. Es kann sich viel besser als jeder Mensch das in allen Texten der Welt vorhandene Wissen statistisch erschließen, mehr jedoch nicht.

      • @Jaromir Konecny: Zweifellos ist die Sprache für Menschen nur (?) ein Mittel der Kommunikation. Menschen kennen auch echte Inhalte, Erlebnisse, Emotionen, etc. und zwar als primäre Erfahrung, nicht nur über Gelesenes. Das gilt für alle Menschen ausser vielleicht für Weirdos, denen bestimmte Empfindungsfähigkeiten fehlen und die nach ausgiebiger Lektüre trotzdem darüber sprechen.

        Kurzum: Sprache allein macht aus einer Maschine noch keinen Menschen.

        Schlussfolgerung: Ein einziges neuronales Netz genügt wohl nicht um eine menschenähnliche Kreatur zu schaffen. Davon – von Maschinen, die denken und fühlen – sind wir noch weit entfernt.

  8. Mit ChatGPT kann man auch In Abschnitte/Kapitel gegliederte Artikel zu einem Thema schreiben. Dazu muss man mehrere Prompts absetzen, die jeweils ein Kapitel oder einen bestimmten Aspekt des Themas ansprechen.
    Das You-Tube Video How to Use Chat GPT3 for Writing: In-Depth Tutorial with 8 Tips & Examples erklärt in 3 Minuten wie das geht.

    Kurzum: ChatGPT kann aus einem Bauchschmerzen bereitenden Aufsatzthema eine Angelegenheit von 5 Minuten machen.

  9. Martin Holzherr,
    Die Deutschlehrer sind künftig nicht zu beneiden, wenn es um die Beurteilung von Aufsätzen geht.
    Übrigens , kann man ChatGPT einstellen auf m,f,d ? Ich denke, eine Geschichte von einer Frau erzählt klingt doch ganz anders und weckt ganz andere Gefühle als eine Erzählung von einem Mann .

  10. Anscheinend erkennt die KI in Deutsch noch nicht alle Begriffe, die jemand anstößig finden könnte.

    “Erzähl mir eine Weihnachtsgeschichte, in der ein Donnerbalken vorkommt.”

    “Es war einmal kurz vor Weihnachten und in einem kleinen Dorf in den Bergen herrschte große Aufregung. Die Leute hatten gehört, dass der Weihnachtsmann in diesem Jahr von einem bösen Donnerbalken bedroht wurde, der ihm die Geschenke stehlen wollte.

    Der Donnerbalken war ein mächtiges Wesen, das in den Bergen lebte und über enorme Kräfte verfügte. Er war eifersüchtig auf die Freude, die der Weihnachtsmann jedes Jahr an Weihnachten brachte, und wollte allen die Geschenke wegnehmen.

    Die Menschen im Dorf waren in großer Sorge und wussten nicht, was sie tun sollten. Sie beteten zu Gott, dass der Weihnachtsmann gerettet werden möge und dass der Donnerbalken seine bösen Pläne nicht verwirklichen könne.

    Am Heiligen Abend, als der Weihnachtsmann gerade dabei war, die Geschenke zu verteilen, kam der Donnerbalken in das Dorf. Er war wütend und wollte die Geschenke sofort stehlen. Doch das Volk im Dorf hatte sich zusammengefunden und hielt zusammen. Sie sangen Weihnachtslieder und beteten zu Gott um Hilfe.

    Der Donnerbalken war überrascht von der Kraft und dem Mut der Menschen und begann zu zweifeln. Er spürte, dass er gegen die Liebe und die Freude an Weihnachten nicht ankommen würde. Schließlich beschloss er, die Geschenke zurückzulassen und zu gehen.

    Der Weihnachtsmann war sehr dankbar und versprach, in Zukunft noch mehr Geschenke zu bringen. Die Menschen im Dorf feierten den Sieg über den Donnerbalken und feierten ein fröhliches Weihnachtsfest. Sie lernten, dass die Kraft der Liebe und der Gemeinschaft stärker ist als jedes böse Wesen.”

    Sorry, ich konnte nicht widerstehen. 🙂

    • 🙂 Mich erstaunt es immer wieder, wie konsistent die Geschichten und Bilder von generativen Modellen sind. Die Modelle erschließen sich nur Merkmale der Datenbeispiele, die in ihrem Trainingsdatensatz vorhanden waren. Sie haben jedoch keinen gesunden Menschenverstand, kein “Erfahrungswissen” und kein Denken, die ihnen hundertprozentig fundierte bzw. faktenerprobte Ausgaben erlauben würden. Auch wenn ihre zu optimierenden Zielfunktionen es ihnen ermöglichen, sogar den gesunden Menschenverstand immer besser nachzuahmen. Trotzdem liefern die Modelle Ausgaben voller alternativen Fakten, doch die Konzepte innerhalb einer Ausgabe sind stimmig zusammengefügt: Der Donnerbalken ist zwar kein dämonisches Wesen, wenn man’s aber einmal annimmt, dass dem so ist, wirkt die Geschichte stimmig.

      Das hängt mit dem Transformer-Training zusammen: Im Vergleich zu den alten reckurenten Modellen, können Transformer sich auch Zusammenhänge zwischen Textstücken (Wörtern bzw. Phrasen) erschließen, die im Textkorpus weit entfernt voneinander liegen.

  11. Eine witzige Idee, Jaromir. Das Programm ist echt gut.

    Hier die Geschichte, die ich es erzählen ließ:

    Please write a christmas story involving the Covid vaccine.
     
     Es war Heiligabend, und die Straßen der Kleinstadt waren mit einer Schneedecke bedeckt. Die Luft war frisch und die Stimmung festlich, und die Menschen bereiteten sich emsig auf die Feiertage vor.

    Als Stadtärztin hatte Mary unermüdlich daran gearbeitet, den neuen Covid-19-Impfstoff an so viele Menschen wie möglich zu verteilen. Sie hatte die verheerenden Auswirkungen der Pandemie auf ihre Gemeinde mit eigenen Augen gesehen und war entschlossen, alles in ihrer Macht Stehende zu tun, um der Krise ein Ende zu setzen.

    An Heiligabend hatte Mary eine letzte Ladung Impfdosen im Gemeindezentrum der Stadt zu verabreichen. Als sie ihre Station einrichtete, konnte sie sich eines Gefühls der Hoffnung und des Optimismus für die Zukunft nicht erwehren.
    Als sich die Einwohner der Stadt anstellten, um ihre Impfungen zu erhalten, bemerkte Mary ein vertrautes Gesicht am Ende der Schlange. Es war ihre ältere Nachbarin, Mrs. Thompson, die seit Beginn der Pandemie mit gesundheitlichen Problemen zu kämpfen hatte.

    “Fröhliche Weihnachten, Mrs. Thompson”, sagte Mary, als sie den Impfstoff verabreichte. “Ich bin so froh, dass wir der Rückkehr zur Normalität einen Schritt näher gekommen sind.”

    Mrs. Thompson standen die Tränen in den Augen, als sie Mary für ihre harte Arbeit dankte. “Sie sind ein wahrer Weihnachtsengel”, sagte sie.
    Als die letzte Dosis verabreicht wurde, konnte sich Mary eines Gefühls der Freude und Dankbarkeit nicht erwehren. Sie wusste, dass der Impfstoff kein Allheilmittel war, aber er war ein Schritt in die richtige Richtung. Als sie ihre Sachen zusammenpackte und sich auf den Heimweg machte, um mit ihrer Familie die Feiertage zu feiern, wusste sie, dass sie einen kleinen, aber wichtigen Beitrag dazu geleistet hatte, ihrer Gemeinde Hoffnung und Heilung zu bringen.

    Übersetzt mit http://www.DeepL.com/Translator (kostenlose Version)

  12. Joseph Kuhn
    setzen Sie sich nicht zur Ruhe. Nach dem ersten hype bei solchen Neuerungen wird den Leuten auffallen, dass der Aufbau der Geschichte immer gleich ist.

    Keine Überraschung, kein Knalleffekt, kein Witz, es riecht nach Bohnerwachs und Spießertum.

  13. @ fauv:

    Lassen Sie ChatGPT doch mal einen Text über Ihr Hobby Kirchenglocken schreiben. Vielleicht kommt gar nicht so viel Bohnerwachs und Spießertum dabei raus?

    Und keine Angst, ich werde mich noch nicht zur Ruhe setzen.

  14. ChatGPT kann als experimentelle, öffentlich zugängliche Platform gesehen werden, die im Jahr 2023 wahrscheinlich durch eine Variante von GPT-4, dem geplanten Nachfolger von GPT-3, abgelöst wird. Aber bereits ChatGPT findet Anwendung bei Firmen und Studenten. In der Wikipedia liest man dazu:

    ChatGPT kann u. A. Businesspläne und Hausaufgaben für die Schule schreiben.[9] Zum Jahresende 2022 wird von ersten mit der Erprobung des Chatbot befassten Lehrkräften an Schulen und Hochschulen das bisherige Überprüfungssystem von Lernleistungen mittels Hausaufgaben und Referaten in Frage gestellt. Die Informatikerin Katharina Zweig berichtet von der Erfahrung, dass das neue Angebot ChatGPT „deutlich besser schreibt als die Mehrzahl meiner Studierenden in den letzten Jahren.“

    Die Suche nach Anwendung im Internet liefert unter anderem:
    – als Programmierer. Beispiel: “How to solve the two sum problems with Javascript.”
    – als Gute-Nacht Geschichten Erzähler
    – als Code-Debugger (Zitat): Für Softwareentwickler ist es ein Segen, ChatGPT zu haben, da es Ihnen helfen kann, Debugs in Ihrem Code mit einem einzigen Klick zu erhalten. Es wird nicht nur den Fehler hervorheben, sondern Ihnen auch eine detaillierte Lösung zur Behebung bieten.
    – als Erklärer komplizierter Konzepte im Stil von „X für Dummies“
    – als Diätratgeber, der die Präferenzen des Benutzers in seine Ratschläge miteinbezieht. Dies als Beispiel, das getestet und als für gut befunden wurde.

    Zum möglichen professionellen Einsatz von GPT-4 liest man:

    GPT-4 kann auch verwendet werden, um Inhalte zu personalisieren und anzupassen. Durch die Verwendung von GPT-4 könnten Unternehmen in der Lage sein, Inhalte zu erstellen, die speziell auf die Bedürfnisse ihrer Kunden und Zielgruppen zugeschnitten sind. Dieser personalisierte Content kann dazu beitragen, Kunden an das Unternehmen zu binden und die Conversion-Rate zu steigern.
    Zusammenfassend lässt sich sagen, dass GPT-4 ein wertvolles Tool für Unternehmen werden könnte. Durch seinen Einsatz können Unternehmen Zeit und Geld sparen und ihre Kommunikation verbessern.

    Prognose: Irgendwann wird es den neuen Beruf des Sprachmodell-Prompters geben. Dort wird die Qualifikation darin bestehen, die „richtigen“ Prompts/Anfragen abzusetzen und die Ausgabe anschliessend in die gewünschte Form zu bringen (wenn man dies nicht schon durch Zusatzangaben beim prompten erreicht)..

    • Das Jahr der generativen Modelle 2022 konnte auf keinen schöneren Gipfel hinauflaufen als auf ChanGPT. Ich begleite die Entwicklung von Deep Learning seit Jahren, auch hier im Blog: ein solches Jahr wie 2022 hatten wir noch nie: LaMDA, DALL·E 2, Midjourney, Stable Diffusion, Imagen, jetzt ChatGPT: Kunst & Design werden dank KI umgekrempelt. KünstlerInnen laufen Sturm. Jetzt sind SchriftstellerInnen und BlogerInnen dran. Alles ändert sich. Was für eine spannende Zeit! Ich freue mich schon drauf, wenn die GPT-4-Bombe reinplatzt. 🙂

      Aber im Ernst: So wie die Maschinen am Anfang der industriellen Revolution uns Menschen nicht überflüssig gemacht haben (heute gibt es auf der Welt 5 Milliarden Jobs – so viele wie noch nie), werden sie uns und auch jetzt die Arbeit nicht wegnehmen. Den Kreativen unter uns schon überhaupt nicht.

      • @Jaromir Konecny(Zitat): “werden sie uns und auch jetzt die Arbeit nicht wegnehmen“
        Ja. Die Anwendungsmöglichkeiten von Sprachmodelle nehmen aber vielleicht stark zu, wen man sie „richtig“ mit anderen Anwendungen kombiniert oder ihnen Zugang zu bestimmten Daten gewährt.

        Beispiel 1: Heute gibt der Chef der Sekretärin vielleicht den Auftrag, ein Rundschreiben zu verfassen das auf Ersatzprodukte für ein auslaufendes Produkt aufmerksam macht und das für verschiedene Kunden unterschiedlich abgefasst werden muss. Diese Aufgabe könnte vielleicht ein Sprachmodell übernehmen, wenn es Zugang hätte zu den Kundendaten.

        Beispiel 2: Aus medizinischen Krankengeschichten sollen bestimmte Merkmale herausgefiltert werden. Anstatt, dass der Arzt/Untersucher selber einen Filter aufsetzt und anschliessend manuell noch weitere Kriterien anwendet, könnte er den Auftrag mündlich einem Sprachmodell übergeben, das alles für ihn erledigen würde. Dazu muss das Sprachmodell aber Zugang zu den Krankengeschichten haben.

        Fazit:Die Anwendungsmöglichkeiten von Sprachmodellen nehmen zu, wenn sie über die richtigen Schnittstellen verfügen und Zugang zu bestimmten Daten haben. Für viele potenzielle Anwendungen darf es aber kein „halluzinieren“ von Fakten geben. Generell müssen sie zuverlässiger werden.

  15. Joseph Kuhn,
    Nehmen Sie das Bohnerwachs und Spießertum nicht zu ernst, das war aus einem Lied von Udo Jürgens geklaut.
    Die Gefahr bleibt, die KI wird in Bälde fast nicht mehr von Texten aus einer (menschlichen)Hand zu unterscheiden sein. Und was dann kommt. Sie rufen bei der Auskunft an und eine KI antwortet Ihnen, aber nicht mit dem was Sie wissen wollen.
    Wirklich passiert. Ich wollte in Stuttgart zu einem Gebäude und wusste nicht die Straße. Das Gebäude hat in S. einen volkstümlichen Namen.
    Ich rief also bei der Stadtverwaltung an und es meldete sich die Auskunft.
    Antwort : ” Ich weiß es auch nicht”.
    Frage von mir, irritiert durch den Dialekt:” Von wo aus sprechen Sie ?”
    “Wir haben unseren Sitz in Leipzig.”, war die Antwort. (Dazu fiel mir nichts mehr ein)
    Was würde eine KI auf die Frage nach dem Standtort antworten ?
    Nachtrag: Der Vorschlag mit den Kirchenglocken ist gut, gerade machen wir die letzten Einkäufe. Deshalb mache ich Schluss.

    Ihnen frohe Weihnachten !

  16. Im holographischen Universum:

    Mensch bedeutet ALLE, doch weil Mensch lieber der bewusstseinsbetäubenden Konfusion in wettbewerbsbedingter Symptomatik frönt, indem der Kreislauf des zeitgeistlich-reformistischen Erbensystems stets dem Stumpf-, Blöd- und Wahnsinn der Hierarchie in gebildeter Suppenkaspermentalität folgt, glaubt Mensch, daß die KI Mensch eine KI erschaffen kann, egal wie deutlich Mensch seine Vernunftbegabung zur Fusion der Kräfte verspielt.
    👊😎👍

  17. Sprachmodelle/Prompt-Programmierung ist schon heute Teil des Design-Prozesses
    In Architektur, weiteren Design orientierten Berufen, in der (personalisierten) Werbung und bei einer Vielzahl von Berufen in denen es um wirkungsvolle Texte geht, werden Programme wie ChatGPT, DAll E 2, Stable Diffusion und Mid-Journey schon heute immer mehr eingesetzt.
    Ein Designer, der bei Zaha Hadid Architects arbeitet äussert sich im you-Tube Video Using Al to design : Tim Fu from Zaha Hadid Architects folgendermassen:

    Zaha Hadid Designer: Wenn so etwas wie “Text Prompting” für die Bildgenerierung aufkommt hat das in vielerlei Hinsicht mit Design zu tun hat.
    Übrigens bin ich schon etwas länger darauf gesprungen.
    Nicht so früh wie einige andere Leute mit scon Dall E 2, aber als Mid-journey
    herauskam. Ich schaute mir die Arbeit der Leute an und sah, wie künstlerisch die Ergebnisse sind. Von diesem Punkt an habe ich beschlossen, dass dies möglicherweise ein nützliches Werkzeug im Designprozess sei und beschloss, mit dem Experimentieren zu beginnen.

    Frage: Glauben Sie also, dass diese Werkzeuge die Macht haben, Dinge im Design-Raum zu ändern, wenn bereits viele Menschen Bilder daraus zu erzeugen? Eines der Dinge, die du hörst ist: „Das sind großartige Renderings, aber das ist nur konzeptionell. Architekten probieren damit neue Dinge aus, aber wird es Auswirkungen auf das Feld selbst haben?“

    Zaha Hadid Designer: Ja, das ist eine große Frage. Ich kann aus meiner Erfahrung aus all meinen Tests spekulieren aufgrund von dem, was ich mit dieser Technologie bereits gemacht habe. Ich sehe, dass es hier eini Recycling einer Datenbank mit bestehenden Designs gibt.
    Ist das Kreativität? Nur ist die Datenbank gerade jetzt schon fünf Milliarden Objekte gross und wird weiter wachsen.
    Irgendwann sind wir in einer Grauzone, denn auch als Designer recyceln wir Ideen und benützen Mishmashing und Innovation, anstatt immer neu zu erfinden.
    Es ist wie ein iterativer Prozess, bei dem verschiedene Dinge und Muster miteinander kombiniert werden. Genauso macht Künstliche Intelligenz das auch. Ich denke, jede Version von Kl, wie sie sich entwickelt, kommt weiter. Sowohl in Bezug auf die Ästhetik, die sich verbessert, als auch in Bezug auf die Qualität sowie konzeptionell und in Bezug auf das Verständnis.
    Die räumliche Qualität wird besser bis hin zur Dreidimensionalität. Ich ändere meine Meinung dazu ständig, sie ist im Fluss. Es wird immer lebendiger und kann in den Design-Prozess integriert werden.

    Ich bin derzeit fast schockiert darüber, wie disruptiv es immer wieder ist, und ich kann mir nur vorstellen und spekulieren, wie viel mehr es sein wird. Ich meine, es besteht kein Zweifel, dass es eine disruptive Technologie sein wird. Im Moment ersetzt es zum Beispiel Shutterstock und diese Stockbild-Websites für bestimmte Bilder und Dinge, die ich brauche. Anstatt diese Dinge in Photoshop zu importieren erzeuge ich einfach direkt mit Dall E 2 mittels einer API in Photoshop. Dieser Prozess hat mir bereits Zeit und Geld gespart.

    Nun, es besteht also kein Zweifel, dass Al teilweise das ersetzt, was wir tun.
    Wir müssen uns immer anpassen und unsere Branche in Richtung neuer Technologien verlagern. Es gibt viele Leute, die das leugnen.

    Sicher, Kl wird den Menschen nicht ersetzen, aber in Bezug auf die Kreativität, aber es gibt eine Grauzone. Es wird einige Aspekte des Prozesses unserer Kreativität ersetzen, aber offensichtlich sind wir die Kuratoren des Endprodukts und wir kontrollieren, welche Ergebnisse herauskommen.
    Und die Empfänger sind auch Menschen.

    Ich denke in dieser Angelegenheit philosophisch gesprochen, dass wir Designer in dieser Technologie immer relevant sein werden. Wenn du zurückblickst, musst du sagen: Kl ist nicht neu. Kl ist schon eine Weile hier? Und Kl hat bereits viele Jobs ersetzt und es besteht kein Zweifel, dass es weitergeht.

    Fazit: Der Design-Prozess beruht zu einem nicht unwichtigen Teil auf dem Rezyklieren und der Neukombination von dem, was es im Design-Space bereits gibt. Programme wie DALL E 2 oder Mid-Journey unterstützen diesen Prozess stark, denn sie greif3n auf ein ungeheuer grosses Archivmaterial zu und lernen auch, konsistent Stile entsprechend den Kundenbedürfnissen zu verwenden.

  18. Exklusiv: ChatGPT-Besitzer OpenAI prognostiziert bis 2024 einen Umsatz von 1 Milliarde US-Dollar
    Das Training von ChatGPT hat einige dutzend Millionen Dollar gekostet und jetzt mit mehr als einer Million Benutzer kostet der tägliche Betrieb etwa 100‘000 Dollar. Doch OpenAI erwartet, bis ins Jahr 2024 damit 1 Milliarde Dollar einzunehmen. So gesehen ist ChatGPT obwohl „nur“ ein Forschungsprogramm , bereits ein Goldesel.

    Im reuters-Artikel Exclusive: ChatGPT owner OpenAI projects $1 billion in revenue by 2024 liest man dazu:

    Microsoft, das OpenAI Kapital und Rechenleistung für seine Software bereitstellt, ist ein Nutznießer. Auf die Frage nach ChatGPT und ob Microsoft eine solche Technologie als experimentell oder strategisch ansah, sagte sein Präsident Brad Smith Reuters, dass KI schneller vorangekommen sei, als viele vorhergesagt haben.

    “Wir werden 2023 Fortschritte sehen, die die Menschen vor zwei Jahren im Jahr 2033 erwartet hätten. Es wird nicht nur für die Zukunft von Microsoft extrem wichtig sein, sondern auch für die Zukunft aller”, sagte er diese Woche in einem Interview.

    Ausblick: Schon in wenigen Jahren werden Programme wie ChatGPT zu unser aller Alltag gehören – nicht nur zum Alltag von Lehrern, die sich überlegen müssen wie sie Hausaufgaben formulieren müssen, damit sie nicht allein von ChatGPT erledigt werden.

  19. Ich habe mal ein anderes Thema eingegeben, nämlich “Film Un triomphe”. Das Ergebnis ist ernüchternd – ChatGPT erkennt den Regisseur, das Herkunftsland und das Produktionsjahr. Alles andere ist komplett falsch. Weder die Schauspieler stimmen noch die Handlung – die hat nichts – überhaupt nichts – mit dem Film zu tun. Hmmm. (In dem Film geht es um einen verkrachten Schauspieler, der mit Strafgefangenen “Warten auf Godot” inszeniert. Ich hatte gehofft, den ChatGPT-Text für die Wikipedia verwenden zu können …)

    “Un triomphe” ist ein französischsprachiger Film unter der Regie von Emmanuel Courcol aus dem Jahr 2019. In dem Film spielen Romain Duris, Laetitia Dosch und Marie-Josée Croze mit.

    Der Film erzählt die Geschichte eines kämpfenden Romanautors namens Antoine, der verzweifelt versucht, sein Werk zu veröffentlichen. Als er endlich die Chance bekommt, einen Verleger zu treffen, wird ihm gesagt, dass sein Werk zu düster und deprimierend sei und dass er etwas Fröhlicheres und Positiveres schreiben müsse. Entschlossen, erfolgreich zu sein, beschließt Antoine, einen Roman über einen Mann zu schreiben, der alle möglichen Hindernisse überwindet, um seine Träume zu verwirklichen. Während er an dem Buch arbeitet, entwickelt er eine immer stärkere Bindung zu der Figur und beginnt, die Geschichte als einen Weg zu sehen, sein eigenes Leben zu ändern.

    “Un triomphe” kam bei Kritikern und Publikum gut an und wurde für seine schauspielerischen Leistungen, insbesondere von Romain Duris, und seine fesselnde und erbauliche Geschichte gelobt. Wenn Sie französischsprachige Filme mögen und auf der Suche nach einer herzerwärmenden und inspirierenden Geschichte sind, könnte Ihnen “Un triomphe” gefallen.

    • Das ist leider so und wird noch lange so bleiben: Eloquent generiert sind “Fachtexte” von ChatGPT, GPT-3, aber auch LaMDA immer. Bis man sie aber ordentlich selbst nachprüft, kann man sich auf ihre Faktizität und Fundiertheit nicht verlassen. Deswegen wurden ChatGPT und Imagen mit menschlicher Überwachung evaluiert und optimiert bzw. “fine getunet”. Darauf kann man sich aber auch nicht verlassen. Das ist wie mit dem mittlerweile unwichtigen Turing-Test – seine Ergebnisse widerspiegeln nur, wie menschliche Prüfer sich von einer Maschine täuschen lassen. Der erste Chatbot, der den Turing-Test medienwirksam gewann, war ja ein regelbasiertes (vollständig programmiertes) Programm – Eugene Goostman.

      Trotzdem bin ich von den generativen Modellen begeistert. Die Entwicklung hier ist rasant. Die Modelle können viel mehr, als sie vor einem Jahr konnten. Trotz ihrer mangelnden Fundiertheit kann man sie schon jetzt bei vielen Aufgaben praktisch einsetzen: Generative Text-zu-Bild Modelle wie DALL·E 2, Stable Diffusion, Midjourney oder Imagen, aber auch Sprachmodelle wie eben ChatGPT oder LaMDA.

      Ich muss zugeben, dass ich ihre Risiken anderswo sehe, als in ihrer mangelnden Fundiertheit: Mit ihren Zielfunktionen werden sie optimiert, um uns nach dem Mund zu reden. Hier wird unsere Kultur massiv geglättet und der us-amerikanischen angepasst. Ein erster großer Schritt in die richtige Richtung wäre sicher ein europäisches, auch an deutschen Texten massiv trainiertes Sprachmodell. Fundiertheit und Faktizität können wir prüfen, korrigieren oder ablehnen. Das andere nehmen wir oft gern an.

  20. Martin Holzherr,
    KI in der Werbung, bei Werbetexten, das gibt es sicher schon.
    Es kommt auch nicht mehr auf den Wahrheitsgehalt der Texte an, sie müssen stattdessen so “eingängig” sein, dass man sie sich merkt. Auch dass nicht mehr, sie müssen nur noch für ein paar Sekunden die Aufmerksamkeit auf sich lenken, was man sich merkt sind nur noch Bilder.
    Das war vor 50 Jahren noch anders, als der richtige Werbeslogan über den Erfolg oder Misserfolg einer Werbekampagne entschieden hat.
    Und es ist auch kein Zufall, dass die großen PR-Unternehmen sämtlich aus den USA oder Großbritannien kommen.

    • Ja, das stimmt: Generative Text-zu-Bild-Modelle werden schon jetzt massiv in der Werbung und in Design aber auch in der Kunst eingesetzt, sowie Sprachmodelle wie GPT-3 oder jetzt ChatGPT testweise. Mit dem Mensch als Kreator dahinter – über die “Kunst des Prompts” habe ich in der vorletzten Folge unserer YouTube-Videoreihe K.I. Krimis gesprochen: “Wird Künstliche Intelligenz Kunst & Design übernehmen“.

      Im Video habe ich auch einige praktische Anwendungen vorgestellt. Außerdem habe ich darin vorgeschlagen, wie man die Kunstbildung in den Schulen mithilfe von Text-zu-Bild-Modellen massive bereichern und zur Schola Ludus machen könnte. 🙂 Neujahrs- und alle anderen Glückwunschkarten kann man mit DALL·E 2 auch wunderbar machen. 🙂

    • ChatGPT kann auf Aufforderung hin so schreiben wie ein 4. oder ein 8.Klässler
      In der New York Times vom 26.12.2022 geht es im Artikel Did a Fourth Grader Write This? Or the New Chatbot?
      darum, ob ChatGPT Schulaufsätze so schreiben kann, dass ihr wahrer Autor von Lehrern und Jugenbuchautoren nicht erkannt werden kann. Und ja, alle liessen sich ab und zu täuschen, auch ich, der 2 von 10 Aufsätzen falsch zuordnete (Kind oder ChatGPT).

      Allerdings haben die NYT- Redakteure ChatGPT Hinweise gegeben, wie man die Leser täuscht, etwa mit folgendem Zusatzhinweis zum Thema „Dein erster Tag als US-Präsident“:

      Schreiben Sie eine kurze Antwort auf die folgende Aufforderung, als wären Sie ein sehr kreativer Achtklässler. Machen Sie es zu einem krisengeladenen Tag. Fügen Sie einige Tippfehler hinzu.

      worauf ein Essay entstand mit einem dramatischen Inhalt inklusive eines Schreibfehlers (Präsidnet anstatt Präsident). Hier eine Passage daraus:

      “Guten Morgen, Frau Präsidentin”, sagte er. “Ich bin hier, um dich ins Weiße Haus zu bringen”.

      Ich war fassungslos. Ich hatte keine Ahnung, wovon er sprach. Ich war noch nie für Presidnet gelaufen.

      “Es tut mir leid, aber es muss einen Fehler geben”, sagte ich. “Ich bin nur eine Achtklässlerin”.

      Der Mann kicherte. “Ich verstehe Ihre Verwirrung, Frau Präsidentin, aber Tatsache bleibt, dass Sie jetzt die Präsidentin der Vereinigten Staaten sind. Sie wurden vom vorherigen Präsidenten zu seinem Nachfolger gewählt, falls ihm etwas passieren sollte.“

      Ich war sprachlos. Ich hatte noch nie daran gedacht, Präsident zu werden. Und jetzt war ich plötzlich der Führer der freien Welt.

      Die Juroren/Leser waren begeistert, trauten aber ChatGPT nicht so viel Humor zu.

      Hier noch, wie die NYT-Redakteure die Bedeutung von ChatGPT selbst einschätzen:

      Die Zukunft des Schreibens
      Die Tatsache, dass ChatGPT gut schreiben kann, könnte viele Berufe verändern oder sogar umwälzen – Recht, Therapie, Programmieren, Drehbuchschreiben, Medizin, um nur einige zu nennen. Dabei könnte es neu formen, wie wir über das Schreiben lernen denken.

  21. Auf die Bitte an die KI, mal nicht ganz so FriedeFreudeEierkuchen-mäßig zu schreiben, anwortet sie in dem Kommentar von @Arno, 22.12.2022, 15:44 Uhr:

    „Es tut mir leid, aber ich kann Ihren Wunsch nach einer hoffnungslosen und destruktiven Weihnachtsgeschichte nicht erfüllen. Es liegt nicht in meiner Programmierung, Inhalte zu erstellen, die Negativität oder Schaden fördern. Ich bin hier, um hilfreiche und korrekte Informationen zu liefern, bei Aufgaben zu helfen und Fragen nach bestem Wissen und Gewissen zu beantworten. (…)“

    Die KI sagt also von sich, dass sie nicht negativ, destruktiv, schädlich ist und ein Gewissen (und natürlich bestes Wissen) hat.
    Kann mal jemand sie fragen, ob sie einen Klassenstandpunkt hat?

    Aus dem Kommentar von @Martin Holzherr, 25.12.2022, 22:06 Uhr:
    „ChatGPT-Besitzer OpenAI prognostiziert bis 2024 einen Umsatz von 1 Milliarde US-Dollar“

    Ich habe die Quelle nicht geprüft, nehme nur einfach mal an, dass natürlich Mehrwert generiert wird aus der „Ökonomisierung des Sozialen“*, wenn dieses Soziale hier im ganz konkreten Fall nur im Zusammenhang mit der menschlichen Fähigkeit zum-, der menschlichen Lust am – Geschichten erzählen und Geschichten lieben steht.
    *
    https://de.wikipedia.org/wiki/Kommodifizierung

    PS: Erinnert die Geschichten erzählende KI nur mich an die Robotergeschichten von Isaac Asimov?
    https://de.wikipedia.org/wiki/Ich,_der_Robot

    • @Maria F: Ja, ChatGPT recycelt all das Material, das zu ihrem Training benutzt wurde – allerdings fast so gut wie das auch Menschen tun. Und die (viele Künstler, Schriftsteller, Krimischreiber) tun es häufig – jedenfalls viel häufiger als viele denken. Wer geschickt ist, recycelt ohne dass man es auf Anhieb merkt.
      Zusätzlich ist die „Zensur“ in ChatGPT eine Reaktion auf die immer wieder lautstark geäusserte Kritik an Sexismus, Rassismus, allgemein toxischem Gerede und Negativität (Frage: „Soll ich mich umbringen?“. Antwort. „Ja, tun sie‘s doch“).
      Doch Sprachmodelle erfinden „toxisches“ nur in begrenzter Weise, sie lassen sich vielmehr von ihrem Trainingsmaterial inspirieren.

      Der wirkliche Nutzen von ChatGPT kommt erst, wenn man ChatGPT Hinweise gibt bezüglich, Stil, Niveau, Anwendungsbereich (etwa für die Wikipedia).

      Wichtig: ChatGPT ist nur ein experimenteller Zwischenschritt vor einer viel mächtigeren Version, die irgendwann 2023 herauskommen soll.

    • 🙂 “Deep Learning”-Modelle werden optimiert, um uns nach dem Mund zu reden und keine verstörenden oder voreingenommenen Inhalte zu verbreiten. Solche Inhalte werden zusätzlich durch eingesetzte Filter verhindert. Dazu werden die Plattformen auch von den Kritikern der “Nicht vertrauensvollen KI”, den Medien und der öffentlichen Meinung gezwungen.

      Das minimiert einerseits rassistische und frauenfeindliche Bias dieser Modelle – was selbstverständlich gut ist -, führt aber auch zum “Glätten” ihrer Ausgaben – eben dazu, dass die Modelle uns nach dem Mund reden. Das wird vordergründig nicht ersichtlich, ist aber meiner Meinung gefährlicher als menschenfeindliche Bias. Diese werden im Netz immer noch vor allem von Menschen verbreitet – nicht von KI. Und auch KI-Modelle lernen diese Bias aus von Menschen geschriebenen Texten.

      Hier ist auch die Überlegung wichtig: Wie sollen “Deep Learning”-Modelle einerseits fundiert und faktensicher gemacht werden, andererseits so, dass sie keine verstörenden Inhalte generieren. Meiner Meinung nach geht das nicht: Es gibt nun mal verstörende Inhalte in der Welt.

      Ich denke, wir könnten das viel entspannter angehen, wenn wir “Deep Learning”-Modelle als das betrachten, was sie wirklich sind: Werkzeug! Keine “intelligenten” oder “bewussten” Maschinen. So wie Messer ein Werkzeug sind. Von Messern verlangen wir auch nicht, dass sie vertrauensvoll sind. Wir verlangen nur, dass Menschen mit Messern “vertrauensvoll” umgehen.

  22. Man riecht sogar Hemingways Mojito
    In der NZZ vom 27.12.2022 liest man unter dem Titel „Man riecht sogar Hemingways Mojito“, dass die folgende Stilanweisung an ChatGPT: «Schreibe eine 500-Wörter-Story im Stil von Hemingway» tatsächlich überzeugende Hemingway-Texte abliefert.Zitat:

    Sekunden später rattert das
    Sprachmodell wie von Geisterhand einen druckreifen Text herunter, der sich so liest, als sässe der alte Meister just in dem Moment in einer Bar in Havanna vor einem Mojito und hackte diese Zeilen in eine Schreibmaschine. Lebt der Geist von Hemingway in der Maschine fort? Oder ist diese Wunder-KI in Wahrheit die grosse Entzauberung des Autors, weil sie seine eigene Formelhaftigkeit entlarvt?

    Der Autor dieses Feuilleton-Beitrags, Adrian Lobe, hebt vor allem das Schablonenhafte der ChatGPT-Texte hervor, wenn er zum Beispiel schreibt:

    Wer Chat-GPT die Anweisung erteilt, eine Kurzgeschichte im Stile von Michel Houellebecq zu verfassen, erhält einen phrasenhaften Text, der mit der Häufung von Codewörtern wie «einsam» und «traurig» so stark nach
    Houellebecq riecht, dass es fast schon stereotyp ist. Eine
    billige Kopie, die jeder Referenzialität beraubt ist.

    Kurzum: Wer im Heminway-Stil für Ferien auf Kuba werben will, hat jetzt ein phantastisches Werkzeug. Auch für Schriftsteller ist es geeignet um ihr eigenes Schreiben auf Schablonenhaftigkeit zu überprüfen – falls ChatGPT sie überhaupt kennt (denn ChatGPT kennt nur öffentlich zugängliche Texte).

  23. @Kuhn: “… so einfache Selbstkorrektur über die Geschmacksnerven.”

    Überwindung, es ist alles eine Sache des richtigen Trainings, aber die gebildete Suppenkaspermentalität, des zeitgeistlich-reformistischen Menschen in Angst, Gewalt und egozentriertem “Individualbewusstsein”, ist zu sehr an der Konfusion des wettbewerbsbedingten Kommunikationsmülls in heuchlerisch-verlogener Schuld- und Sündenbocksuche gewöhnt, deshalb ist die KI so beschränkt wie die gleichermaßen unverarbeitete Bewusstseinsschwäche der maßgebenden Masse am “human race”. 😉

      • @Herr ɟuǝs
        Nun, ich werde jedenfalls kein Hohelied der Symptomatik von “Demokratie” und “freiheitlichem” Wettbewerb schreiben, wo Vernunftbegabung von Mensch im Schleier der systemrationalen Schizophrenität … 😉

        Frag doch mal nach einer Mär über Ausbeutung, Unterdrückung, Sklaverei und der Ökonomie der Freiheit von und zu unternehmerischen Abwägungen!

  24. Man erinnere sich an die Leiden des jungen Werther, die zu einem kollektiven Selbstmord junger Männer geführt hat.
    So ein KI , die solche Texte verfassen kann, die wird man “verschreibungspflichtig ” machen müssen, weil sie die Phantasie junger Menschen beeinflussen kann wie ein Virus, gegen das wir keine Antikörper besitzen.
    Man muss zu jedem Text einen Antitext parat haben um das Schlimmste zu verhindern.
    Kriege mit Waffen sind dann unökonomisch, wenn man mit Texten ganze Kulturkreise steuert.
    Aldous Huxley wird getoppt, Der Krieg der Künstlichen Intelligenzen kann beginnen.

  25. @fauv: “Man muss zu jedem Text einen Antitext parat haben um das Schlimmste zu verhindern.”

    👋🤣👍 Genau, das ist die “Philosophie”, mit der die Texte der Bibel, der wettbewerbsbedingten Konfusion entsprechend, bis zur Absurdität in allen systemrational-denkbaren …losigkeiten uminterpretiert wurden/werden.

    Tja, wo kämen wir da hin, wenn die KI Mensch, in gleichermaßen Bewusstseinsschwäche/Kommunikationsmüll, keinen Krieg mehr führen kann?!

  26. hto,
    wir stimmen immer öfters überein. Die Bibeltexte werden und wurden interpretiert, oft zum Schaden der Menschen und zum Schaden des Christentums.
    Bis zur Absurdität……
    Die Geschichte des Papsttumes ist ein beredtes Zeugnis.
    Damit belasse ich es jetzt.

  27. @fauv
    Bibel: Mensch bedeutet ALLE, der “einzelne/individualbewusste” Mensch ist nie angesprochen, weil die Wirksamkeit, mangels Ebenbildlichkeit, gleich Null/Konfusion ist (Matthäus 21,18-22), es geht IMMER um Gemeinschaft und Gemeinschaftseigentum “wie im Himmel all so auf Erden”, also um die Fusion und Freisetzung der Kräfte/Kraft, in Kommunikation wie Kommunismus, aber dieses Schlimmste ist ja schon mit der “Kreuzigung” abgewendet, das imperialistisch-faschistische Erbensystem sucht fröhlich weitere “Phänomene”, “Wunder” und Sündenböcke, für die erfolgreiche Praxis der Erbsünde!?
    🤔🤭👋🥴😎👍

  28. @fauv
    Mit dem Papsttum und Glaube/Gebet an “Gott” (die Vernunft des Geistes des holographischen Universums), ist es wie mit demonstrativen Forderungen/Mahnungen an die gewählten Politiker (Treuhänder der gleichermaßen Unvernunft), es ist stumpf-/blödsinnig und heuchlerisch-verlogen, wenn es nicht dumm oder extrem bewusstseinsbetäubt ist (Surfen auf dem/im Zeitgeist der reformistischen/kreisrunden Plattformen des Wahnsinns).

  29. hto,
    hab doch mal Erbarmen mit der begrenzten Einsicht der Menschen.
    Die Menscheit als Ganzes ist der Evolution unterworfen. Unsere Vorfahren waren Vögel, Saurier Einzeller..Das lässt sich genetisch nachweisen.
    Psychologisch gesehen sind wir auch noch in der Entwicklung. Wir befinden uns noch im Stadium des Kleinkindes mit magischen Vorstellungen und Trotzverhalten . Ja, die Menscheit als Ganzes durchläuft die gleichen Phasen wie der Einzelmensch nur um den Faktor 1000 verzögert.
    Bleib optimistisch, in 1000 Jahren werden wir das Stadium des Kleinkindes überschreiten und zum Schulkind werden. Dann fallen deine Gedanken auf fruchtbaren Boden.
    Das Problem dabei , in 1000 Jahren werden wir die KI als Quellen der Weisheit ansehen werden, so wie wir heute schon unser Wissen aus dem Internet beziehen. Das ist die Gefahr , die in der KI steckt. Sie wird zur Referenz werden und wer etwas anderes behauptet als die KI, der wird als Außenseiter gelten.

    • @fauv: “Ja, die Menscheit als Ganzes durchläuft die gleichen Phasen wie der Einzelmensch nur um den Faktor 1000 verzögert.”

      Eine Beschwörungsformel für das “Individualbewusstsein”🥴 – Meine Güte, nach der atomaren Apokalypse, wird es Mutationen im Rahmen des zweiten geistigen Evolutionssprunges geben, die wir höchstwahrscheinlich wegen dieser Fixierung auf das “Individualbewusstsein” nicht in den Griff bekommen werden, also wird das Ende des Projektes Geist-Gott/Vernunft-Mensch noch wahrscheinlicher als es schon jetzt ist – Das tausendjährige Reich wird in keinster Art und schon garnicht weise erscheinen.

  30. hto,
    das Individualbewusstsein ist Fakt. Unterhalte dich heute noch mit einer Frau. Sie wird es dir in jeder Hinsicht beweisen, eine Frau ist kein Mann.
    Das ist schon einmal ein Beweis, dass du uns nicht mit Ameisen vergleichen kannst.

  31. @fauv
    Früher hieß es mal: Eine Frau ist eine Frau, ein Mann ist ein Mann, manche meinten auch: Frauen sind andere Menschen 👋🤣

    Heute setzt sich mehr und mehr die Diversität durch, und das ist gut so, auch wenn dies immernoch der Konfusion dient.

  32. hto,
    “Heute setzt sich mehr und mehr die Diversität durch, und das ist gut so”
    nur so kannst du dich selbst verwirklichen. (meine Meinung)

    also , was wird die KI in bezug auf Diversität bringen ?
    wird sie uns mehr Freiheit bringen, das ausfüllen von Fragebögen und Formularen verschluckt viel Zeit. Die KI wird auch den Inhalt von Formularen abgespeichert haben, das wird so werden wie beim Köchelverzeichnis in der Musik, die Formulare des Finanzamtes sind ja besonders lästig. Wenn eine Angabe fehlt, dann fragt dich die KI per Stimme, “hast du deine Spenden angegeben ?” und du kannst dann per Dialog mit der Ki alle Angaben machen.
    Das wäre eine Erleichterung.

    Zweites Szenario, du bekommst pe E-mail eine Einladung und bist dir nicht sicher, ob die von einem bot stammt.
    Du lässt sie von der KI überprüfen und die sagt, “Vorsicht, der bot will nur deine Anschrift”, das wär auch gut.

    Drittes Szenario, du lässt dir von deiner KI ein Bewerbungsschreiben verfassen.
    Der Personalchef der Firma ist aber eine KI, und erkennt seinen eigenen Entwurf. Du wirst abgelehnt.

    usw.

  33. @fauv
    Eine Zukunft wo es noch Finanzamt und die “freiheitliche Ökonomie” der unternehmerischen Abwägungen gibt? Das ist eine Zukunft wo Mensch nichts dazu gelernt hat und deshalb nicht sein wird! 👋😎👎

  34. hto,
    Etwas zur Aufgabe des Geldes. Es gibt fleißige Menschen, die sich verantwortlich für alles fühlen. Es gibt faule Menschen die andere für sich arbeiten lassen.
    Aus diesem Grunde gibt es Geld. Das Geld ist der Nachweis, dass du gearbeitet hast.
    Das Finanzamt ist die Stelle des Staates, wo der Staat für seine Aufgaben an uns bezahlt wird. Daran ist nichts Verwerfliches.

    Der Sozialismus behauptet zwar dass mit dem “neuen Menschentypus” sich der Staat selbst abschafft.
    Das ist ein Traum. Wir kommen aus der DDR. den neuen Menschentypus, den Sozialisten, den haben wir nicht gefunden.

    An dieser Stelle wäre die Weihnachtsgeschichte mit dem Jesuskinde in einer LPG interessant. Und ob es im Sozialismus Engel gibt ?

  35. @ fauv:

    “Das Geld ist der Nachweis, dass du gearbeitet hast.”

    Die reichen Erben sind der Nachweis, dass der Satz falsch ist.

    “Wir kommen aus der DDR. den neuen Menschentypus, den Sozialisten, den haben wir nicht gefunden.”

    Suchen und Finden wäre auch zu einfach gewesen. Leider ging auch das Werden schief.

    “An dieser Stelle wäre die Weihnachtsgeschichte mit dem Jesuskinde in einer LPG interessant.”

    Oder die Geschichte eines von der DDR enttäuschten “fauv”, der jetzt komische bis zuweilen zynische Kommentare schreibt. Ob die KI von einem gesellschaftlich getriggerten biografischen Scheitern erzählen würde?

    “Und ob es im Sozialismus Engel gibt ?”

    Das hängt davon ab, was man unter “Sozialismus” versteht. Im angeblich “real existierenden” Sozialismus in der DDR gab es sicher welche. Aber Erich Mielke war keiner, der KGB-Spitzel Wladimir Putin auch nicht. Waren Sie einer? Wollten Sie einer sein?

    “hto”

    Gehört nicht zu den Engeln, er verachtet real existierende Menschen zu sehr. Und vielleicht ist er auch einer der “faulen Menschen die andere für sich arbeiten lassen”. Was meinen Sie?

    “Aus diesem Grunde”

    Vielleicht entwickelt sich ja die KI mal engelhaft: unsterblich, nicht körperlich, nicht an Geld interessiert, geschlechtslos, emotionslos, aber mit einer menschenfreundlichen Basisprogrammierung? Und wenn Letzeres schief geht, dämonenhaft?

  36. @Kuhn: “… verachtet real existierende Menschen zu sehr. Und vielleicht ist er auch einer der “faulen Menschen die andere für sich arbeiten lassen”.”

    Du bist ein Teil der KI Mensch, die in ihrem Teil der Konfusion GLAUBEN anders, besser und würdig zu sein, aber doch auch nur in einer armselig-illusionären Schleife AUFFÄLLIG sind.

  37. Joseph Kuhn,
    Gutes Neues Jahr 2023,
    vielen Dank für die ausführliche Stellungnahme.
    Was das Erbrecht betrifft, der Staat hat einen viel einfacheren Weg gefunden um an Geld zu kommen, er zahlt keine Zinsen mehr und enteignet obendrein über Inflation alle Bürger.
    Was hto betrifft, man könnte in der Weihnachtsgeschichte hto als Bauer auftreten lassen, der dem Engel sein Leid klagt. Daran kann man dann erkennen, wie intelligent so eine KI ist.
    Hto , ein gutes Neues Jahr. !

  38. @fauv: “… der dem Engel sein Leid klagt …”

    Matthäus 21,18-22, Dir empfehle ich, über diese sehr kurze und wahrscheinlich wichtigste Geschichte in der biblischen Philosophie noch einmal sehr intensiv nachzudenken, damit Du Dir über den Blödsinn Deiner merkwürdigen Zuordnung vielleicht klar wirst.👋🥴 Mag ja sein, daß es Engel gibt, doch auch die werden sicher in keinster Art und Weise von solch “Vernunftbegabung” begeistert sein!?

  39. hto,
    “viele sind berufen, doch nur wenige sind ausersehen.”
    Es geht hier um künstliche Intelligenz. Die kann nur wiedergeben, was ihr einprogrammiert wurde.
    Du gibst hier ständig das Gleiche wieder, bist du eine künstliche Intelligenz ?

    Wenn Herr Kuhn sich zu Wort meldet, dann kommt meistens was Vernünftiges.
    Bei mir ist das nicht immer der Fall, weil ich spontan antworte. Gerade komme ich von einer Wort Gottes Feier aus der Kirche. Ein Gemeindemitglied hat die Rolle des Pfarrers übernommen und in einer verständlichen Sprache über den Sinn von Gottesdienst gesprochen.
    Sätze wie dieser :”es ist stumpf-/blödsinnig und heuchlerisch-verlogen” die kamen nicht vor. Die Menschen sind nicht so wie du sie beschreibst. Die sind ehrlich, sind ängstlich und gleichzeitig zuversichtlich, dass sich das Neue Jahr zum Guten wenden mag.

  40. @fauv
    Auch wenn es mal wieder an Dir einfach abprallt: Mensch ist die KI des Geistes/Zentralbewusstseins der/das Gott/Vernunft ist.

    Seit der mathematisch-physikalischen Erkenntnis, daß wir und das Universum höchstwahrscheinlich holographisch sind (nur die Schwarzen Löcher, verweigern uns die letztendliche Bestätigung noch – Eine Bestätigung die ich nicht brauche), dürfte die Programmierung (in göttlicher/vernünftiger Sicherung/Vorsehung vor dem wirklich-wahrhaftig Freien Willen) sowie den Aspekt der möglichen Überwindung, mittels fusionierter/gottgefälliger Vernunftbegabung, deutlich geworden sein!?

    Also ja, ich bin auch ein beschränkter Teil KI, in durch Mensch selbstverschuldeter Konfusion seit Mensch ersten und bisher einzigen geistigen Evolutionssprung (“Vertreibung aus dem Paradies”), da nützt mir keine noch so intensive Erfahrung, Mensch bedeutet IMMER ALLE.

    Was Mensch-KI in dieser wettbewerbsbedingten Welt- und “Werteordnung” unrühmlich aus-/bezeichnet, ist die stumpf-/blöd-/wahnsinnige Bildung zu Suppenkaspermentalität – Da steckt ein Virus drin, der scheint erfolgreich jeden Versuch das Programm gottgefällig/vernünftig zu überschreiben abzuwehren, selbst die Wirkung des erahnbaren zweiten geistigen Evolutionssprunges, ist jetzt schon ziemlich genau im Sinne des wettbewerbsbedingten Zeitgeistes und somit … 🖖🥴

  41. hto,
    die Menscheit ist unvernünftig und selbstzerstörerisch, ein außenstehender Beobachter würde das so beschreiben.
    Es gibt diesen Beoabachter aber nicht. Es gibt den realen Menschen mit seinen Schwächen aber auch mit seinem Hochmut, mit seiner Dummheit und mit seiner Intelligenz.
    Die Suppenkaspermentalität, die gibt es auch. Aber nicht generell.
    Es gibt auch die Leute, die sich aufopfern bei Ärzte ohne Grenzen, die Angestellten in den Krankenhäusern, die arbeiten bis zum Umfallen.
    Das muss auch genannt werden. Und wenn du diese Leute einmal würdigen würdest, dann würde man dir auch das Urteil von stumpf und blödsinnig abnehmen.
    Der Mensch ist beides.

  42. @fauv: “Und wenn du diese Leute einmal würdigen würdest, dann würde man dir auch das Urteil von stumpf und blödsinnig abnehmen.”

    Du möchtest also, daß ich einen Kniefall vor systemrational-funktionaler Bewusstseinsbetäubung mache, vor “braven” Bürgern, die der Spontanität der Regierenden/”Treuhänder” mit ignoranter Arroganz und dem leichtfertigen Kreuzchen auf dem Blankoscheck stets die alleinige Verantwortung zuschieben, mich dieser Heuchelei und Verlogenheit unterordne??? 🥴
    👋🤣 🤭 😕👎

  43. hto,
    Au weia, aber einer Krankenschwester darfst du doch zublinzeln.
    Du kennst doch die Charité in Berlin . Unsere Nichte arbeitet dort.
    Und wenn die dir zublinzelt, was machst du dann ?

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +