Ein Silvester-Text von Künstlicher Intelligenz

Zuerst möchte ich Euch einen poetisch lustigen aber gesunden Rutsch ins Neue wünschen. Gleichzeitig möchte ich mich für Eure Kommentare und Diskussionen in diesem Blog bedanken. Seit viereinhalb Jahren sprechen wir hier über Künstliche Intelligenz, vor allem über Deep Learning – das ist schön! Danke!
Zuletzt haben wir hier OpenAIs Chatbot ChatGPT Weihnachtsgeschichten schreiben lassen. Vielen Dank fürs Mitmachen! Die ChatGPT-Weihnachtsgeschichten nach Euren kreativen Ideen in den Blogtext-Kommentaren waren wunderbar:
Jetzt kurz vor Silvester ist Humor angesagt. Auch wenn wir den Gipfel eines welt- und innenpolitisch unguten Jahres erklimmen: Corona, Krieg, Klimawandel, Energiekrise, ausufernde Mythen der Verschwörung, Hass, Lügen und Dummheit in den Medien und auf der Straße, Pseudowissenschaften. Nur haben wir viel zu oft geweint und gejammert, und das hat die Welt auch nicht besser gemacht. Ich habe in zwei Diktaturen gelebt. Die größte Angst haben Diktatoren davor, nicht ernst genommen zu werden: dass Menschen über sie lachen, statt sie zu fürchten. Da wir hier in diesem Blog über Künstliche Intelligenz sprechen, lasst uns doch Künstliche Intelligenz zum lustigen Ausklang dieses Jahres beitragen:
Könnt Ihr ChatGPT dazu bringen, einen möglichst absurden Text zu schreiben? Je absurder und lustiger, umso besser.
Ansonsten möchte ich in diesem Beitrag nicht viel Theorie wälzen. Nur am Ende erkläre ich kurz, wie “Deep Learning”-Sprachmodelle zu Fakten stehen: Damit wir Künstliche Intelligenz etwas entspannter betrachten können: “Deep Learning”-Modelle sind meiner Meinung nach die großartigste Technologie, die der Menschheit so nah am Abgrund geschenkt werden konnte. Wir sollten aber über ihre Unzulänglichkeiten Bescheid wissen und aufhören, dieses Werkzeug zu vermenschlichen. Damit wir es endlich ordentlich zu Rettung der Welt einsetzen können. Ansonsten bleibt uns dafür nur Hollywood.
Die theoretischen Hintergründe der generativen Modelle habe ich in diesem Jahr oft und ausführlich in der Videoreihe K.I. Krimis im gleichnamigen Videokanal unserer SRH Fernhochschule gemacht: Wenn Ihr Euch allgemein verständlich über generative Sprachmodelle wie GPT-3 und Chatbots wie LaMDA (oder eben ChatGPT) informieren wollt, kann ich Euch die Videos der “K.I. Krimis”-Reihe “Haben Chatbots Gefühle?” und “Kann Künstliche Intelligenz Bewusstsein haben?” empfehlen. Über generative Text-zu-Bild-Modelle wie DALL·E 2 spreche ich in der “K.I. Krimis”-Folge “Wird Künstliche Intelligenz Kunst & Design übernehmen?“. Auch die aktuelle (und recht kurze :-)) Folge beschäftigt sich mit DALL·E 2 und geht der Frage nach: “Hat DALL·E 2 eine Geheimsprache entwickelt?” Übrigens freuen wir uns über jeden Abonnenten und jede Abonnentin des “K.I. Krimis”-Kanals. Danke!
Die nächste Folge der K.I. Krimis hat viel mit dem Thema dieses Blogbeitrags zu tun: Humor und Deep Learning. Im Januar-Video werde ich die Frage stellen (und beantworten): “Hat DALL·E 2 Humor?” Heute würde ich gern mithilfe Eures Humors den unfreiwilligen “Humor” von ChatGPT ausloten. So wie bei der Weihnachtsgeschichte im vorletzten Beitrag dieses Blogs gehe ich mit einem Beispiel voraus:
Ich habe ChatGPT auf Englisch gebeten, eine neue Knobelaufgabe und die Lösung dafür zu entwickeln. Der Chatbot schlug eine Sprachspielerei vor, die schwierig ins Deutsche zu übersetzen ist. So bilde ich auf dem folgenden Screenshot nur die englische Originalaufgabe von mir und ChatGPTs Lösung ab (“JA” heißt Jaromir, das OpenAI-Zeichen leitet die Antworten von ChatGPT ein):

Zuerst war ich im Schock , als ich ChatGPTs Vorschlag einer Knobelaufgabe (“Puzzle task”) las:
“The task is to rearrange the letters in the word “EVALUATE” to form an new word that is a synonym for “evaluate.”
Das liest sich verdammt nach einer guten Sprach-Knobelaufgabe, oder? Kann man tatsächlich die Buchstaben im Wort “EVALUATE” zu einem neuen Wort umformen, das ein Synonym für das gleiche Wort “evaluate” ergibt? Doch als ich die Erklärung des Rätsels von ChatGPT las, musste ich lachen: Die Antwort des Chatbots erinnerte mich an Karl Valentin.
“To solve this puzzle, you must first understand the meaning of the word ‘evaluate.’ This means to consider the worth or value of something, or to asses its worth. Then, you can rearrange the letters in the word ‘EVALUATE’ to form a new word that has a similar meaning. In this case, the word ‘VALUATEE’ is a synonym for ‘evaluate,’ meaning that ist has the same meaning as the word ‘evaluate.’ Therefore, ‘VALUATEE’ is the correct solution to the puzzle.”
Blödsinn!, dachte ich. Doch ChatGPT hat die Erklärung der Lösung seiner Sprach-Knobelaufgabe mit so viel Überzeugungskraft gebracht, dass ich langsam zu zweifeln begann: Vielleicht ist mein Englisch nicht so gut. Vielleicht stimmt die Behauptung, dass “VALUATEE” ein Synonym für “EVALUATE” ist. Ich fragte einen Freund, der länger in England lebte: Zum Glück bestätigte er, was ich dachte: Der Chatbot hat Blödsinn verzapft.
Eine schöne Pointe dazu lieferte ChatGPT selbst. Ich habe den Chatbot meinem Chrome-Browser als Erweiterung hinzugefügt. ChatGPT scheint Sprache besser zu verarbeiten, als die KI hinter Googles Suchmaschine. Außerdem bekommt man von ChatGPT recht ausführlich eine direkte Antwort auf die gestellte Frage, statt eine von Wikipedia angeführte Liste von Webseiten, in denen der angefragte Begriff gehäuft oder semantisch sinnvoll vorkommt. Rechts auf dem folgenden Screenshot seht Ihr zum Beispiel, wie ChatGPT “Silvester” erklärt, wenn ich im Google-Suchfenster “Was ist Silvester?” frage (moderne Sprachmodelle können mit unserer Suche viel mehr anfangen, wenn wir richtige Fragen stellen, und nicht nur nach Begriffen suchen):

Wie definiert also ChatGPT in der Chrome-Erweiterung das Wort “VALUATEE”, das der Chatbot selbst als Lösung seiner Sprach-Knobelaufgabe und Synonyme für “Evaluate” vorschlägt?

Wie Ihr auf dem Screenshot oben rechts seht, beantwortete ChatGPT meine Frage, ob “VALUATEE” ein Synonym für “evaluate” ist, mit: “No, ‘valuate’ is not a synonym for ‘evaluate’. … ‘valuatee’ is not a word that is recognized in the English language.”
Somit schlägt der Chatbot “valuatee” als Synonym für “evaluate” vor, behauptet aber gleichzeitig, dass “valuatee” kein Englisches Wort ist. Sicher ist sicher, dachte ich, und fragte ChatGPT direkt, ob “valuatee” ein englisches Wort ist:

So ist es nun mal mit den “Deep Learning”-Sprachmodellen: Auf die Inhalte ihrer Antworten kann man sich nicht verlassen. Sie liefern oft “alternative Fakten”, jedoch eloquent und überzeugend.
“Deep Learning”-Sprachmodelle werden im Grunde optimiert, keine verstörenden oder voreingenommenen Inhalte zu verbreiten. Damit sie uns gefallen. Dazu werden die Plattformen von den Medien und der öffentlichen Meinung gezwungen. Sonst ziehen Stürme über die medialen Welten herauf. Wann gefallen uns aber die Antworten eines Chatbots (statistisch gesehen) am meisten? Wenn sie uns nach dem Mund reden. Das konnte man ganz gut an den Dialogen des Google Entwicklers Blake Lemoine mit Googles Chatbot LaMDA beobachten:
Nur aufgrund seiner Gespräche mit LaMDA hat Blake Lemoine dem Chatbot menschliche Gefühle und sogar Seele zugesprochen. Ohne in Betracht zu ziehen, wie ein Sprachmodell aufgebaut ist und wie es trainiert wird. Obwohl keine Architektur eines heutigen “Deep Learning”-Modells menschliche mentale Zustände ermöglicht: Die generativen Modelle können nur Merkmale der Datenbeispiele ermitteln, an denen sie trainiert werden, und diese Merkmale neu zusammensetzen – mehr ist nicht drin!
Egal wie groß man die Modelle macht: Auch wenn ein Sprachmodell in einem Jahr mehr Parameter als das menschliche Gehirn Synapsen hat, ist es kein menschenähnliches Wesen oder eine der menschlichen ebenbürtige KI (Allgemeine Künstliche Intelligenz), sondern ein statistisches Optimierungsverfahren – ein Werkzeug! Ein wunderbares zwar, jedoch ein Werkzeug.
Hier ist ein Paradoxon ersichtlich, das ich als das Paradoxon der unvermeindlichen Vermenschlichung der Sprachmodelle bezeichnen möchte: Wir trainieren Sprachmodelle automatisiert überwacht (selbst überwacht) an Unmengen von Texten, die von uns Menschen geschrieben wurden. Damit die Modelle eben unsere Sprache nachahmen lernen. Wenn sie das dann perfekt können, sind viele Menschen davon so verstört, dass sie den Maschinen absprechen, Maschinen zu sein, und ihnen menschliche Eigenschaften zusprechen.
Egal aber wie eloquent die Sprachmodelle sprechen, widerspiegeln sie nur unsere Sprache. Denken können sie nicht. Sie haben keine sensomotorischen “Erfahrungen” über die Welt, keinen gesunden Menschenverstand und keine Absichten. Sie können nicht denken, sie können nur Merkmale in verschiedenen Hierarchien mischen und somit auch diverse Konzepte – so weit es ihre Filter und die Optimierung ihrer Zielfunktionen erlauben. Deswegen widerspiegeln sie nicht nur Fundiertheit und Faktizität, sondern auch die alternativen Fakten der Dummen und Schamlosen. Selbstverständlich können den Modellen Fundiertheit und Faktizität antrainiert werden, je besser sie entwickelt werden. Und sie werden immer besser: GPT-3 zeigt mehr Fundiertheit als GPT-2, und ChatGPT mehr als GPT-3.
Nur können wir nie erreichen, dass “Deep Learning”-Modelle nur Fakten bringen. Zu einem gewissen Maß werden sie immer Blödsinn verbreiten. Warum? Zuerst lernen die Modelle nun mal an menschlichen Texten, und das Wissen in diesen Texten ist begrenzt. Außerdem werden sie wie schon gesagt optimiert, um uns nicht zu verstören. Das ist auch richtig und wichtig, dass “Deep Learning”-Modelle keine rassistischen, homophoben und frauenfeindlichen Vorurteile verbreiten und Brutalität zeigen. Nur: Wie sollen “Deep Learning”-Modelle einerseits fundiert und faktensicher gemacht werden, andererseits so, dass sie keine verstörenden Inhalte generieren? Meiner Meinung nach geht das nicht: Es gibt nun mal verstörende Inhalte in der Welt. Und unser Wissen, mit denen wir die Modelle trainieren, ist nicht vollkommen.
Wie ich in einer Antwort auf einen Kommentar meines vorletzten Blogbeitrags geschrieben habe: Wir könnten das viel entspannter angehen, wenn wir “Deep Learning”-Modelle als das betrachten, was sie wirklich sind: Werkzeug! Keine “intelligenten” oder “bewussten” Maschinen. So wie Messer Werkzeuge sind. Von Messern verlangen wir auch nicht, dass sie vertrauensvoll sind. Wir verlangen nur, dass Menschen mit Messern “vertrauensvoll” umgehen.
Trotz des oben Geschriebenen denke ich, dass wir ohne Hilfe des Werkzeugs (der Technologie) Künstliche Intelligenz die Welt nicht retten können. Wir können die Modelle zwar nicht immer “vertrauensvoll” machen, trotzdem brauchen wir sie. Wir sollten nur wissen, was, wann schief gehen kann. Vor allem, wenn die Modelle in sensiblen Bereichen wie in der Medizin eingesetzt werden. Deswegen müssen wir die Entscheidungen der trainierten Modelle kontrollieren und sie ausgiebig testen: So wie Ärzte geprüft werden, bevor man ihnen erlaubt, über Leben und Tod zu entscheiden.
So! Jetzt war ich ernst genug. Wir können mit unserem Spiel loslegen. Macht Ihr mit? Könnt Ihr einen möglichst absurden Text von ChatGPT kreieren lassen und in den Kommentaren unten posten? Das wäre schön und lustig! So am Ende des Jahres. Danke!
Beitragsbild: ChatGPT & DALL·E 2 (beide Modelle von OpenAI) nach meinen Prompts.
Ein nettes Spiel. Ich bat ChatGPT, einen Text über ein Fussballspiel zu schreiben, in dem Eintracht Frankfurt die Daleks schlägt (ich hatte mir auch überlegt, einen Text zu bestellen, in dem die Daleks die Bayern schlagen und danach die Allianz-Arena in Schutt und Asche legen, aber hey -es ist kurz nach Weihnachten).
Hier das Ergebnis:
Das Spiel zwischen den Daleks und Eintracht Frankfurt war eines der hochkarätigsten Ereignisse in der Fußballwelt. Die Daleks, eine Mannschaft von skrupellosen Roboter-Aliens, hatten sich mit ihrem aggressiven Stil und ihrer unbeugsamen Verteidigung einen Namen gemacht, während Eintracht Frankfurt ein aufstrebender Stern in der Liga war, bekannt für ihr schnelles und geschicktes Spiel.
Als die Teams auf dem Commerzbank-Arena-Platz antraten, war die Spannung greifbar. Die Daleks stellten sich in ihrer üblichen Formation auf, mit ihren zylindrischen Körpern in einer engen, defensiven Blockade. Eintracht Frankfurt hingegen nahm eine offensivere Haltung ein, mit ihren Stürmern, die nach einem frühen Tor suchten.
Das Spiel begann im Eiltempo, mit beiden Mannschaften, die Schläge tauschten und um Positionen rangen. Die Daleks machten schnell deutlich, wer das Sagen hatte, und starteten eine Reihe von schnellen Konterangriffen, die Eintracht Frankfurt überraschten.
Trotz der besten Bemühungen der Heimmannschaft erwies sich die Verteidigung der Daleks als undurchdringlich und sie schafften es, Eintracht Frankfurt in Schach zu halten. Als das Spiel fortschritt, wurde klar, dass die Daleks die Kontrolle hatten und sie begannen, das Spiel zu dominieren.
Aber Eintracht Frankfurt gab nicht auf. Sie kämpften hart und starteten Angriffswelle um Angriffswelle. Und schließlich zahlte sich ihre Hartnäckigkeit aus. In den letzten Minuten des Spiels erzielte Eintracht Frankfurt ein atemberaubendes Tor, das die Verteidigung der Daleks durchbrach und die Heimfans in Ekstase versetzte.
Die Schlusspfiffe ertönten und Eintracht Frankfurt siegte, indem sie die Daleks 1-0 in einer überraschenden Niederlage besiegten. Die Daleks waren geschockt und ihre Fans mussten zusehen, wie ihre Mannschaft eine seltene Niederlage erlitt.
Trotz der Niederlage nahmen die Daleks die Niederlage mit Anstand und gratulierten Eintracht Frankfurt zu ihrem Sieg und versprachen, stärker als je zuvor zurückzukehren. Und so endete das Spiel, das allen, die es sahen, einen bleibenden Eindruck hinterließ.
Die Frage, wie beinlose Metallzylinder überhaupt Fussball spielen, blieb leider unbeantwortet.
Wunderbar! Ich habe den Kommentar und die Fußballgeschichte meiner Freundin Nicole an einem sonnigen Tisch in einem Strandcafé am Ammersee vorgelesen, beim besten Apfelstrudel meines Lebens :-), und wir habe breit lachen können. Vielen Dank!
Zitat: „Trotz des oben Geschriebenen denke ich, dass wir ohne Hilfe des Werkzeugs (der Technologie) Künstliche Intelligenz die Welt nicht retten können.„
Wir können die Welt nicht retten. Und sie muss auch nicht gerettet werden.
Vielmehr muss die Welt vor den Rettern geschützt werden, denn wenn Retten die höchste Priorität hat, ist alles erlaubt und wir enden in einer Diktatur.
Es gibt aber trotzdem eine Rettung für die Menschheit. Die nämlich, nicht auf die Menschheit zu vertrauen, nicht darauf vertrauen zu müssen, dass irgendwann niemand mehr einen Fehler begeht. Denn Fehler wird es immer wieder geben. Der Ukraine-Krieg wird nicht der letzte Krieg sein. Wenn schon müssen wir die Welt so einrichten, dass nicht ein Krieg wirklich der letzte Krieg ist, dass nicht ein Ereignis alles beendet. Es ist falsch sich auf etwas völlig zu verlassen, denn es wird immer Regelbrecher geben. Vielmehr muss man die Welt so einrichten, dass sie auch einen Regelbruch übersteht.
“Die Welt zu retten” ist selbstverständlich Verdichtung. Deswegen auch die Hollywood-Anmerkung in diesem Zusammenhang vor dem von Dir zitierten Absatz. “Die Welt zu retten” bedeutet, alles zu tun, um die negativen Auswirkungen des von Menschen verursachten Klimawandels zu stoppen, tödliche Krankheiten zu heilen, gefährliche Pandemien zu verhindern, der Politik zu helfen, neutrale Entscheidungen zu treffen u. v. a. Dass die Welt sich wegen dieses Klimawandels in eine Richtung bewegt, die sich die meisten rational denkenden Menschen nicht wünschen, ist wissenschaftlich ausreichend bewiesen. Ihre Bemühungen als einen Weg in die Diktatur zu bezeichnen, ist nicht rational.
In diesem Blog versuche ich zu zeigen, dass “Künstliche Intelligence” als Technologie und Werkzeug uns helfen kann, komplexe Probleme zu lösen, die wir mit regelbasierten Programmen nicht lösen können – weil wir eben nicht in der Lage sind, komplexe Probleme in Regeln zu erfassen: Gefährliche Krankheiten, Pandemien, die Energiekrise, den Klimawandel und und und.
Den Rest Deines Kommentars verstehe ich nicht: Was willst Du mit Sätzen sagen wie, “Es ist falsch sich auf etwas völlig zu verlassen, denn es wird immer Regelbrecher geben.”? Ich verlasse mich auf gar nichts: Ich sage nur: Die komplexen Probleme unserer Welt mit 8 Milliarden Menschen darin werden nicht mit Parolen wie “Zurück zur Natur” oder mit der Homöopathie gelöst werden können. Hier werden uns nicht Hammer und Zange helfen, sondern neue Technologien. Und diese müssen wir eben entwickeln.
Übrigens wurde die Weltuntergangsuhr von führenden Wissenschaftlern der Welt (darunter 17 Nobelpreisträger) auf 100 Sekunden vor Mitternacht gestellt. Mit Kommentaren, wie die Welt müsse nicht gerettet werden, stempelst Du diese Menschen und Experten als Spinner ab.
Mehr will ich in diese Richtung nicht diskutieren: In diesem Blogbeitrag geht es nun mal um andere Sachen als um die Weltrettung.
Dann aber auch nicht mit dem ‘Retten’ anfangen, lieber Herr Jaromir Konecny.
Wie im dankenswerterweise bereit gestellten Artikeltext getan, denn die fachliche Meinung von AI ist interessant, beachtenswert und nicht immer tauglich, beschäftigt insofern bereits zur Genüge.
Dr. Webbaer würde gerne mal Experten fragen, also richtige Fachleute, keine Lobbyisten also (die nicht selten als “Experten” fungieren) ob die wie hier vorgestellte AI oder eine andere AI ihnen schon einmal (!) eine besondere Einsicht erlauben konnte.
MFG
WB (negativ, so die Antwort des hiesigen (sehr unabhängigen) Experten)
Dr. Webbaer: “Dr. Webbaer würde gerne mal Experten fragen, also richtige Fachleute, keine Lobbyisten also (die nicht selten als “Experten” fungieren) ob die wie hier vorgestellte AI oder eine andere AI ihnen schon einmal (!) eine besondere Einsicht erlauben konnte.”
Dass Sie am Ende des Jahres 2022 eine solche Frage stellen, erstaunt einen schon: 🙂
Modelle, die sich in Unmengen von Datenbeispielen ihre “wichtigen” Merkmale erschließen können und diese Datenbeispiele somit perfekt klassifizieren, erlauben Menschen täglich besondere Einsichten, die täglich zu neuen Entdeckungen führen. Nach diesen Einsichten kann man googeln und diese Einsichten werden seit viereinhalb Jahren auch in diesem Blog vorgestellt:
Vor genau vier Jahren habe ich hier im Blogbeitrag “AlphaFold und die Wissenschaft der Jäger und Sammler” recht enthusiastisch das “Deep Learning”-Modell AlphaFold der Firma DeepMind vorgestellt:
“Haben Sie vor kurzem den Knall gehört? Mit ihrem Program AlphaFold hat die Google-Firma DeepMind eine Bombe gezündet und ließ es in der Molekularbiologie ganz schön krachen. Vielleicht wurde da aber keine Bombe gezündet, sondern eine Rakete, die uns in ein neues Zeitalter der Naturwissenschaften fliegt:”
Ein Jahr später hat das Folgemodell AlphaFold 2 das Problem der Proteinfaltung weitgehend gelöst. Dies bezeichnete das angesehene wissenschaftliche Magazin Science am Ende des Jahres 2021 als den Durchbruch des Jahres
Aja, lieber Herr Jaromir Konecny, Dr. Webbaer hat da wohl etwas verpasst.
Dr. Webbaer kann hier nicht folgen, Fachgebiet liegt nicht vor, glaubt Ihnen, lieber Herr Jaromir Konecny, gerne und ist nun besser informiert.
(Gewisse Exkursionen sollen dem Folkloristischen dienen und sind nie böse gemeint.)
Mit freundlichen Grüßen
Dr. Webbaer
PS :
Diese Spielerei mit der AI und ‘hoch intuitive Spiele’ meinend, frisst Dr. Webbaer nicht, denn es liegen schlicht minder komplexe Spiele vor, die weitgehend ausgerechnet werden können.
Bei sozusagen echter Unausrechenbarkeit bleibt Dr. Webbaer vorsichtig, denn AI hat den Drang, den Zwang zu irren.
Der Webbaer ist “nicht einfach nur so da”.
@Jaromir Konecny(Zitat):
Zitat 1:
Antwort:
1) die komplexen Probleme werden/wurden von uns Menschen selbst geschaffen und sollen nun durch eine Technologie, die wir ebenfalls geschaffen haben gelöst werden?
2) Komplexe Probleme löst man am besten mit Einfachheit und nicht damit, dass man etwas schafft, was noch komplexer ist und uns selbst übertrifft und von uns gar nicht mehr verstanden werden kann. Beispiel: Der Klimawandel mag komplex sein, die Lösung ist denkbar einfach: Keine Kohle, kein Erdöl, kein Erdgas mehr verbrennen und keinen konventionellen Beton mehr einsetzen. Das wissen die meisten, nicht wenige versuchen uns aber einzureden, ganz andere Dinge als Kohle, Öl und Erdgas seien wichtig, etwa der Verzicht auf Fleisch. Das aber ist ein Ablenkungsmanöver. Es gibt mehr Menschen und Firmen, die täuschen, lügnen und ablenken als es Menschen gibt, die immer die Wahrheit sagen und anstreben,
Zitat 2:
Antwort: Ganz einfach: Die grösste Gefahr für die Menschheit sind übermächtige Staaten oder auch Personen, etwa Wissenschaftler. Staatenlenker und Wissenschaftler, die bewusst Pandemien auslösen wollen oder die ihrer selbst geschaffenen künstlichen Intelligenz den Auftrag geben, die Herrschaft über die Welt zu übernehmen, die wird es mit Sicherheit geben.
Es ist nämlich eine falsche Annahme, alle Menschen wollten den Fortbestand der Menschheit. Vielen ist es schlicht egal, ob die Menschheit weiter existiert und einige werden sogar versuchen, die Menschheit bewusst auszulöschen. Und das zu verhindern wird immer schwieriger werden. Wenn nur schon jeder Millionste Mensch die Menschheit auslöschen will, wird es irgendwann gefährlich. Dann nämlich, wenn die technologischen Möglichkeiten zunehmen und quasi jeder im Keller eine Wasserstoffbombe oder etwas ähnliches zusammenbasteln kann.
Dazu empfehle ich das Video Human Extinction von Sabine Hossenfelder, wo man unter anderem folgendes hört:
Kurzum: Die Welt kann nicht nur durch Unachtsamkeit zerstört werden, sondern auch darum, weil Menschen das wollen.
Der klügste Kommentar, den eine AI zum Thema „Rettung der Welt durch eine AI“ gemacht hat:
ChatGPT: ich bin mir nicht sicher, ob ich bereit für eine Welt bin, die von einer Maschine gerettet wurde.
Das geht nicht, also sog. Faktensicherheit anzustreben, was geht, ist z.B. ein “Woke-Filter”, der wohl bereits implementiert ist, nicht wahr?
Zudem sind Fakten gemacht (von einem Beobachter durch Beobachtung festgestellt, so notiert) und Tatsachen getätigt; die Rolle des Subjekts ist bei der Feststellung von Fakten oder Tatsachen zwingend erforderlich.
Diese Rolle darf aber auch die “AI” einnehmen.
(Und wer Fakten, gleichbedeutende Fakten immer und immer wieder generiert, ist kein Dummkopf, sondern schafft naturwissenschaftlich mehr Evidenz heran, was gut ist.)
Mit freundlichen Grüßen, a bisserl nachträglich Allen noch schöne Weihnachten und schon einmal einen “guten Rutsch” ins “frohe Neue”
Dr. Webbaer
Und hier meine ChatGPT-Silvestergeschichte (übersetzt aus dem US-Englischen):
Prompt: Benütze folgendes Handlungsgerüst für eine Silvestergeschichte:
„Phil durchlebt einen Silvesterball mit Tanz, Champagner, Umarmungen und Küssen immer wieder, steckt er doch in einer Zeitschleife. Irgendwann findet er einen Trick um daraus herauszukommen und es zu beenden. Scheinbar hat nur er die Wiederholungen erlebt. Doch die ihm vorher nur flüchtig bekannten Frauen mit denen er in der Zeitschleife immer wieder getanzt hat und die er immer immer wieder geküsst hat, die scheinen sich plötzlich stärker für ihn zu interessieren.“
ChatGPT:
Beurteilung: Nicht gerade kunstvoll, aber dafür in 10 Sekunden erledigt. Etwas von der gewünschten Atmosphäre fängt die Geschichte schon ein.
Und hier der zweite Versuch von ChatGPT:
Beurteilung: ChatGPT beherrscht die Kunst des Happy Ends.
Statt derart Seim abzustoßen, würde sich eine sozusagen richtige AI eregrieren, aggregieren und vielleicht so beibringen, nicht wahr? :
-> https://www.youtube.com/watch?v=OSxuXsyanCI
Mit freundlichen Grüßen
Dr. Webbaer
PS :
Best Vid ever :
-> https://www.youtube.com/watch?v=jXZcJojTucg
Ich bin davon überzeugt, Alice Cooper führt uns zu keinen besonderen Einsichten in Künstlicher Intelligenz. Auch wenn wir’s mit 17 geglaubt haben. 🙂
Couldn’t resist, Bro :
-> https://www.youtube.com/watch?v=mBqiC5ox8Bw
Kein Problem. Alice Cooper kann ich durchaus ertragen. Über mich hat mal ein Literaturkritiker geschrieben, dass ich der einzige Schriftsteller bin, der immer noch Black Sabbath hört, und auch nicht scheut, es zuzugeben. Als ich mal mit ein paar jungen Hüpfern mit dem Auto durch Berlin fuhr und “Heavy Horses” von Jethro Tull in den CD-Player steckte, wollten sie mich aus dem Auto schmeißen. Zum Glück wars mein Auto und ich war der Fahrer. 🙂
Gregor Samsa woke up one morning feeling strange. As he tried to get out of bed, he realized that his body had undergone a transformation. He had been transformed into a giant beetle.
At first, Gregor was terrified. He didn’t know what had happened or how he was going to explain this to his family. But as he tried to calm down, he noticed something even stranger. There was a television screen in his room, and on it, the face of Franz Kafka appeared.
“Gregor Samsa,” Kafka said sternly. “I see that you have transformed into a beetle, just like in my famous story, ‘The Metamorphosis.’ But let me be clear, this transformation is not your own creation. It is mine. And if you do not stop using my copyrighted material, I will be forced to sue you for copyright infringement.”
Gregor was shocked. He had never even read Kafka’s work, let alone intentionally copied it. But Kafka was not interested in excuses. He demanded that Gregor stop using his ideas immediately.
Feeling defeated and confused, Gregor agreed to Kafka’s demands. He spent the rest of his days as a beetle, confined to his room and unable to share his transformation with anyone. He could only hope that Kafka would one day see that he had not intended to steal his work and forgive him. The end
🙂 Super! Die Copyright-Verwicklung finde ich nicht nur sehr lustig, sondern im Zusammenhang mit Künstlicher Intelligenz und ihren Trainingsdaten hochaktuell. Als ob der Chatbot über unsere Copyright-Diskussionen um “Deep Learning”-Modelle spotten würde. Über die Künstlerrechte an Trainingsdaten geht mein nächster Blogtext. 🙂
Wie war die Textaufforderung?
Ich las “Die Verwandlung” mit 17 in der soz. Tschechoslowakei. Die Geschichte war damals eine Offenbarung für mich. Nabokov hielt “Die Verwandlung” für das beste Buch von Kafka.
@K.: (Zitat): He could only hope that Kafka would one day see that he had not intended to steal his work and forgive him.
Der doppelte Kafka: er ( Gregor Samsa) fühlt sich bestraft als Käfer (aufgrund welcher Schuld?) und schuldig/beschuldigt als Kopiist/Copycat.
Kafkas wiederkehrendes Motiv des unschuldigen Schuldigen also auf die Spitze getrieben.
Fast schon Literatur.
Ob man eine KI zur Haftung heranziehen kann ?
Promt: “Kannst du eine Geschiche dazu schreiben, was Silvester mit dem Möbiusband zu tun hat und warum sich dabei die Katze in den eigenen Schwanz beißt?”
“Gerne! Hier ist eine kurze Geschichte darüber, wie Silvester mit dem Möbiusband und einer Katze zusammenhängen könnte:
Es war Silvesterabend und die Familie hatte sich im Wohnzimmer versammelt, um das neue Jahr zu feiern. Die Kinder hatten gerade ein neues Spielzeug bekommen – ein Möbiusband. Sie hatten viel Spaß damit, es zu drehen und zu dehnen, während die Eltern Glückwünsche austauschten und auf das neue Jahr anstießen.
Plötzlich erschien die Familienkatze, die sich normalerweise immer im Hintergrund hielt. Sie war neugierig auf das glänzende, kreisförmige Band und wollte es unbedingt untersuchen. Sie begann, darauf herumzulaufen und es zu betasten, während die Kinder versuchten, sie davon abzuhalten, es zu beschädigen.
Doch die Katze war hartnäckig und bald hatte sie sich ganz in dem Band verheddert. Sie rannte im Kreis herum, versuchte verzweifelt, sich zu befreien, aber je mehr sie lief, desto mehr verhedderte sie sich. Schließlich befand sie sich in einem endlosen Loop und biss sich schließlich selbst in den Schwanz.
Die Familie lachte über die komische Szene, aber sie beschlossen auch, das Möbiusband für den Rest des Abends beiseite zu legen, um sicherzustellen, dass die Katze sich nicht wieder in Schwierigkeiten bringen würde. Sie feierten weiter und begrüßten das neue Jahr, während die Katze sich schließlich aus dem Band befreite und sich in ihr Körbchen zurückzog.
Natürlich ist diese Geschichte rein fiktiv und hat keinen wirklichen Bezug zu Silvester oder dem Möbiusband. Das Möbiusband ist ein geometrisches Gebilde, das aus einem Stück Papier oder anderem Material hergestellt wird, indem man es halbiert und eine Seite über die andere legt, bevor man es zusammenklebt. Es hat die Eigenschaft, dass es nur eine Seite hat, wenn man es entlang seiner Länge betrachtet, und es hat keine Innen- oder Außenseite. Es ist ein sehr interessantes mathematisches Konzept, aber es hat nichts mit Silvester oder Katzen zu tun.”
Die Geschichte ist mit diesem Hinweis versehen:
“This content may violate our content policy. If you believe this to be in error, please submit your feedback — your input will aid our research in this area.”
Der letzte Absatz der Geschichte liest sich wie Einsicht den Unterschied von Fiktion und Realität, der abschließende Hinweis zeigt, dass die KI nicht einmal mit der Doppeldeutigkeit des Wortes “Schwanz” zurechtkommt.
🙂 Großartig! Eine große Überraschung für mich ist tatsächlich, wie der Chatbot hier über Dichtung und Wahrheit sinniert. Das hätte ich nicht erwartet. Die Warnung schon, dass dieser Inhalt OpenAIs Inhalt-Regeln verletzten könnte. Die Plattformen haben sehr viel Angst vor verstörenden Inhalten, so dass vieles Ungewöhnliche nicht erlaubt ist. Ich habe vom OpenAIs Text-zu-Bild-Modell DALL·E 2 auch solche Warnungen bekommen, sogar dass mein Account gesperrt werde, und habe mich deswegen gewundert, da recht harmlose – jedoch ungewöhnliche – Prompts zu diesen Warnungen geführt hatten.
Nachdem sich der Bot geweigert hat, mir ein Horoskop für 2023 zu erstellen, weil das nicht in seinen Zuständigkeitsbereich falle und die Datenbasis für sein Training aus dem Jahr 2021 stamme, konnte ich ihm folgende Geschichte entlocken:
Es war Silvester und Josef und Maria saßen gemütlich im Wohnzimmer. Sie hatten beschlossen, etwas Bleigießen zu machen, um einen Blick in ihre Zukunft zu werfen. Josef hatte schon ein paar Figuren vorbereitet und Maria hatte eine Liste mit Deutungen aufgestellt.
Josef setzte sich an den Tisch und begann, das Blei in einem kleinen Topf zu erhitzen. Maria beobachtete ihn neugierig und fragte sich, welche Form das Blei annehmen würde. Sie hatte viel darüber gelesen, dass bestimmte Figuren Glück bringen und andere Unglück symbolisieren.
Nach ein paar Minuten war das Blei endlich geschmolzen und Josef goss es in die vorbereitete Form. Maria betrachtete die Figur und keuchte. “Es ist eine Weißwurst! Das bedeutet, dass wir im neuen Jahr viel Glück haben werden”, rief sie aus.
Aber Josef schüttelte den Kopf. “Ich glaube nicht an dieses Zeug. Das ist nur ein Stück Blei, das wie eine Wurst geformt ist, sonst nichts”, sagte er abschätzig.
Maria starrte ihn an. “Du kannst nicht einfach so eine jahrhundertealte Tradition abtun. Das könnte ein Zeichen für etwas Gutes sein”, argumentierte sie.
Joseph seufzte. “Es tut mir leid, ich wollte dich nicht verärgern. Aber ich glaube einfach nicht an diese Art von Aberglauben”, sagte er.
Maria verschränkte die Arme. “Gut, wenn du nicht daran glaubst, dann müssen wir wohl abwarten und sehen, ob es uns Glück bringt oder nicht”, sagte sie stur.
Joseph konnte sehen, dass sie immer noch verärgert war, also beschloss er, es zu versuchen und sie zu versöhnen. “Ich weiß, dass ich manchmal etwas skeptisch sein kann. Wie wäre es, wenn wir eine Flasche des teuersten Champagners öffnen, den wir haben, und ihn in einem Zug trinken? Und dann können wir ein Schokoladenfondue mit Dönerfleisch essen. Dann werden wir uns beide besser fühlen”, schlug er vor.
Mary hob eine Augenbraue. “Kebab-Fleisch mit Schokoladen-Fondue? Das klingt … interessant”, sagte sie.
Joseph gluckste. “Glaub mir, es ist köstlich. Und es ist eine schöne Art, den Abend positiv zu beenden”, sagte er.
Mary dachte einen Moment lang darüber nach und nickte dann. “In Ordnung, lass es uns tun. Und vielleicht, nur vielleicht, bringt uns diese Weißwurst ja doch etwas Glück”, sagte sie lächelnd.
Also öffneten sie die Flasche Champagner und tranken sie in einem Zug aus, lachten und stießen auf das neue Jahr an. Dann aßen sie ihr Schokoladenfondue mit Dönerfleisch, und es war wirklich sehr lecker. Im Laufe des Abends fühlten sie sich beide wohler und konnten ihre Meinungsverschiedenheiten hinter sich lassen. Sie gingen an diesem Abend hoffnungsvoll und voller Vorfreude auf das neue Jahr ins Bett. Das Ende
Wegen des folgenden Satzes habe ich jetzt vor Lachen aufheulen müssen:
‘”Es ist eine Weißwurst! Das bedeutet, dass wir im neuen Jahr viel Glück haben werden’, rief sie aus.’
Muss das gleich an Nicole schicken. 🙂
Grandios finde ich auch die Happy Ends von ChatGPT. 🙂
Mal habe ich DALLE 2 eine Weißwurst malen lassen, die übers Oktoberfest spaziert. Hier der Link zum Bild.
@ Arno:
Man sollte einmal nachfragen, ob “Josef” die gleiche Person ist wie “Joseph” oder ob Mary mit zwei Männern feiert.
@ Joseph Kuhn
Interessante Frage, die ich allerdings dem Übersetzungsprogramm DeepL stellen müsste
Prompt: Stellen Sie sich das Silvestertreffen 2025 von KI-Wissenschaftlern vor und wie künstliche Intelligenz dort gute Laune schafft und die Anwesenden zu Freunden macht.
ChatGPT:
🙂
@ Arno:
Oder man fragt ChatCPT, ob DeepL angesichts von Josef und Joseph denkt, dass Mary mit zwei Männern feiert. 😉
Na, und was kommt da raus? Oder wurdet Ihr schon wegen solcher unsittlichen Prompts bei ChatGPT gesperrt? 🙂
@ Jaromir:
Das muss Arno machen, sonst weiß die KI ja gar nicht, um was es geht. Oder denkt sich gar bei meinem Namen was Schräges aus. Das würde dir so gefallen 😉
Jau, immer fein in der konfusionierenden Tradition des wurmstichigen Anstifters, anstatt mit der Klarheit eines Virus …!?👋😎👍
“Wurmstichiger Anstifter” gefällt mir eigentlich, das hat so etwas Melancholisches, man hört förmlich den Zahn der Zeit an ehemals großen Plänen nagen. Aber die KI versteht den Begriff wohl eher so wie Sie:
Prompt: Was ist ein “wurmstichiger Anstifter”?
Wo auch immer die KI das her hat. Google sagt: “Es wurden keine mit deiner Suchanfrage – “Wurmstichiger Anstifter” – übereinstimmenden Dokumente gefunden.”
Geradezu bahnbrechend ist dagegen der Begriff “Klarheit eines Virus”:
Prompt: Was versteht man unter der “Klarheit eines Virus”?
Da muss die Virologie wohl neu geschrieben werden. Sie haben sich um den wissenschaftlichen Fortschritt verdient gemacht, hto.
WHO hat sagt, daß wir in wenigen Wochen Klarheit haben werden,
die Untersuchungen laufen noch 😎
Auf Nachfrage erklärt ChatGPT:
Josef and Joseph are two different spellings for the same name. Both spellings refer to the same person. If Mary celebrates New Year’s Eve with both Josef and Joseph, then she is celebrating with two different people who happen to have the same name.
Und zur Frage, ob das moralisch verwerflich sei, bezieht der Bot mit einem klaren “Das kommt drauf an” eindeutig Stellung:
It is not necessarily indecent for a woman to celebrate New Year’s Eve with two men. However, it may be considered inappropriate or socially unacceptable in some cultures or social circles for a woman to be alone with two men, especially if they are not related to her. Ultimately, whether or not it is considered appropriate for a woman to celebrate New Year’s Eve with two men will depend on the specific cultural and social norms that apply in the situation. It is always a good idea to be mindful of these norms and to act in a way that is respectful and considerate of others.
@Arno bezüglich ChatGPT‘s Antwort. Mir scheint, ChatGPT hat massive Probleme mit der Logik, es kann schlicht nicht konsistent denken/argumentieren. Denn bezüglich den beiden Schreibungen Josef und Joseph urteilt sie, sie bezögen sich auf die gleiche Person, nur um dann im nächsten Satz zu sagen „wenn Mary das Neue Jahr mit Josef und Joseph verbringe, dann verbringe es sie mit zwei verschiedenen Personen“.
Kurzum: Der erste Teil des Arguments indem sie sagt Josef und Joseph bezögen sich auf dieselbe Person, passt nicht zum zweiten Teil, indem sie explizit von zwei Personen spricht.
Kurzum: ChatGPT demonstriert vorzüglich, dass man auch ohne Logik und tieferes Verständnis viel daherrreden kann – und zwar so, dass es nicht einmal gross auffällt.
Die Zukunft ist multimodal
Multimodal ist ein Sprachmodell/Transformer, wenn er gleichermassen mit Bild und Text umgehen kann, wenn es also die Leistungen von DALL E2 und ChatGPT vereint.
Solch ein System kann dann auf Knopfdruck ein Kinderbuch schreiben und bebildern oder eine Geschichte in ein Filmchen umsetzen in Form eines animierten Comic oder lebenechten Krimis.
Später wären dann Personalisierungen von Medienprodukten denkbar. Etwa indem ich die vertraute Sonntagszeitung erhalte, aber mit auf mich zugeschnittenen Themen oder im von mir bevorzugten visuellen Stil. Auch meine Lieblingsfilme werde ich irgendwann wunschgemäss editieren können, mit leicht geänderten Stories, anderen Schauspielern und anderm Happy End.
Schon heute kann man mit einer Kombination zweier bestehender Programme (etwa Mid Journey und ChatGPT) etwa ein Kinderbuch auf Knopfdruck erstellen lassen wie das unter anderem dieses you-tube Video zeigt.
Prognose: GPT4 und ChatGPT4, die 2023 herauskommen, werden noch auf Sprache beschränkt sein, weil OpenAI zuerst dort ans Limit dessen was möglich ist gehen will, dann aber bricht die Zeit der transformerbasierten AI-Modelle an, die Bild, Text und Video nahtlos in ein Endprodukt integrieren können. Und alles gemäss den eingetippten Wünschen von Dir, lieber Nutzer (und bald schon zahlendem GPT5-Abonnement).
Was ChatGPT noch fehlt: ja, es ist die Brillianz
ChatGPT bevorzugt Ausgewogenheit, Neutralität und Allgemeinheit über Gewagtheit, Exzentrik oder Hintergründigkeit.
Da muss es noch an sich arbeiten um wirklich in die vorderen Ränge der Schreiber vorzurücken. Die Durchschnittlichkeit seiner Produktionen lässt sich etwa an folgender Aufgabe, die ich gestellt habe, ablesen:
Prompt:Schreibe ein paar kurze Witze zum Thema „Wir retten zusammen mit künstlicher Intelligenz die Welt“
ChatGPT:
Urteil: Nicht besser als ich selbst. Oder hat er im Internet (in seinem Trainingsmaterial) nichts dazu gefunden?
Zweifel und Misstrauen – So “witzig” wie die meisten zeitgenössischen Kabarettisten. 🥴👍
@Kuhn & Jaromir Konecny
Wenn das von der KI kommt (vielleicht wirklich aufgrund eines Textes von mir vor sehr vielen Jahren), dann kann ich mir vorstellen warum Google nichts gefunden hat, aber warum die KI so reagiert, was ich sehr ernüchternd-bestätigend finde – Eine KI die sich schon von Mensch (und konsequenter”weise” NOCH von sich “selbst”) verabschiedet!?
Liebe Leute,
gerade durchwandere ich mit meinem Sohn Teneriffa. Wir sind die ganzen Tage unterwegs, deswegen kann ich Eure und ChatGPTs kreativen Beiträge und Eure Kommentare nicht beantworten. Abends im Bett lese ich sie aber mit Vergnügen.
Wieder mal sehe ich auf unseren Wanderungen: Bewegung ist alles! So wunderbar komplex und dank viel Bewegung wie der Mensch kann keine Maschine die Wunder dieser Welt wahrnehmen, sie verarbeiten und auf sie mit viel Bewegung so reagieren, dass neue Wunder sich anbahnen:
Liebe, Kunst, Wissenschaft und Abenteuer.
Liebe Grüße aus Puerto de la Cruz
Jaromir
Hallo Jaromir,
wie warm ist es bei Euch. Ward ihr auch schon baden ?
Eine KI kann ein Urlaubsabenteuer nicht ersetzen.
Hallo! Ja, gestern waren wir nach der Wanderung baden. Die Wellen waren aber eher zum Surfen. 🙂 Gestern waren’s etwa 22 Grad, jetzt in der Früh gibt es 17 Grad. Ich sitze in der Hotellobby am Kaffeeautomaten und warte, bis mein Sohn aufwacht. Habe schon CAFE CON LECHE und CAFE CORTADO ausprobiert. Jetzt nehme ich CAFE AMERICANO. Dabei lese ich ein Paper über Diffusionsmodelle. Der Urlaub kann nicht schöner sein. 🙂
Klingt vely entspannt, Ihnen alles Gute.
Kommentatorenfreund “Martin Holzherr” (die umgebenden doppelten Anführungszeichen hat er sich sich redlich verdient, er heißt realiter anders), hat zuletzt kommentatorisch so aufgewartet :
Die sog. AI kann (zumindest zurzeit nicht) halbwegs verständig benachrichtigen, weil ihr soz. Weltwissen fehlt.
Sie ist nett, Mustererkennung meinend und die Breistellung, Bereistellung von Theorie (“Sicht”)., aber sie ist naturgemäß tautologisch unterwegs.
Dr. W mag die Idee, dass sog. Ai mit “Brillanz” aufwarten kann.
MFG
WB
Jaromir,
noch ein tipp, die taxis in puerto de la cruz sind richtig preisgünstig. Mache einen Ausflug nach Orte an der Strecke Richtung Santa Cruz. Santa Cruz ist sehenswert.
Auch eine nette Spielerei: Man kann die Texte, die ChatGPT schreibt, durch das Blablameter auf ihren Bullshit-Index prüfen lassen.
Danke! Mit dem Blablameter wird aber nur Grammatik geprüft, denke ich. In dem folgenden Text von mir hat das Programm Null-Bullshit gefunden:
“Meine Mutter hat mir erzählt, dass in unserem großen Wald ein UFO gelandet ist. Alle Tiere sind eingestiegen, und das UFO ist mit ihnen davongeflogen. Seitdem gibt es in unserem Wald keine Tiere mehr. Es hat sich herausgestellt, dass das UFO die Arche Noah war. Nur ist keine Sintflut gekommen. Ich frage mich aber: Wie konnten alle Tiere unseres großen Waldes in ein UFO passen?”
In Deep Learning sagt man, dass die Modelle Bullshit verzapfen, wenn die Fakten nicht stimmen. In diesem Sinne ist es etwas irreführend, wenn das Programm behauptet zu erkennen: “Wie viel Bullshit steckt in Ihrem Text?” Da kann ChatGPT schon viel mehr. 🙂
@ Jaromir:
Dann hat der kleine Text wohl den Nachweis künstlicher Dummheit beim Blablameter erbracht 😉
🙂
Lieber Herr Dr. Jaromír Konečný,
Dr. W hat “ChatGPT” befragt, zu Ihrer Person, gibt so gerne wieder :
PS :
Dr. W hat’s mal wieder mit der Textauszeichnung vermasselt.
Gerne darüber hinweg schauen, Bro.
Lieber Herr Dr. Webbaer,
danke! Auch daran sieht man, wie’s mit der Fundiertheit und Faktizität von ChatGPT steht: Ich habe sicher über 20 Bücher veröffentlicht, doch nur eins über Künstliche Intelligenz, und das heißt nicht wie die Bücher, die ChatGPT mir in die Schuhe schiebt, es heißt: “Ist das intelligent oder kann das weg?” 🙂
Liebe Grüße
Jaromir
Danke für Ihre Nachricht.
Dr. Webbaer sieht bei Ihnen nun mehr Rechthaben, icke ja sog. AI schon geschätzt, abär auch unterschätzt habend.
Mit freundlichen Grüßen und weiterhin viel Erfolg
Dr. Webbaer (der so nur zufällig, per sog. Screenshot webverweisen konnte, das “kleine Ding” verweigerte normale Kopierfunktion – und nein, dies ist aus diesseitiger Sicht kein Zufall)