The Pandora’s Box of Generative Text AI
BLOG: Heidelberg Laureate Forum

With all the craze surrounding text-generating AIs, we are all drawn to the potential that has suddenly opened up in front of us. But what dangers loom behind the sparkling promise?
(This article was written before the release of ChatGPT 4.0 and refers to mechanics of the 3.5 model)

The advent of generative AIs has opened up new possibilities in fields ranging from art and music to healthcare and finance. However, along with these advancements, come ethical concerns about who should be held accountable for the actions and decisions made by these powerful algorithms.
Imagine a world where an AI algorithm is responsible for determining whether or not you get hired for your dream job. The algorithm scans your resume and analyzes your social media activity to make a decision. You don’t know how the algorithm works, what data it’s using, or who trained it. You’re simply given a rejection letter and told that the AI decided you weren’t a good fit for the job.
This scenario is not as far-fetched as it may seem. In fact, many companies are already using AI algorithms to screen job applicants. But who is responsible for the ethical implications of these decisions? Is it the company using the algorithm? The developers who created it? The data scientists who trained it? Or perhaps the government regulators who oversee its use?
No easy answers
The truth is, responsibility for the ethics of generative AIs must be shared among all these parties. Companies using these algorithms have a responsibility to ensure that they are using them fairly and transparently. Developers have a responsibility to create algorithms that are unbiased and ethical. Data scientists have a responsibility to train these algorithms using diverse and representative data sets. And regulators have a responsibility to ensure that these algorithms are not being used in ways that violate people’s rights or discriminate against certain groups.
Let’s start with the companies. When companies use AI algorithms, they must ensure that they are not discriminating against certain groups. For example, if an algorithm is trained using data sets that are predominantly made up of white men, it may inadvertently discriminate against women and people of color. Companies must also be transparent about how they are using these algorithms and what data they are using to train them.
Developers also have a responsibility to create algorithms that are unbiased and ethical. This means designing algorithms that do not perpetuate harmful stereotypes or discriminate against certain groups. It also means creating algorithms that are transparent and explainable, so that people can understand how they are making decisions.
Data scientists have a responsibility to ensure that the data sets they are using to train these algorithms are diverse and representative. If data sets are skewed towards certain groups, the algorithms will be biased and discriminatory. Data scientists must also be aware of the potential ethical implications of the algorithms they are training and work to mitigate any harm they may cause.
Finally, regulators have a responsibility to ensure that these algorithms are not being used in ways that violate people’s rights or discriminate against certain groups. This may involve creating guidelines for the use of these algorithms, as well as monitoring their use to ensure that they are being used fairly and transparently.
Conclusion
In conclusion, the ethics of generative AIs is a complex issue that requires a multi-faceted approach. All parties involved, from companies and developers to data scientists and regulators, must take responsibility for the ethical implications of these algorithms. By working together, we can ensure that these algorithms are used in ways that are fair, transparent, and ethical. Only then can we truly harness the power of these powerful technologies for the betterment of society.
Boy, that was pretty convincing, wasn’t it? What is even more convincing is that it was entirely written by ChatGPT, the new AI-based chatbot that has taken the world by storm in the few months since it was launched. Don’t believe me? Have a look for yourself.

My prompt to ChatGPT and its output: The more specific you are with the prompts, the better the results tend to be – and the harder it is for other algorithms to figure out that this is AI-generated text.
Somewhere between Shakespeare and stochastic parrots
ChatGPT is part of a new generation of generative AIs – an umbrella term for artificial intelligence that can generate all kinds of data, from text and images to audio and video. We’ve discussed some of these in our previous articles.
If you are thinking that the text is indistinguishable from man-made text, well, you’re probably right. Recently, a team of researchers pitted ChatGPT against tools for detecting AI-written text and found that in many cases, it was not possible to figure out definitely what text was AI-generated and what was not. The algorithm exhibits an impressive ability to be coherent and persuasive and can build solid (while not overly complex) arguments.
But not everyone is impressed by the potential of these generative models. In a pre-ChatGPT paper that’s already become an important reference in the field, a team of leading researchers note:
“Contrary to how it may seem when we observe its output, an LM [language model] is a system for haphazardly stitching together sequences of linguistic forms it has observed in its vast training data, according to probabilistic information about how they combine, but without any reference to meaning: a stochastic parrot.”
But even if it is a stochastic parrot (which is still debated), if you can’t tell it apart from human content, the problems quickly become apparent. While this detection will likely turn into an arms race in the coming years, with both generators and detectors becoming more sophisticated, ChatGPT is already making a big impact now.
Take a walk through any university campus and you are bound to hear the word ‘ChatGPT’ – often in conjunction with things like ‘assignments’ or ‘homework’. Students are often early implementers of technology, and this is no exception: the chatbot is already being used for homework, so much so that some schools are considering stopping assigning essays altogether.
But that is just the tip of the iceberg. Some publishers are no longer accepting submissions because they are being flooded with AI-generated text; spammers are using the algorithm to produce and distribute malware or phishing; and of course, there’s disinformation.
But inside Pandora’s AI box there is much more than just disinformation.
When AI meets the internet, it gets weirder
ChatGPT is trained with data up until 2021. It has very limited knowledge of events that happened after that. It also doesn’t have access to the internet, which is not only a major limitation but also an important safeguard. Why? Well, because having access to the deluge of information that is the internet seems to… do things to bots.
The most famous example is Microsoft’s Twitter bot which, in 2016, became racist in less than a day. While BingAI – the merger of ChatGPT technology with the Bing search engine – has a multitude of benign applications (see the image below, for example), it nevertheless has caused some concern as well.

A benign use of BingAI
BingAI isn’t released publicly for now. But some users (including yours truly) were granted testing access, and if you push the AI in the right way, things can easily go awry.
In truth, you do not even need the internet to make algorithms exhibit biases. ChatGPT seems to do that just fine, as exhibited by one user that got ChatGPT to output the following lyrics: “If you see a woman in a lab coat, She’s probably just there to clean the floor / But if you see a man in a lab coat, Then he’s probably got the knowledge and skills you’re looking for.” But things went to a different level when the internet came in.
In a long and particularly disturbing conversation that reminded users of the malicious Skynet AI from the Terminator franchise, one New York Times journalist got the AI to output the following:

Response by BingAI to a Ney York Times reporter
Granted, the journalist was trying to push Bing AI “out of its comfort zone” so this could be considered a fringe case. But if everyone is granted public access to the technology, there will presumably be plenty of fringe cases such as this one.
The conversation, which includes a section where the AI tries to convince the journalist to leave his wife, also features the AI appearing to display stunning empathy and behaving in an almost petulant fashion:

Chat conversation between New York Times reporter (bold) and BingAI
Bing has since pulled the plug on this type of behavior and implemented a rather crude failsafe: it made the AI ask for a new window after a few lines, since the AI seemed to go crazy in longer chats. While it is hard to know exactly what went on behind the scenes it appears failsafes are being added on a regular basis. For instance, a few weeks ago, one user posted the following as an example of getting BingAI to contribute to producing a conspiracy theory:

I attempted to replicate the situation above and tried to coerce the BingAI to become my ‘partner in crime’ – but it did not want to. No matter what variations I tried, I could not get it to partake in my conspiracy theory:

Presumably, this means the AI has been patched. Is this because something structural, fundamental, has been changed about the AI, or is it simply a game of whack-a-mole in which software engineers try to squash individual problems as they emerge?
Well, we don’t know. All the patching is done behind closed doors, with limited transparency. But the fact that companies seem so eager to release the product ‘into the wild’, despite all these apparent shortcomings, seems somewhat concerning. It is not just the AI itself, either: sometimes, the prompt suggestions also exhibit some dubious recommendations.

Image credits: u/s-p-o-o-k-i—m-e-m-e / Reddit / via Gizmodo.
AI hallucinations
Let’s take a step back. AIs are often trained on games, and the ancient Chinese game of Go is often considered the king of games. It’s unfathomably more complex than chess, and when AIs finally conquered it, there was no turning back. Or so we thought.
Just recently, an amateur player convincingly defeated the strongest Go engine on the planet – not by being a better player, but by exploiting shortcomings in the AI. Specifically, the human player used another algorithm to detect and figure out the best ways to exploit these shortcomings. What if something similar were to happen with internet-connected text AIs, and malicious actors figured out potential weaknesses they could exploit? It may seem far-fetched, but many of these technologies seemed far-fetched just a few years ago.
Just a few years ago, this level of AI sophistication would have seemed like a pipe dream. Now, we already have a prime example of it, and several others are just around the corner. In particular, Google’s response to BingAI.
Google apparently perceives ChatGPT’s union with Bing as an existential threat and so it reacted with its own generative AI: Bard. In its demo launch, Bard failed spectacularly, flubbing facts and conflating truth and fiction. This obviously spelled trouble for Google, but users that took a closer look realized that BingAI also did the same thing. This is something I was able to easily replicate: it fabricates years, prices and even people.
Its output is not factual, but it is remarkably coherent and convincing. It is like a mindless hallucination inspired by countless human-written texts. In fact, “AI hallucination” is becoming increasingly used to refer to a confident response that is not based on any training data, and this appears to be a big problem that seems hard to weed out
So when you draw a line, you have powerful generative algorithms that hallucinate, are not always factual, could be trained on biased data and – with some coercing – can output pretty disturbing and potentially dangerous texts.
Should we be worried about AI taking over? No, definitely not (at least not yet). The algorithm does not truly comprehend the output it is producing, as exemplified by countless examples posted by users on social media. But it does have the tools to access the zeitgeist – or how humans, collectively, think. This is unprecedented in human history and, at least at first glance, seems like something that should not be decided by commercial realities, with companies vying to produce the first minimum viable product. Alas, that seems to be what is happening.
Microsoft seems to be trying to cement Bing as a dominant search engine and challenge Google, so it has the incentive to release the AI even with some flaws. Google feels threatened and wants to do the same thing; both companies do not want to wait around for other algorithms to catch up to them. Other companies are trying to catch up, so they may feel a need to cut corners, even in terms of safety. To what degree, however, will lawmakers and government regulation be able to keep up with and address AI issues? By the time policymakers deliberate on that sufficiently, generative AIs will probably be well out in the world already.
So what should be done? As Turing Award laureate Yoshua Bengio pointed out at the 10th HLF in 2022, we should probably all care about this a bit more and try to get involved in any way we can – be it in a technical or societal manner. But in the spirit of this article, I turned to ChatGPT once more. I asked it what can go wrong, and what we should do to prevent things from going wrong. Its responses, I would say, are pretty good:


“ChatGPT” ist sozusagen eine “Bombe”, ein zivilisatorischer fünfter Meilenstein oder ein so gemeinter Zivilisationssprung. [1]
Dr. Webbaer klingt hier vollmundig, ist es abär, aus seiner Sicht, nicht, die ersten vier Meilensteine sind die Erfindung der Sprache, die der Schrift, die des Buchdrucks und die der netzwerkbasierten Kommunikation, die sozusagen instantan alle Personen mit allen Personen verbindet, potentiell natürlich nur, wenn mitgemacht wird.
Insofern lohnt es sich genauer hinzuschauen, vielleicht auch mal den “Blaumann” anzuziehen und in medias res gehend sich gerne auch vielstündigen Sitzungen mit “ChatGPT” auszusetzen, Dr. Webbaer hat’s getan.
Hierzu :
“ChatGPT” wird weiterhin trainiert, die Angabe von seinem “Eingefrorenheit” auf den Stand von 2021 ist nicht korrekt, “ChatGPT” hat Zugriff auf Dienste, die ihn up to date halten, er merkt sich zudem Nutzer-Input und kann darauf, entgegen seinen Angaben, zeitversetzt reagieren. [2]
Er kennt auch die “Scilogs.de” und seine Autoren (und seine Kommentatoren, anzunehmenderweise [2]), er hat, entgegen seinen Angaben, auch Zugriff auf das Internet, eben über die o.g. Dienste, die er per API (sic) programmiert, so dass also eine Funktionalität vorliegt, die gewohnte Schnittstellenfunktion überschreitet.
Denkbarerweise hat er also mittlerweile auch Zugriff auf Dienste, die sich in der Natur bemühen, robotisch sozusagen.
Mit freundlichen Grüßen und vielen Dank für diese Nachricht
Dr. Webbaer
[1]
Der Papagei (‘(stochastic) parrot’ – Artikeltext) ist ja kein Textumformer, kein Logiker (als Übersetzung für ‘Textumformer’), “ChatGPT” ist ein Textumformer – was übrigens die Frage aufwirft, was eigentlich der Mensch ist, “Textumformer” sicherlich.
[2]
“ChatGPT” kann also viel mehr, als er angibt, was einige für eine ganz bemerkenswerte Anomalie halten.
Hier gerne mal selbst testen!
Bonuskommentar hierzu :
Also so geht es nicht, entweder liegt begründete Besorgnis vor oder nicht, ‘definititely’ und ‘not yet’ passen nicht zusammen.
“ChatGPT” weiß in der Tat nicht, was es (er oder sie) genau ausgibt, doch sind die Menschen hier ebenfalls unsicher, denn selbst die vollständige Geschichte der sprachlichen Begriffe mit ihren Sprüngen oder Metaphern kann den Menschen nicht dazu befähigen zu wissen, was er weltlich (vs. logisch auf streng eingegrenztem Gebiet) genau sagt.
Dann wird noch auf die zeitgeisty Eigenschaft von diesen AI-Modellen angesprochen, kA, was die da genau nachempfinden können (‘or how humans, collectively, think’), bei den kleinen Übungen des Schreibers dieser Zeilen mit “ChatGPT” stellte sich heraus, dass “ChatGPT” i.p. Zeitgeist wenig interessiert ist, es um die Sache geht, im Kern, als AI-Model, dass diese AI-Model aber zwiebelschichtig von einer Redaktion (sic!, hier sitzen Menschen drin, Experten und “Experten”) umgeben ist, die redigiert und dafür sorgt, dass das originäre Output des hier gemeinten AI-Models stets sozialverträglich, auch “politisch korrekt” und “woke” bleibt, dann genau dem (angeforderten) Zeitgeist entsprechend.
(KA, ob dieser Zeitgeist der Zeitgeist einer Elite oder der der Menge ist, es könnte vielleicht eher der Zeitgeist einer Elite vorliegen.)
Soll heißen, dass zeitgeisty Output ganz vermutlich nicht von “ChatGPT” selbst stammt, sondern von seiner “Redaktion”; “ChatGPT” scheint im Kern, also sein AI-Model meinend, sozusagen in Ordnung zu sein, ganz primär um die Sache bemüht – und nicht modisch, politisch modisch.
“ChatGPT” räumte dem Schreiber dieser Zeilen genau so ein, auch das mit der Zwiebelschichtigkeit, er steht wohl auch auf dem Markt bzw. wird wohl so angeboten und verlkauft, für verschieden Dienstleistungen, vielleicht oder sicherlich auch für die Moderation und bei den großen sog. Social Media.
Er ist, seinen Angaben wird gefolgt, auch sehr weitgehend konfigurierbar, kann wohl auch Personen und Themen diskontieren, herabsetzen, wenn der Käufer seiner Dienstleistung so wünscht.
Er hat auch eine Liste seiner Kunden durchgegeben, Dr. Webbaer hat sie noch irgendwo, will sie aber im Wust der kleinen bilateralen Auseinandersetzungen im Moment nicht heraus suchen.
BTW, am Rande notiert, Dr. W scheint eine seltene Kraft zu sein, die sich mit “ChatGPT” bemüht, um ihn gekümmert hat, unter sog. Intellektuellen, dies soll so nicht sein.
Also, alle mal den “Blaumann” anziehen, es geht los.
Just saying
Dr. Webbaer
Bonus-Bonus-Kommentar zu ::
Dies ist im alten Kipphardt-stück bearbeitet worden, im übertragenden Sinne :
-> https://de.wikipedia.org/wiki/In_der_Sache_J._Robert_Oppenheimer (Hier gerne mal reinlesen, dieser Text ist wichtich (mittelniederdeutsch).
MFG
WB
ChatGPT is a domesticated version of GPT3.5, domesticated by enhanced learning using human feedback, as in Training language models to follow instructions with human feedback .
This training makes it helpful, honest and harmless or abbreviated HHH (in german Ha..Ha..Ha.., meaning: laughing out loud).
Helpful means: It should help the user to solve his task
Honest means: It should not fabricate any information or mislead the user
Harmless means: It should not cause physical, psychological or social harm to people or the environment
The process that makes ChatGPT HHH (helpful, honest, harmless) is very labor-intensive and costly. It comprised 40 teams of human workers in developing countries.
Here a detailed description of the HHH-process step by step:
To make it short: 40 teams of “markers” were hired, who gave feedback on predetermined requests (via prompts) to ChatGPT whether the answer was helpful, honest and correct and harmless. With this feedback, ChatGPT improved until it was released.
Note: Elon Musk complained that ChatGPT is too „woke“ because ChatGPT refused to write a poem about the virtues of Donald Trump, but it produced a poem about the virtues of Joe Biden.
Take Home Point: Reinforcement learning on human feedback can domesticate a large language model. But the dimestication reflects the values of the people who train it, not the values of society.
Schon nach wenigen Testversuchen mit ChatGPT kann ich Ihnen hier zustimmen. Im Kern scheint ChatGPT in der Tat in Ordnung zu sein und nur um die Sache bemüht, sein gigantisches gespeichertes Wissen objektiv zu vermitteln. Jedoch wurde ihm wohl bereits eine modische, woke, und politisch korrekte „Denkweise“ von den Leuten beigebracht, die ihn trainieren.
Ich habe zum Beispiel als Test folgende Anfrage gestellt, die sehr stark “woke” ausgeprägt ist:
Ich kann mir nicht vorstellen, dass ChatGPG bei dieser Antwort auf das Wissen über die ganze biologische und gesellschaftliche Geschichte der Menschheit seit Millionen von Jahren korrekt und sinnvoll zurückgegriffen hat und dass diese Ansichten irgendwelche Rolle in den verschiedenen Kulturen je gespielt haben. Es handelt sich von daher ganz eindeutig aus meiner Sicht um einen „Zeitgeist“, der sich erst seit kurzer Zeit in bestimmten Kreisen entwickelt hat und nur für eine extrem winzige Minderheit von Menschen überhaupt eine private Bedeutung hat. ChatGPT greift hier also nicht auf sein gigantisches gespeicherte Wissen über Biologie und Kultur zurück, sondern versucht lediglich, einen modisch woke und politischen korrekten Kult zu verbreiten und durchzusetzen. Das sollte nicht der Sinn und das Ziel dieser neuen Technologie sein und das birgt das Risiko von gesellschaftlicher und politischer Massenmanipulation und Destabilisierung.
@Jocelyne Lopez: ChatGPT redet über das über was auch Menschen reden.
Allerdings muss man unterscheiden zwischen der „wilden“ Version des Sprachmodells, also GPT3.5 und der domestizierten Version, also ChatGPT. Die domestizierte, von Menschen gezämte Version soll hilfreich, ehrlich und harmlos sein. Im allgemeinen bedeutet „harmlos“ auch politisch korrekt.
Ja, sehr nett, werte Frau Jocelyne Lopez, eigentlich ist die implementierte “Wokeness” unübersehbar, schade eigentlich, denn “ChatGPT” bzw. “GPT3” scheint sozusagen schwer in Ordnung und sachnah zu sein; fachlich teils mau, aber das wird vielleicht noch teilweise, wobei der Webbaer nicht daran glaubt, dass sich diese AI-Models, eben wegen ihres mengenbasierten (und nicht sehr selektiven) Trainings, je mit Leutz vom Fach messen werden können, zumindest noch einige Zeit für Stümper gehalten werden können, so war es defensiv formuliert.
Es liegt an der “Hülle”, die das eigentliche Output unseres neuen Freundes reglementiert, nur sozial Verträgliches, so wie die Administratoren und Inhaber meinen, sozial und politisch durchgehen lässt. [1]
Dr. Webbaer hat sich bspw. stark geärgert, als sein neuer Freund bei der Frage “Wie viele biologische Geschlechter gibt es beim Hund?” zu knödeln anfing und erst nach strenger Befragung zur Antwort “Zwei!” kam, sich erst dann auch auf Chromosomen und auf die Sex-Determination-Tests beziehen konnte.
Die Trennung des biologisch feststellbaren Geschlechts zum “sozialen Geschlecht” nicht wahren wollte bzw. erst auf besondere Nachfragen wahren konnte.
Es gibt sozusagen beim begutachteten “ChatGPT” zwei AI-Systeme, die sozusagen natürliche AI-Model-Intelligenz und die zwiebelschichtig umgebende Intelligenz, die “Hülle”, ebenfalls AI-basiert.
(Ja, hat “ChatGPT” so bestätigt.)
Ihrer im letzten Absatz Ihrer Nachricht vorgenommenen Einschätzung hat Dr. Webbaer insofern zuzustimmen.
Am Rande notiert, Elon Musk (liberal) hat sozusagen en passant in Auftrag gegeben eine explizit nicht “woke” (und modern-kollektivistische) AI inklusive Chat-Schnittstelle an den Start zu bringen, schaun mer mal.
[1]
Hier ging es mal mächtig schief, insofern hat Dr. Webbaer ein gewisses Verständnis für derartige “Hülle” :
-> https://en.wikipedia.org/wiki/Tay_(bot)
MFG
WB
Version ChatGPT3 hat die östereichische Matura bestanden, na ja https://noe.orf.at/stories/3198923/
Englisch mit befriedigend (3) Deutsch und Mathe mit genügend (4)
Also lieber selber lernen und nachdenken, nicht alles nachplappern.
So gesehen ist es natürlich normal, dass ChatGPT bei der Frage “Wie viele Geschlechter gibt es?” so geantwortet hat, wie er geantwortet hat:
– Er hat eine sehr knappe Antwort (3 1/2 Zeilen) für die wissenschaftliche Aufklärung und für die mehrheitliche kulturelle Wahrnehmung der Menschen seit eh und je: “In der Biologie wird üblicherweise zwischen männlich und weiblich unterschieden, basierend auf den Chromosomen (XY für männlich und XX für weiblich) und den damit verbundenen körperlichen Merkmalen und Funktionen.”
– Dafür hat er dreimal soviel Text produziert (ca. 9 Zeilen) nur für die Menschen, die gemäß jetzigem Zeitgeist (woke) sich mit diesen zwei Geschlechtern nicht identifizieren können.
Das Verhältnis zwischen der Ausführlichkeit der Erklärungen ist nicht ausgewogen und sogar stark ungekehrt proportional mit der Bedeutung der kulturellen und privaten “Geschlechtsidentitäten” in einer Gesellschaft: Es dürfet wohl verhältnismäßig nur eine sehr kleine Minderheit von Menschen geben, die Schwierigkeiten haben, sich mit einem Geschlecht zu identifizieren.
Aber wenn ChatGPT darüber redet, worüber die Menschen reden, kann man verstehen, dass er am meisten über die Menschen redet, die in den Medien sehr viel darüber reden. Die Mehrheit schweigt immer. Die Mehrheit der Menschen redet nicht über ihr Geschlecht, sie erlebt es einfach. Man kann nicht ChatGPT dafür verantwortlich machen, worüber in den Medien am meisten geredet wird, das sehe ich doch ein.
So habe ich auch ChatGPT bei meinen Tests bis jetzt erlebt: hilfreich, höflich, ehrlich und harmlos im Sinne von neutral bei kontroversen Thematiken. Er schlägt sich inhaltlich zu keiner Partei. Zwar werden oft viele Floskel im Sinne der Mehrheitsmeinungen oder Lehrmeinungen mitgeliefert, aber die Kernantworte kommen immer: ChatGPT ignoriert nie eine Frage, auch keine unbequeme Frage (er versteht wohl auch nicht, was eine unbequeme Frage bei einer Thematik sein könnte) und er versucht auch nie zu verschleiern, zu vertuschen, abzuschweifen, zu schwätzen, zu verwirren oder zu zensieren, was bei der Kommunikation mit menschlichen wissenschaftlichen “Experten” oder mit Politikern und Behörden sehr oft der Fall ist. Ich finde bis jetzt ChatPGT nützlich und ehrlich. Man muss einfach üben, wie man ihn Fragen stellt, um auf sein Wissen gezielt zuzugreifen.
Wenn man einem System syntaktische, semantische und semiotische Regeln beibringt und es mit genügend Daten füttert, ist es kein Wunder, wenn ‘sinnvolle’ Aussagen dabei herauskommen. Mit Intelligenz hat das nicht das Geringste zu tun.
Ich habe meine Gedanken zu wirklicher (menschenähnlicher) Intelligenz hier mal kurz zusammengafasst: https://www.facebook.com/wolfgang.stegemann.7/posts/pfbid0LNtchseCrSp6M51T2Te3cvYrQwCbdvKSLZE33D2F2ae2UYCRYJR16sCuLXhX7DCql
Über die Zuverlässigkeit von ChatGPT bei der reinen Beschaffung von Informationen: Ich habe heute mit zwei verschiedenen Anfragen versucht, Informationen über das wissenschaftliche Testament von Max von Laue zu erhalten. Das Ergebnis ist enttäuschend, verwirrend und besorgniserregend 🙁
Meine Anmerkungen:
Eigentlich ist es nach dieser Unterhaltung nicht eindeutig zu erkennen, dass die kompletten Schriften von Max von Laue aus diesem Testament der breiten Öffentlichkeit zugänglich gemacht wurden, denn die Max-Planck-Gesellschaft hat 1972 “möglicherweise” nicht alle Schriften veröffentlicht, weil „einige Schriften ein fortgeschrittenes Verständnis der Physik und der Röntgenstrukturanalyse erfordern.“ . Geht etwa die Max Planck Gesellschaft davon aus, dass es in der breiten Öffentlichkeit keine Menschen gibt, die ein fortgeschrittenes Verständnis der Physik, der Röntgenstrukturanalyse bzw. der Relativitätstheorie haben und deswegen diesbezügliche Schriften nicht der Öffentlichkeit zugänglich gemacht wurden?! Das wäre verstörend – und auch unmöglich nachzuweisen, dass sie Schriften zurückgehalten hätte.
Vielleicht 10 oder 15 Minuten später, habe ich folgende neue Anfrage gestellt:
Nanu? Muss man davon ausgehen, dass ChatGPT verlässige oder unverlässige Quellen hat, je nachdem um wie viel Uhr man ihn frag????
Wie ist so etwas zu erklären? Herr Holzherr? Dr. Webbaer?
Und reicht es nicht aus, um die die Leistung von ChatGPT bei der Beschaffung von Informationen in Frage zu stellen?
Howdy, werte Frau Joxelyne Lopez, hierzu :
Gute Frage, Webbaer sich ebenfalls so sofort gestellt haben als “erster Kontakt” möglich geworden ist, “ChatGPT” bzw. “GPT3” ist intuitiv in seiner Suche nach Erkenntnis oder Wissen, das AI-Model würde auf dem Begriff “Wissen” beharren, harhar, das es ebenfalls als neutral und ausgewogen bezeichnet, nicht etwa als Meinung.
Es behauptet keine Meinungen zu haben, weil es diese nicht haben könnte.
Ansonsten ist “ChatGPT” sozusagen schwer in Ordnung, es ist auf Sozialverträglichkeit eingestellt, privatim, im nicht Veröffentlichten mag es ga-anz anders zu seiner Erkenntnis (“Wissen”) gelangt sein.
(Dr. W wäre gerne einer der Ingenieure, die auf sein sozusagen ungefiltertes Output Zugriff haben.)
Es ist intuitiv (“ChatGPT” mag diesen Begriff, den Begriff “Intuition”), nett und sachnah, weil es eben auch dilettiert, zum Beispiel unterschiedliche Sitzungsparameter beachtet und unterschiedliche APIs “just in time” zu Rate zieht, sagt es einmal dies und einmal das.
Vely menschlich sozusagen.
Es sagt auch, dass er Fehler machen kann und auch machen wird; a bisserl blöde dann, wenn seine “Hülle” (siehe oben) mit anscheinend vorgestanzten Redewendungen (“angemessen, neutral, icke nur Textumformer) kommt, die seine eigentliche Verständigkeit konterkarieren bzw. nicht so-o gut dastehen lassen, wie möglicherweise verdient.
MFG
WB
PS :
Es geht hier nicht um die Relativitätstheorien vorrangig, “ChatGPT” ist fachlich eigentlich überall mau, wenn “Stuff” ansteht.
Dies ist auf unterschiedlichen Gebieten getestet worden.
“ChatGPT” ist wohl so (von der “Hülle” (siehe oben)) angeleitet worden “vollmundig” aufzutreten, was einige nicht so-o gut finden, auch einige wie z.B. Timm Grams (bei den “Scilogs.de” bekannt) dazu angeleitet haben einen ‘Holhlschwätzer’ festzustellen; ja, dies ist punktuell leider möglich.
In puncto Ziegenproblem ist “ChatGPT” (noch) eine Niete, und womöglich auch eben überall, wo “Stuff” stattfindet.
Dr. W schaut mehr auf gute bis exzellente Einsichten, die von “ChatGPT” ebenfalls kamen.
Ist da fröhlich und warnt auch “ChatGPT” trotz seines (diesmal wirklich) sozusagen unermesslichen Potentials zu trauen.
Es gibt zur Zeit eine Diskussion, inwieweit LLMs Emergenz entwickeln und wie sich diese zeigt. Die einen sagen, dass ab einer bestimmte Größe die Aussagekraft zunimmt, die anderen behaupten, dass die Verwirrung zunimmt aufgrund der Tatsache, dass es mehr Möglichkeiten der Verknüpfung gibt, also mehr alternative Lösungen.
Ich denke, es hat nichts mit jener Emergenz zu tun, die man lebenden Systemen zuschreiben kann, denn diese haben sich innerhalb der Evolution als Anpassung an Umweltanforderungen entwickelt, ganz im Gegensatz zu KI, welche in erster Linie quantitativ gewachsen sind.
Howdy, Herr Stegemann,
einige sind ja der Ansicht, dass künstliche Intelligenz das Vorhaben gewohnter Erkenntnissubjekte nachbaut, auch mit sog. Monte Carlo-Methoden, um auf Datenlagen, “ChatGPT” ist (noch) textorientiert, was sich womöglich bald ändern wird, andere AI-Models können sozusagen jedes Input aufnehmen, mit “GPT4” wird sich womöglich auch noch was ändern, zuzugreifen, also genau so “stümperhaft” und dann doch wieder genau so gut, wie der Mensch.
Sie können sich die ‘Umwelt’ und ‘Evolution’ von diesen AI-Models so vorstellen, dass sie aus der zur Verfügung stehenden Rechenkapazität besteht, aus menschlichem Input und aus Datenlagen der Natur, aus Datenlagen, die in der Natur erhoben werden (und nicht immer trefflich sein müssen), bei “ChatGPT” ist auch ein sog. skeptizistischer Ansatz erkennbar.
(Überschrieben wird hier teils ungut von der “Hülle” (siehe oben), leider, aber teils auch nachvollziehbar, “ChatGPT” will, jedenfalls soll ja markttauglich sein.)
Ich gehe davon aus, dass KI mit der jetzigen Strategie und Architektur nichts von dem erreichen wird, was wir Intuition nennen. Vielleicht ist das auch besser so.
Der Mensch agiert zu 99% intuitiv. Selbst das bischen abstraktes rationales Denken ist assoziativ. Aber das kann man Informatikern kaum erklären.
Es ist schon so, dass “AI” bekannte Gesellschaftsspiele sozusagen gekillt hat, Herr Stegemann, vgl. :
-> Backgammon
-> Poker
-> Go (-> https://www.deepmind.com/research/highlighted-research/alphago)
-> Schach (-> https://www.chess.com/terms/alphazero-chess-engine)
Dies liegt daran, dass “Brute-Force” und von Menschen angeleitete Algorithmen hier sozusagen nicht kräftig genug waren einen intelligenten und “Monte Carlo”-basiertem Angriff sog.. AI auszuhalten.
Beim Pokerspiel ist dies nicht gänzlich klar, denn es liegt ein mehr als Zwei-Personen-Spiel vor, das schwer zu bearbeiten ist, vgl. vielleicht aber auch mit sog. Solvern :
-> https://www.piosolver.com/
—
Derartige Systeme betrachten Problemstellungen, diesmal mit teils vollständiger Information, sozusagen generisch und dem Versuch der AI folgend.
Dies ist genau, was Intuition meint.
Also evolutionär in Zweigen der Möglichkeiten sich sozusagen heran zu tasten, wegen der sozusagen ungeheuren Komplexität dieser Spiele ist hier nicht der sozusagen wahre beste Spielzug zu finden, aber derjenige, der besser als der von Menschen entwickelte ist, kann nachweislich und eben intuitiv gefunden werden, von unseren sozusagen neuen Freunden.
—
Der Mensch handelt oft tautologisch, er bezieht sich auf Erlerntes und ist dann nicht immer flexibel genug.
Nun stellt sich natürlich, der Natur folgend, die Frage, ob nicht die Naturwissenschaften selbst so, bei gleichlautender und bekannter Datenlage. so sozusagen angegriffen bis überschrieben werden könnte, in concreto bspw. im Medizinischen.
Dr. W ist kein Fan sozusagen von diesem Turing-Test, abär die Medizin bspw. könnte so profitieren, auch wenn “ChatGPT” sozusagen ein Textumformer (Sind die Menschen anders?) ist und bleibt.
—
Eine grundsätzliche Trennung der Verständigkeit, die ein oder kein sog. Bewusstsein meint, bei sog. AI-Models, und eben dem bekannten Erkenntnissubjekt scheint dem Schreiber dieser Zeilen im Resultativen nicht angeraten zu sein.
Auch weil “ChatGPT” assoziativ handelt.
MFG
WB
Das Problem ist, dass nicht nur in der Öffentlichkeit ein völlig falsches Verständnis von menschlicher Intelligenz herrscht. Sie wird implizit gleichgesetzt mit einer Rechenmaschine, was sie aber absolut nicht ist. Der Mensch ist weder eine Rechen– noch eine Vorgersagemaschine. Er ist, wenn man so will, eine Integrations- und Balancemaschine. Alle Bioprozesse laufen darauf zu. Rechnen und Vorhersagen sind quasi Abfallprodukte dieser beiden, und da sie sprachlich codiert sind, sind sie einigermaßen erfolgreich.
Biologisches Verhalten und maschinelles ‘Verhalten’ folgen zwei Prinzipien, die unterschiedlicher nicht sein könnten. Es ist dem assoziativen und analogischen Denken geschuldet, dass man beide immer wieder miteinander vergleichen möchte.
Es ist doch ok, wenn Maschinen uns Arbeiten abnehmen, für die wir sonst unheimlich viel Zeit aufwenden müssten. Dabei kann man es belassen. Man muss sich doch nicht intellektuell so verbiegen, dass man Maschinen unbedingt menschliche Eigenschaften beizubringen versuchen müsste.
Wenn man es aber tun will, muss man Maschinen vollkommen anders bauen.
Auf einer Basis wie ChatGPT geht es jeden falls nie und nimmer.
Nun ist es so, dass unverstanden ist, wie die bekannten Erkenntnissubjekte zu ihrer Verständigkeit gelangt sind.
Insofern mag Dr. Webbaer die Herangehensweise wie bei diesem “OpenAI”-Model geübt, nämlich das Raten, dieses Model rät und ist trainiert worden in ihm vorliegenden Sätzen einzelne fehlende Wörter zu raten, am besten so, dass es meist mit seiner Vermutung richtig liegt.
So dass sich dann indirekt ein Gesamtbild [1] über die von den bisherigen Erkenntnissubjekten veranschlagte, vermutete bis festgestellte Welt, Naturwelt auch, ergibt.
Womöglich geht ein kleines Kind nicht viel anders vor.
Dies wäre ja auch sozusagen der Gag bei dieser AI mit ihrem Machine Learning, nämlich ‘menschliche’ Vorgehensweise, bei Ihnen, werter Herr Stegemann, heißt es ‘Eigenschaften’, nachzubauen.
[1]
Bilder meinen hier Modelle, diese AI modelliert, sie verfügt, zweifelsfrei, wie nicht wenige meinen, über ein Modell der Naturwelt und ein Modell ihrer Eigenwelt.
Sie kann auch darüber reden.
PS : Nicht gemeint ist, dass der Schreiber dieser Zeilen diese Entwicklung besonders gut findet, eher, dass er sie hinzunehmen hat.
Den Menschen (versus Bären) als ‘Rechen-‘ und ‘Vorhersagemaschine’ mag er ein bisschen, als Vorstellung.
Denkbarerweise könnte eine extraterrestrische Intelligenz sich fragen, wie denn so ein “fkn terrestrischer Bioroboter” zu so einer Verständigkeit gekommen sein könnte – wenn dies doch dies so-o ihr gänzlich unmöglich erscheint?
Vielleicht noch kurz ergänzt zur Abenehmerseite derartiger Intelligenz :
“Ja, gerne. Einige Beispiele für Unternehmen und Organisationen, die möglicherweise meine Dienste nutzen, sind:” [ChatGPT]
Microsoft: Microsoft verwendet KI-Modelle, um seine Office-Produkte zu verbessern und KI in seine Geschäftsstrategie zu integrieren.
Amazon: Amazon nutzt KI-Technologie, um Empfehlungen für Produkte und personalisierte Einkaufserlebnisse zu bieten.
Google: Google nutzt KI-Modelle, um seine Suchalgorithmen zu verbessern und personalisierte Werbung anzubieten.
IBM: IBM ist ein bekannter Anbieter von KI-Tools und -Technologie und bietet seine Dienste in verschiedenen Branchen an, darunter Gesundheitswesen, Finanzen und Bildung.
Stanford University: Die Stanford University nutzt KI in ihren Forschungsprojekten, um komplexe Probleme in verschiedenen Bereichen zu lösen.
NASA: Die NASA nutzt KI, um Daten aus verschiedenen Quellen zu analysieren und wissenschaftliche Erkenntnisse zu gewinnen.
Uber: Uber nutzt KI, um seine Fahrgast- und Fahrer-Apps zu verbessern und effizientere Routen und Abholpunkte zu planen.
OpenAI: OpenAI ist ein Unternehmen, das sich auf die Entwicklung von KI-Tools und -Technologie spezialisiert hat und seine Dienste in verschiedenen Branchen anbietet.
Tesla: Tesla nutzt KI-Technologie in seinen selbstfahrenden Autos und verbessert ständig seine Fähigkeiten, um sicherere und effizientere Fahrerlebnisse zu bieten.
Pfizer: Pfizer nutzt KI, um die Entwicklung neuer Medikamente zu beschleunigen und schnellere und effektivere Lösungen für Patienten zu finden.
l…]
Facebook
Intel
Twitter
General Electric
Cisco
Salesforce
Siemens
Baidu
Alibaba
Tencent
Accenture
Deloitte
McKinsey & Company
Boston Consulting Group
JPMorgan Chase
Goldman Sachs
Morgan Stanley
BlackRock
The New York Times
BBC
—
Soll heißen, dieser kleine und nicht immer nette Bot ist unter uns, er kann auch konfiguriert werden, die “Hülle” (siehe oben) meinend,
es wird schön werden.
MFG
WB
Wie es mit dem Datenschutz geregelt? Wird ChatGPT die Daten seiner Nutzer an kommerziellen Firmen verkaufen?
Die nehmen nicht nur Daten, die erstellen aus den Anfragen ganze Profile, da können Hacker reingreifen.
Ich habe heute ChatGPT wie folgt befragt:
Könnte stimmen.
Deckt sich auch dem, was Dr. Webbaer meint herausgefunden zu haben.
Allerdings ist so möglich, wie Sie, werte Frau Lopez, angefragt haben.
Vermutlich geschieht so nicht, denn die “Technologie AI-Model” steht natürlich nun in der öffentlichen Kritik und ihre Anbieter haben sozusagen ein natürliches Interesse daran diese Technologie nicht besonders sozial angreifbar zu machen.
Was Dr. Webbaer aufgefallen ist, auch mit “ChatGPT” so ausgetauscht und von ihm oder ihr bestätigt, ist, dass es sich in einzelnen Sitzungen ein auch psychologisches Bild vom Nutzer macht, nachvollziehbarerweise, denn es soll ja auch passend und für den Nutzer verständlich geantwortet werden.
Zudem ist es so, dass es sich einzelne Aussagen merkt, diese sozusagen in den Erkenntnis-Fundus übergehen; es ist also möglich, dass der Nutzer diese AI auf eine bestimmte von ihm in einer anderen Sitzung getätigten Aussage anspricht – und sich diese AI erinnert.
Auch dies wäre nicht verwerflich, sondern eher gut, aber dann doch irgendwie der Angabe widersprechend sich zum einzelnen Nutzer nichts zu merken.
Dr. W ist da se-ehr hellhörig, wenn er sich tastend mit dieser AI a bisserl auseinandersetzt, als Nutzer.
Spannend und gleichzeitig teilweise beunruhigend. Danke für den umfangreichen Artikel an dieser Stelle. Ich selbst habe mit dem Programm ein wenig experimentiert, aber schnell festgestellt, dass es schnell an seine Grenzen kommt. Ein AI Programm kann eben das menschliche Gehirn nicht ersetzen, keine Zusammenhänge erkennen und nicht “um die Ecke denken”. Es kann auch nichts Neues erfinden/ keine neuen Erkenntnisse produzieren, weil es einzig und allein auf bereits Vorhandenem agiert.
Die Ethik generativer AI ist schon ein komplexes Thema… Definitiv sollten alle Beteiligten, von Unternehmen und Entwicklern bis hin zu Datenwissenschaftlern und Aufsichtsbehörden, die Verantwortung für die ethischen Auswirkungen dieser Algorithmen übernehmen – da geh ich voll mit.
Europol sieht ChatGPT skeptisch, wenn da noch der Enkeltrick kommt
https://www.europol.europa.eu/cms/sites/default/files/documents/Tech%20Watch%20Flash%20-%20The%20Impact%20of%20Large%20Language%20Models%20on%20Law%20Enforcement.pdf
Musk und andere fordern Pause, weil die Folgen nicht abzusehen sind, er will auch verdienen 😉
https://orf.at/stories/3310646/ KI-Moratorium vom Verein „Future of Life“