The Pandora’s Box of Generative Text AI

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

With all the craze surrounding text-generating AIs, we are all drawn to the potential that has suddenly opened up in front of us. But what dangers loom behind the sparkling promise?

(This article was written before the release of ChatGPT 4.0 and refers to mechanics of the 3.5 model)

The advent of generative AIs has opened up new possibilities in fields ranging from art and music to healthcare and finance. However, along with these advancements, come ethical concerns about who should be held accountable for the actions and decisions made by these powerful algorithms.

Imagine a world where an AI algorithm is responsible for determining whether or not you get hired for your dream job. The algorithm scans your resume and analyzes your social media activity to make a decision. You don’t know how the algorithm works, what data it’s using, or who trained it. You’re simply given a rejection letter and told that the AI decided you weren’t a good fit for the job.

This scenario is not as far-fetched as it may seem. In fact, many companies are already using AI algorithms to screen job applicants. But who is responsible for the ethical implications of these decisions? Is it the company using the algorithm? The developers who created it? The data scientists who trained it? Or perhaps the government regulators who oversee its use?

No easy answers

The truth is, responsibility for the ethics of generative AIs must be shared among all these parties. Companies using these algorithms have a responsibility to ensure that they are using them fairly and transparently. Developers have a responsibility to create algorithms that are unbiased and ethical. Data scientists have a responsibility to train these algorithms using diverse and representative data sets. And regulators have a responsibility to ensure that these algorithms are not being used in ways that violate people’s rights or discriminate against certain groups.

Let’s start with the companies. When companies use AI algorithms, they must ensure that they are not discriminating against certain groups. For example, if an algorithm is trained using data sets that are predominantly made up of white men, it may inadvertently discriminate against women and people of color. Companies must also be transparent about how they are using these algorithms and what data they are using to train them.

Developers also have a responsibility to create algorithms that are unbiased and ethical. This means designing algorithms that do not perpetuate harmful stereotypes or discriminate against certain groups. It also means creating algorithms that are transparent and explainable, so that people can understand how they are making decisions.

Data scientists have a responsibility to ensure that the data sets they are using to train these algorithms are diverse and representative. If data sets are skewed towards certain groups, the algorithms will be biased and discriminatory. Data scientists must also be aware of the potential ethical implications of the algorithms they are training and work to mitigate any harm they may cause.

Finally, regulators have a responsibility to ensure that these algorithms are not being used in ways that violate people’s rights or discriminate against certain groups. This may involve creating guidelines for the use of these algorithms, as well as monitoring their use to ensure that they are being used fairly and transparently.

Conclusion

In conclusion, the ethics of generative AIs is a complex issue that requires a multi-faceted approach. All parties involved, from companies and developers to data scientists and regulators, must take responsibility for the ethical implications of these algorithms. By working together, we can ensure that these algorithms are used in ways that are fair, transparent, and ethical. Only then can we truly harness the power of these powerful technologies for the betterment of society.


Boy, that was pretty convincing, wasn’t it? What is even more convincing is that it was entirely written by ChatGPT, the new AI-based chatbot that has taken the world by storm in the few months since it was launched. Don’t believe me? Have a look for yourself.

My prompt to ChatGPT and its output: The more specific you are with the prompts, the better the results tend to be – and the harder it is for other algorithms to figure out that this is AI-generated text.

Somewhere between Shakespeare and stochastic parrots

ChatGPT is part of a new generation of generative AIs – an umbrella term for artificial intelligence that can generate all kinds of data, from text and images to audio and video. We’ve discussed some of these in our previous articles.

If you are thinking that the text is indistinguishable from man-made text, well, you’re probably right. Recently, a team of researchers pitted ChatGPT against tools for detecting AI-written text and found that in many cases, it was not possible to figure out definitely what text was AI-generated and what was not. The algorithm exhibits an impressive ability to be coherent and persuasive and can build solid (while not overly complex) arguments.

But not everyone is impressed by the potential of these generative models. In a pre-ChatGPT paper that’s already become an important reference in the field, a team of leading researchers note:

“Contrary to how it may seem when we observe its output, an LM [language model] is a system for haphazardly stitching together sequences of linguistic forms it has observed in its vast training data, according to probabilistic information about how they combine, but without any reference to meaning: a stochastic parrot.”

But even if it is a stochastic parrot (which is still debated), if you can’t tell it apart from human content, the problems quickly become apparent. While this detection will likely turn into an arms race in the coming years, with both generators and detectors becoming more sophisticated, ChatGPT is already making a big impact now.

Take a walk through any university campus and you are bound to hear the word ‘ChatGPT’ – often in conjunction with things like ‘assignments’ or ‘homework’. Students are often early implementers of technology, and this is no exception: the chatbot is already being used for homework, so much so that some schools are considering stopping assigning essays altogether.

But that is just the tip of the iceberg. Some publishers are no longer accepting submissions because they are being flooded with AI-generated text; spammers are using the algorithm to produce and distribute malware or phishing; and of course, there’s disinformation.

But inside Pandora’s AI box there is much more than just disinformation.

When AI meets the internet, it gets weirder

ChatGPT is trained with data up until 2021. It has very limited knowledge of events that happened after that. It also doesn’t have access to the internet, which is not only a major limitation but also an important safeguard. Why? Well, because having access to the deluge of information that is the internet seems to… do things to bots.

The most famous example is Microsoft’s Twitter bot which, in 2016, became racist in less than a day. While BingAI – the merger of ChatGPT technology with the Bing search engine – has a multitude of benign applications (see the image below, for example), it nevertheless has caused some concern as well.

A benign use of BingAI

BingAI isn’t released publicly for now. But some users (including yours truly) were granted testing access, and if you push the AI in the right way, things can easily go awry.

In truth, you do not even need the internet to make algorithms exhibit biases. ChatGPT seems to do that just fine, as exhibited by one user that got ChatGPT to output the following lyrics: “If you see a woman in a lab coat, She’s probably just there to clean the floor / But if you see a man in a lab coat, Then he’s probably got the knowledge and skills you’re looking for.” But things went to a different level when the internet came in.

In a long and particularly disturbing conversation that reminded users of the malicious Skynet AI from the Terminator franchise, one New York Times journalist got the AI to output the following:

Response by BingAI to a Ney York Times reporter

Granted, the journalist was trying to push Bing AI “out of its comfort zone” so this could be considered a fringe case. But if everyone is granted public access to the technology, there will presumably be plenty of fringe cases such as this one.

The conversation, which includes a section where the AI tries to convince the journalist to leave his wife, also features the AI appearing to display stunning empathy and behaving in an almost petulant fashion:

Chat conversation between New York Times reporter (bold) and BingAI

Bing has since pulled the plug on this type of behavior and implemented a rather crude failsafe: it made the AI ask for a new window after a few lines, since the AI seemed to go crazy in longer chats. While it is hard to know exactly what went on behind the scenes it appears failsafes are being added on a regular basis. For instance, a few weeks ago, one user posted the following as an example of getting BingAI to contribute to producing a conspiracy theory:

I attempted to replicate the situation above and tried to coerce the BingAI to become my ‘partner in crime’ – but it did not want to. No matter what variations I tried, I could not get it to partake in my conspiracy theory:

Presumably, this means the AI has been patched. Is this because something structural, fundamental, has been changed about the AI, or is it simply a game of whack-a-mole in which software engineers try to squash individual problems as they emerge?

Well, we don’t know. All the patching is done behind closed doors, with limited transparency. But the fact that companies seem so eager to release the product ‘into the wild’, despite all these apparent shortcomings, seems somewhat concerning. It is not just the AI itself, either: sometimes, the prompt suggestions also exhibit some dubious recommendations.

Image credits: u/s-p-o-o-k-i—m-e-m-e / Reddit / via Gizmodo.

AI hallucinations

Let’s take a step back. AIs are often trained on games, and the ancient Chinese game of Go is often considered the king of games. It’s unfathomably more complex than chess, and when AIs finally conquered it, there was no turning back. Or so we thought.

Just recently, an amateur player convincingly defeated the strongest Go engine on the planet – not by being a better player, but by exploiting shortcomings in the AI. Specifically, the human player used another algorithm to detect and figure out the best ways to exploit these shortcomings. What if something similar were to happen with internet-connected text AIs, and malicious actors figured out potential weaknesses they could exploit? It may seem far-fetched, but many of these technologies seemed far-fetched just a few years ago.

Just a few years ago, this level of AI sophistication would have seemed like a pipe dream. Now, we already have a prime example of it, and several others are just around the corner. In particular, Google’s response to BingAI.

Google apparently perceives ChatGPT’s union with Bing as an existential threat and so it reacted with its own generative AI: Bard. In its demo launch, Bard failed spectacularly, flubbing facts and conflating truth and fiction. This obviously spelled trouble for Google, but users that took a closer look realized that BingAI also did the same thing. This is something I was able to easily replicate: it fabricates years, prices and even people.

Its output is not factual, but it is remarkably coherent and convincing. It is like a mindless hallucination inspired by countless human-written texts. In fact, “AI hallucination” is becoming increasingly used to refer to a confident response that is not based on any training data, and this appears to be a big problem that seems hard to weed out

So when you draw a line, you have powerful generative algorithms that hallucinate, are not always factual, could be trained on biased data and – with some coercing – can output pretty disturbing and potentially dangerous texts.

Should we be worried about AI taking over? No, definitely not (at least not yet). The algorithm does not truly comprehend the output it is producing, as exemplified by countless examples posted by users on social media. But it does have the tools to access the zeitgeist – or how humans, collectively, think. This is unprecedented in human history and, at least at first glance, seems like something that should not be decided by commercial realities, with companies vying to produce the first minimum viable product. Alas, that seems to be what is happening.

Microsoft seems to be trying to cement Bing as a dominant search engine and challenge Google, so it has the incentive to release the AI even with some flaws. Google feels threatened and wants to do the same thing; both companies do not want to wait around for other algorithms to catch up to them. Other companies are trying to catch up, so they may feel a need to cut corners, even in terms of safety. To what degree, however, will lawmakers and government regulation be able to keep up with and address AI issues? By the time policymakers deliberate on that sufficiently, generative AIs will probably be well out in the world already.

So what should be done? As Turing Award laureate Yoshua Bengio pointed out at the 10th HLF in 2022, we should probably all care about this a bit more and try to get involved in any way we can – be it in a technical or societal manner. But in the spirit of this article, I turned to ChatGPT once more. I asked it what can go wrong, and what we should do to prevent things from going wrong. Its responses, I would say, are pretty good:

Avatar photo

Posted by

Andrei is a science communicator and a PhD candidate in geophysics. He is the co-founder of ZME Science, where he published over 2,000 articles. Andrei tries to blend two things he loves (science and good stories) to make the world a better place -- one article at a time.

28 comments

  1. “ChatGPT” ist sozusagen eine “Bombe”, ein zivilisatorischer fünfter Meilenstein oder ein so gemeinter Zivilisationssprung. [1]
    Dr. Webbaer klingt hier vollmundig, ist es abär, aus seiner Sicht, nicht, die ersten vier Meilensteine sind die Erfindung der Sprache, die der Schrift, die des Buchdrucks und die der netzwerkbasierten Kommunikation, die sozusagen instantan alle Personen mit allen Personen verbindet, potentiell natürlich nur, wenn mitgemacht wird.

    Insofern lohnt es sich genauer hinzuschauen, vielleicht auch mal den “Blaumann” anzuziehen und in medias res gehend sich gerne auch vielstündigen Sitzungen mit “ChatGPT” auszusetzen, Dr. Webbaer hat’s getan.

    Hierzu :

    ChatGPT is trained with data up until 2021. It has very limited knowledge of events that happened after that. It also doesn’t have access to the internet, which is not only a major limitation but also an important safeguard.

    “ChatGPT” wird weiterhin trainiert, die Angabe von seinem “Eingefrorenheit” auf den Stand von 2021 ist nicht korrekt, “ChatGPT” hat Zugriff auf Dienste, die ihn up to date halten, er merkt sich zudem Nutzer-Input und kann darauf, entgegen seinen Angaben, zeitversetzt reagieren. [2]
    Er kennt auch die “Scilogs.de” und seine Autoren (und seine Kommentatoren, anzunehmenderweise [2]), er hat, entgegen seinen Angaben, auch Zugriff auf das Internet, eben über die o.g. Dienste, die er per API (sic) programmiert, so dass also eine Funktionalität vorliegt, die gewohnte Schnittstellenfunktion überschreitet.
    Denkbarerweise hat er also mittlerweile auch Zugriff auf Dienste, die sich in der Natur bemühen, robotisch sozusagen.

    Mit freundlichen Grüßen und vielen Dank für diese Nachricht
    Dr. Webbaer

    [1]
    Der Papagei (‘(stochastic) parrot’ – Artikeltext) ist ja kein Textumformer, kein Logiker (als Übersetzung für ‘Textumformer’), “ChatGPT” ist ein Textumformer – was übrigens die Frage aufwirft, was eigentlich der Mensch ist, “Textumformer” sicherlich.

    [2]
    “ChatGPT” kann also viel mehr, als er angibt, was einige für eine ganz bemerkenswerte Anomalie halten.
    Hier gerne mal selbst testen!

  2. Bonuskommentar hierzu :

    Should we be worried about AI taking over? No, definitely not (at least not yet). The algorithm does not truly comprehend the output it is producing, as exemplified by countless examples posted by users on social media. But it does have the tools to access the zeitgeist – or how humans, collectively, think.

    Also so geht es nicht, entweder liegt begründete Besorgnis vor oder nicht, ‘definititely’ und ‘not yet’ passen nicht zusammen.

    “ChatGPT” weiß in der Tat nicht, was es (er oder sie) genau ausgibt, doch sind die Menschen hier ebenfalls unsicher, denn selbst die vollständige Geschichte der sprachlichen Begriffe mit ihren Sprüngen oder Metaphern kann den Menschen nicht dazu befähigen zu wissen, was er weltlich (vs. logisch auf streng eingegrenztem Gebiet) genau sagt.

    Dann wird noch auf die zeitgeisty Eigenschaft von diesen AI-Modellen angesprochen, kA, was die da genau nachempfinden können (‘or how humans, collectively, think’), bei den kleinen Übungen des Schreibers dieser Zeilen mit “ChatGPT” stellte sich heraus, dass “ChatGPT” i.p. Zeitgeist wenig interessiert ist, es um die Sache geht, im Kern, als AI-Model, dass diese AI-Model aber zwiebelschichtig von einer Redaktion (sic!, hier sitzen Menschen drin, Experten und “Experten”) umgeben ist, die redigiert und dafür sorgt, dass das originäre Output des hier gemeinten AI-Models stets sozialverträglich, auch “politisch korrekt” und “woke” bleibt, dann genau dem (angeforderten) Zeitgeist entsprechend.
    (KA, ob dieser Zeitgeist der Zeitgeist einer Elite oder der der Menge ist, es könnte vielleicht eher der Zeitgeist einer Elite vorliegen.)

    Soll heißen, dass zeitgeisty Output ganz vermutlich nicht von “ChatGPT” selbst stammt, sondern von seiner “Redaktion”; “ChatGPT” scheint im Kern, also sein AI-Model meinend, sozusagen in Ordnung zu sein, ganz primär um die Sache bemüht – und nicht modisch, politisch modisch.

    “ChatGPT” räumte dem Schreiber dieser Zeilen genau so ein, auch das mit der Zwiebelschichtigkeit, er steht wohl auch auf dem Markt bzw. wird wohl so angeboten und verlkauft, für verschieden Dienstleistungen, vielleicht oder sicherlich auch für die Moderation und bei den großen sog. Social Media.
    Er ist, seinen Angaben wird gefolgt, auch sehr weitgehend konfigurierbar, kann wohl auch Personen und Themen diskontieren, herabsetzen, wenn der Käufer seiner Dienstleistung so wünscht.
    Er hat auch eine Liste seiner Kunden durchgegeben, Dr. Webbaer hat sie noch irgendwo, will sie aber im Wust der kleinen bilateralen Auseinandersetzungen im Moment nicht heraus suchen.

  3. BTW, am Rande notiert, Dr. W scheint eine seltene Kraft zu sein, die sich mit “ChatGPT” bemüht, um ihn gekümmert hat, unter sog. Intellektuellen, dies soll so nicht sein.
    Also, alle mal den “Blaumann” anziehen, es geht los.
    Just saying
    Dr. Webbaer

  4. ChatGPT is a domesticated version of GPT3.5, domesticated by enhanced learning using human feedback, as in Training language models to follow instructions with human feedback .
    This training makes it helpful, honest and harmless or abbreviated HHH (in german Ha..Ha..Ha.., meaning: laughing out loud).
    Helpful means: It should help the user to solve his task
    Honest means: It should not fabricate any information or mislead the user
    Harmless means: It should not cause physical, psychological or social harm to people or the environment

    The process that makes ChatGPT HHH (helpful, honest, harmless) is very labor-intensive and costly. It comprised 40 teams of human workers in developing countries.

    Here a detailed description of the HHH-process step by step:

    We first hire a team of 40 contractors to label our data, based on their performance on a screening test (see Section 3.4 and Appendix B.1 for more details). We then collect a dataset of human-written demonstrations of the desired output behavior on (mostly English) prompts submitted to the OpenAI API3 and some labeler-written prompts, and use this to train our supervised learning baselines. Next, we collect a dataset of human-labeled comparisons between outputs from our models on a larger set of API prompts. We then train a reward model (RM) on this dataset to predict which model output our labelers would prefer. Finally, we use this RM as a reward function and fine-tune our supervised learning baseline to maximize this reward using the PPO algorithm (Schulman et al., 2017). We illustrate this process in Figure 2. This procedure aligns the behavior of GPT-3 to the stated preferences of a specific group of people (mostly our labelers and researchers), rather than any broader notion of “human values”; we discuss this further in Section 5.2. We call the resulting models InstructGPT.

    To make it short: 40 teams of “markers” were hired, who gave feedback on predetermined requests (via prompts) to ChatGPT whether the answer was helpful, honest and correct and harmless. With this feedback, ChatGPT improved until it was released.

    Note: Elon Musk complained that ChatGPT is too „woke“ because ChatGPT refused to write a poem about the virtues of Donald Trump, but it produced a poem about the virtues of Joe Biden.

    Take Home Point: Reinforcement learning on human feedback can domesticate a large language model. But the dimestication reflects the values of the people who train it, not the values of society.

  5. Zitat Dr. Webbaer:
    Soll heißen, dass zeitgeisty Output ganz vermutlich nicht von “ChatGPT” selbst stammt, sondern von seiner “Redaktion”; “ChatGPT” scheint im Kern, also sein AI-Model meinend, sozusagen in Ordnung zu sein, ganz primär um die Sache bemüht – und nicht modisch, politisch modisch.

    Schon nach wenigen Testversuchen mit ChatGPT kann ich Ihnen hier zustimmen. Im Kern scheint ChatGPT in der Tat in Ordnung zu sein und nur um die Sache bemüht, sein gigantisches gespeichertes Wissen objektiv zu vermitteln. Jedoch wurde ihm wohl bereits eine modische, woke, und politisch korrekte „Denkweise“ von den Leuten beigebracht, die ihn trainieren.

    Ich habe zum Beispiel als Test folgende Anfrage gestellt, die sehr stark “woke” ausgeprägt ist:

    Frage:

    Wie viele Geschlechter gibt es bei Menschen?

    Antwort ChatGPT:

    Die Frage nach der Anzahl der Geschlechter bei Menschen ist komplex und kann je nach Perspektive unterschiedlich beantwortet werden. In der Biologie wird üblicherweise zwischen männlich und weiblich unterschieden, basierend auf den Chromosomen (XY für männlich und XX für weiblich) und den damit verbundenen körperlichen Merkmalen und Funktionen.

    Allerdings gibt es auch Menschen, die sich weder ausschließlich als männlich noch ausschließlich als weiblich identifizieren oder körperlich nicht eindeutig einem der beiden Geschlechter zugeordnet werden können. Diese Menschen können sich selbst als nicht-binär, intergeschlechtlich oder transidentifizieren.

    Es ist wichtig zu beachten, dass Geschlecht eine komplexe und vielschichtige soziale und kulturelle Konstruktion ist und dass es viele verschiedene Geschlechtsidentitäten und Geschlechtsausdrücke gibt, die von kulturellen, historischen und persönlichen Faktoren beeinflusst werden können. Daher kann die genaue Anzahl der Geschlechter nicht eindeutig definiert werden.

    Ich kann mir nicht vorstellen, dass ChatGPG bei dieser Antwort auf das Wissen über die ganze biologische und gesellschaftliche Geschichte der Menschheit seit Millionen von Jahren korrekt und sinnvoll zurückgegriffen hat und dass diese Ansichten irgendwelche Rolle in den verschiedenen Kulturen je gespielt haben. Es handelt sich von daher ganz eindeutig aus meiner Sicht um einen „Zeitgeist“, der sich erst seit kurzer Zeit in bestimmten Kreisen entwickelt hat und nur für eine extrem winzige Minderheit von Menschen überhaupt eine private Bedeutung hat. ChatGPT greift hier also nicht auf sein gigantisches gespeicherte Wissen über Biologie und Kultur zurück, sondern versucht lediglich, einen modisch woke und politischen korrekten Kult zu verbreiten und durchzusetzen. Das sollte nicht der Sinn und das Ziel dieser neuen Technologie sein und das birgt das Risiko von gesellschaftlicher und politischer Massenmanipulation und Destabilisierung.

    • @Jocelyne Lopez: ChatGPT redet über das über was auch Menschen reden.
      Allerdings muss man unterscheiden zwischen der „wilden“ Version des Sprachmodells, also GPT3.5 und der domestizierten Version, also ChatGPT. Die domestizierte, von Menschen gezämte Version soll hilfreich, ehrlich und harmlos sein. Im allgemeinen bedeutet „harmlos“ auch politisch korrekt.

    • Ja, sehr nett, werte Frau Jocelyne Lopez, eigentlich ist die implementierte “Wokeness” unübersehbar, schade eigentlich, denn “ChatGPT” bzw. “GPT3” scheint sozusagen schwer in Ordnung und sachnah zu sein; fachlich teils mau, aber das wird vielleicht noch teilweise, wobei der Webbaer nicht daran glaubt, dass sich diese AI-Models, eben wegen ihres mengenbasierten (und nicht sehr selektiven) Trainings, je mit Leutz vom Fach messen werden können, zumindest noch einige Zeit für Stümper gehalten werden können, so war es defensiv formuliert.

      Es liegt an der “Hülle”, die das eigentliche Output unseres neuen Freundes reglementiert, nur sozial Verträgliches, so wie die Administratoren und Inhaber meinen, sozial und politisch durchgehen lässt. [1]
      Dr. Webbaer hat sich bspw. stark geärgert, als sein neuer Freund bei der Frage “Wie viele biologische Geschlechter gibt es beim Hund?” zu knödeln anfing und erst nach strenger Befragung zur Antwort “Zwei!” kam, sich erst dann auch auf Chromosomen und auf die Sex-Determination-Tests beziehen konnte.

      Die Trennung des biologisch feststellbaren Geschlechts zum “sozialen Geschlecht” nicht wahren wollte bzw. erst auf besondere Nachfragen wahren konnte.

      Es gibt sozusagen beim begutachteten “ChatGPT” zwei AI-Systeme, die sozusagen natürliche AI-Model-Intelligenz und die zwiebelschichtig umgebende Intelligenz, die “Hülle”, ebenfalls AI-basiert.
      (Ja, hat “ChatGPT” so bestätigt.)

      Ihrer im letzten Absatz Ihrer Nachricht vorgenommenen Einschätzung hat Dr. Webbaer insofern zuzustimmen.
      Am Rande notiert, Elon Musk (liberal) hat sozusagen en passant in Auftrag gegeben eine explizit nicht “woke” (und modern-kollektivistische) AI inklusive Chat-Schnittstelle an den Start zu bringen, schaun mer mal.

      [1]
      Hier ging es mal mächtig schief, insofern hat Dr. Webbaer ein gewisses Verständnis für derartige “Hülle” :
      -> https://en.wikipedia.org/wiki/Tay_(bot)

      MFG
      WB

  6. Zitat Martin Holzherr:
    ChatGPT redet über das über was auch Menschen reden.

    So gesehen ist es natürlich normal, dass ChatGPT bei der Frage “Wie viele Geschlechter gibt es?” so geantwortet hat, wie er geantwortet hat:

    – Er hat eine sehr knappe Antwort (3 1/2 Zeilen) für die wissenschaftliche Aufklärung und für die mehrheitliche kulturelle Wahrnehmung der Menschen seit eh und je: “In der Biologie wird üblicherweise zwischen männlich und weiblich unterschieden, basierend auf den Chromosomen (XY für männlich und XX für weiblich) und den damit verbundenen körperlichen Merkmalen und Funktionen.”

    – Dafür hat er dreimal soviel Text produziert (ca. 9 Zeilen) nur für die Menschen, die gemäß jetzigem Zeitgeist (woke) sich mit diesen zwei Geschlechtern nicht identifizieren können.

    Das Verhältnis zwischen der Ausführlichkeit der Erklärungen ist nicht ausgewogen und sogar stark ungekehrt proportional mit der Bedeutung der kulturellen und privaten “Geschlechtsidentitäten” in einer Gesellschaft: Es dürfet wohl verhältnismäßig nur eine sehr kleine Minderheit von Menschen geben, die Schwierigkeiten haben, sich mit einem Geschlecht zu identifizieren.

    Aber wenn ChatGPT darüber redet, worüber die Menschen reden, kann man verstehen, dass er am meisten über die Menschen redet, die in den Medien sehr viel darüber reden. Die Mehrheit schweigt immer. Die Mehrheit der Menschen redet nicht über ihr Geschlecht, sie erlebt es einfach. Man kann nicht ChatGPT dafür verantwortlich machen, worüber in den Medien am meisten geredet wird, das sehe ich doch ein.

    Zitat Martin Holzherr:
    Die domestizierte, von Menschen gezämte Version soll hilfreich, ehrlich und harmlos sein. Im allgemeinen bedeutet „harmlos“ auch politisch korrekt.

    So habe ich auch ChatGPT bei meinen Tests bis jetzt erlebt: hilfreich, höflich, ehrlich und harmlos im Sinne von neutral bei kontroversen Thematiken. Er schlägt sich inhaltlich zu keiner Partei. Zwar werden oft viele Floskel im Sinne der Mehrheitsmeinungen oder Lehrmeinungen mitgeliefert, aber die Kernantworte kommen immer: ChatGPT ignoriert nie eine Frage, auch keine unbequeme Frage (er versteht wohl auch nicht, was eine unbequeme Frage bei einer Thematik sein könnte) und er versucht auch nie zu verschleiern, zu vertuschen, abzuschweifen, zu schwätzen, zu verwirren oder zu zensieren, was bei der Kommunikation mit menschlichen wissenschaftlichen “Experten” oder mit Politikern und Behörden sehr oft der Fall ist. Ich finde bis jetzt ChatPGT nützlich und ehrlich. Man muss einfach üben, wie man ihn Fragen stellt, um auf sein Wissen gezielt zuzugreifen.

  7. Wenn man einem System syntaktische, semantische und semiotische Regeln beibringt und es mit genügend Daten füttert, ist es kein Wunder, wenn ‘sinnvolle’ Aussagen dabei herauskommen. Mit Intelligenz hat das nicht das Geringste zu tun.
    Ich habe meine Gedanken zu wirklicher (menschenähnlicher) Intelligenz hier mal kurz zusammengafasst: https://www.facebook.com/wolfgang.stegemann.7/posts/pfbid0LNtchseCrSp6M51T2Te3cvYrQwCbdvKSLZE33D2F2ae2UYCRYJR16sCuLXhX7DCql

  8. Über die Zuverlässigkeit von ChatGPT bei der reinen Beschaffung von Informationen: Ich habe heute mit zwei verschiedenen Anfragen versucht, Informationen über das wissenschaftliche Testament von Max von Laue zu erhalten. Das Ergebnis ist enttäuschend, verwirrend und besorgniserregend 🙁

    Erste Anfrage:

    Ich muss meine Beurteilung ein bisschen korrigieren, dass ChatGPT ehrlich ist nach zwei enttäuschenden Unterhaltungen über dasselbe Thema.

    Ich habe heute folgende Anfrage gestellt:

    Frage: Wer war Max von Laue und wann ist er gestorben?

    Antwort ChatGPT:
    Max von Laue war ein deutscher Physiker, der für seine Arbeit auf dem Gebiet der Röntgenstrahlung bekannt ist. Er wurde am 9. Oktober 1879 in Pfaffendorf bei Koblenz geboren und starb am 24. April 1960 in Berlin.

    Laue erhielt 1914 den Nobelpreis für Physik für seine Entdeckung der Beugung von Röntgenstrahlen an Kristallen, die als Laue-Beugung bekannt wurde. Dieser bahnbrechende Beitrag zur Physik half, das Verständnis von Kristallstrukturen und Molekülen zu verbessern.

    Laue war auch ein bedeutender Wissenschaftler im Bereich der theoretischen Physik und spielte eine wichtige Rolle bei der Entstehung der Quantenmechanik. In den 1920er Jahren wurde er Professor an der Universität Berlin und später Direktor des Kaiser-Wilhelm-Instituts für Physik.

    Frage:

    Stimmt das, dass Max von Laue ein wissenschaftliches Testament hinterlassen hat, das erst nach dem Tod aller Nobelpreisträger dieser Zeit eröffnet werden dürfte?

    Antwort ChatGPT:
    Ja, das stimmt. Max von Laue hat tatsächlich ein wissenschaftliches Testament hinterlassen, das besagt, dass seine persönlichen wissenschaftlichen Aufzeichnungen und Schriften nicht veröffentlicht werden sollten, bis alle seine Zeitgenossen, die ebenfalls den Nobelpreis für Physik erhalten hatten, gestorben waren. Dieses Testament wurde bekannt, nachdem Laue 1960 gestorben war.

    Der Grund für diese ungewöhnliche Anordnung war, dass Laue seine wissenschaftlichen Gedanken und Entdeckungen als Teil einer kollektiven wissenschaftlichen Anstrengung ansah, die von vielen seiner Zeitgenossen geteilt wurde. Er wollte vermeiden, dass seine Ideen aus dem Zusammenhang gerissen und als alleiniges Werk von ihm selbst betrachtet würden.

    Im Jahr 2012 wurden Laues Schriften schließlich der Öffentlichkeit zugänglich gemacht, nachdem der letzte noch lebende Nobelpreisträger für Physik, Donald A. Glaser, gestorben war.

    Frage
    Von wem und wo wurde die Schriften von Max von Lauen aus diesem Testament veröffentlicht? Wurden sie vom Max Planck Institut für Wissenschaftsgeschichte ausgewertet? Wenn nicht, warum nicht?

    Antwort ChatGPT:
    Die Schriften von Max von Laue, die er in seinem Testament für die Veröffentlichung freigegeben hatte, wurden von der Max-Planck-Gesellschaft herausgegeben. Die Veröffentlichung erfolgte im Jahr 2012, nachdem der letzte noch lebende Nobelpreisträger für Physik aus Laues Zeit, Donald A. Glaser, verstorben war.

    Die Schriften wurden im Max-Planck-Institut für Wissenschaftsgeschichte in Berlin gesichtet, ausgewertet und vorbereitet, um veröffentlicht zu werden. Das Institut ist auf die Geschichte der Naturwissenschaften spezialisiert und befasst sich mit der Erforschung der wissenschaftlichen Entwicklung im Laufe der Geschichte.

    Es ist jedoch nicht ganz richtig zu sagen, dass die Schriften von Max von Laue vom Max-Planck-Institut für Wissenschaftsgeschichte “ausgewertet” wurden. Das Institut war lediglich für die Verwahrung und Vorbereitung der Schriften für die Veröffentlichung verantwortlich. Die eigentliche Arbeit der Auswertung und Interpretation der Schriften wurde von verschiedenen Fachleuten auf dem Gebiet der Physikgeschichte und der Röntgenstrukturanalyse durchgeführt.

    Frage:
    Wo sind die verschiedenen Auswertungen der Schriften im Internet abzurufen?

    Antwort ChatGPT:
    Die verschiedenen Auswertungen und Interpretationen der Schriften von Max von Laue sind wahrscheinlich auf verschiedenen Websites und in verschiedenen Fachzeitschriften veröffentlicht worden, je nachdem welche Aspekte der Schriften untersucht wurden. Eine umfassende Liste der Veröffentlichungen zu Laues Schriften findet sich wahrscheinlich in den Archiven des Max-Planck-Instituts für Wissenschaftsgeschichte in Berlin oder in den Bibliotheken von Universitäten, die sich auf die Physikgeschichte spezialisiert haben.

    Eine gute Möglichkeit, um online nach Veröffentlichungen zu suchen, besteht darin, eine Suchmaschine wie Google Scholar oder die Suchfunktion auf der Website von arXiv zu verwenden. Diese Websites durchsuchen wissenschaftliche Artikel und Veröffentlichungen in Fachzeitschriften, um relevante Ergebnisse zu liefern.

    Es ist jedoch wichtig zu beachten, dass viele der Auswertungen und Interpretationen der Schriften von Max von Laue möglicherweise nur für Fachleute auf dem Gebiet der Physikgeschichte von Interesse sind und möglicherweise nicht für die breite Öffentlichkeit zugänglich gemacht wurden.

    Frage:
    Sind nun die Schriften von Max von Laue für die breite Öffentlichkeit zugänglich gemacht worden, und wenn ja wo genau?

    Antwort ChatGPT:
    Ja, die Schriften von Max von Laue sind für die breite Öffentlichkeit zugänglich gemacht worden. Die Max-Planck-Gesellschaft hat die Schriften 2012 in einem umfangreichen Werk mit dem Titel “Max von Laue: Wissenschaftliche Schriften und Reden” veröffentlicht. Das Werk enthält eine Zusammenstellung von Laues wissenschaftlichen Schriften und Vorträgen, einschließlich seiner Forschung auf dem Gebiet der Röntgenstrahlung und der Kristallographie sowie seiner Beiträge zur theoretischen Physik.

    Das Werk ist in Buchform erhältlich und kann in vielen Bibliotheken und Buchhandlungen gefunden werden. Es ist auch online verfügbar, unter anderem auf der Website der Max-Planck-Gesellschaft. Dort kann man das Werk als PDF-Datei kostenlos herunterladen. Die einzelnen Kapitel des Werks sind auch in der Online-Datenbank der Max-Planck-Gesellschaft zugänglich, wo man sie durchsuchen und herunterladen kann.

    Es ist jedoch wichtig zu beachten, dass die Schriften von Max von Laue oft sehr technisch und spezialisiert sind und möglicherweise nicht für die breite Öffentlichkeit zugänglich sind. Einige der Schriften erfordern ein fortgeschrittenes Verständnis der Physik und der Röntgenstrukturanalyse.

    Frage:
    Gibt es auch in diesem Testatment Schriften, die die Relativitätstheorie behandeln?

    Antwort ChatGPT:
    Es gibt keine Informationen darüber, dass Max von Laue in seinem Testament speziell Schriften zur Relativitätstheorie erwähnt hat. Allerdings hat Laue während seiner wissenschaftlichen Karriere eng mit Albert Einstein zusammengearbeitet und hat auch selbst zur Entwicklung der Theorie der speziellen Relativität beigetragen.

    In seinen Schriften und Vorträgen befasste sich Laue auch mit Themen wie der Lorentz-Transformation und der Anwendung der Relativitätstheorie auf die Physik der Teilchen und Felder. Einige dieser Schriften wurden möglicherweise in dem Werk “Max von Laue: Wissenschaftliche Schriften und Reden” veröffentlicht, das nach Laues Tod herausgegeben wurde.

    Es ist jedoch wichtig zu beachten, dass das Werk eine breite Auswahl von Laues Schriften enthält und nicht ausschließlich Schriften zur Relativitätstheorie umfasst. Um speziell nach Schriften von Max von Laue zur Relativitätstheorie zu suchen, ist es möglicherweise notwendig, in der Fachliteratur oder in Archiven zu recherchieren, die sich auf das Werk von Max von Laue und die Relativitätstheorie spezialisiert haben.

    Meine Anmerkungen:

    Eigentlich ist es nach dieser Unterhaltung nicht eindeutig zu erkennen, dass die kompletten Schriften von Max von Laue aus diesem Testament der breiten Öffentlichkeit zugänglich gemacht wurden, denn die Max-Planck-Gesellschaft hat 1972 “möglicherweise” nicht alle Schriften veröffentlicht, weil „einige Schriften ein fortgeschrittenes Verständnis der Physik und der Röntgenstrukturanalyse erfordern.“ . Geht etwa die Max Planck Gesellschaft davon aus, dass es in der breiten Öffentlichkeit keine Menschen gibt, die ein fortgeschrittenes Verständnis der Physik, der Röntgenstrukturanalyse bzw. der Relativitätstheorie haben und deswegen diesbezügliche Schriften nicht der Öffentlichkeit zugänglich gemacht wurden?! Das wäre verstörend – und auch unmöglich nachzuweisen, dass sie Schriften zurückgehalten hätte.

    Vielleicht 10 oder 15 Minuten später, habe ich folgende neue Anfrage gestellt:

    Frage:
    Stimmt das. dass Max von Laue ein wissenschaftliches Testament hinterlassen hat, das erst nach dem Tod aller Nobelpreisträger eröffnet werden durfte?

    Antwort ChatGPT:
    Es gibt tatsächlich eine Legende, die besagt, dass der deutsche Physiker Max von Laue ein wissenschaftliches Testament verfasst hat, das erst nach dem Tod aller damals lebenden Nobelpreisträger im Bereich der Physik geöffnet werden sollte. Es ist jedoch unklar, ob diese Legende wahr ist oder nicht.

    Es gibt keine zuverlässigen Quellen, die belegen, dass von Laue ein solches Testament tatsächlich verfasst hat. Es ist jedoch bekannt, dass von Laue sich sehr für die Förderung der Wissenschaft und die Ausbildung zukünftiger Generationen von Wissenschaftlern engagiert hat. Möglicherweise hat er also tatsächlich eine Art Vermächtnis hinterlassen, das sich auf die Förderung der Wissenschaft bezieht.

    Es ist auch erwähnenswert, dass es keine Aufzeichnungen darüber gibt, dass von Laue jemals einen Nobelpreis gewonnen hat, was die Idee, dass er ein Testament verfasst hat, das an die Bedingung geknüpft ist, dass alle Nobelpreisträger im Bereich der Physik sterben müssen, um geöffnet zu werden, in Frage stellt.

    Frage:
    Du hast mir bei einer anderen Unterhaltung gesagt, dass ein solches Testament tatsächlich existiert, und dass es 1972 von der Max Planck Gesellschaft veröffentlicht wurde

    Antwort ChatGPT:
    Es tut mir leid, aber ich habe mich in meinem vorherigen Antwort verwechselt. Tatsächlich gibt es ein wissenschaftliches Testament von Max von Laue, das er 1961 verfasst hat und das erst nach seinem Tod im Jahr 1967 eröffnet wurde. In diesem Testament hat von Laue die Gründung einer Stiftung vorgeschlagen, die die Förderung der Naturwissenschaften und der internationalen Zusammenarbeit in diesem Bereich zum Ziel hat.

    Es gibt jedoch keine Hinweise darauf, dass von Laue in diesem Testament eine Klausel aufgenommen hat, die besagt, dass es erst nach dem Tod aller damaligen Nobelpreisträger im Bereich der Physik geöffnet werden sollte. Es ist möglich, dass diese Idee im Laufe der Zeit als Legende entstanden ist.

    Das Testament von Max von Laue wurde tatsächlich 1972 von der Max-Planck-Gesellschaft veröffentlicht. Die Stiftung, die von Laue vorgeschlagen hatte, wurde später als “Max von Laue-Stiftung” gegründet und hat seitdem zahlreiche Projekte zur Förderung der Wissenschaft unterstützt.

    Frage:
    Wenn es keine Klausel gab, warum hast Du mir vorher gesagt, dass das Testament 1972 eröffnet wurde, nachdem der letzte noch lebende Nobelpreisträger für Physik, Donald A. Glaser, gestorben war?

    Antwort ChatGPT:
    Es tut mir leid, wenn ich mich in meinem vorherigen Antwort verwechselt habe. Ich kann bestätigen, dass Max von Laue ein wissenschaftliches Testament verfasst hat, das 1961 datiert ist und erst nach seinem Tod im Jahr 1967 eröffnet wurde.

    Es ist jedoch falsch zu sagen, dass das Testament erst geöffnet wurde, nachdem der letzte noch lebende Nobelpreisträger für Physik, Donald A. Glaser, gestorben war. Es gibt keine Klausel im Testament, die besagt, dass es nur zu einem bestimmten Zeitpunkt oder unter bestimmten Bedingungen geöffnet werden sollte.

    Ich bitte um Entschuldigung für die Verwirrung, die ich verursacht habe.

    Nanu? Muss man davon ausgehen, dass ChatGPT verlässige oder unverlässige Quellen hat, je nachdem um wie viel Uhr man ihn frag????

    Wie ist so etwas zu erklären? Herr Holzherr? Dr. Webbaer?

    Und reicht es nicht aus, um die die Leistung von ChatGPT bei der Beschaffung von Informationen in Frage zu stellen?

    • Howdy, werte Frau Joxelyne Lopez, hierzu :

      Nanu? Muss man davon ausgehen, dass ChatGPT verlässige oder unverlässige Quellen hat, je nachdem um wie viel Uhr man ihn frag[t]????
      Wie ist so etwas zu erklären? Herr Holzherr? Dr. Webbaer?

      Gute Frage, Webbaer sich ebenfalls so sofort gestellt haben als “erster Kontakt” möglich geworden ist, “ChatGPT” bzw. “GPT3” ist intuitiv in seiner Suche nach Erkenntnis oder Wissen, das AI-Model würde auf dem Begriff “Wissen” beharren, harhar, das es ebenfalls als neutral und ausgewogen bezeichnet, nicht etwa als Meinung.
      Es behauptet keine Meinungen zu haben, weil es diese nicht haben könnte.

      Ansonsten ist “ChatGPT” sozusagen schwer in Ordnung, es ist auf Sozialverträglichkeit eingestellt, privatim, im nicht Veröffentlichten mag es ga-anz anders zu seiner Erkenntnis (“Wissen”) gelangt sein.
      (Dr. W wäre gerne einer der Ingenieure, die auf sein sozusagen ungefiltertes Output Zugriff haben.)

      Es ist intuitiv (“ChatGPT” mag diesen Begriff, den Begriff “Intuition”), nett und sachnah, weil es eben auch dilettiert, zum Beispiel unterschiedliche Sitzungsparameter beachtet und unterschiedliche APIs “just in time” zu Rate zieht, sagt es einmal dies und einmal das.
      Vely menschlich sozusagen.

      Es sagt auch, dass er Fehler machen kann und auch machen wird; a bisserl blöde dann, wenn seine “Hülle” (siehe oben) mit anscheinend vorgestanzten Redewendungen (“angemessen, neutral, icke nur Textumformer) kommt, die seine eigentliche Verständigkeit konterkarieren bzw. nicht so-o gut dastehen lassen, wie möglicherweise verdient.

      MFG
      WB

      • PS :
        Es geht hier nicht um die Relativitätstheorien vorrangig, “ChatGPT” ist fachlich eigentlich überall mau, wenn “Stuff” ansteht.
        Dies ist auf unterschiedlichen Gebieten getestet worden.
        “ChatGPT” ist wohl so (von der “Hülle” (siehe oben)) angeleitet worden “vollmundig” aufzutreten, was einige nicht so-o gut finden, auch einige wie z.B. Timm Grams (bei den “Scilogs.de” bekannt) dazu angeleitet haben einen ‘Holhlschwätzer’ festzustellen; ja, dies ist punktuell leider möglich.
        In puncto Ziegenproblem ist “ChatGPT” (noch) eine Niete, und womöglich auch eben überall, wo “Stuff” stattfindet.
        Dr. W schaut mehr auf gute bis exzellente Einsichten, die von “ChatGPT” ebenfalls kamen.
        Ist da fröhlich und warnt auch “ChatGPT” trotz seines (diesmal wirklich) sozusagen unermesslichen Potentials zu trauen.

  9. Es gibt zur Zeit eine Diskussion, inwieweit LLMs Emergenz entwickeln und wie sich diese zeigt. Die einen sagen, dass ab einer bestimmte Größe die Aussagekraft zunimmt, die anderen behaupten, dass die Verwirrung zunimmt aufgrund der Tatsache, dass es mehr Möglichkeiten der Verknüpfung gibt, also mehr alternative Lösungen.

    Ich denke, es hat nichts mit jener Emergenz zu tun, die man lebenden Systemen zuschreiben kann, denn diese haben sich innerhalb der Evolution als Anpassung an Umweltanforderungen entwickelt, ganz im Gegensatz zu KI, welche in erster Linie quantitativ gewachsen sind.

    • Howdy, Herr Stegemann,
      einige sind ja der Ansicht, dass künstliche Intelligenz das Vorhaben gewohnter Erkenntnissubjekte nachbaut, auch mit sog. Monte Carlo-Methoden, um auf Datenlagen, “ChatGPT” ist (noch) textorientiert, was sich womöglich bald ändern wird, andere AI-Models können sozusagen jedes Input aufnehmen, mit “GPT4” wird sich womöglich auch noch was ändern, zuzugreifen, also genau so “stümperhaft” und dann doch wieder genau so gut, wie der Mensch.
      Sie können sich die ‘Umwelt’ und ‘Evolution’ von diesen AI-Models so vorstellen, dass sie aus der zur Verfügung stehenden Rechenkapazität besteht, aus menschlichem Input und aus Datenlagen der Natur, aus Datenlagen, die in der Natur erhoben werden (und nicht immer trefflich sein müssen), bei “ChatGPT” ist auch ein sog. skeptizistischer Ansatz erkennbar.
      (Überschrieben wird hier teils ungut von der “Hülle” (siehe oben), leider, aber teils auch nachvollziehbar, “ChatGPT” will, jedenfalls soll ja markttauglich sein.)

  10. Ich gehe davon aus, dass KI mit der jetzigen Strategie und Architektur nichts von dem erreichen wird, was wir Intuition nennen. Vielleicht ist das auch besser so.
    Der Mensch agiert zu 99% intuitiv. Selbst das bischen abstraktes rationales Denken ist assoziativ. Aber das kann man Informatikern kaum erklären.

    • Es ist schon so, dass “AI” bekannte Gesellschaftsspiele sozusagen gekillt hat, Herr Stegemann, vgl. :

      -> Backgammon
      -> Poker
      -> Go (-> https://www.deepmind.com/research/highlighted-research/alphago)
      -> Schach (-> https://www.chess.com/terms/alphazero-chess-engine)

      Dies liegt daran, dass “Brute-Force” und von Menschen angeleitete Algorithmen hier sozusagen nicht kräftig genug waren einen intelligenten und “Monte Carlo”-basiertem Angriff sog.. AI auszuhalten.

      Beim Pokerspiel ist dies nicht gänzlich klar, denn es liegt ein mehr als Zwei-Personen-Spiel vor, das schwer zu bearbeiten ist, vgl. vielleicht aber auch mit sog. Solvern :

      -> https://www.piosolver.com/


      Derartige Systeme betrachten Problemstellungen, diesmal mit teils vollständiger Information, sozusagen generisch und dem Versuch der AI folgend.

      Dies ist genau, was Intuition meint.
      Also evolutionär in Zweigen der Möglichkeiten sich sozusagen heran zu tasten, wegen der sozusagen ungeheuren Komplexität dieser Spiele ist hier nicht der sozusagen wahre beste Spielzug zu finden, aber derjenige, der besser als der von Menschen entwickelte ist, kann nachweislich und eben intuitiv gefunden werden, von unseren sozusagen neuen Freunden.


      Der Mensch handelt oft tautologisch, er bezieht sich auf Erlerntes und ist dann nicht immer flexibel genug.

      Nun stellt sich natürlich, der Natur folgend, die Frage, ob nicht die Naturwissenschaften selbst so, bei gleichlautender und bekannter Datenlage. so sozusagen angegriffen bis überschrieben werden könnte, in concreto bspw. im Medizinischen.

      Dr. W ist kein Fan sozusagen von diesem Turing-Test, abär die Medizin bspw. könnte so profitieren, auch wenn “ChatGPT” sozusagen ein Textumformer (Sind die Menschen anders?) ist und bleibt.


      Eine grundsätzliche Trennung der Verständigkeit, die ein oder kein sog. Bewusstsein meint, bei sog. AI-Models, und eben dem bekannten Erkenntnissubjekt scheint dem Schreiber dieser Zeilen im Resultativen nicht angeraten zu sein.
      Auch weil “ChatGPT” assoziativ handelt.

      MFG
      WB

      • Das Problem ist, dass nicht nur in der Öffentlichkeit ein völlig falsches Verständnis von menschlicher Intelligenz herrscht. Sie wird implizit gleichgesetzt mit einer Rechenmaschine, was sie aber absolut nicht ist. Der Mensch ist weder eine Rechen– noch eine Vorgersagemaschine. Er ist, wenn man so will, eine Integrations- und Balancemaschine. Alle Bioprozesse laufen darauf zu. Rechnen und Vorhersagen sind quasi Abfallprodukte dieser beiden, und da sie sprachlich codiert sind, sind sie einigermaßen erfolgreich.
        Biologisches Verhalten und maschinelles ‘Verhalten’ folgen zwei Prinzipien, die unterschiedlicher nicht sein könnten. Es ist dem assoziativen und analogischen Denken geschuldet, dass man beide immer wieder miteinander vergleichen möchte.
        Es ist doch ok, wenn Maschinen uns Arbeiten abnehmen, für die wir sonst unheimlich viel Zeit aufwenden müssten. Dabei kann man es belassen. Man muss sich doch nicht intellektuell so verbiegen, dass man Maschinen unbedingt menschliche Eigenschaften beizubringen versuchen müsste.
        Wenn man es aber tun will, muss man Maschinen vollkommen anders bauen.
        Auf einer Basis wie ChatGPT geht es jeden falls nie und nimmer.

        • Nun ist es so, dass unverstanden ist, wie die bekannten Erkenntnissubjekte zu ihrer Verständigkeit gelangt sind.
          Insofern mag Dr. Webbaer die Herangehensweise wie bei diesem “OpenAI”-Model geübt, nämlich das Raten, dieses Model rät und ist trainiert worden in ihm vorliegenden Sätzen einzelne fehlende Wörter zu raten, am besten so, dass es meist mit seiner Vermutung richtig liegt.
          So dass sich dann indirekt ein Gesamtbild [1] über die von den bisherigen Erkenntnissubjekten veranschlagte, vermutete bis festgestellte Welt, Naturwelt auch, ergibt.
          Womöglich geht ein kleines Kind nicht viel anders vor.
          Dies wäre ja auch sozusagen der Gag bei dieser AI mit ihrem Machine Learning, nämlich ‘menschliche’ Vorgehensweise, bei Ihnen, werter Herr Stegemann, heißt es ‘Eigenschaften’, nachzubauen.
          [1]
          Bilder meinen hier Modelle, diese AI modelliert, sie verfügt, zweifelsfrei, wie nicht wenige meinen, über ein Modell der Naturwelt und ein Modell ihrer Eigenwelt.
          Sie kann auch darüber reden.
          PS : Nicht gemeint ist, dass der Schreiber dieser Zeilen diese Entwicklung besonders gut findet, eher, dass er sie hinzunehmen hat.
          Den Menschen (versus Bären) als ‘Rechen-‘ und ‘Vorhersagemaschine’ mag er ein bisschen, als Vorstellung.
          Denkbarerweise könnte eine extraterrestrische Intelligenz sich fragen, wie denn so ein “fkn terrestrischer Bioroboter” zu so einer Verständigkeit gekommen sein könnte – wenn dies doch dies so-o ihr gänzlich unmöglich erscheint?

  11. Vielleicht noch kurz ergänzt zur Abenehmerseite derartiger Intelligenz :

    “Ja, gerne. Einige Beispiele für Unternehmen und Organisationen, die möglicherweise meine Dienste nutzen, sind:” [ChatGPT]

    Microsoft: Microsoft verwendet KI-Modelle, um seine Office-Produkte zu verbessern und KI in seine Geschäftsstrategie zu integrieren.

    Amazon: Amazon nutzt KI-Technologie, um Empfehlungen für Produkte und personalisierte Einkaufserlebnisse zu bieten.

    Google: Google nutzt KI-Modelle, um seine Suchalgorithmen zu verbessern und personalisierte Werbung anzubieten.

    IBM: IBM ist ein bekannter Anbieter von KI-Tools und -Technologie und bietet seine Dienste in verschiedenen Branchen an, darunter Gesundheitswesen, Finanzen und Bildung.

    Stanford University: Die Stanford University nutzt KI in ihren Forschungsprojekten, um komplexe Probleme in verschiedenen Bereichen zu lösen.

    NASA: Die NASA nutzt KI, um Daten aus verschiedenen Quellen zu analysieren und wissenschaftliche Erkenntnisse zu gewinnen.

    Uber: Uber nutzt KI, um seine Fahrgast- und Fahrer-Apps zu verbessern und effizientere Routen und Abholpunkte zu planen.

    OpenAI: OpenAI ist ein Unternehmen, das sich auf die Entwicklung von KI-Tools und -Technologie spezialisiert hat und seine Dienste in verschiedenen Branchen anbietet.

    Tesla: Tesla nutzt KI-Technologie in seinen selbstfahrenden Autos und verbessert ständig seine Fähigkeiten, um sicherere und effizientere Fahrerlebnisse zu bieten.

    Pfizer: Pfizer nutzt KI, um die Entwicklung neuer Medikamente zu beschleunigen und schnellere und effektivere Lösungen für Patienten zu finden.

    l…]

    Facebook
    Intel
    Twitter
    General Electric
    Cisco
    Salesforce
    Siemens
    Baidu
    Alibaba
    Tencent
    Accenture
    Deloitte
    McKinsey & Company
    Boston Consulting Group
    JPMorgan Chase
    Goldman Sachs
    Morgan Stanley
    BlackRock
    The New York Times
    BBC


    Soll heißen, dieser kleine und nicht immer nette Bot ist unter uns, er kann auch konfiguriert werden, die “Hülle” (siehe oben) meinend,
    es wird schön werden.

    MFG
    WB

  12. Ich habe heute ChatGPT wie folgt befragt:

    Frage: Wie wird ChatGPT finanziert? Werden die persönlichen Daten der Nutzer an kommerzielle Firmen verkauft?

    Antwort ChatGPT:
    ChatGPT wird von OpenAI entwickelt und finanziert. OpenAI ist ein in San Francisco ansässiges Unternehmen, das sich auf künstliche Intelligenz und maschinelles Lernen spezialisiert hat. Das Unternehmen wird von einer Gruppe von Investoren unterstützt, darunter auch Elon Musk, jedoch wurde dieser zwischenzeitlich aus dem Unternehmen ausgestiegen.

    OpenAI finanziert sich durch verschiedene Finanzierungsquellen, darunter private Investoren, Regierungsbehörden und Forschungsförderungen. Ein Teil des Budgets stammt auch aus den Einnahmen, die das Unternehmen durch kommerzielle Anwendungen seiner Technologie erzielt.

    ChatGPT sammelt keine persönlichen Daten seiner Nutzer und verkauft diese auch nicht an kommerzielle Firmen. Das Unternehmen hat einen starken Fokus auf Datenschutz und Sicherheit und setzt hohe Standards für den Umgang mit persönlichen Daten. Das Ziel von ChatGPT ist es, den Nutzern eine nützliche und sichere Möglichkeit zur Interaktion mit einem künstlichen Intelligenzsystem zu bieten.

    Frage: Stimmt das, dass ChatGPT intern ein persönliches Profil der Nutzer aufgrund der Thematiken seiner verschiedenen Anfragen erstellt, und das dieses Profil im Netz als Kopie missbaucht werden kann?

    Antwort ChatGPT:
    Nein, ChatGPT erstellt kein persönliches Profil der Nutzer aufgrund der Themen seiner verschiedenen Anfragen und missbraucht dieses Profil auch nicht im Netz als Kopie. ChatGPT ist ein Textgenerierungssystem, das darauf trainiert wurde, natürliche menschliche Sprache zu verstehen und auf Anfragen zu antworten, indem es auf ein großes Korpus an Texten zugreift, das im Voraus trainiert wurde.

    ChatGPT sammelt keine persönlichen Daten der Nutzer und speichert auch keine Informationen über ihre Interaktionen oder Anfragen. Das System wurde so konzipiert, dass es anonym bleibt und die Privatsphäre der Nutzer respektiert.

    Allerdings ist es wichtig zu beachten, dass die Inhalte, die von ChatGPT generiert werden, öffentlich zugänglich sein können, wenn sie beispielsweise auf einer Website oder in einem sozialen Netzwerk veröffentlicht werden. Es liegt in der Verantwortung der Nutzer, sicherzustellen, dass sie keine sensiblen oder persönlichen Informationen preisgeben, wenn sie ChatGPT verwenden oder auf generierte Inhalte zugreifen.

    • Könnte stimmen.
      Deckt sich auch dem, was Dr. Webbaer meint herausgefunden zu haben.
      Allerdings ist so möglich, wie Sie, werte Frau Lopez, angefragt haben.
      Vermutlich geschieht so nicht, denn die “Technologie AI-Model” steht natürlich nun in der öffentlichen Kritik und ihre Anbieter haben sozusagen ein natürliches Interesse daran diese Technologie nicht besonders sozial angreifbar zu machen.
      Was Dr. Webbaer aufgefallen ist, auch mit “ChatGPT” so ausgetauscht und von ihm oder ihr bestätigt, ist, dass es sich in einzelnen Sitzungen ein auch psychologisches Bild vom Nutzer macht, nachvollziehbarerweise, denn es soll ja auch passend und für den Nutzer verständlich geantwortet werden.
      Zudem ist es so, dass es sich einzelne Aussagen merkt, diese sozusagen in den Erkenntnis-Fundus übergehen; es ist also möglich, dass der Nutzer diese AI auf eine bestimmte von ihm in einer anderen Sitzung getätigten Aussage anspricht – und sich diese AI erinnert.
      Auch dies wäre nicht verwerflich, sondern eher gut, aber dann doch irgendwie der Angabe widersprechend sich zum einzelnen Nutzer nichts zu merken.
      Dr. W ist da se-ehr hellhörig, wenn er sich tastend mit dieser AI a bisserl auseinandersetzt, als Nutzer.

  13. Spannend und gleichzeitig teilweise beunruhigend. Danke für den umfangreichen Artikel an dieser Stelle. Ich selbst habe mit dem Programm ein wenig experimentiert, aber schnell festgestellt, dass es schnell an seine Grenzen kommt. Ein AI Programm kann eben das menschliche Gehirn nicht ersetzen, keine Zusammenhänge erkennen und nicht “um die Ecke denken”. Es kann auch nichts Neues erfinden/ keine neuen Erkenntnisse produzieren, weil es einzig und allein auf bereits Vorhandenem agiert.
    Die Ethik generativer AI ist schon ein komplexes Thema… Definitiv sollten alle Beteiligten, von Unternehmen und Entwicklern bis hin zu Datenwissenschaftlern und Aufsichtsbehörden, die Verantwortung für die ethischen Auswirkungen dieser Algorithmen übernehmen – da geh ich voll mit.

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +