Eigenvektoren und die Psychologie
BLOG: Heidelberg Laureate Forum
Wie definiert man in der Physik eine elementare Größe wie Länge, Zeit oder Masse? Durch ein Messverfahren. Seit den neuesten Definitionen der Sekunde und des Meters ist das „offizielle“ Messverfahren zwar ungeheuer kompliziert geworden; aber für den Hausgebrauch bieten Zollstock und funkgesteuerte Armbanduhr geeignete Näherungen.
Und wie definiert man eine Größe in der Psychologie? Als ich zum ersten Mal die Antwort hörte – von einer Kommilitonin vom Fach –, war ich doch etwas verblüfft: Durch einen Fragebogen! Aber es stimmt schon. Gut, man muss den Begriff des Fragebogens etwas weiter fassen, so dass darunter nicht nur die eher neckischen Selbsttests aus der Illustrierten fallen, sondern auch Intelligenztests oder allgemeiner alle Mittel, mit denen Psychologinnen und Psychologen irgendwelche Eigenschaften ihrer Forschungsgegenstände – der „Versuchspersonen“ – zu bestimmen trachten.
Der lästerliche Spruch „Intelligenz ist, was der Intelligenztest misst“ hat durchaus einen wahren Kern. Das Interesse in der Psychologie gilt nicht vorrangig den Rohdaten, sprich den unmittelbaren Auskünften der Versuchsperson oder ihren einzelnen Testergebnissen, sondern dahinter liegenden Eigenschaften wie zum Beispiel Intelligenz. Und da in deren Definition eine erhebliche Willkür steckt, fühlen sich die Vertreter des Fachs selbst damit nicht wirklich wohl.
Gleichwohl ist gegen das Ziel an sich nichts einzuwenden: Aus einer Vielzahl von Messwerten, die jeder für sich nicht besonders erhellend sind, möchte man ein übersichtliches Gesamtbild gewinnen, das mit möglichst wenigen Zahlen eine möglichst aussagekräftige Auskunft über die Versuchsperson liefert. Und das am Ende möglichst frei von jeder Willkür.
In der Regel gibt es auch gute Gründe, diese Datenreduktion – von vielen Messwerten auf wenige charakterisierende Größen – für sinnvoll zu halten. Vielleicht misst ein Test die Zeit, die die Versuchsperson für die Lösung einer Rechenaufgabe benötigt, und dann die entsprechende Zeit für eine andere Rechenaufgabe. Dann werden die Ergebnisse dieser beiden Teiltests ziemlich genau dasselbe sagen.
Wie weit diese Übereinstimmung geht, kann man mit leichter Mühe aus den Testergebnissen für eine hinreichend große Anzahl von Versuchspersonen zahlenmäßig bestimmen. Es handelt sich um den sogenannten Korrelationskoeffizienten, den ich Ihnen im letzten Beitrag vorgestellt habe. Ist er 1, sagen beide Ergebnisse genau dasselbe, ist er –1, sagen sie genau das Gegenteil voneinander, und ist er 0, dann hat das eine mit dem anderen nichts zu tun.
Es hilft, sich die ganze Sache geometrisch vorzustellen. Der Test liefert für jede Versuchsperson eine Reihe von, sagen wir, 20 Zahlen: Punktzahlen für das Erreichen gewisser Ziele, Antwortzeiten, Vorlieben und Abneigungen auf einer Skala von 1 bis 10, Zustimmung oder Ablehnung für eine Behauptung auf einer ebensolchen Skala. Dann fassen wir das Gesamtergebnis des Tests für diese Versuchsperson als einen Punkt in einem 20-dimensionalen Raum auf; die Einzelergebnisse sind die 20 Koordinaten dieses Punktes.
Man spricht auch gerne von Vektoren anstelle von Punkten und denkt sich statt des schlichten Punkts einen geraden Strich oder auch Pfeil, der vom Nullpunkt bis zu diesem Punkt verläuft. Wozu? Weil man dann Winkel zwischen diesen Vektoren definieren kann und zum Beispiel sagen kann, ob ein Vektor auf einem anderen senkrecht steht. Es stellt sich heraus, dass das meiste von dem, was man an Geometrie im gewöhnlichen Raum kennt, auf hochdimensionale Räume übertragbar ist. Insbesondere ist der Korrelationskoeffizient im Wesentlichen der Cosinus des Winkels zwischen den beiden Vektoren: 1, wenn sie in dieselbe Richtung zeigen, –1, wenn sie in entgegengesetzte Richtungen zeigen, und 0, wenn sie aufeinander senkrecht stehen.
Übrigens: Vor der ganzen Rechenarbeit werden alle Messgrößen standardisiert, das heißt mit Hilfe der z-Transformation so zurechtgemacht, dass sie normalverteilt mit Erwartungswert 0 und Standardabweichung 1 sind.
Leider haben wir alle unsere Schwierigkeiten, uns gedanklich in einem 20-dimensionalen Raum zurechtzufinden. Deswegen denken wir uns jetzt der Anschaulichkeit zuliebe einen Test mit nur drei Aufgaben, so dass jedes Testergebnis ein Punkt im vertrauten dreidimensionalen Raum ist. Wenn zwei dieser Aufgaben im Wesentlichen dieselben Fähigkeiten abfragen wie die beiden Rechenaufgaben im Beispiel oben, dann sind die zugehörigen Werte x und y einander ziemlich ähnlich, und dann liegen die Punkte alle in der Nähe der Geraden x = y, der Winkelhalbierenden im Koordinatensystem. Jetzt nehmen wir den dritten Wert z hinzu, der mit den ersten beiden vielleicht nichts zu tun hat, dann liegen alle Testergebnisse ziemlich genau in einer Ebene. In unserem Beispiel steht diese Ebene vertikal auf der Geraden x = y; im Allgemeinen kann sie irgendwie im Raum liegen.
Jetzt bietet sich eine Datenreduktion geradezu an. Wir verdrehen unser Koordinatensystem so, dass zwei Koordinatenachsen in unserer Ebene liegen und die dritte senkrecht dazu steht. Dann rechnen wir unsere Testergebnisse in die neuen Koordinaten um – und können die dritte Koordinate getrost weglassen. Deren Werte sind so nahe an null, dass sie als Messfehler durchgehen können; so haben wir unser Koordinatensystem zurechtgemacht.
Zurück aus der dreidimensionalen Spielwiese in den echten 20-dimensionalen Raum. Gesucht ist eine Drehung des Koordinatensystems (aus 20 Achsen) mit der Eigenschaft, dass die ersten paar Koordinaten schon die Gegend, in der die Punkte der Testergebnisse liegen, ziemlich genau beschreiben, so dass die Werte in den restlichen Koordinaten eher vernachlässigbar sind. In der Sprache der linearen Algebra: Gesucht wird ein Teilraum des 20-dimensionalen Raums mit der Eigenschaft, dass unsere Punkte ihm möglichst nahe liegen. Und das wiederum heißt, dass die Summe der Quadrate der Abstände zwischen Punkt und Teilraum minimal wird.
Dafür hält die lineare Algebra ein überaus elegantes Mittel bereit. In der Psychologie heißt es Hauptkomponentenanalyse, in der Mathematik spricht man von den Eigenwerten der Korrelationsmatrix und den zugehörigen Eigenvektoren. Die Korrelationsmatrix ist die Tabelle, in der die (empirischen) Korrelationen zwischen den einzelnen Messgrößen aufgelistet sind. (Für standardisierte Daten sind Korrelationen dasselbe wie Kovarianzen.) An der Stelle (i, j) der Tabelle steht also, wie viel die Antwort auf Frage i über die Antwort auf Frage j sagt. Genauso viel sagt die Antwort auf Frage j über die Antwort auf Frage i, was bedeutet, dass die Korrelationsmatrix symmetrisch ist. Nach dem Spektralsatz hat jede symmetrische (reelle) Matrix eine Orthonormalbasis von Eigenvektoren. Die wiederum liefern das Koordinatensystem, in dem unsere Korrelationsmatrix eine besonders einfache Form hat: eine Diagonalmatrix.
Dass es sich bei unseren neuen Basisvektoren, also denen, die das neue Koordinatensystem aufspannen, um Eigenvektoren der Korrelationsmatrix handelt, spielt im Folgenden keine bedeutende Rolle. „Ortho“ bedeutet: Die Eigenvektoren stehen senkrecht aufeinander; sie sind nur mit sich selbst korreliert und haben miteinander nichts zu tun. Und „normal“ sagt, dass sie die Länge 1 haben. Das vereinfacht manche Berechnung, ist aber ansonsten nicht weiter wichtig.
Ein Eigenvektor ist, wie jeder Vektor, eine Linearkombination der ursprünglichen Basisvektoren, deren jeder für ein Teiltestergebnis steht, also so etwas wie 0,3 mal Test 1 plus 0,15 mal Test 2 minus 0,07 mal Test 3 und so weiter. Andersherum kann man jedes Gesamt-Testergebnis als Linearkombination aus diesen Eigenvektoren verstehen.
Die Datenreduktion geht jetzt so: Man schaut sich die Eigenwerte in absteigender Reihenfolge der Reihe nach an. Vielleicht haben die ersten drei von ihnen noch einen deutlich positiven Wert, und dann fällt die Kurve steil ab, so dass alle folgenden Eigenwerte nur noch mühsam von null zu unterscheiden sind. Dann wirft man alle Eigenvektoren bis auf die ersten drei weg und hat bei nur geringer Verfälschung 20 Einzelwerte auf drei eingedampft.
Mit diesem Verfahren haben wir eine wundervolle Datenreduktion erzielt. Anstelle von 20 Einzelwerten muss der Computer sich nur noch drei merken und vor allem nur mit diesen dreien weiterrechnen. Wenn diese Daten nicht gerade psychologische Testergebnisse sind, sondern vielleicht ein digitalisiertes akustisches Signal, dann ist das äußerst praktisch. Dann muss nämlich nicht der komplette Datenwust über die Telefonleitung, sondern nur ein komprimiertes Signal, das gleichwohl das Wesentliche wiedergibt.
Dagegen ist die Anwendung auf psychologische Daten problematisch. Diese Spektralzerlegung in Eigenvektoren ist zwar völlig willkürfrei: ein schlichter mathematischer Algorithmus, in den nur die rohen Messdaten eingehen. Aber damit ist noch lange nicht klar, ob und wie man aus dessen Ergebnissen etwas Relevantes über den Forschungsgegenstand selbst erschließen kann.
Wie die Psychologie damit umgeht, versuche ich Ihnen im nächsten Beitrag zu erklären.
Psychologie wird bei uns an Naturwissenschaftlichen Fakultäten gelehrt, vielleicht ja deswegen
und nicht z.B. an Medizinischen.
Man spricht übrigens auch bei Mathematikern oder Physikern von Hauptkomponentenanalyse.
Aber warum soll es die Korrelationsmatrix und nicht gleich direkt die Kovarianzmatrix sein?
Was bringt eigentlich die sogenannte Z-Transformation für Vorteile?
Btw was für ein grandioser Name verglichen mit “echten”Transformationen, wie Fourier.
Ein psychologischer Effekt?
Für eine sinnvolle Rekonstruktion braucht man sowieso neben den Eigenvektoren die Eigenwerte und Varianzen.
Was sind jetzt Unterschiede, Vor- oder Nachteile bei Verwendung von Kovarianz- und Korrelationsmatrix?
Im englischen spricht man auch von der “z-score normalization”. Die z-Transformation ist nichts besonderes; sie ist einfach eine Normalisierung der Daten sodass der Mittelwert nacher 0 ist und die Abweichungen von 0 der Standardabweichung entsprechen.
Beispielsweise die Pearson Korrelation nutzt die z-Transformation bevor sie die Daten korreliert. Das hat im Bezug auf die Pearson Korrelation den Vorteil dass die Korrelation danach in dem festen Intervall von -1 bis +1 liegt (und nicht darüber hinaus).
Ferner kann sie für eine bessere Vergleichbarkeit sorgen wenn wir zwei verschiedene Variablen miteinander vergleichen und wissen möchten wie weit die jeweilige Variable vom Mittelwert entfernt liegt und zwar auf einer gemeinsamen Skala (eben den z-scores) für beide Variablen.
Noch ein Beispiel: man stelle sich zwei Zeitreihen vor die man visuell miteinander vergleichen möchte. Beide Zeitreihen operieren aber auf weit voneinander entfernt liegenden absoluten Werten. Man könnte entweder zwei y-Achsen einführen um beide Zeitreihen dennoch überlappend (und somit visuell vergleichbar) zu machen, oder man führt einfach eine die z-score normalization für beide Zeitreihen durch.
Ferner sollte man bedenken dass die z-Transformation Sinn für normalverteilte Daten machen kann. Viele komplexe Phänomene in der Natur (dazu gehören auch viele psychologische Variablen wenn man deren Dynamik misst, oder auch Gehirnaktivität…) sind aber nicht normalverteilt. Der Mittelwert oder der Median sagen allerdings nichts über eine Verteilung aus wenn Daten nicht annähernd normalverteilt sind; da müssen andere Statistiken her. Die z-Transformation macht dann meist keinen wirklichen Sinn mehr da ihre Verteilung dann auch nicht mehr normal sein wird.
Christoph Pöppe schrieb (11. Sep 2024):
> Wie definiert man in der Physik eine elementare Größe wie Länge, Zeit
Zeit ?? Nein — Dauer!,
also ausdrücklich eine (Mess-)Größe, wie “Länge” (oder “(räumliche) Distanz”, oder “(räumlicher) Abstand”, oder “(räumliche) Entfernung”). Merke:
Dauer : Zeit = Geldbetrag : Vermögen
.> oder Masse? Durch ein Messverfahren. Seit den neuesten Definitionen der Sekunde und des Meters ist das „offizielle“ Messverfahren zwar ungeheuer kompliziert geworden
Das (reell-wertige) Verhältnis zweier Dauern (zweier bestimmter voneinander getrennter Verläufe) überhaupt unmittelbar zu ermitteln, ist doch an sich schon so gut wie genauso kompliziert, wie nachzuweisen, dass zwei voneinander getrennte Uhren die gleichen SI-“Sekunden”-Dauern realisiert hätten (bzw. das tatsächliche Verhältnis der betreffenden Dauern der beiden Uhren zu ermitteln, die zumindest nominell und vorläufig alle als “SI-Sekunde” bezeichnet worden wären).
Und wie kompliziert es für zwei “Enden” sein mag, überhaupt erstmal einvernehmlich zu ermitteln, ob sie gegenüber einander ruhten oder wenigsten starr waren (oder in wie fern nicht), wird ja kaum erst erforscht. …
> Und wie definiert man eine Größe in der Psychologie? […] Durch einen Fragebogen!
Aber gewiss nicht jede Größe in der Psychologie mit (den jeweiligen Antworten auf alle Fragen in) dem selben Fragebogen !?! …
> Der Test liefert für jede Versuchsperson eine Reihe von, sagen wir, 20 Zahlen: Punktzahlen für […] und […]
> das Gesamtergebnis des Tests für diese Versuchsperson als einen Punkt in einem 20-dimensionalen Raum auf; die Einzelergebnisse sind die 20 Koordinaten dieses Punktes.
> Man spricht auch gerne von Vektoren anstelle von Punkten
Koordinaten-frei !?! …
> […] Eigenwerten der Korrelationsmatrix und den zugehörigen [ ortho-normal(isiert)en ] Eigenvektoren.
> […] Die Datenreduktion geht jetzt so: Man schaut sich die Eigenwerte in absteigender Reihenfolge der Reihe nach an.
> […] Dann wirft man alle Eigenvektoren bis auf die ersten […] weg
> […] wundervolle Datenreduktion erzielt. Anstelle von 20 Einzelwerten
… in der Reihenfolge der 20 Fragen auf dem Fragebogen …
> muss der Computer sich nur noch drei merken
… und wohl auch den jeweiligen “Dreh” für (beinahe ?) jeden der (z.B. drei) ausgewählten wesentlichen Eigenvektoren, bzgl. des “20-Fragen-Raumes”.
> und vor allem nur mit diesen dreien weiterrechnen.
Diese Ersparnis mag dann ja wesentlich und letztlich lohnend sein.
p.s. — Test of current SciLog comment PREVIEW :=
Fail
.@FrankWappler
wir wissen doch alle, was Zeit ist.
Zeit ist das, was in der physikalischen Gleichung steht.
Wir leiten die Geschwindigkeit nach der Zeit ab und nicht nach der Dauer.
Wie die Sekunde als Maßeinheit der Zeit definiert ist, kann man nachlesen.
Für den, der eine gute Uhr hat, ist eine Sekunde auch der (zeitliche) Abstand zwischen zwei Ticks des Sekundenzeigers.
Fluffy schrieb (11.09.2024, 21:45 o’clock):
> […] Wie die Sekunde als Maßeinheit […] definiert ist, kann man nachlesen.
Unbestritten.
Die Erläuterung, die dazu auf der BIPM-Webseite als auch in der offiziellen SI-Brochure gegeben ist (wenn auch nicht ausdrücklich so in den relevanten aktuellen CGPM-Resolutionen), lautet (in meiner Übersetzung und Hervorhebung):
> wir wissen doch alle, was Zeit ist.
Wir sollten uns alle darüber im Klaren sein, dass das Wort “Zeit” in zahlreichen unterscheidbaren Bedeutungen verwendet werden kann, die eng zusammenhängen, und für die es in vielen Fällen jeweils einen spezifischeren (Fach-)Begriff gibt. (Einer davon ist: “Dauer”.)
> Zeit ist das, was in der physikalischen Gleichung steht.
(1.) Beispiel einer physikalischen Gleichung, in der (u.a.) eine (bestimmte) Dauer auftritt:
Durchschnitts-Geschwindigkeit
eines Projektils während dessen Bewegung von einem Start(-Block) zu einem Ziel(-Band) gegenüber dem (Inertial-)System, dessen gemeinsame Mitglieder dieser Start(-Block) und jenes Ziel(-Band) sind:=
Distanz
zwischen diesem Start(-Block) und jenem Ziel(-Band),in
Richtung
von diesem Start(-Block) zu jenem Ziel(-Band),im Verhältnis zu(r)
(oder in anderen Worten: geteilt durch)Dauer
des Start(-Block)s, vom Verabschieden des Projektils, bis gleichzeitig zum Empfang den das Ziel(-Band) dem Projektil bereitete.(2.) Beispiel einer (quasi-)physikalischen Gleichung, in der (u.a.) eine (bestimmte) (insbesondere reell-wertige) Parametrisierung eines bestimmten zeitlichen Verlaufes auftritt:
u[ t_0 ] := d/dt[ x[ t ] ]_{t_0}
.> Wir leiten […] nach der Zeit ab und nicht nach der Dauer.
Was auf der rechten Seite der Gleichung im obigen (2.) Beispiel steht, nennt sich (ausführlich) “die Ableitung der Funktion
x[ t ]
nach ihrem (Variablen-)Argumentt
, an der Stellet_0
“.Dabei müssen insbesondere die relevanten Werte
t
(im Wertebereich der Funktionx[ t ]
) einschl. der relevanten darauf anzuwendenden algebraischen Operationen einen sogenannten algebraischen Körper bilden, damit die genannte Ableitung als Grenzwert (aus einer Folge von geeignet definierten DurchschnittswertenU_n := (x[ t_n ] - x[ t_0 ]) / (t_n - t_0)
) überhaupt konkret ausgewertet werden könnte.
In diesem Zusammenhang im beschriebenen Sinne kurz von “Ableitung nach der Zeit” zu sprechen, ist zwar nicht unüblich, und Jargon; und “Ableitung nach der Dauer” sagen zu wollen, wäre zumindest a-historisch und entgegen bestehenden Gewohnheiten.
Das schmälert aber nicht die Bedeutung des Begriffes Dauer (als Größe bzw. als Maß);
z.B. auch in der Beurteilung, ob irgendeine Parametrisierung eines bestimmten zeitlichen Verlaufes “gut” alias “affin” alias “chronometrisch” wäre, oder in wie fern nicht.
> Für den, der eine gute Uhr hat, ist eine Sekunde auch der (zeitliche) Abstand zwischen zwei Ticks des Sekundenzeigers.
Aber eben nur recht verstanden als “zeitlich entlang des Lebens-Verlaufes (bzw. der Weltline) dieses Sekundenzeigers”, d.h. eben als Dauer dieses Sekundenzeigers, von einer seiner Tick-Anzeigen, bis zu seiner nächst-folgenden Tick-Anzeige;
und nicht etwa als (“direkter”) Abstand (alias Lorentzsche Distanz) zwischen den beiden ganzen Ereignissen, in dem dieser Abschnitt des des Lebens-Verlaufes bzw. der Weltlinie dieses Sekundenzeigers seinen Anfang bzw. sein Ende hatte.
Und ob eine gegebene Uhr in diesem Sinne “gut” gewesen und geblieben wäre, oder in wie fern nicht, müssten wir messen, und können wir messen (falls wir uns den Aufwand leisten).
Frank Wappler
Ihre Unterscheidung von Zeit und Zeidauer ist gerechtfertigt.
Beim Morsen muss man auch unterscheiden zwischen dem Zeichen, das dit genannt wird und dem Abstand zwischen zwei dits.
Praktischerweise ist ein dit , ein Punkt, eine Zeiteinheit lang. Dann kommt der Abstand auch wieder eine Zeiteinheit lang. Ein Strich ist übrigens 3 dit lang.
Nun kommt die Frage, was Sie als Zeitdauer bezeichnen , ist das die Impulslänge bei der Atomuhr, ist das der Abstand zwischen den Impulsen ist das die Umpulslänge + Abstand zwischen den Impulsen.
Nur mal zum Nachdenken !
N schrieb (12.09.2024, 07:56 o’clock):
> […] Unterscheidung von Zeit und Zeitdauer ist gerechtfertigt.
Na schön, aber ich selbst halte die oben (11.09.2024, 16:31 o’clock) nahegelegte Analogie für gar nicht so treffend formuliert, weil (auch) ich dabei in die Falle getappt bin, das schlichte (Gummi!-)Wort “Zeit” zu verwenden. Besser also schon mal:
Dauer : Zeitverlauf = Geldbetrag : Vermögen
.> Beim Morsen muss man auch unterscheiden zwischen dem Zeichen, das dit genannt wird und dem Abstand zwischen zwei dits. […]
Sicher … (unterscheiden muss man ganz grundsätzlich können und zugestehen) … aber … eine noch genauere/treffendere Analogie zwischen “dem Maß” und “dem, was gemessen wird” mir erschließt sich in diesem Morse-Beispiel (zumindest im Moment) nicht. Vielmehr (auch) so:
Dauer : Zeitverlauf = Wieviel_jemand_verträgt : Bier
.> Nun kommt die Frage, was Sie als Zeitdauer bezeichnen , ist das die Impulslänge bei der Atomuhr, ist das der Abstand zwischen den Impulsen ist das die Impulslänge + Abstand zwischen den Impulsen.
Knappe geantwortet: das alles.
Und darüber hinaus steht dann auch noch “die Frage” bzw. “die Wahl” der jeweiligen Maß-Einheit …
N schrieb (12.09.2024, 07:56 o’clock):
> […] Unterscheidung von Zeit und Zeitdauer ist gerechtfertigt.
Na schön, aber ich selbst halte die oben (11.09.2024, 16:31 o’clock) nahegelegte Analogie für gar nicht so treffend formuliert, weil (auch) ich dabei in die Falle getappt bin, das schlichte (Gummi!-)Wort “Zeit” zu verwenden. Besser also schon mal:
Dauer : Zeitverlauf = Geldbetrag : Vermögen
.> Beim Morsen muss man auch unterscheiden zwischen dem Zeichen, das dit genannt wird und dem Abstand zwischen zwei dits. […]
Sicher … (unterscheiden muss man ganz grundsätzlich können und zugestehen) … aber … eine noch genauere/treffendere Analogie zwischen “dem Maß” und “dem, was gemessen wird” mir erschließt sich in diesem Morse-Beispiel (zumindest im Moment) nicht. Vielmehr (auch) so:
Dauer : Zeitverlauf = Wieviel_jemand_verträgt : Bier
.> Nun kommt die Frage, was Sie als Zeitdauer bezeichnen , ist das die Impulslänge bei der Atomuhr, ist das der Abstand zwischen den Impulsen ist das die Impulslänge + Abstand zwischen den Impulsen.
Knappe geantwortet: das alles.
Und darüber hinaus steht dann auch noch “die Frage” bzw. “die Wahl” der jeweiligen Maß-Einheit …
#N
Zu: „Nun kommt die Frage, was Sie als Zeitdauer bezeichnen, ist das die Impulslänge bei der Atomuhr, ist das der Abstand zwischen den Impulsen ist das die Umpulslänge + Abstand zwischen den Impulsen.“
Das liegt im Auge des Betrachters bei zwanzig Dimensionen oder als Beispiel sagen wir mal 13:
Für die Beschreibung der 13-dimensionalen Welt sowie einer naturwissenschaftlichen Darlegung einer fünften Kraft benötigen wir die vier Dimensionen Ursache (9. Dimension), Vermittlung (10. Dimension), Wirkung (11.Dimension) und Wirkungsgrad (12. Dimension), welcher auch die Koexistenz der allgemeinen Relativitätstheorie mit der Quantenphysik auszeichnet oder eine Persona mit Karma im Verhältnis Bild und Schatten auf dem Hintergrund. Bei der Bestimmung von Ursache, Vermittlung, Wirkung und Wirkungsgrad sind die Dimensionen des Bild- und Hintergrundes entscheidend. Die drei Ortsrichtungen (1.-, 2.- und 3. Dimension), Innen (6. Dimension) und Außen (5. Dimension), sowie die Zeit (4. Dimension) sind Bestandteile der Raumzeit und können sich darin gut bildlich vorgestellt werden. Schwieriger wird es schon mit dem Hintergrund (7. Dimension) und der Bilddimension (8. Dimension). Der Anfang, die Existenz und Auflösung liegen in der 13. Dimension als Beobachter verborgen.
So ist also nur der Winkel zwischen den Dimensionen entscheidend, denn auf dem Beobachter vergeht keine Zeit sondern die Wirkung der Dauer des aktuellen Bildes.
Frank Wappler off topic
Sie sind doch die Referenz für Genauigkeit.
Um das klar zu stellen.
Physikalische Größe = Zeit
Maßeinheit = 1 Sekunde
Zeitdauer = Zahlenwert mit Maßeinheit
Definition der Sekunde = Eine Sekunde ist die Zeit, die während 9.192.631.770 (oder 9,192631770 x 10 9 in Dezimalform) Zyklen der Strahlung vergeht, die beim Übergang zwischen zwei Niveaus des Cäsium-133-Atoms entsteht.
“Knapp geantwortet, das alles”
und jetzt geht es um die Zeitdauer eines einzigen Zyklus .
beträgt die 1/9 192 631 770 …..Sekunden oder 1/9 192 631 769 …..Sekunden.
Oder anders formuliert, endet der Zyklus mit der Pause beim letzten digit oder mit dem letzten digit.
Der Begriff Zeitdauer scheint mir in diesem Fall anschaulicher.
Beim Gartenzaun ist die Länge des Gartenzaunes auch kürzer als die (Gartenzaunlatte + Abstand ) mal Anzahl der Latten.
# N
Zu: „Beim Gartenzaun ist die Länge des Gartenzaunes auch kürzer als die (Gartenzaunlatte + Abstand) mal Anzahl der Latten.“
Es ist das Spiegelbild, das uns aus einer großen Entfernung mit falsch gemessenen Werten in Zeitpunkt und Größe beim Bellen eines Hundes vor dem Gartenzaun die Gefahr für das Kind dahinter bewerteten lässt, wie es uns im Universum dann auch so als absolut legitim vorkommt.
N schrieb (12.09.2024, 11:32 o’clock):
> […] Um das klar zu stellen. […]
… ich schätze sowohl das Bemühen, als auch die Gelegenheit, diesem Bemühen entgegenzukommen …
> […] Beim Gartenzaun ist […]
Bleiben wir zur Abwechslung mal dabei. Wir unterscheiden (u.a.):
– einen bestimmten Gartenzaun (bestehend insbesondere aus unterscheidbaren Latten, und ‘n paar Riegeln und Pfosten), der “räumlich ausgebreitet” ist (bzw. von dem gesagt werden kann, er sei “räumlich ausgebreitet”);
– Raum, als “(abstrakte) Arena jeglichen räumlich-ausgebreitet-Seins”;
– einige (abstrakte) relevante räumliche (oder womöglich besser: Raum-bezogene) Größen
(die insbesondere durch den jeweiligen experimental-physikalischen Mess-Operator “Wie-man-das-zumindest-im-Prinzip-ggf.-misst” definiert sind):
* Länge (Distanz, Abstand), Bogenlänge,
* Fläche, Volumen, …,
* Dichte (in Sinne von Anzahl pro Volumen), lineare Dichte (Anzahl pro Länge bzw. pro Bogenlänge), flächige Dichte (Anzahl pro Fläche); jeweils ggf. auch im Grenzübergang,
* Krümmung(s-Radius, als Radius eines Schmiegekreises), Krümmung(s-Radius, als Radius einer Schmiegekugel), Torsion(s-Radius), …
– bestimmte Werte von Größen, hinsichtlich der Bewertung/Messung von bestimmten Gegebenheiten (ob denn jeweils überhaupt ein Eigenzustand des betreffenden Mess-Operators vorgelegen hatte, sodass der entsprechende Eigenwert als “der Wert dieser Größe, in diesem Versuch” gelten kann); u.a.
* die Länge des Gartenzauns (als Distanz zwischen den beiden äußersten Pfosten dieses Gartenzauns, sofern überhaupt vorhanden),
* der Abstand von der Mitte zwischen den zwei Kanten einer Latte, und der Mitte zwischen den zwei Kanten der benachbarten Latte,
* die Bogenlänge des Gartenzauns (als Summe von Abständen zwischen bestimmten geeignet gewählten Bestandteilen des Gartenzauns),
* der (mittlere) Krümmungs-Radius des Gartenzauns, …
– Einheiten jeweils für Werte einer bestimmten Größe: u.a.
* 1 Meter,
* 1 Parsec,
* 1 Zaunsfeld-lang,
* 1 Astronomische Einheit,
* 1 Plancklänge,
* 1 Zaunslatten-breit, …
– Wert-Angaben (als Produkt aus “Maßzahl” und “Maßeinheit”; insbesondere auch abstrakt, d.h. auch ohne Bezug auf tatsächliche Gegebenheiten, die als Eigenzustand der betreffenden Größe befunden worden wären und deren zugehöriger Eigenwert dieser Wert-Angabe entsprochen hätte); z.B.
* 1,000 000 000 000 Meter,
* 10^12 ParSec,
* 12 Inches, …
Nun Entsprechendes “im Zeitlichen”; betrachten wir z.B.
– den (zeitlichen) Lebens-Verlauf eines bestimmten Myons (sein “Gewesen-Sein”, von “Produktion” bis “Zerfall”),
– die wesentlichen zeitlichen Größen (“in der Raum-Zeit-Arena”):
* Dauer, und (davon abgeleitet)
* Rate alias Frequenz (als Anzahl pro Dauer, oder auch als Zuwachs bzw. als Abnahme pro Dauer) jeweils ggf. auch im Grenzübergang.
– Werte dieser Größen, insbesondere
* die (gesamte) Lebensdauer des genannten Myons,
* die Dauer eines bestimmten Abschnitts des Lebens-Verlaufes des genannten Myons; z.B. die Dauer dieses Myons von seiner Produktion bis (ggf.) zu seiner Begegnung mit einem Szintillations-Zähler,
* die Zählrate eines bestimmten Szintillations-Zählers (in einem bestimmten Versuch), …
– Wert-Angaben (abstrakt, oder bzgl. der Bewertung von Gegebenheiten):
* 5 µs,
* 3 Hz, …
Zusammenfassend (in einem hoffentlich gefälligen Maß an Gewissenhaftigkeit):
Physikalische Größe =
ZeitDauerMaßeinheit = 1 Sekunde
Wert = (z.B.) die Lebensdauer eines ganz bestimmten Myons
Wert-Angabe = (Zahlenwert mit Maßeinheit, z.B.) 5 µs
.
> Beim Gartenzaun ist die Länge des Gartenzaunes auch kürzer als die (Gartenzaunlatte + Abstand
… zwischen einer Lattenkante und der näheren Kante der nächst-benachbarten Latte …
> ) mal Anzahl der Latten.
Ganz recht; insbesondere bei gleichmäßiger Strukturierung.
Die zeitliche Entsprechung ist, dass
– die Dauer einer (mit konstanter Tick-Rate) tickenden Uhr, jeweils von einer Anfangs-Tick-Anzeige bis zu (irgend-)einer anderen End-Tick-Anzeige (also nicht unbedingt bis zu der Tick-Anzeige, die unmittelbar auf die Anfangs-Tick-Anzeige folgente)
kleiner/”kürzer” ist, als
– die (konstante) Dauer dieser Uhr jeweils von einer Tick-Anzeige bis unmittelbar folgenden
mal die Anzahl der Ticks von (einschl.) der Anfangs-Tick-Anzeige bis (einschl.) der End-Tick-Anzeige, im betreffenden Versuch.
Anders herum, und etwas allgemeiner:
Die mittlere Tick-Rate einer (nicht unbedingt mit konstanter Tick-Rate) tickenden Uhr kann Sinn-voll als das Verhältnis aus
– der Anzahl der Ticks von (einschl.) der Anfangs-Tick-Anzeige bis (einschl.) der End-Tick-Anzeige minus 1
zu
– der Dauer der Uhr von (einschl.) der Anfangs-Tick-Anzeige bis (einschl.) der End-Tick-Anzeige
definiert werden.
Frank Wappler,
” – der Anzahl der Ticks von (einschl.) der Anfangs-Tick-Anzeige bis (einschl.) der End-Tick-Anzeige minus 1
zu
– der Dauer der Uhr von (einschl.) der Anfangs-Tick-Anzeige bis (einschl.) der End-Tick-Anzeige
definiert werden.”
Danke!
die Betonung liegt auf sinnvoll.
Physikalisches Geschehen geschieht analog. Auch das Messen erfolgt analog. Erst mit einem Zählwerk findet ein analog-digital-Wandel statt. Analog-Digitalwandler gibt es als fertige Bauteile.
Bei diesem Hintergrund ist ihre Definition sinnvoll.
Bei der Auswertung statistischer Daten sind die Daten digital und werden erst durch eine Normalverteilung z.B. analog (wenn dieser Ausdruck bei math.Funktionen zulässig ist)
#N
Zu. „Zeitdauer eines einzigen Zyklus, beträgt die 1/9 192 631 770 …..Sekunden oder 1/9 192 631 769 …..Sekunden. Oder anders formuliert, endet der Zyklus mit der Pause beim letzten digit oder mit dem letzten digit. Der Begriff Zeitdauer scheint mir in diesem Fall anschaulicher.“
„Physikalisches Geschehen geschieht analog. Auch das Messen erfolgt analog. Erst mit einem Zählwerk findet ein analog-digital-Wandel statt.“
Ja und hier hat auch die Messung am Zaun mit der Richtung ein Problem, denn in der HF wird eine Spule zum Kondensator und auch umgekehrt:
https://www.elektroniknet.de/e-mechanik-passive/passive/wenn-ein-kondensator-zur-spule-wird.201687.html
Bernd N.
Vom Intelligenztest zur Zeit und von der Zeit zum induktiven und kapazitiven Widerstand, fast wie in der Schule, wenn ein Unterrichtsgespräch ausufert.
Der induktive Widerstand einer Spule nimmt bei höherer Frequenz zu, der kapazitive Widerstand eines Kondensators nimmt ab, bei Resonanz haben wir einen Schwingkreis. Dass sich das bei HF ändert, das wusste ich nicht.
Allerdings wandern die Elektronen in einem Leiter bei HF zur Außenhülle, vielleicht meinst du das.
Also, ich klicke mich aus, bis Herr Pöppe uns verrät , was er vorhat.
#N
Zu „wandern die Elektronen in einem Leiter bei HF zur Außenhülle“
Dies ist gängige Annahme aber hier handelt es sich zum großen Teil um die Informationen dazu, denn es ist egal mit welchen Frequenzen ich den Leiter beaufschlage, es werden alle Beaufschlagungen bei gleichen Bedingungen gleich bearbeitet, denn auf den Hochspannunsleitungen wird zum Teil auch parallel zur NF die HF übertragen. Bei Niederspannung bewegen sich freie Elektronen nur wenige cm in der Sekunde im Leiter, die Reichweite der Informationen dazu, mit einer Geschwindigkeit kleiner als die Lichtgeschwindigkeit im Vakuum, ist aber nicht nur im Leiter gewaltig.
Bei der Informationshydrodynamik sind Austausch, bzw. Drehungen im Raum mathematisch als Elemente einer Gruppe beschreibbar die innen und außen informativ miteinander verknüpfen, sowie auf anderen Objekten bzw. Beobachtern oder auch den Teilchen operieren können. Ein typisches Beispiel ist die Kopplung einer kollektiven mechanischen Gitter-Schwingung, also Phonon mit Frequenz im optischen Bereich und transversaler Polarisation eines Festkörpers an eine elektromagnetische Welle als Photon. Für die Identität eines Beobachters bzw. Teilchens sollte in den Formeln der Mathematik beim untersuchenden Element der Mitte, wie beispielsweise dem „=“ ein Gedächtnis zum re- oder agieren auf Informationen zugestanden werden.
@Philipp
12.09.2024, 06:58 o’clock
Danke für die kurze und verständliche Antwort. Die sogenannte Z-Transformation ist schon sinnvoll, wie beschrieben, aber man sollte sich auch im klaren über den strukturellen Unterschied zu einer “normalen” (😃)Transformation,wie der Fourier Transformation sein. Die Fouriertransformation ist umkehrbar.Man kann aus den transformierten Daten die Originaldaten wieder herstellen. Beide Datenmassive haben dieselbe Struktur.
Die Z-Transformation ist nicht reversibel. Man benötigt zusätzlich Mittelwert und Streuung. Das heißt die vollständige Information besteht aus
{ n Z-Daten } plus { m, sigma}, macht n+2 Daten.
Bei der Hauptkomponentenanalyse bleibt die Frage, mit welchen Daten man die Datenreduktion betreibt, Kovarianzmatrix, Korrelationsmatrix, mittelwertbereinigt oder nicht? Es geht ja letztendlich um einen möglichst optimalen Informationserhalt.
Sie kann nur sinnvoll sein wenn die Daten “ausreichend” normalverteilt sind. Es ist im Studium der Psychologie immer noch gängig dass die Normalverteilung als das Maß der Dinge dargestellt wird. Das hat meines Wissens nach u.a. historische Gründe, da die Normalverteilung von Leuten wie Laplace, Gauss, Adrian, und Galton “vermarket” wurde. Nahezu alle physiologischen Prozesse im menschlichen Körper sind in ihrer Dynamik beispielsweise nicht normalverteilt.
Das ist klar. Normalisierung (wie z-Transform) ist auch nicht das gleiche wie scaling (ich kenne den deutschen Begriff nicht), bei dem man die Daten z.B. in den Bereich 0 bis 1 überführt (der kleinste Datenwert wird in 0 transformiert, der größte in 1 und der Rest dazwischen). Scaling und normalization werden auch oft verwechselt…
Pearson Korrelation = normalisierte bzw. standardisierte Kovarianz. Kovarianz vs. Kovarianz kann schwerer zu interpretieren sein.
Beispiel: stelle dir vor wir berechnen die Kovarianz von Größe (in cm) und Gewicht. Die Kovarianz wird sich ändern wenn wir statt cm inches nehmen. Deshalb ist die Pearson Korrelation aus meiner Sicht immer besser, da sie die Daten “ab Werk” automatisch zuvor in z-scores überführt, somit normalisiert, und wir dann automatisch einen einfach zu interpretierenden Bereich von -1 bis +1 erhalten.
Aber:
Die Pearson Korrelation misst einen linearen Zusammenhang zwischen beiden Variablen. Alle anderen (möglichen) Zusammenhänge kann sie nicht messen. Es gibt zig Formen der Korrelation: Pearson, Spearman, kendall, distance correlation (https://en.wikipedia.org/wiki/Distance_correlation), Shepherd…
Nun zum Punkt Kovarianz vs. Pearson in der PCA:
Wenn du Variablen mit sehr unterschiedlichen Einheiten hast dann kann die Pearson PCA sinnvollere Ergebnisse als die Kovarianz PCA liefern. Bei der Kovarianz PCA werden die Daten mit der höchsten Varianz das Ergebnis am meisten beeinflussen und somit einen bias einführen.
Wenn wiederum die Spannweite und die Einheit der Variablen ähnlich ist dann kann man die Kovarianz PCA nehmen um die originale Varianz zu erhalten.
Dann ist noch die Frage ob mind. eine der Variablen nicht normalverteilt ist (beispielsweise Shapiro-Wilk test p < 0.05), was dann wieder zu anderen Problem führen kann wenn man von Normalität der Daten ausgeht, aber das führt hier alles zu weit.
Jemand schrieb
Das ist falsch.
Die physikalische Größe heißt Zeit.
Die Maßeinheit heißt die Sekunde.
1 Sekunde ist schon eine bestimmte Zeitspanne, wie auch 8 Sekunden. Die 8 ist die Maßzahl multipliziert mit der Sekunde als Maßeinheit.
Ein sinnvoller mit dem Wort Dauer könnte lauten:
Berechnen Sie die Umlaufdauer der Erde um die Sonne, wenn sie die Länge der großen Halbachse, die Masse der Sonne und den Wert der Gravitationskonstante kennen.
Zusatzfrage: Wie alt die Großmutter des Kapitäns?
Fluffy schrieb (12.09.2024, 18:42 o’clock):
> Die Maßeinheit heißt die Sekunde.
Das stimmt (selbstverständlich):
die in Betracht stehende SI-Maßeinheit heißt (auf Deutsch) “die Sekunde”, oder knapp “Sekunde”;
und nicht etwa “eine Sekunde”.
Nun haben wir aber auch mit der schon (12.09.2024, 02:37 o’clock) erwähnten Erläuterung auf der BIPM Webseite »SI base unit: second (s)« und in der (aktuellen) SI-Broschüre zu tun (hier zur Deutlichkeit “copy-n-paste” vom englischen Original — und scheiß’ dabei auf irgendwelche Formatierung(s-Verluste)):
Berechtigt die Formulierung »the second is equal to« dazu, eine auf deutsch formulierte Aussage mit
zu beginnen ?
Wer das ablehnt, möge die oben (12.09.2024, 15:00 o’clock; und auch schon 12.09.2024, 11:32 o’clock) ergänzte Kurz-Fassung
»Maßeinheit = 1 Sekunde«
deshalb als falsch zurückweisen …
(Ich halte sie dagegen im beschriebenen Sinne für richtig.)
> 1 Sekunde ist schon eine bestimmte Zeitspanne, wie auch 8 Sekunden.
Dazu vier ( … Entschuldigung! …) Fragen bzw. Aufgaben:
(1)
Bitte ergänze (soweit Sinn-voll möglich) den Satz-Anfang eines Satzes mit dem folgenden gegebenen Satz-Ende:
(
Mein Vorschlag-Beispiel ist:
“Die in Betracht stehende physikalische Größe, die Zeit-Verläufe bemisst, heißt Zeitspanne.”
)
(2)
Ist die im Folgenden formulierte Aufgabenstellung Sinn-voll ?:
(3)
Ist die im Folgenden formulierte Aufgabenstellung Sinn-voll ?:
“Drücken Sie die Länge der großen Halbachse der Umlaufbahn eines Exo-Planeten durch die Zeitspanne seines Umlaufs um seinen Stern, die Masse seines Sternes und die Gravitationskonstante aus. Massen aller anderen Objekte sollen dabei vernachlässigbar sein.”
(4)
Bitte ergänze (soweit Sinn-voll möglich) den Satz-Anfang eines Satzes mit dem folgenden gegebenen Satz-Ende:
(
Mein Vorschlag-Beispiel ist:
“Die physikalische Größe, die die räumliche Beziehung zweier (unterscheidbarer, materieller) gegenüber einander ruhender Punkte bemisst, heißt Länge.”
)
p.s.
> Zusatzfrage: Wie alt [sic] die Großmutter des Kapitäns?
Ohne viel Kontext, Erfahrung und Recherche ist mein Antwort-Tipp darauf: “wurde”.
Fluffy schrieb (12.09.2024, 18:42 o’clock):
> Die Maßeinheit heißt die Sekunde.
Das stimmt (selbstverständlich):
die in Betracht stehende SI-Maßeinheit heißt (auf Deutsch) “die Sekunde”, oder knapp “Sekunde”;
und nicht etwa “eine Sekunde”.
Nun haben wir aber auch mit der schon (12.09.2024, 02:37 o’clock) erwähnten Erläuterung auf der BIPM Webseite »SI base unit: second (s)« und in der (aktuellen) SI-Broschüre zu tun (hier zur Deutlichkeit “copy-n-paste” vom englischen Original — und scheiß’ dabei auf irgendwelche Formatierung(s-Verluste)):
Berechtigt die Formulierung »the second is equal to« dazu, eine auf deutsch formulierte Aussage mit
zu beginnen ?
Wer das ablehnt, möge die oben (12.09.2024, 15:00 o’clock; und auch schon 12.09.2024, 11:32 o’clock) ergänzte Kurz-Fassung
»Maßeinheit = 1 Sekunde«
deshalb als falsch zurückweisen …
(Ich halte sie dagegen im beschriebenen Sinne für richtig.)
> 1 Sekunde ist schon eine bestimmte Zeitspanne, wie auch 8 Sekunden.
Dazu vier ( … Entschuldigung! …) Fragen bzw. Aufgaben:
(1)
Bitte ergänze (soweit Sinn-voll möglich) den Satz-Anfang eines Satzes mit dem folgenden gegebenen Satz-Ende:
(
Mein Vorschlag-Beispiel ist:
“Die in Betracht stehende physikalische Größe, die Zeit-Verläufe bemisst, heißt Zeitspanne.”
)
(2)
Ist die im Folgenden formulierte Aufgabenstellung Sinn-voll ?:
(3)
Ist die im Folgenden formulierte Aufgabenstellung Sinn-voll ?:
“Drücken Sie die Länge der großen Halbachse der Umlaufbahn eines Exo-Planeten durch die Zeitspanne seines Umlaufs um seinen Stern, die Masse seines Sternes und die Gravitationskonstante aus. Massen aller anderen Objekte sollen dabei vernachlässigbar sein.”
(4)
Bitte ergänze (soweit Sinn-voll möglich) den Satz-Anfang eines Satzes mit dem folgenden gegebenen Satz-Ende:
(
Mein Vorschlag-Beispiel ist:
“Die physikalische Größe, die die räumliche Beziehung zweier (unterscheidbarer, materieller) gegenüber einander ruhender Punkte bemisst, heißt Länge.”
)
p.s.
> Zusatzfrage: Wie alt [sic] die Großmutter des Kapitäns?
Ohne viel Kontext, Erfahrung und Recherche ist mein Antwort-Tipp: “wurde”.
N schrieb (07.09.2024, 19:12 Uhr):
> […] Pionen. Das ist eine Sekundärstrahlung , die erst auf der Außenhülle der Erdatmosphäre entsteht.
Und diese Pionen haben eine sehr kurze Lebensdauer, so kurz, dass sie die Erdoberfläche gar nicht erreichen dürften. Sie tun es trotzdem.
Jenen, denen diese Aussage nicht merkwürdig genug vorkäme, um von selbst weiter darüber zu recherchieren (einschl. jenen, die diese Aussage sogar unkritisch weiterverbreiten würden), sei weitere Recherche dazu trotzdem und erst recht angeraten, und dabei (nicht zuletzt des öffentlich-Barriere-freien Zugangs wegen) dieser Artikel u.a. mit Messwerten zum Fluss (d.h. Rate pro Fläche) (negativ) geladener Pionen in Fig. 9.
Tipp: Dieser Fluss beträgt insgesamt bestenfalls wenige Promille des Flusses von sekundär bzw. tertiär in der Erdatmosphäre entstandenen Myonen (insbesondere den negativ geladenen), wie in Fig. 7 gezeigt.
p.s.
> Warum ? Weil ihre Lebensdauer durch die hohe Geschwindigkeit verlängert wird.
Nein!:
Die (mittlere) Lebensdauer von (negativ, als auch von positiv) geladenen Pionen wurde bisher noch immer ziemlich genau gleich
26 ps
ermittelt.(Und die (mittlere) Lebensdauer von (negativ, als auch von positiv) geladenen Myonen übrigens bisher noch immer ziemlich genau gleich
2,2 µs
.)> Man hat das in einem Teilchenbeschleuniger simuliert. […] Bei 99 % der Lichtgeschwindigkeit ist ihre Lebensdauer [ca. 7] mal [so hoch].
Zwar stimmt es, dass 1 / √{1 – (0,99)^2 } =~= 7. Aber — Nein!:
Die (mittlere) Lebensdauer der betreffenden Teilchen war und blieb in allen Fällen so gut wie unverändert. Und das wurde insbesondere daraus geschlossen, dass stattdessen die Dauer des Teilchenbeschleunigers, die er (im Mittel) zubrachte, während jeweils ein bestimmtes Teilchen der betreffenden Sorte darin vorhanden war (bzw. sozusagen darin “lebte”), ca. das 7-fache der (mittleren) Lebensdauer der betreffenden Teilchen war; sofern sich der Teilchenbeschleuniger und das bestimmte Teilchen dabei “mit 99 % der Lichtgeschwindigkeit gegenüber einander” bewegten (um es knapp aber etwas ungenau zu formulieren).
„Und wie definiert man eine Größe in der Psychologie? Als ich zum ersten Mal die Antwort hörte – von einer Kommilitonin vom Fach –, war ich doch etwas verblüfft: Durch einen Fragebogen!“
Ja so ein Fragebogen kann auch nicht so gute Ergebnisse liefern:
Wie sagte es Merkel so schön: „Man muss es vom Ende her denken, was kommt am Ende hinten raus.“, bspw. beim Umgang mit dem Intelligenztest (Schule) wenn ich nicht weiß was man damit außer dem Sortieren nach fragwürdigen Sachen und dem Frust mit dem Ergebnis einer negativen Entscheidung, durch wen auch immer manipulierbaren KI für eine vorgegebene Sache, machen soll. Jeder Gedanke, jede Veränderung oder Information ist eine Ursache und kehrt irgendwie, irgendwann als Wirkung der Homöopathie zurück. In unserem Knochenmark wird beispielsweise die individuelle Geschichte der Infektionen unseres Lebens gespeichert. Der mathematische Spiegel des physikalischen Atoms hat somit mathematisch unerklärliche Fassetten an Informationen, welche nur feinstofflich bzw. als Homöopathie erklärbar sind. Ein Körper welcher nicht auf 50Hz trainiert ist, ob mit Durchströmung oder Elektrosmog, kann auch von allein nicht Herzkammerflimmern erleiden. Er kann erst nach dem Training nach einem Kontakt mit 50Hz diesen tragischen Intelligenztest bestehen.
Philipp schrieb (13.09.2024, 05:58 o’clock):
> […] Die Pearson Korrelation misst einen linearen Zusammenhang zwischen beiden Variablen. […] Es gibt zig Formen der Korrelation: Pearson, Spearman, kendall, distance correlation (https://en.wikipedia.org/wiki/Distance_correlation), Shepherd…
Das regt dazu an, auch eine sehr allgemeine “Fluffigkeit” \( \mathsf F[ ~ \mathcal S ~ ] \)einer Menge \(\mathcal S\) von (Daten-)Punkten in einem metrischen Raum zu definieren …
Und wie ?: —
etwa (zunächst für Mengen, in denen sich zu jedem Punkt bestimmte “nächsten Nachbarn” finden lassen) so:
\( \mathsf F[ ~ \mathcal S ~ ] := \sum_{ (p \, \in \, \mathcal S) } \Big[ \)
\( \text{Sup}{\Large\{} a, b, j, k \in (\mathcal S – \{ p \}) \, \huge| \, \)
\( (d_{pb} \ge d_{pa}) \text{ and } (d_{pk} \ge d_{pj}) \text{ and } \)
\( \qquad \qquad (\forall q \in (\mathcal S – \{ a, b, j, k, p \}) : d_{pq} \geq \text{ Max}[ ~ d_{pb}, d_{pk} ~ ] \geq \text{ Min}[ ~ d_{pa}, d_{pj} ~ ] > 0) \Large\}\Large[ \)
\( \text{ if } (( \text{ Max}[ ~ d_{ab}, d_{jk} ~ ] \geq \text{ Max}[ ~ d_{pb}, d_{pk} ~ ]) \text{ and }(\text{ Min}[ ~ (1/\rho)[ ~ p, a, k ~ ], (1/\rho)[ ~ p, b, j ~ ] ~ ] * \text{ Max}[ ~ d_{ab}, d_{jk} ~ ]) \geq 1 ) \)
\( \text{ return } ((1/\rho)[ ~ p, a, b ~ ] * (1/\rho)[ ~ p, j, k ~ ]) \)
\( \text{ else return } 0 \)
\( ~ \Large] ~ / ~ \)
\( \text{Sup}{\Large\{} a, b, j, k \in (\mathcal S – \{ p \}) \, \huge| ~ \)
\( (d_{pb} \ge d_{pa}) \text{ and } (d_{pk} \ge d_{pj}) \text{ and } \)
\( \qquad \qquad (\forall q \in (\mathcal S – \{ a, b, j, k, p \}) : d_{pq} \geq \text{ Max}[ ~ d_{pb}, d_{pk} ~ ] \geq \text{ Min}[ ~ d_{pa}, d_{pj} ~ ] > 0) \Large\}\Large[ \)
\( ((1/\rho)[ ~ p, a, b ~ ] * (1/\rho)[ ~ p, j, k ~ ]) \)
\( ~ \Large] ~ {\Big]}; \)
wobei die Funktion \((1/\rho)\) für je drei verschiedene Punkte \(x, y, z \in \mathcal S\) als
\[ \frac{\sqrt{ \text{ CMD}[ \, x, y, z \, ] \phantom{ |^| }}{(d_{xy} * d_{xz} * d_{yz})} \]
zu gebrauchen wäre, mit Cayley-Menger-Determinante \(\text{ CMD}\).
… die Funktion \((1/\rho)\) für je drei verschiedene Punkte \(x, y, z \in \mathcal S\) als
\[ \frac{\sqrt{ \text{ CMD}[ \, x, y, z \, ] \phantom{ |^| }}}{(d_{xy} * d_{xz} * d_{yz})} \] …
Nach einer kleinen Weile des Nachdenkens (bzw. der Ablenkung), f llt mir auf, dass mein obiger Definitions-Vorschlag die Struktur “Summe von Verh ltnissen” aufweist. Aber “Verh ltnis zweier Summen” könnte sich doch als eingängiger herausstellen.
Und falls sich in gewissen Datensätzen (stellvertretend: \(\mathcal S_0\)) tatsächlich gar keine Punkte fänden, die zusammen mit vier ihrer “nächsten Nachbarn” überhaupt auch nur ein klein wenig “Krümmung” aufwiesen, weshalb die “Summe im Nenner” jedenfalls verschwände, dann — wie üblich — mag zu einer ausdrücklichen Setzung ausgewichen werden:
\( \mathsf F[ ~ \mathcal S_0 ~ ] := 0. \)
20-dimensionaler Raum
Leute geht es nicht ein wenig anschaulicher ?
Immerhin sollten ja Testergebnisse auch für die Betroffenen verständlich bleiben.
Nur mal als Beispiel , ein Autoreifenvergleichstest.
Wir haben 20 verschiedene Kriterien vom Nässeverhalten bis zum Kaufpreis.
Die stellt man am besten in einem 20 eckigem Kreisdiagramm dar, die Ausprägung der Eigenschaft als Länge des Vectors.
Und um die Gesamteigenschaften zu beschreiben = Fläche des sich ergebenden 20-Ecks.
Für menschliche Eigenschaften geht das auch, vom Killerinstinkt bis hin zur Belastbarkeit.
Bei Schulnoten auch, hat der Vektor die Länge 1 entspricht das der Note 1.
Hat man 10 Schulfächer ergibt das ein 10 – Eck.
Und so sieht man auf einem Blick wo die Schwächen und die Stärken der einzelnen Schüler liegen.
Herr Pöppe, denken Sie doch einmal an die Mitleser, die nicht Statistik studiert haben. alles kann man doch auch einfacher erklären.
@ N: Das ist gar nicht so unanschaulich! Wenn man sich erstmal daran gewöhnt hat, dass da zwanzig “Stangen” (Vektoren, Koordinatenachsen oder so) jede auf jeder andern senkrecht stehen können, kann man in diesem Raum sogar Geometrie treiben.
Aber Scherz beiseite: Ihr Kreisdiagramm macht etwas ganz anderes als die Hauptkomponentenanalye, von der ich rede. Damit das Diagramm mit den Autoreifen überhaupt irgendwie sinnvoll ist, müssen die 20 Eigenschaften, die damit ausgedrückt werden, erstens sämtlich wünschenswert und zweitens einigermaßen gleichbedeutend sein. Sonst erzählt Ihnen die Fläche des 20-Ecks irgendwelchen Unfug. Mit dem Schulnoten-Diagramm ist es so ähnlich.
Dagegen dient die Hauptkomponenten-Analyse dazu, überhaupt erst die Eigenschaften ausfindig zu machen, mit denen man vernünftigerweise so ein 20-Eck bestücken kann. Und wenn’s gut läuft, sind es am Ende nicht mehr 20, sondern vielleicht nur noch drei Ecken. Das ist dann schon übersichtlicher.
Im Übrigen halte ich mich an den Spruch, der Einstein zugeschrieben wird: “Man soll alles so einfach wie möglich machen, aber nicht einfacher.”
@Christoph
Zu: zwanzig “Stangen” (Vektoren, Koordinatenachsen oder so) jede auf jeder andern senkrecht stehen können, kann man in diesem Raum sogar Geometrie treiben…“Man soll alles so einfach wie möglich machen, aber nicht einfacher.”
Wir haben schon in oder besser auf der Raumzeit bei den Nullstellen (kleinste Flächen zwischen den Achsenabständen) ein Problem mit dem (rechten) Winkel (Wirkungsgrad, Drift usw.) zwischen den Dimensionen, welches mathematisch bspw. als Nichtlinearität oder Energiespeicher ein Gedächtnis einfordert, so eine Erweiterung der Parameter der Raumzeit fordert und mit der QM nicht gelöst werden kann.
#N
Bei 20 oder auch nur 13 Dimensionen haben wir nach https://www.spektrum.de/kolumne/groesste-kontroverse-der-mathematik-das-auswahlaxiom-und-seine-folgen/2229510 ein Problem mit der Wichtung und dem Zugeständnis eines Gedächtnisses beim „=“. Das führt schon bei der Raumzeit zum Ungleichgewicht beim Vergleich der Einheiten der Dimensionen, wie dem Unterschied einer Sekunde zum Meter bei der Beschleunigung oder dem Käsekuchen zum Pflaumenkuchen, bzw. deren besseren Geschmack und führt wieder zur Statistik beim Messen, sowie dem Fragebogen.
Bernd N.
Es geht hier auch um Datenreduktion. Das Beispiel mit dem Käsekuchen und Pflaumenkuchen ist ein gutes Beispiel. Mit dem Begriff “Obstkuchen” haben wir schon eine Reduktion von 50 %.
Und mit einem multiple-choice-Verfahren kann man dann die verschiedenen Geschmäcker schon mal kanalisieren.
Und wenn man dann eine Normalverteilung bei den beliebtesten Kuchen macht, dann steht auf dem Gipfel der Zwetschkenkuchen mit 25 von 100 Nennungen.
Gefolgt von dem Victoria Sponge Cake und der Apple Pie.
Weniger beliebt ist der Hundekuchen, der nur 1 mal genannt wurde.
Der Autor hat ihn schon probiert und meinte, er schmeckt kräftig.
Jetzt ist aber entgültig Schluss, der Kuchen muss aus dem Backofen.
Hallo Christoph!
Danke für Deinen lesenswerten Artikel!
Ich bin verwirrt: der (transponierte) Normalenvektor der Ebene E: x = y lautet bei mir (1; -1; 0), sprich besagte Ebene verläuft senkrecht zur Geraden x = -y …
oder habe ich da etwas falsch verstanden?
Viele Grüße
Sven
Zu folgenden Auszügen aus dem Artikel:
“……Leider haben wir alle unsere Schwierigkeiten, uns gedanklich in einem 20-dimensionalen Raum zurechtzufinden. Deswegen denken wir uns jetzt der Anschaulichkeit zuliebe einen Test mit nur drei Aufgaben, so dass jedes Testergebnis ein Punkt im vertrauten dreidimensionalen Raum ist.Dagegen ist die Anwendung auf psychologische Daten problematisch..….”
“….Diese Spektralzerlegung in Eigenvektoren ist zwar völlig willkürfrei: ein schlichter mathematischer Algorithmus, in den nur die rohen Messdaten eingehen. Aber damit ist noch lange nicht klar, ob und wie man aus dessen Ergebnissen etwas Relevantes über den Forschungsgegenstand selbst erschließen kann…..”
(Ende der Zitationen)
Ich gebe mich jetzt laienhaft spontan mal etwas scherzhaft ironisch:
a) Das kommt dabei heraus, wenn Psychologen wie Physiker ausschauen wollen.
b) Warum fragt Ihr erst alles Mögliche ab , nur um am Schluss “algorithmisch- statistisch” dann alles wieder zu drei “Antworten” bzw “Ergebnissen” einzudampfen. Und wie stellt Ihr sicher, dass die Reduktion (bzw. die Algorithmen) wirklich neutral- ergebnisoffen und nicht bewusst oder unbewusst
(positiv) theoriegeleitet zustande kommen ? Die algorithmische Reduktion kann immer auch eine Art von(mehr oder weniger subjektiver) “Interpretation” sein.
@ little louis:
Es geht bei der Hauptkomponentenanalyse (Principal component analysis, PCA) darum die Dimensionalität der erhobenen Daten zu verringern. Nur bestimmte Dimensionen der Daten zu erfassen ist meistens schon praktisch oder technisch gesehen gar nicht möglich. *Ein Beispiel dazu am Ende dieses Beitrags.
Warum möchte man die Dimensionalität eventuell verringern? Weil die ursprüngliche Dimensionalität der Rohdaten beispielsweise zu groß ist um sie interpretieren zu können, weil deren Verarbeitung zuviel Rechenleistung benötigen würde, etc.
Gleichzeitig möchten wir aber auch nicht einfach subjektiv wichtige Komponenten der Rohdaten wegwerfen. Was machen wir also? Eine Möglichkeit (von vielen) ist die Anwendung der PCA.
Die PCA hat wie alle Methoden in Datenverarbeitung Vor- und Nachteile. Es gibt keine empirischen/mathematischen Methoden zur Datenanalysie die nicht kritisierbar sind. Alles ist kritisierbar. Die “optimale” Wahl der Methode hängt immer von zig Faktoren ab.
Nun zur Idee der PCA, denn die scheint dir nicht ganz klar zu sein:
Die Idee ist ganz grundsätzlich betrachtet dass wir über ein mathematisches Vorgehen (PCA) die wichtigsten Komponenten aus der Flut der Rohdaten herausfiltern. So wie wenn wir aus Schlamm und Wasser Goldpartikel herausfiltern wollten.
Wir behalten also beispielsweise die ersten 3, 4, oder 5 Komponenten als “Signal” und werfen die letzten als “Rauschen” weg. Die ersten 2 Komponenten erklären z.B. den großteil der Varianz in dem Datensatz, wir behalten sie. Die 5. oder 6. Komponente erklärt vielleicht nicht mehr viel bzw. nichts systematisches mehr, kann also eher weg.
*Beispiel zur PCA Anwendung:
Die PCA kann man fast überall anwenden (überall dort wo Daten verarbeitet werden), so beispielsweise bei der Verarbeitung von Daten der Gehirnaktivität.
Wir können nicht nur die Sahne (das Signal) von Gehirnaktivität aufnehmen, sondern Störsignale oder ungewollte Signale (Rauschen) sind auch automatisch dabei. Technisch geht es nicht anders. Nun kann man die PCA anwenden um “Rauschen” aus den Rohdaten zu erfassen und dieses von dem “Signal” besser zu trennen. Man reduziert damit die “Dimensionalität” der Daten.
Hoffe es ist klarer. 😉
little Louis schrieb (17.09.2024, 15:02 o’clock):
> Warum fragt Ihr erst alles Mögliche ab
Um von den “Probanden” möglichst direkte, authentische und (mindestens) ausreichend viele individualle Daten zu erheben.
> nur um am Schluss “algorithmisch- statistisch” dann alles wieder zu […] “Ergebnissen” einzudampfen.
Weil die Ergebnisse der Auswertung erhobener Daten, also Messwerte, vergleichbarer, mitteilbarer, haltbarer, relevanter, Signal-haltiger als die bloßen Roh-Daten sein können/sollen; und somit auch eine solidere, konzentrierte Grundlage zur Formulierung von Erwartungen/Modellen bilden.
Darum beobachten wir, und darum messen wir (Experimentatoren).
“Man” dankt (vor allem) den beiden Mitkommentatoren Philipp und Frank Wappler für die Mühe der ausführlichen Antworten. (-: