Information

Gibt es eine Random-Walk-Theorie, die Situationen mit mehr als zwei Auswahlmöglichkeiten erklären kann?

Gibt es eine Random-Walk-Theorie, die Situationen mit mehr als zwei Auswahlmöglichkeiten erklären kann?

Im Artikel "Two-stage Dynamic Signal Detection: A Theory of Choice, Decision Time, and Confidence" aus dem Jahr 2010 von Pleskac und Busemeyer wird ein Random-Walk-Modell für Situationen vorgestellt, in denen eine diskrete Auswahl getroffen wird (d. h. Signal vorhanden/ nicht vorhanden, ja/nein, 1/0 usw.). Hier wird, wenn kein Zeitdruck vorliegt, ein Schwellwert gesetzt, der erreicht werden muss, bevor eine Antwort gegeben wird. Im Gegensatz dazu wird bei Zeitdruck der Wert zum letzten Zeitpunkt verwendet, um zu entscheiden, welche Antwort gegeben wird, auch wenn der Schwellenwert zu diesem Zeitpunkt noch nicht erreicht ist.

Ich frage mich, ob es eine Erweiterung dieses Modells gibt, die Situationen mit einbeziehen kann mehr als zwei Auswahlmöglichkeiten (von 3 Alternativen bis zu einem vollständig kontinuierlichen Auswahlraum). Ich denke, Sie könnten einfach mehr Dimensionen einbeziehen (das oben genannte Modell ist zweidimensional), aber wenn die Antworten nicht unabhängig sind (z kompliziert. Das heißt, wenn starke Beweise für Nummer 3 gesammelt werden, wie viele Beweise sollten zu 4 und 2 hinzugefügt werden? Sollen Beweise von 1 und 5 abgezogen werden?


Anstelle eines einzelnen Integrators mit zwei Schranken für zwei Auswahlmöglichkeiten (symmetrisches Random-Walk-Modell) können Sie viele konkurrierende Integratoren mit jeweils einer Schranke haben (Race-Modell). Siehe zum Beispiel Abb. 2. von Gold und Shadlen 2007 und die darin enthaltenen Verweise.

Was den Fall der kontinuierlichen Auswahl angeht, ist es wichtig zu verstehen, dass sich eine Grenze diskreter Auswahlmöglichkeiten stark von einer kontinuierlichen Auswahl unterscheiden kann. Damit eine solche Grenze Sinn macht, sollte es eine Vorstellung von Ähnlichkeit zwischen den Entscheidungen geben, und ich glaube nicht, dass sich diese Rassenmodelle leicht verallgemeinern lassen. Eine hochdimensionale kontinuierliche Attraktordynamik wird diese Theorie eher unterstützen.


Diederich & Busemeyer (2003) stellten ein Diffusionsmodell für drei Wahlalternativen vor (S. 314). Das Paper ist ein Tutorial zur Berechnung von Diffusionsmodellen mit (diskreten) Matrixmethoden. Die Erweiterung auf drei Wahlalternativen wird durch die Definition eines zweidimensionalen Diffusionsprozesses auf einer Dreiecksebene (Zustandsraum) erreicht.

Kürzlich präsentierten Wollschläger & Diederich (2012) die 2N-äres Wahlbaummodell die multi-alternative Entscheidungen durch Random Walks auf Entscheidungsbäumen modelliert.

Verweise
Diederich, A. & Busemeyer J.R. (2003). Einfache Matrixmethoden zur Analyse von Diffusionsmodellen der Wahlwahrscheinlichkeit, der Wahlantwortzeit und der einfachen Antwortzeit. Zeitschrift für Mathematische Psychologie, 47(3), 304-322. doi:10.1016/S0022-2496(03)00003-8 (Preprint pdf)

Wollschläger LM und Diederich A (2012)Das 2N-äre Wahlbaummodell für N-alternative Präferenzwahl. Vorderseite. Psychologie 3:189. doi: 10.3389/fpsyg.2012.00189


Bogaczet al. (2006) bieten den umfassendsten Überblick über Modelle in diesem Bereich. Dazu gehören Vergleiche des Drift-Diffusions-Modells (Ratcliff, 1978), des Ornstein-Uhlenbeck (OU)-Modells (z. B. Busemeyer & Townsend, 1993; "Decision Field Theory"), Race-Modelle ohne Hemmung (z. B. Vickers, 1970) und Race-Modelle mit Hemmung (zB Usher & McClelland, 2001; "Leaky konkurrierendes Akkumulatormodell") und andere.

Während Diffusionsmodelle auf 2 Alternativen (z. B. DDM, DFT) beschränkt sind, sind Race-Modelle dies nicht. (Beachten Sie, dass Diffusionsmodelle im Wesentlichen mit Random-Walk-Modellen identisch sind, außer dass Random-Walks diskrete Schritte beinhalten, während Diffusionsmodelle kontinuierlich sind). Die von den Autoren überprüften Rassenmodelle mit Hemmung sind rechnerisch auf DDM reduzierbar, während Rassenmodelle ohne Hemmung anders sind und im Allgemeinen nicht vorzuziehen sind.

Becket al. (2008) bieten auch ein Modell, das eine kontinuierliche Auswahl ermöglicht und nicht eine begrenzte Anzahl von Alternativen. Der Bezug zu anderen Modellen ist unklar.

Also ja, es gibt viele ähnliche Modelle, die mehr als 2 Alternativen ausmachen. Sie sind technisch gesehen keine Random-Walk-Modelle, da ein Random-Walk nur 2 Grenzen zulässt. Aber sie sind rechnerisch äquivalent.

Beck, J. M., Ma, W. J., Kiani, R., Hanks, T., Churchland, A. K., Roitman, J.,… & Pouget, A. (2008). Probabilistische Populationscodes für Bayes'sche Entscheidungsfindung. Neuron, 60(6), 1142-1152. PDF

Bogacz, R., Brown, E., Moehlis, J., Holmes, P. & Cohen, J.D. (2006). Die Physik der optimalen Entscheidungsfindung: eine formale Analyse von Leistungsmodellen in zwei-alternativen Forced-Choice-Aufgaben. Psychologische Überprüfung, 113(4), 700. PDF

Busemeyer, J.R. & Townsend, J.T. (1993). Entscheidungsfeldtheorie: ein dynamisch-kognitiver Ansatz zur Entscheidungsfindung in einem unsicheren Umfeld. Psychologische Überprüfung, 100(3), 432. PDF

Ratcliff, R. (1978). Eine Theorie des Gedächtnisabrufs. Psychologische Überprüfung, 85(2), 59. PDF

Usher, M. & McClelland, J.L. (2001). Der Zeitverlauf der Wahrnehmungswahl: das undichte, konkurrierende Akkumulatormodell. Psychologische Überprüfung, 108(3), 550. PDF

Vickers, D. (1970). Beweise für ein Akkumulatormodell der psychophysischen Diskriminierung. Ergonomie, 13(1), 37-58.


Zusammenfassung

Random Forest ist ein großartiger Algorithmus, um früh im Modellentwicklungsprozess zu trainieren, um zu sehen, wie er funktioniert. Seine Einfachheit macht den Aufbau eines „schlechten“ Random Forest zu einer schwierigen Aufgabe.

Der Algorithmus ist auch eine gute Wahl für alle, die schnell ein Modell entwickeln müssen. Darüber hinaus bietet es einen ziemlich guten Indikator für die Bedeutung, die es Ihren Funktionen zuweist.

Random Forests sind auch in Bezug auf die Leistung sehr schwer zu schlagen. Natürlich können Sie wahrscheinlich immer ein Modell finden, das eine bessere Leistung bietet, wie zum Beispiel ein neuronales Netzwerk, aber diese brauchen normalerweise mehr Zeit für die Entwicklung, obwohl sie viele verschiedene Feature-Typen wie binär, kategorial und numerisch verarbeiten können.

Insgesamt ist Random Forest ein (meist) schnelles, einfaches und flexibles Werkzeug, jedoch nicht ohne Einschränkungen.

Niklas Donges ist Unternehmer, technischer Redakteur und KI-Experte. Er arbeitete 1,5 Jahre in einem KI-Team von SAP, danach gründete er Markov Solutions. Das in Berlin ansässige Unternehmen ist auf künstliche Intelligenz, maschinelles Lernen und Deep Learning spezialisiert und bietet verschiedenen Unternehmen maßgeschneiderte KI-basierte Softwarelösungen und Beratungsprogramme an.


Experimente, Probenraum, Ereignisse und ebenso wahrscheinliche Wahrscheinlichkeiten

Der grundlegende Bestandteil der Wahrscheinlichkeitstheorie ist ein Experiment, das zumindest hypothetisch unter im Wesentlichen identischen Bedingungen wiederholt werden kann und das bei verschiedenen Versuchen zu unterschiedlichen Ergebnissen führen kann. Die Menge aller möglichen Ergebnisse eines Experiments wird als „Probenraum“ bezeichnet. Das Experiment, eine Münze einmal zu werfen, führt zu einem Musterraum mit zwei möglichen Ergebnissen, „Kopf“ und „Zahl“. Das Werfen von zwei Würfeln hat einen Musterraum mit 36 ​​möglichen Ergebnissen, von denen jedes mit einem geordneten Paar identifiziert werden kann (ich, J), wo ich und J Nehmen Sie einen der Werte 1, 2, 3, 4, 5, 6 an und bezeichnen Sie die Gesichter der einzelnen Würfel. Es ist wichtig, sich die Würfel als identifizierbar vorzustellen (z. B. durch einen Farbunterschied), damit das Ergebnis (1, 2) anders ist als (2, 1). Ein „Ereignis“ ist eine wohldefinierte Teilmenge des Probenraums. Zum Beispiel besteht das Ereignis „die Summe der Gesichter auf den beiden Würfeln ist gleich sechs“ aus den fünf Ergebnissen (1, 5), (2, 4), (3, 3), (4, 2) und ( 5, 1).

Ein drittes Beispiel ist das Zeichnen n Kugeln aus einer Urne mit Kugeln in verschiedenen Farben. Ein allgemeines Ergebnis dieses Experiments ist ein n-Tupel, wo die ichEintrag gibt die Farbe der Kugel an, die auf dem ichZiehung (ich = 1, 2,…, n). Trotz der Einfachheit dieses Experiments bildet ein gründliches Verständnis die theoretische Grundlage für Meinungsumfragen und Stichprobenerhebungen. Zum Beispiel können Individuen in einer Population, die einen bestimmten Kandidaten bei einer Wahl bevorzugen, mit Kugeln einer bestimmten Farbe identifiziert werden, diejenigen, die einen anderen Kandidaten bevorzugen, können mit einer anderen Farbe identifiziert werden, und so weiter. Die Wahrscheinlichkeitstheorie liefert die Grundlage, um den Inhalt der Urne aus der Stichprobe der aus der Urne gezogenen Kugeln zu erfahren.

Eine weitere Anwendung einfacher Urnenmodelle ist der Einsatz klinischer Studien, mit denen festgestellt werden soll, ob eine neue Behandlung einer Krankheit, ein neues Medikament oder ein neuer chirurgischer Eingriff besser ist als eine Standardbehandlung. In dem einfachen Fall, in dem eine Behandlung als Erfolg oder Misserfolg angesehen werden kann, ist das Ziel der klinischen Studie herauszufinden, ob die neue Behandlung häufiger zum Erfolg führt als die Standardbehandlung. Patienten mit der Krankheit können mit Kugeln in einer Urne identifiziert werden. Die roten Kugeln sind diejenigen Patienten, die durch die neue Behandlung geheilt wurden, und die schwarzen Kugeln sind diejenigen, die nicht geheilt wurden. In der Regel gibt es eine Kontrollgruppe, die die Standardbehandlung erhält. Sie werden durch eine zweite Urne mit einem möglicherweise anderen Anteil roter Kugeln repräsentiert. Das Ziel des Experiments, eine bestimmte Anzahl von Kugeln aus jeder Urne zu ziehen, besteht darin, anhand der Probe herauszufinden, welche Urne den größeren Anteil an roten Kugeln enthält. Eine Variation dieser Idee kann verwendet werden, um die Wirksamkeit eines neuen Impfstoffs zu testen. Das vielleicht größte und bekannteste Beispiel war der 1954 durchgeführte Test des Salk-Impfstoffs gegen Poliomyelitis. Er wurde vom US-amerikanischen Gesundheitsdienst organisiert und umfasste fast zwei Millionen Kinder. Sein Erfolg hat dazu geführt, dass Polio als Gesundheitsproblem in den industrialisierten Teilen der Welt fast vollständig beseitigt wurde. Streng genommen handelt es sich bei diesen Anwendungen um Probleme der Statistik, deren Grundlagen die Wahrscheinlichkeitstheorie liefert.

Im Gegensatz zu den oben beschriebenen Experimenten haben viele Experimente unendlich viele mögliche Ergebnisse. Man kann zum Beispiel eine Münze werfen, bis zum ersten Mal „Kopf“ erscheint. Die Anzahl der möglichen Würfe ist n = 1, 2,…. Ein weiteres Beispiel ist das Drehen eines Spinners. Für einen idealisierten Spinner, der aus einem geraden Segment ohne Breite besteht und in seiner Mitte geschwenkt ist, ist die Menge der möglichen Ergebnisse die Menge aller Winkel, die die Endposition des Spinners mit einer festen Richtung bildet, äquivalent alle reellen Zahlen in [0 , 2π). Viele Messungen in den Natur- und Sozialwissenschaften wie Lautstärke, Spannung, Temperatur, Reaktionszeit, Grenzeinkommen usw. erfolgen auf kontinuierlichen Skalen und beinhalten zumindest theoretisch unendlich viele mögliche Werte. Wenn wiederholte Messungen an verschiedenen Probanden oder zu unterschiedlichen Zeiten am selben Probanden zu unterschiedlichen Ergebnissen führen können, ist die Wahrscheinlichkeitstheorie ein mögliches Instrument, um diese Variabilität zu untersuchen.

Wegen ihrer relativen Einfachheit werden zunächst Experimente mit endlichen Probenräumen diskutiert. In der frühen Entwicklung der Wahrscheinlichkeitstheorie betrachteten Mathematiker nur solche Experimente, für die es aufgrund von Symmetrieüberlegungen vernünftig erschien, anzunehmen, dass alle Ergebnisse des Experiments „gleich wahrscheinlich“ waren. Dann sollten in einer großen Anzahl von Studien alle Endpunkte ungefähr gleich häufig auftreten. Die Wahrscheinlichkeit eines Ereignisses ist definiert als das Verhältnis der Anzahl der für das Ereignis günstigen Fälle – d. h. der Anzahl der Ergebnisse in der Teilmenge des das Ereignis definierenden Stichprobenraums – zur Gesamtzahl der Fälle. Daher werden die 36 möglichen Ergebnisse beim Werfen von zwei Würfeln als gleich wahrscheinlich angenommen, und die Wahrscheinlichkeit, „sechs“ zu erhalten, ist die Anzahl der günstigen Fälle, 5 dividiert durch 36 oder 5/36.

Angenommen, eine Münze wird geworfen n mal, und berücksichtige die Wahrscheinlichkeit des Ereignisses „Kopf tritt nicht“ in der n wirft. Ein Ergebnis des Experiments ist ein n-Tupel, das kDer Eintrag davon identifiziert das Ergebnis der kth werfen. Da es für jeden Wurf zwei mögliche Ergebnisse gibt, beträgt die Anzahl der Elemente im Probenraum 2 n . Von diesen entspricht nur ein Ergebnis dem Fehlen von Köpfen, daher ist die erforderliche Wahrscheinlichkeit 1/2 n .

Nur unwesentlich schwieriger ist es, die Wahrscheinlichkeit von „höchstens einem Kopf“ zu bestimmen. Neben dem Einzelfall, in dem kein Kopf auftritt, gibt es n Fälle, in denen genau ein Kopf auftritt, weil er am ersten, zweiten,…, oder . auftreten kann nth werfen. Daher gibt es n + 1 Fälle günstig, um höchstens einen Kopf zu erhalten, und die gewünschte Wahrscheinlichkeit ist (n + 1)/2 n .


Rational-Choice-Theorie: Kulturelle Bedenken

2.4 Einige häufige Missverständnisse

Die Rational-Choice-Theorie wird oft kritisiert, manchmal mit guten, manchmal mit schlechten Argumenten. Obwohl einige der schlechten Argumente auf schlechte Versionen der Theorie zutreffen mögen, sollten Kritiker die besten Versionen ansprechen. Das häufigste Missverständnis ist, dass die Theorie davon ausgeht, dass Agenten egoistische Motivationen haben. Rationalität ist vereinbar mit Egoismus, aber auch mit Altruismus, wenn jemand versucht, die Wohltätigkeitsorganisation auszuwählen, bei der eine Spende am meisten Gutes bewirken kann.

Die Rational-Choice-Theorie wird manchmal auch mit dem Prinzip des methodologischen Individualismus verwechselt. Die Theorie setzt zwar dieses Prinzip voraus. Über Überzeugungen und Wünsche von überindividuellen Einheiten, wie einer Klasse oder einer Nation, zu sprechen, ist im Allgemeinen bedeutungslos. Das Umgekehrte gilt jedoch nicht. Einige der Alternativen zur Rational-Choice-Theorie setzen auch methodischen Individualismus voraus.

Darüber hinaus wird manchmal behauptet, die Theorie sei atomistisch und ignoriere soziale Interaktionen. Fast das genaue Gegenteil ist der Fall. Die Spieltheorie ist hervorragend ausgestattet, um drei wichtige Interdependenzen zu handhaben: (a) das Wohlergehen eines jeden hängt von den Entscheidungen aller ab (b) das Wohl eines jeden hängt vom Wohl aller ab und (c) die Entscheidung eines jeden hängt von den Entscheidungen von ab alle. Manchmal wird auch behauptet, die Theorie gehe davon aus, dass der Mensch wie leistungsfähige Computer sei, die die komplexesten Verästelungen aller denkbaren Optionen sofort ausarbeiten können. Prinzipiell kann die Rational-Choice-Theorie kognitive Beschränkungen ebenso einbeziehen wie physische oder finanzielle Beschränkungen. In der Praxis haben die Kritiker oft einen berechtigten Standpunkt.

Schließlich wird manchmal behauptet, dass die Theorie kulturell voreingenommen ist und moderne, westliche Gesellschaften oder ihre Subkulturen widerspiegelt (und vielleicht beschreibt). Das oben dargelegte Minimalmodell ist jedoch transhistorisch und transkulturell gültig. Diese Aussage impliziert nicht, dass Menschen immer und überall rational handeln oder dass sie dieselben Wünsche und Überzeugungen haben. Es bedeutet, dass das im Modell verkörperte normative Rationalitätsideal explizit oder implizit von allen Menschen geteilt wird. Menschen sind instrumentell rational, weil sie das Prinzip der geringsten Anstrengung anwenden. „Überqueren Sie nicht den Fluss, um Wasser zu holen“, sagt ein norwegisches Sprichwort. Da die Menschen wissen, dass das Handeln auf der Grundlage falscher Überzeugungen die Verfolgung ihrer Ziele untergräbt, möchten sie kognitive Verfahren verwenden, die das Risiko verringern, etwas falsch zu machen, wenn es richtig ist. Dass sie oft nicht die richtigen Verfahren anwenden, untergräbt nicht das normative Ideal.


Abschluss

Random Forests sind ein persönlicher Favorit von mir. Aus der Finanz- und Anlagewelt kommend, bestand der heilige Gral immer darin, eine Reihe unkorrelierter Modelle mit jeweils einer positiven erwarteten Rendite zu erstellen und diese dann in einem Portfolio zusammenzustellen, um ein massives Alpha (Alpha = marktbesiegende Renditen) zu erzielen. Viel leichter gesagt als getan!

Random Forest ist das datenwissenschaftliche Äquivalent dazu. Lassen Sie uns ein letztes Mal Revue passieren. Was ist ein Random Forest-Klassifikator?

Der Random Forest ist ein Klassifikationsalgorithmus, der aus vielen Entscheidungsbäumen besteht. Es verwendet Bagging und Feature-Zufälligkeit beim Erstellen jedes einzelnen Baums, um zu versuchen, einen unkorrelierten Wald von Bäumen zu erstellen deren Vorhersage durch das Komitee genauer ist als die eines einzelnen Baumes.

Was brauchen wir, damit unser Random Forest genaue Klassenvorhersagen treffen kann?

  1. Wir brauchen Funktionen, die zumindest eine gewisse Vorhersagekraft haben. Denn wenn wir Müll reinbringen, holen wir Müll raus.
  2. Die Bäume des Waldes und vor allem ihre Vorhersagen müssen unkorreliert sein (oder haben zumindest geringe Korrelationen untereinander). Während der Algorithmus selbst versucht, diese geringen Korrelationen für uns über die Zufallszufälligkeit zu erzeugen, wirken sich die von uns ausgewählten Merkmale und die von uns gewählten Hyperparameter auch auf die endgültigen Korrelationen aus.

Danke fürs Lesen. Ich hoffe, Sie haben beim Lesen genauso viel gelernt wie ich beim Schreiben. Danke schön!

Mehr von mir zu Data Science und anderen maschinellen Lernalgorithmen:


Diskrete Verteilung

Eine diskrete Verteilung ist eine Verteilung von Daten in Statistiken mit diskreten Werten. Diskrete Werte sind abzählbare, endliche, nicht negative ganze Zahlen wie 1, 10, 15 usw.

Diskrete Verteilungen verstehen

Die zwei Arten von Verteilungen sind:

Eine diskrete Verteilung ist, wie bereits erwähnt, eine Verteilung von Werten, die abzählbare ganze Zahlen sind. Andererseits enthält eine stetige Verteilung Werte mit unendlich vielen Nachkommastellen. Ein Beispiel für einen Wert auf einer kontinuierlichen Verteilung wäre &ldquopi.&rdquo Pi ist eine Zahl mit unendlichen Dezimalstellen (3,14159&hellip).

Beide Verteilungen beziehen sich auf Wahrscheinlichkeitsverteilungen, die die Grundlage der statistischen Analyse und Wahrscheinlichkeitstheorie sind.

Eine Wahrscheinlichkeitsverteilung ist eine statistische Funktion, die verwendet wird, um alle möglichen Werte und Wahrscheinlichkeiten einer Zufallsvariablen anzuzeigen. Zufallsvariable Eine Zufallsvariable (stochastische Variable) ist eine Art von Variablen in der Statistik, deren mögliche Werte von den Ergebnissen eines bestimmten Zufallsphänomens abhängen in einem bestimmten Bereich. Der Bereich wäre durch maximale und minimale Werte begrenzt, aber der tatsächliche Wert würde von zahlreichen Faktoren abhängen. Es gibt deskriptive Statistiken, die verwendet werden, um zu erklären, wo der erwartete Wert landen kann. Einige davon sind:

  • Gemittelter Durchschnitt)
  • Median
  • Modus
  • Standardabweichung Standardabweichung Aus statistischer Sicht ist die Standardabweichung eines Datensatzes ein Maß für die Größenordnung der Abweichungen zwischen den Werten der enthaltenen Beobachtungen
  • Schiefe
  • Kurtosis

Diskrete Verteilungen treten auch bei Monte-Carlo-Simulationen auf. Eine Monte-Carlo-Simulation Monte-Carlo-Simulation Monte-Carlo-Simulation ist eine statistische Methode zur Modellierung der Wahrscheinlichkeit verschiedener Ergebnisse in einem Problem, das nicht einfach gelöst werden kann . Aus Monte-Carlo-Simulationen erzeugen Ergebnisse mit diskreten Werten eine diskrete Verteilung für die Analyse.

Beispiel für diskrete Verteilung

Zu den Arten von diskreten Wahrscheinlichkeitsverteilungen gehören:

Betrachten Sie ein Beispiel, in dem Sie die Anzahl der Personen zählen, die in einer bestimmten Stunde ein Geschäft betreten. Die Werte müssten abzählbare, endliche, nicht negative ganze Zahlen sein. Es wäre nicht möglich, dass 0,5 Personen ein Geschäft betreten, und es wäre nicht möglich, dass eine negative Anzahl von Personen ein Geschäft betritt. Daher wäre die Verteilung der Werte bei Darstellung in einem Verteilungsdiagramm diskret.

Wenn wir die obige diskrete Verteilung der gesammelten Datenpunkte betrachten, können wir sehen, dass es fünf Stunden gab, in denen zwischen einer und fünf Personen den Laden betraten. Hinzu kamen zehn Stunden, in denen zwischen fünf und neun Leute den Laden betraten und so weiter.

Die obige Wahrscheinlichkeitsverteilung gibt eine visuelle Darstellung der Wahrscheinlichkeit an, mit der eine bestimmte Anzahl von Personen zu einer bestimmten Stunde das Geschäft betreten würde. Ohne quantitative Analyse Quantitative Analyse Quantitative Analyse ist der Prozess des Sammelns und Auswertens messbarer und überprüfbarer Daten wie Umsatz, Marktanteil und Löhne, um das Verhalten und die Leistung eines Unternehmens zu verstehen. Im Zeitalter der Datentechnologie gilt die quantitative Analyse als der bevorzugte Ansatz, um fundierte Entscheidungen zu treffen. , können wir beobachten, dass die Wahrscheinlichkeit hoch ist, dass zu jeder Uhrzeit zwischen 9 und 17 Personen den Laden betreten.

Beispiel für kontinuierliche Verteilung

Kontinuierliche Wahrscheinlichkeitsverteilungen sind dadurch gekennzeichnet, dass sie einen unendlichen und unzählbaren Bereich möglicher Werte haben. Die Wahrscheinlichkeiten stetiger Zufallsvariablen werden durch die Fläche unter der Kurve der Wahrscheinlichkeitsdichtefunktion definiert.

Die Wahrscheinlichkeitsdichtefunktion (PDF) ist die Wahrscheinlichkeit, dass eine kontinuierliche Zufallsvariable einen bestimmten Wert annimmt, indem aus den abgetasteten Informationen geschlossen und die Fläche unter der PDF gemessen wird. Obwohl die absolute Wahrscheinlichkeit, dass eine Zufallsvariable einen bestimmten Wert annimmt, 0 ist (da es unendlich viele mögliche Werte gibt), wird die PDF bei zwei verschiedenen Stichproben verwendet, um die Wahrscheinlichkeit einer Zufallsvariablen abzuleiten.

Betrachten Sie ein Beispiel, in dem Sie die Verteilung der Körpergröße einer bestimmten Bevölkerung berechnen möchten. Sie können eine Probe nehmen und ihre Höhe messen. Sie werden jedoch bei keiner der gemessenen Personen eine genaue Höhe erreichen.

Um die Höhenverteilung zu berechnen, können Sie erkennen, dass die Wahrscheinlichkeit, dass eine Person genau 180 cm groß ist, Null ist. Das heißt, die Wahrscheinlichkeit, eine Person mit einer Körpergröße von genau 180 cm mit unendlicher Genauigkeit zu messen, ist null. Es kann jedoch die Wahrscheinlichkeit gemessen werden, dass eine Person eine Körpergröße von mehr als 180 cm hat.

Darüber hinaus können Sie die Wahrscheinlichkeit berechnen, dass eine Person eine Körpergröße von weniger als 180 cm hat. Daher können Sie die abgeleiteten Wahrscheinlichkeiten verwenden, um einen Wert für einen Bereich zu berechnen, beispielsweise zwischen 179,9 cm und 180,1 cm.

Betrachtet man die kontinuierliche Verteilung, ist klar, dass der Mittelwert 170 cm beträgt, jedoch ist der Wertebereich, der genommen werden kann, unendlich. Daher würde die Messung der Wahrscheinlichkeit einer bestimmten Zufallsvariablen die Schlussfolgerung zwischen zwei Bereichen erfordern, wie oben gezeigt.

Mehr Ressourcen

CFI bietet die Commercial Banking & Credit Analyst (CBCA)&Trade-Programmseite an - CBCA Erhalten Sie die CBCA&Trade-Zertifizierung von CFI und werden Sie Commercial Banking & Credit Analyst. Melden Sie sich an und fördern Sie Ihre Karriere mit unseren Zertifizierungsprogrammen und -kursen. Zertifizierungsprogramm für diejenigen, die ihre Karriere auf die nächste Stufe bringen möchten. Um weiter zu lernen und Ihre Wissensdatenbank weiterzuentwickeln, lesen Sie bitte die folgenden zusätzlichen relevanten Ressourcen:

  • Zentraler Grenzwertsatz Zentraler Grenzwertsatz Der zentrale Grenzwertsatz besagt, dass der Stichprobenmittelwert einer Zufallsvariablen eine nahezu normale oder normale Verteilung annimmt, wenn der Stichprobenumfang groß ist
  • Poisson-Verteilung Poisson-Verteilung Die Poisson-Verteilung ist ein Werkzeug, das in der Statistik der Wahrscheinlichkeitstheorie verwendet wird, um das Ausmaß der Abweichung von einer bekannten durchschnittlichen Häufigkeit innerhalb von
  • Kumulative Häufigkeitsverteilung Kumulative Häufigkeitsverteilung Die kumulative Häufigkeitsverteilung ist eine Form einer Häufigkeitsverteilung, die die Summe einer Klasse und aller darunter liegenden Klassen darstellt. Erinnere dich an diese Frequenz
  • Gewichteter Mittelwert Gewichteter Mittelwert Der gewichtete Mittelwert ist eine Art von Mittelwert, der berechnet wird, indem das Gewicht (oder die Wahrscheinlichkeit) eines bestimmten Ereignisses oder Ergebnisses mit seinem multipliziert wird

Zertifizierung als Finanzanalyst

Werden Sie ein zertifizierter Finanzmodellierungs- und Bewertungsanalyst (FMVA)®. Melden Sie sich noch heute an! indem Sie CFI&rsquos Online-Finanzmodellierungskurse und Schulungsprogramme abschließen!


Einfache Zufallsstichprobe: Definition und Beispiele

Definition: Die einfache Zufallsstichprobe ist definiert als ein Stichprobenverfahren, bei dem jedes Element der Grundgesamtheit eine gleichmäßige Chance und Wahrscheinlichkeit hat, in die Stichprobe aufgenommen zu werden. Hier hängt die Auswahl der Gegenstände ausschließlich von Glück oder Wahrscheinlichkeit ab, und daher wird diese Stichprobentechnik manchmal auch als Zufallsmethode bezeichnet.

Die einfache Zufallsstichprobe ist ein grundlegendes Stichprobenverfahren und kann leicht Bestandteil eines komplexeren Stichprobenverfahrens sein. Das Hauptmerkmal dieser Stichprobenmethode ist, dass jede Stichprobe die gleiche Wahrscheinlichkeit hat, ausgewählt zu werden.

Der Stichprobenumfang bei dieser Stichprobenmethode sollte idealerweise mehr als einige Hundert betragen, damit eine einfache Zufallsstichprobe sinnvoll angewendet werden kann. Sie sagen, diese Methode sei theoretisch einfach zu verstehen, aber praktisch nur schwer umzusetzen. Mit großen Stichproben zu arbeiten ist keine leichte Aufgabe, und es kann manchmal eine Herausforderung sein, einen realistischen Stichprobenrahmen zu finden.

Einfache Stichprobenverfahren

Forscher folgen diesen Methoden, um eine einfache Zufallsstichprobe auszuwählen:

  1. Sie erstellen zunächst eine Liste aller Bevölkerungsmitglieder, und dann wird jedes Mitglied mit einer bestimmten Nummer gekennzeichnet (zB gibt es n-te Mitglieder, dann werden sie von 1 bis N nummeriert).
  2. Aus dieser Population wählen die Forscher Zufallsstichproben auf zwei Arten aus: Zufallszahlentabellen und Zufallszahlengenerator-Software. Forscher bevorzugen eine Zufallszahlengenerator-Software, da keine menschlichen Eingriffe erforderlich sind, um Proben zu generieren.

Zwei Ansätze zielen darauf ab, Verzerrungen bei der einfachen Zufallsstichprobe zu minimieren:

Die Verwendung der Lotteriemethode ist eine der ältesten Methoden und ein mechanisches Beispiel für die Zufallsauswahl. Bei dieser Methode gibt der Forscher jedem Mitglied der Bevölkerung eine Nummer. Die Forscher ziehen nach dem Zufallsprinzip Zahlen aus dem Kästchen, um Stichproben auszuwählen.

Die Verwendung von Zufallszahlen ist eine alternative Methode, bei der auch die Population nummeriert wird. Die Verwendung einer Zahlentabelle ähnlich der folgenden kann bei dieser Stichprobentechnik hilfreich sein.

Einfache Zufallsstichprobenformel

Stellen Sie sich vor, ein Krankenhaus hat 1000 Mitarbeiter, und sie müssen eine Nachtschicht für 100 Mitglieder zuweisen. Alle ihre Namen werden in einen Eimer gelegt, um zufällig ausgewählt zu werden. Da jede Person die gleiche Chance hat, ausgewählt zu werden, und wir die Populationsgröße (N) und die Stichprobengröße (n) kennen, kann die Berechnung wie folgt aussehen:

Beispiel für einfache Zufallsstichprobe

Befolgen Sie diese Schritte, um eine einfache Zufallsstichprobe von 100 Mitarbeitern aus 500 zu extrahieren.

  1. Machen Sie eine Liste aller im Unternehmen tätigen Mitarbeiter. (wie oben erwähnt gibt es 500 Mitarbeiter in der Organisation, der Datensatz muss 500 Namen enthalten).
  2. Vergeben Sie eine fortlaufende Nummer an jeden Mitarbeiter (1,2,3…n). Dies ist Ihr Stichprobenrahmen (die Liste, aus der Sie Ihre einfache Zufallsstichprobe ziehen).
  3. Finden Sie heraus, wie groß Ihre Stichprobe sein wird . (In diesem Fall beträgt die Stichprobengröße 100).
  4. Verwenden Sie einen Zufallszahlengenerator um die Stichprobe auszuwählen, indem Sie Ihren Stichprobenrahmen (Populationsgröße) aus Schritt 2 und Ihre Stichprobengröße aus Schritt 3 verwenden. Wenn Ihre Stichprobengröße beispielsweise 100 und Ihre Grundgesamtheit 500 beträgt, generieren Sie 100 Zufallszahlen zwischen 1 und 500.

Einfache Zufallsstichprobe in der Forschung

Marktforschungsprojekte von heute sind viel größer und umfassen eine unbestimmte Anzahl von Artikeln. Es ist praktisch unmöglich, den Denkprozess jedes einzelnen Mitglieds der Bevölkerung zu studieren und Störungen aus der Studie abzuleiten.

Wenn Sie als Forscher Zeit und Geld sparen möchten, ist die einfache Zufallsstichprobe eine der besten Wahrscheinlichkeitsstichprobenmethoden, die Sie verwenden können. Es ist ratsamer und praktischer, Daten aus einer Probe zu erhalten

Ob eine Volkszählung oder eine Stichprobe verwendet wird, hängt von mehreren Faktoren ab, wie z.


Phänomenologischer Ansatz

Von ihren Anfängen an gab es eine Reihe kritischer Einwände gegen die Phänomenologie der Religion.

Vor allem der phänomenologische Ansatz Eliades ist das Ziel von Wagner's (1986) Kritik, der einwendet, dass sein Konzept der homo religiös wird von einem Begriff der „natürlichen Religion“ geleitet. Er argumentiert, dass dies ein ungerechtfertigtes Wissen über die religiöse Situation in Eliades „archaischen Kulturen“ voraussetzt.

Religionsphänomenologie nimmt bezüglich der Religion eine dezidiert substanzielle Position ein (Luckmann 1983). Kritiker bemängeln darüber hinaus, dass dieser Substanzialismus auf nichtempirischen, extraphänomenologischen und theologischen Annahmen und Absichten beruht, die in die Analysen klassischer Repräsentanten der Religionsphänomenologie wie Kristensen, Eliade oder Van der Leeuw einfließen.

Für viele Kritiker liegt dies daran, dass Methoden selten enthüllt werden. Trotz des Verweises auf phänomenologische Methoden erscheinen die Grundvoraussetzungen oft willkürlich, und auch theoretische Überlegungen werden kritisiert, dass die sorgfältige Datenerhebung und -klassifizierung zu kurz kommt.

Da die Phänomenologie die grundlegende Methodik der Religionsphänomenologie liefert, ist es besonders folgerichtig, dass die Religionsphänomenologie den Kontakt zu den Entwicklungen der philosophischen Phänomenologie etwa ab den 1950er Jahren verloren hat. Infolgedessen wird der Religionsphänomenologie in der Tradition der phänomenologischen Philosophie in der Religionsanalyse nur selten eine Bedeutung beigemessen (Guerrière 1990).

Die Phänomenologie der Religion wird kritisiert, weil sie die sozialen und kulturellen Kontexte religiöser Phänomene ignoriert. Da die Phänomenologie im Allgemeinen wegen ihrer naiven Haltung gegenüber Sprache und kulturellem Perspektivismus kritisiert wurde, wird auch die Phänomenologie der Religion hinsichtlich der sprachlichen und kulturellen Voreingenommenheit kritisiert, die in der Analyse von „Phänomenen“ und „Symbolen“ impliziert ist. die Ergebnisse der freien Variationen hängen vom kulturellen Hintergrund der Phänomenologen ab (Allen 1987).


Die Lifestyle-Theorie

Die nächste Theorie ist die Lifestyle-Theorie. Diese Theorie besagt, dass Einzelpersonen aufgrund ihrer Lebensstilentscheidungen gezielt angegriffen werden und dass diese Lebensstilentscheidungen sie kriminellen Tätern und Situationen aussetzen, in denen Straftaten begangen werden können. Beispiele für einige Lebensstilentscheidungen, die von dieser Theorie angezeigt werden, sind das alleinige Ausgehen in der Nacht, das Leben in "schlechten" Stadtteilen, der Umgang mit bekannten Verbrechern, Promiskuität, übermäßiger Alkoholkonsum und Drogenkonsum.

Zusätzlich zu der Theorie, dass Viktimisierung nicht zufällig ist, sondern ein Teil des Lebensstils, den die Opfer verfolgen, zitiert die Lebensstiltheorie Forschungsergebnisse, dass Opfer "Persönlichkeitsmerkmale teilen, die auch bei Gesetzesverletzern häufig vorkommen, nämlich Impulsivität und geringe Selbstkontrolle" (Siegel, 2006). Diese frühere Aussage wurde in einer psychologischen Zeitschrift von Jared Dempsey, Gary Fireman und Eugene Wang diskutiert, in der sie die Korrelation zwischen Opfern und Tätern von Verbrechen feststellen, die beide impulsives und antisoziales Verhalten zeigen (2006). Diese Verhaltensweisen können zu ihrer Viktimisierung beitragen, da sie dazu führen, dass sich die Person einem höheren Risiko für eine Viktimisierung aussetzt als ihre konservativeren Lebenspartner.


Strategische Dominanz

Beispiel für strategische Dominanz

Stellen Sie sich eine Situation vor, in der zwei Unternehmen, genannt Startupo und Megacorp, konkurrieren in einem neuen Markt.

Dieser Markt hat ein Produkt, das in zwei verschiedenen Versionen verkauft wird: die Verbraucher Version und die Fachmann Ausführung. Beide Versionen sind für das Unternehmen, das sie verkauft, gleichermaßen profitabel, und das einzige Anliegen des Unternehmens besteht darin, durch den Verkauf von mehr Einheiten mehr Geld zu verdienen. Aus praktischen Gründen kann ein Unternehmen jedoch nur einen Produkttyp herstellen

Die meisten Marktteilnehmer (80%) interessieren sich für die Consumer-Version, und nur wenige (20%) interessieren sich für die professionelle Version. Jedes Unternehmen kann entscheiden, ob es die Consumer-Version oder die Professional-Version des Produkts verkaufen möchte. Entscheiden sich beide Unternehmen, den gleichen Produkttyp zu verkaufen, müssen die Unternehmen den Markt für dieses Produkt aufteilen. Andernfalls hat jedes Unternehmen den vollen Verbraucher- oder Berufsmarkt für sich.

Daher hat jedes Unternehmen zwei mögliche Strategien zur Auswahl, und es gibt vier mögliche Ergebnisse des Szenarios:

  • Beide Unternehmen treten in den Verbrauchermarkt ein. This means that the companies split the consumer market (which accounts for 80% of the total market share), and that each company therefore gets 40% of the total market share.
  • Both companies enter the professional market. This means that the companies split the professional market (which accounts for 20% of the total market share), and that each company therefore gets 10% of the total market share.
  • Startupo enters the consumer market, and Megacorp enters the professional market. This means that Startupo gets the full consumer market (80% of the total market share), and Megacorp gets the full professional market (20% of the total market share).
  • Megacorp enters the consumer market, and Startupo enters the professional market. This means that Megacorp gets the full consumer market (80% of the total market share), and Startupo gets the full professional market (20% of the total market share).

Based on this, if a company chooses to enter the consumer market, then it will get either 40% or 80% of the total market share. Conversely, if a company chooses to enter the professional market, then it will get either 10% or 20% of the total market share.

Accordingly, for both companies, the (strictly) Dominant strategy is to enter the consumer market, since they will end up with a größer market share this way, regardless of which move the other company makes.

Conversely, for both companies, the (strictly) dominated strategy is to enter the professional market, since they will end up with a kleiner market share this way, regardless of which move the other company makes.

Note that this scenario can become more complex by adding factors that often appear in real life, such as additional players, additional products, and different profitability margins for different products. However, although these additional factors make it more difficult to analyze the strategic dominance in a situation, the basic idea behind dominant and dominated strategies remains the same regardless of this added complexity.

Strategic dominance in single-player games

In scenarios where there is only one player, there can still be dominant and dominated strategies.

For example, consider a situation where you are walking along a street, and you need to eventually cross the road. Just as you reach the first of two identical crosswalks that you can use, the crosswalk light turns red. You now have two strategies to choose from:

  • Wait for the light at this crosswalk to turn green.
  • Keep walking until you reach the next crosswalk, and then cross there.

Given that your goal is to minimize the time spent waiting at the crosswalk, the dominant strategy in this case is to keep going until you reach the next sidewalk. This is because, if you decide to cross at the current crosswalk, you’re going to have to wait for the full length of time that it takes the light to turn green. Conversely, if you keep going until you reach the next crosswalk, then once you get there, one of three things will happen:

  • You will reach the second crosswalk while the light is green, in which case you won’t have to wait at all, which represents an outcome that is besser than the outcome that you would have gotten if you chose to wait at the first crosswalk.
  • You will reach the second crosswalk while the light is already red, in which case you will have to wait for less time than you would have had to wait at the first crosswalk, which represents an outcome that is besser than the outcome that you would have gotten if you chose to wait at the first crosswalk.
  • You will reach the second crosswalk just as the light turns red again, in which case you will have to wait the same length of time that you would have had to wait at the first crosswalk, which represents an outcome that is gleich to the outcome that you would have gotten if you chose to wait at the first crosswalk.

Since the strategy of going for the next crosswalk leads to an outcome that is equal to or better than the outcome of waiting at the current crosswalk, it’s the (weakly) dominant strategy in this case.

Note that, in this game, though there is only one player, the concept of “luck”, in the form of whether or not the next light will be green or red, can be viewed as representing a second player, when it comes to assessing the dominance of your strategies.

However, the concept of strategic dominance can occur in even simpler situations, where there is no element of luck. For example, consider a situation where you need to choose between buying one of two identical products, with the only difference between them being that one costs $5 and the other costs $10. Here, if your goal is to minimize the amount of money you spend, then buying the cheaper product is the dominant strategy.

Games with no strategic dominance

There are situations where there is no strategic dominance, meaning that none of the available strategies are dominant or dominated.

For example, in the game Rock, Paper, Scissors, each player can choose one of three possible moves, which lead to a win, a loss, or a draw with equal probability, depending on which move the other player makes:

  • Rockwins against scissors, loses against paper, and draws against Felsen.
  • Papierwins against Felsen, loses against scissors, and draws against paper.
  • Scherewin against paper, lose against Felsen, and draw against scissors.

Accordingly, none of the available strategies dominates the others, because none of the strategies is guaranteed to lead to an outcome that is as good as or better than the other strategies. Rather, there is a cycle-based (non-transitive) relation between the strategies, since choosing rock is better if the other player chooses scissors, and choosing scissors is better if the other player chooses paper, but choosing paper is better if the other person chooses rock.

In addition, note that if multiple strategies always lead to the same outcomes, then they are said to be Äquivalent. For example, if a company needs to choose between online and offline advertising based on the profit that each option leads to, and both options lead to a profit of $20,000, then these two options are equivalent to one another, at least as long as no other related outcomes are taken into account.

Using strategic dominance to guide your moves

To use strategic dominance to guide your moves, you should first assess the situation that you’re in, by identifying all the possible moves that you and other players can make, as well as the outcomes of those moves, and the favorability of each outcome. Once you have mapped the full game tree, you can determine the dominance of the strategies available to you, and use this information in order to choose the optimal strategy available to you, by preferring Dominant strategies or ruling out dominated ones.

For example, let’s say you have three possible strategies, called EIN, B, und C:

  • If strategy EIN leads to better outcomes than strategies B und C, then strategy EIN ist Dominant, and you should use it.
  • If strategy EIN leads to an equal outcome as strategy B, but both lead to better outcomes than strategy C, then strategy C is dominated, and you should avoid it.

In addition, it can sometimes be beneficial to rule out your and your opponents’ strictly dominated strategies, which are always inferior to alternatives strategies, before re-assessing the available moves, in a process called iterated elimination of strictly dominated strategies (oder iterative deletion of strictly dominated strategies). It’s possible to also eliminate weakly dominated strategies in a similar manner, but the elimination process can be more complex in that case.

Finally, in situations where multiple available strategies lead to equal outcomes, you can pick one of them at random. In the case of games with multiple players, doing this has the added advantage of helping you make moves that are difficult for other players to predict, which can be beneficial in some situations.

Notiz: and associated concept is mixed strategies, which involves choosing out of several strategies at random (based on some probability distribution), in order to avoid being predictable.

Using strategic dominance to predict people’s behavior

Understanding the concept of strategic dominance can help you predict other people’s behavior, which can allow you to better prepare for the moves that they will make.

Specifically, there are two key assumptions that you should keep in mind:

  • People will generally prefer to verwenden ihr Dominant strategies.
  • People will generally prefer to vermeiden ihr dominated strategies.

However, it’s also important to keep in mind that in certain situations, people might not pick a strategy that you think is dominant, or might pick a strategy that you think is dominated, for reasons such as:

  • They know something that you don’t.
  • They value outcomes in a different way than you expect them to.
  • They are irrational, so they won’t do what’s best for them from a strategic perspective.
  • They lack certain knowledge about the structure of the game (i.e., who are the players, and which strategies and payoffs are available), or about the other players (i.e., about the other players’ rationality and knowledge of the game and the other players).

You can account for such possibilities in various ways. For example, you can incorporate these possibilities into your predictions, in order to make the predictions more accurate, for example by noting that someone tends to choose their strategy based on ego rather than logic. Similarly, you can consider these possibilities when estimating the certainty associated with your predictions, even if you don’t modify the predictions themselves, in order to understand how uncertain your predictions are.

Overall, you can use the concept of strategic dominance to predict people’s behavior, by expecting them to generally use dominant strategies and avoid dominated ones. However, when doing this, it’s important to account for various factors that could interfere with your predictions, such as people’s irrationality, or your incomplete knowledge regarding people’s available moves.

Notiz: the term “mutual knowledge” refers to something that every player in a game knows. The term “common knowledge” refers to something that every player in a game knows, and that every player knows that every player knows, and so on.