Jump to content
Roulette Forum

Tiefseefischer

Mitglieder
  • Gesamte Inhalte

    101
  • Benutzer seit

  • Letzter Besuch

Alle erstellten Inhalte von Tiefseefischer

  1. Liebe Community, ich möchte gerne ein paar Forschungsergebnisse mit euch teilen – in der Hoffnung, dass Ihr vielleicht zu einer Schlussfolgerung kommt, die mir bisher noch nicht möglich war. Worum geht es: Angehängt habe ich zwei Excel-Dateien mit Daten und einfachen Auswertungen. Was sieht man dort: Jeweils in den ersten Tabellenblättern die „Rohdaten“, sprich Daten, die ich aus fortlaufenden Zufallsfolgen (binärer Art, es geht nur um 0/1) gewonnen habe. Wie diese Daten gewonnen wurden, soll nicht Gegenstand dieser Diskussion sein – es geht mir in erster Linie darum, ob sich eine Prognosemöglichkeit ergibt. In den zweiten Tabellenblättern sieht man Auswertungen dieser Daten. Ich habe ein paar Erklärungen hinzugefügt, damit man´s auch lesen kann. Trotzdem fass´ ich nochmal kurz zusammen: Datei1: Diese Datei enthält fortlaufende Datenspalten, von denen eine die tatsächlich erschienene Option (0 oder 1) darstellt, die andere die Alternativoption (deshalb die Bezeichnung der Spalten mit „richtig“ und „falsch“). Im zweiten Tabellenblatt habe ich dann ein übliches statistisches Verfahren angewendet, um die Daten zu untersuchen. Ich habe jeweils die Differenz aus „tn richtig“ und „tn+1 richtig“ bzw. „tn+1 falsch“ gebildet (um ein Beispiel zu nennen: Der Wert aus D8-D7 bildet eine neue Spalte und der Wert aus F8-D7 bildet eine neue Spalte.). Das Interessante daran: Summiere ich diese Ergebnisspalten auf, dann erhalte ich das grafisch dargestellte Ergebnis – nämlich zwei komplett unterschiedliche Entwicklungen. Während Strang „richtig“ recht eng um die Nulllinie oszilliert, schwankt Strang „falsch“ deutlich stärker. Die Schlussfolgerung: Verwendet man die Ergebnisse „richtig“ und „falsch“ (also letzten Endes die vorher noch nicht bekannten Ergebnisse 0 und 1) zufällig, dann ergibt sich die oben beschriebene Verteilung NICHT (das kann jeder in der Excel-Datei leicht selbst ausprobieren). Das bedeutet aber, dass die Ergebnisse (0 oder 1) NICHT rein zufällig sein können. Datei2: Diese Datei ist in der Auswertung etwas komplizierter aufgebaut. Das erste Tabellenblatt enthält zunächst wieder die „Rohdaten“, die in diesem Fall aus drei Spalten bestehen: Spalte1: Prognose trifft zu (1), Prognose trifft nicht zu (-1), keine Prognose möglich (0). Spalte2: Ergebnis 0 (-1) oder 1 (1). Ich habe hier nicht 0/1 sondern 1/-1 aus Verarbeitungsgründen verwendet, aber das macht ja keinen Unterschied. Spalte3: Prognose 0 (-1) oder 1 (1). Spalte1 ergibt sich natürlich aus Spalte2 und 3. Im zweiten Tabellenblatt ergibt sich dann folgende Auswertung: Zunächst wird aus Spalte1 und Spalte2 ein gemeinsames Ergebnis gebildet (also 1 und 1 ergibt 1, 1 und -1 ergibt 2, -1 und 1 ergibt 3, -1 und -1 ergibt 4; 0 bleibt 0, da nicht relevant). Daraus ergibt sich wiederum eine fortlaufende Spalte mit den Ergebnissen von 0 bis 4. Die im Excel-Blatt nächsten Spalten sind Hilfsspalten und werfen eine Prognose von 1 bis 4 aus (0 wird ignoriert) und zwar in der Art, dass die letzte Folgeziffer bei der nächsten gleichen Ziffer erneut folgen soll. Beispiel Abfolge: 1 0 2 4 2 Prognose wäre hier dann 4 (nach dem letzten 2er kam ein 4er). Danach erfolgt der Abgleich mit der tatsächlichen Ziffer, was erstaunlicherweise eine deutlich höhere Trefferquote als erwartet (bei 4 Möglichkeiten müsste die Trefferquote eigentlich bei 25% liegen), nämlich >30% ergibt (ich hab das Ergebnis zusätzlich in Sigma-Abweichung ausgedrückt; die liegt bei diesem Testumfang irgendwo über 6,6; natürlich habe ich mit wesentlich mehr Daten getestet und das Ergebnis bleibt bei >30%, also einer deutlich höheren Abweichung). Der Gegentest (wenn zur Erzeugung der Spalte3 „Prognose“ keine fortlaufenden Zahlen, sondern jeweils ein komplett neuer „Vorlauf“ verwendet wird) erfüllt genau die Erwartung, nämlich 25% Trefferquote bei der Prognose der Ziffern 1 bis 4. Die Schlussfolgerung: Offensichtlich besteht ein Zusammenhang zwischen den Spalten 2 und 3 (nämlich zwischen tatsächlichem Ergebnis und der Prognose), und damit ein Zusammenhang zwischen Ergebnis und Vorlauf. Es ist durchaus möglich, dass die dargestellten Entwicklungen systemimmanent sind, sich also kein weiterer Informationsgewinn (und somit keine Prognose) daraus ableiten lässt – vielleicht übersehe ich aber auch einfach etwas. Jetzt sind eure Ideen gefragt – eurer Phantasie in der Auswertung der Daten sind keine Grenzen gesetzt! Sollte etwas unklar sein, bitte fragt einfach nach! Beste Grüße Tiefseefischer RohdatenVerarbeitung.xlsx RohdatenVerarbeitung_II.xlsx
  2. @roemer Danke für die Antwort und die Blumen – auch wenn´s mich leider nicht weiterbringt. Man kann dir jedenfalls nicht vorwerfen, du würdest hier (im von dir selbst gewählten Ausmaß) nicht antworten. Ich verstehe dich natürlich vollkommen, kann aber nur wieder die (rhetorische) Frage in den Raum stellen: Wenn unsere Rollen vertauscht wären, würdest du nicht ähnlich vorgehen und versuchen, ein augenscheinlich funktionierendes System zu durchschauen? Was den Punkt Konkurrenz betrifft: Ich denke nicht, dass ich als solche zu betrachten bin – weder bin ich in Casinos unterwegs, noch plane ich den letztendlichen Einsatz im Roulette-Umfeld. Insofern habe ich die Hoffnung immer noch nicht aufgegeben, dass du mir den einen oder anderen sanften Schubs in die richtige Richtung (vielleicht auch nicht unbedingt hier?) gibst. @Albert Einstein Du hast natürlich recht: Konkretes hat roemer nicht geschrieben (auch nicht in den vielen Jahren, die er hier angemeldet ist). Wie auch ich bereits geschlussfolgert habe (siehe Kommentar zur konkreten Spielweise in meinem letzten Beitrag), kann es kein zu kompliziertes Regelwerk sein. Dass ich mit meinen Denkansätzen komplett falsch liege, verwundert mich allerdings etwas – kannst du (vielleicht auch per PN) näher ausführen, was du damit meinst? @Egoist Zum Thema unfair: Ich gehe mit relativ hoher Wahrscheinlichkeit davon aus, dass roemer tatsächlich einen positiven EW hat. Es ist sogar ziemlich genau bekannt, „wo“ man suchen muss (das „Wie“ ist leider sehr ungewiss). Da ist es für mich mehr als naheliegend, genau hier anzusetzen und nicht das Rad neu zu erfinden. Ich denke auch nicht (aber korrigier mich bitte, falls du das anders sehen solltest), dass ich mich ihm gegenüber ungebührlich verhalte. Ich frage – er antwortet (soweit er das will). Wie im letzten Beitrag beschrieben sehe ich auch keine wirkliche Alternative – ich kann nur „hoffen“ (auf Glück oder Unterstützung) und beharrlich bleiben. Beste Grüße Tiefseefischer
  3. Nachdem ich zwar (wie ich meine) ein paar Schritte weitergekommen bin, aber noch keine „Lösung“ gefunden habe, muss ich hier noch einmal aufwärmen. Ich adressiere direkt an dich, roemer – alle anderen sind aber gerne wieder eingeladen, sachdienliche Ideen beizusteuern! Für dich als „Lackmus-Test“: So weit bin ich (Gedanken, Verständnisfragen, Schlussfolgerungen): Grundsätzlich klingt ja alles logisch, der Kernpunkt (und was du verständlicherweise nie weiter ausbreitest) sind deine „Zusammenhänge“. Es geht um Ähnlichkeiten, soviel ist mMn klar – innerhalb der letzten bis zu 40 Coups werden gewisse Strukturen ins Verhältnis zu anderen erschienenen Strukturen gesetzt. Aber wie sehen diese „Zusammenhänge“ konkret aus? Möglicherweise erfolgt auch eine Umformung von R/S auf eine andere Art der Abfolge. Das vermute ich, weil du ja schreibst, dass es die gleiche „Situation“ jeweils von R und S aus betrachtet gibt. Zudem gelten deine Zusammenhänge ja auch für höhere Chancen. Auch dort muss ja von jeder Einzelchance aus betrachtet die jeweilige „Situation“ existieren. Um diese Zusammenhänge zu finden, habe ich (unter anderem) versucht, „lokale Markovketten“ (wie du es einmal genannt hast) zu bilden – also die Abfolge aller entstandenen Figuren der letzten ca. 40 Coups in Markovketten umgewandelt. Auch mit Gewichtungen (sowohl linear als auch exponentiell), die die späteren Ereignisse (da weniger lang zurück) stärker gewichten. Klarerweise kommt dabei nichts raus – kein „schwammiger“ Ablauf; ließe es sich so exakt berechnen, wäre es „leicht“. Woran ich von der logischen Verifizierung her immer noch knabbere: In der Diskussion Anfang 2014 mit Miboman habt ihr (zumindest öffentlich) den Punkt nicht mehr aufgelöst, der auch mich nach wie vor beschäftigt, bzw. für den ich noch keine zufriedenstellende Erklärung gefunden habe: Wenn in den (maximal) 40 letzten Coups die gesamte benötigte Information für die Prognose steckt, warum lässt sich durch statistisches Erfassen von 40 Coups + Folgecoup dann keine ungleiche Verteilung feststellen? Auch du selbst bist ja (zunächst) davon ausgegangen, dass das so sein müsste (siehe weiter vorne im Thread). Wieviel ist vom praktischen Ablauf her bekannt: Die Analyse mag kompliziert sein, aber die Anwendung muss doch „einfach“ genug sein, um sie in relativ kurzer Zeit für alle drei Chancenpaare gleichzeitig anwenden zu können. Der „schwammige, ungenaue“ Ablauf ließe eher auf eine optische Analyse (Chart?) schließen (und du hast ja auch mit Trendanalyse begonnen) – allerdings habe ich keine wirklich gute Idee, wie das für die höheren Chancen realisiert werden könnte. Außerdem machst du deine Aufzeichnungen ja auf recht kleinen „Kärtchen“. Grundsätzlich gehe ich davon aus, dass du mindestens zwei Analysen machst. Vermutet werden könnte, dass du einfach beide möglichen Ergebnisse testest (welches passt besser?). Am wahrscheinlichsten erscheint mir momentan folgende (theoretische) Schlussfolgerung: „Strukturen und Fraktale“ sind ja die richtige Richtung. Das wesentlichste Merkmal von Fraktalen ist die Selbstähnlichkeit. Dass es um „ähnliche Strukturen“ geht, hast du auch im von mir angestoßenen Thread geschrieben. Ich hab´s nach mehreren Anläufen geschafft, dass ich Strukturen automatisiert (per Excel) auf Ähnlichkeit vergleichen kann (was schwierig genug war, da die Literatur auf diesem Gebiet für einen Laien wie mich rar gesät und gelinde gesagt „nicht ganz einfach“ zu lesen und zu verstehen ist). Die Fragen sind nur: Was vergleiche ich womit und welche Schlussfolgerungen kann ich aus diesen Vergleichen ziehen, wenn Ähnlichkeit erkannt wird? Es geht ja nicht nur um den einzelnen Coup, sondern um eine Struktur/Cluster von Coups. Logisch scheint, dass (mindestens) eine längere mit einer kürzeren Struktur verglichen werden muss, damit sich Selbstähnlichkeit ergeben kann. Es würde mich freuen, wenn du dazu etwas sagen könntest – möglicherweise auch als Antwort auf meine kürzlich an dich geschickte E-Mail. Beste Grüße Tiefseefischer p.s.: Wenn ich hier rauseditieren soll, lass es mich wissen …
  4. Hm, an anderer Stelle hast du hier einmal eine Einladung zu einer "competition" (match-up, wer bei vorgegebenen Coups mit seinem System am meisten gewinnen würde) ausgeschlagen. Deine Begründung (die ich nachvollziehen kann) war, dass aussagekräftige Ergebnisse viel zu viel Zeit in Anspruch nehmen würden. Daher bin ich davon ausgegangen, dass bei gegebenen Coups und deiner entsprechenden Prognose noch keine Rückschlüsse auf dein "System" möglich wären. Ist dem nicht so? LG Tiefseefischer
  5. @roemer Kannst du eine Coupfolge (so kurz wie möglich, aber so lang wie nötig) posten, die eine "deutliche" Prognose zulässt (inklusive deiner Prognose)? Gerne kommentarlos (also ohne Erklärung warum und wieso genau diese Prognose), noch lieber natürlich mit Kommentar ... LG Tiefseefischer
  6. Danke für deinen Beitrag, leider kann ich damit nicht viel anfangen. Wie würde das denn in der Excel-Syntax dann aussehen? Hast du vielleicht auch eine Idee, wie ich die "Zählung" effizient gestalten kann? Wie geschrieben, 2^15 verschiedene Vorläufe und eine entsprechende Anzahl Durchläufe für Signifikanz ist noch kein Problem - aber bei 2^30 oder gar 2^40 seh ich für Excel eher schwarz ... Freundliche Grüße Tiefseefischer
  7. @roemer Vielleicht hab ich ja einen Denkfehler, aber ich seh das so: Egal wie deine Herleitung bzw. Prognose für den nächsten Coup funktioniert, sie hat als Daten-Basis immer den Vorlauf von ca. 40 Coups. Sämtliche relevante Information steckt also dort drinnen. Wenn aber exakt gleiche Vorläufe zu exakt gleichen Prognosen führen, dann muss das statistisch (eben durch riesige Datenbanken) fassbar sein. Wenn du also Coups auslässt und Strukturen in Relation zueinander setzt, dann ist das dein Weg, die benötigte Information zu extrahieren. Es ändert aber nichts daran, dass exakt diese Coupfolge wiederum zur gleichen Prognose führen würde. Seh ich da was falsch? Freundliche Grüße Tiefseefischer
  8. @roemer Gut, 15 ist also zu wenig. Wäre halt jetzt wirklich interessant, wo die "kritische Zahl" liegt. 2^15 ist in Excel noch recht leicht zu verarbeiten, aber jedes +1 in der Potenz bedeutet nunmal eine Verdopplung der notwendigerweise zu investierenden Zeit. Mir ist schon klar, dass du keine Anleitung hier reinstellst. Aber ich denke, wenn unsere Rollen vertauscht wären und du mit ausreichend hoher Wahrscheinlichkeit davon ausgehen könntest, dass die Aussagen plausibel und richtig sind, dann würdest du wohl auch alles daran setzen, zu einem Ergebnis zu gelangen. Schließlich wissen wir wohl beide, worum es hier geht ... Freundliche Grüße Tiefseefischer
  9. @roemer An den Zufallszahlen direkt wird’s nicht liegen, das ist klar. Ich meinte damit mehr die Generierung der Zahlen. Wenn Excel die “durcheinander” (und nicht von oben nach unten) generiert, so wie es bei Berechnungen großer Datenmengen passiert, dann fehlt doch schätzungsweise jeder Zusammenhang zwischen Vorlauf und der 16ten Zahl (weil zwischendurch vielleicht 167 andere Zahlen generiert wurden). Aber wie gesagt, da weiß ich zu wenig über Excel Bescheid. Du hast doch geschrieben, dass 15 Zahlen Vorlauf in manchen Situationen genügen. Wenn ich alle möglichen 2^15 Situationen aufzeichne, sind doch unweigerlich diese speziellen Situationen auch erfasst. Ich bin mittlerweile bei knapp 300 Coups je Situation. Das würde knapp 3,5 Sigmas entsprechen. Die zu erwartende Anzahl an Sigma-Abweichungen >3 Sigmas entspricht bei 2^15 unterschiedlichen Situationen ca. 88 bei einer 50:50 Verteilung. Ich habe 87 Abweichungen >3 Sigmas, also genau der zu erwartende Wert. Bei einer Ungleichverteilung (und wenn’s nur wenige Situationen betrifft) sollten deutlich mehr Abweichungen >3 Sigma entstehen. Was mache ich falsch? Durch die gespiegelten Situationen kann in diesem Fall kein Ausgleich entstehen, da ich ja jede einzelne Situation gesondert betrachte. Freundliche Grüße Tiefseefischer
  10. @roemer Ich hab jetzt mal die 15er Abschnitte untersucht – leider ergebnislos. Um mögliche Fehlerquellen zu eruieren, erläutere ich kurz den „Versuchsaufbau“: Zur Erzeugung der Zufallszahlen wurde die excel-interne Syntax verwendet, Ausgabeformat binär (0 oder 1). Aus den (in einer Spalte, also untereinander) generierten Zufallszahlen habe ich danach 16er Abschnitte verarbeitet. Hier könnte eine Fehlerquelle sein: Generiert Excel die Zufallszahlen von Zeile 1 nach unten in chronologischer Reihenfolge oder „durcheinander“ (so wie es bei einigen seiner Berechnungen von größeren Datenmengen vorkommt)? Die entstandenen 15er Abschnitte wurden in zwei Spalten aufgezeichnet – die jeweils 16te Zufallszahl entschied dabei, ob in Spalte 1 oder in Spalte 2. Dadurch entstanden 2 „Datenbanken“. Die Anzahl der knapp 33.000 möglichen Ausgänge (2^15) für jede der beiden „Datenbanken“ wurde aufgezeichnet. Für diesen ersten Test habe ich knapp 5 Mio Abschnitte aufgezeichnet, also für jede der 2^15 Möglichkeiten im Durchschnitt ca. 150 Einzelwertungen. Das Sigma-Spektrum über alle Abschnitte ergibt das zu erwartende Spektrum einer 50:50 Verteilung. Auch wenn 150 jeweilige Einzelwertungen für sich natürlich nicht aussagekräftig wären, hätte sich im Gesamt-Spektrum (selbst bei nur wenigen „relevanten“ Abschnitten) ein deutlicher Unterschied bemerkbar machen müssen. Habe ich etwas übersehen? Freundliche Grüße Tiefseefischer
  11. Ja, das ist mir soweit klar. Aber ich denke es liegt auf der Hand, dass ich, wenn ichs statistisch lösen will, vom Aufwand her soweit wie möglich minimieren muss. Ab welcher Länge ergibt sich die 40% Quote für die relevanten ("beurteilungsfähigen") Situationen? Hast du diesen Thread eigentlich abonniert? Freundliche Grüße Tiefseefischer
  12. @roemer Habs als Mail bekommen - danke für das Angebot. Ja, die "kritische Zahl" oder "Masse" ist mir ein Begriff. Ich bin mir ziemlich sicher, dass es 15 waren (bewusst geschrieben). Würde das denn ausreichen? Freundliche Grüße Tiefseefischer
  13. Wenn ich hier nochmal nachhaken darf: Du hast mal geschrieben, dass sich schon ab 15 Coups der aktuelle Zusammenhang erkennen lässt. Was verbessert sich durch längere Abschnitte für die Urteilsfindung? Die Trefferquote, die Setzquote, wird die Entscheidung einfacher? Freundliche Grüße Tiefseefischer
  14. Und wo ist der Haken? Freundliche Grüße Tiefseefischer
  15. Ja, schon klar, dass quer drüber 50:50 rauskommen muss. Aber wenn ich wie gesagt die 40er Permanenzen aufzeichne, dann müsste doch, wenn für gleiche Permanenzen immer der gleiche Vorteil entsteht, bei einigen (nicht bei allen) Permanenzen sich der Vorteil nach (sehr) vielen Durchläufen heraus kristallisieren... Freundliche Grüße Tiefseefischer
  16. Und genau da scheitert's bei mir jetzt gedanklich: Genau diese 40er Permanenzen kann ich doch statistisch (beispielsweise durch Excel) befüllen lassen (also was das Ergebnis, den folgenden Coup betrifft). Sollte ich dort bei ca. 40% der Permanenzen eine Ungleichverteilung feststellen können? Freundliche Grüße Tiefseefischer
  17. Mhm, das klingt nachvollziehbar, dass man nicht jede "Situation" aufgrund des Faktors Zeit abspeichern wird können. Das führt aber unweigerlich zur Frage: Wie schaffst du das? Du wirst ja kaum alle Situationen gedanklich abgespeichert haben - insofern muss es doch allgemeinere "Bildungsgesetze" geben. Könnte man die denn nicht programmieren? Freundliche Grüße Tiefseefischer
  18. @roemer Auf folgende Fragen finde ich nur sehr unzureichende Erklärungen: Bei einer beliebigen Coup-Abfolge beliebiger Länge - wenn diese ein weiteres Mal erscheint, müsstest du doch zur gleichen Prognose gelangen. Die Ergebnisse müssten sich ja aber gleichverteilen… Als Beispiel: Nach 25 Coups kommst du zu einer Prognose (sagen wir 60:40 für Rot). Fallen diese 25 Coups nun ein weiteres Mal identisch, dann müsste die Prognose doch die gleiche sein (nämlich wieder 60:40 für Rot). Statistisch ist das denke ich klar widerlegbar. Also wo ist der Gedankensprung, der mir nicht gelingt? Wozu der ganze Aufwand (ins Casino fahren, “unterm Radar bleiben”), wenn sich’s programmieren und an der Börse verwenden lässt? Alles legal, Aufwand dauerhaft minimal, quasi ein Selbstläufer. Freundliche Grüße Tiefseefischer
  19. @roemer Danke für deine Antworten, auch wenn sie jetzt nicht mehr da sind – ich hab´s gelesen. Direkt weiterbringen wird es mich wohl nicht, da hast du schon recht – für mich war´s aber wichtig. Wär´s eine Herleitung gewesen, hätte ich an dieser Stelle keine Möglichkeit gesehen, deinen Ansatz weiter zu verfolgen – die investierte Zeit ist schon ein wesentlicher Faktor. - Ist es dir möglich auf die Frage danach, wo oder wie du aus heutiger Sicht beginnen würdest, wenn du dein Konzept neu herleiten müsstest, zu antworten? - Ich weiß, dass du kein Fan von Excel bist – aber wäre das ein geeignetes Programm zur Überprüfung bzw. Stellung deiner Prognosen, wenn du zum Beispiel online spielen würdest und deine Aufzeichnungen nicht per Hand machen müsstest? Freundliche Grüße Tiefseefischer
  20. @roemer Ohne jetzt ins Detail zu gehen: Wie hat sich denn die Herleitung gestaltet? - - War das ein längerer Prozess, also eine „Entwicklung“ über mehrere/viele Entwicklungsschritte hinweg – oder war es mehr ein „Geistesblitz“ oder vielleicht eine „Zufallsentdeckung“, der/die dann ausgefeilt wurde? - - Hast du zuerst die Theorie entwickelt – oder ist dir bei „Tests“ zunächst etwas aufgefallen, wozu du dann die Erklärung gesucht hast? - - Wenn du deinen Vorteil noch einmal ganz von vorne herleiten müsstest, wo würdest du ansetzen, womit würdest du beginnen? Freundliche Grüße Tiefseefischer
  21. @roemer Waren meine Fragen diesmal zu konkret? Freundliche Grüße Tiefseefischer
  22. Das sind die Thesen, ja. Über die Anwendbarkeit würde ich gerne reden ... Da habe ich mich offensichtlich unklar ausgedrückt. Ich meinte: Ich nehme jeden 26ten Coup und analysiere die 25 Coups davor, ob sich für den 26ten Coup irgend welche (wie auch immer gearteten) Zusammenhänge ergeben. Ist das zulässig, oder entspricht das einer Unterscheidung in Warte- und Analysecoups? - Waren die Fragen/Gedanken zur "höheren Ordnung" zu konkret? Oder wie sieht die aus? - Könnten neuronale Netze bei der Prognose helfen? Die erkennen ja auch nicht-lineare Zusammenhänge. Die Frage ist wahrscheinlich: Was verwende ich als Input-Werte? Freundliche Grüße Tiefseefischer
  23. Die grundlegenden Aussagen hat roemer ja schon selber ausgebreitet. Klar dürfte aber sein, dass dabei die entscheidenden Details fehlen. Soweit ich es verstehe geht es ja letzten Endes darum, die jeweils aktuellen Zusammenhänge, die sich (selbstorganisiert) aus sich selbst heraus (also aus dem Verlauf – wobei die Zusammenstellung der Einzelbausteine nicht chronologisch oder nur von einer „Quelle“ erfolgen muss) ergeben, zu erkennen. Es entsteht eine „höhere Ordnung“, eine „Makroebene“ (im Gegensatz zur „Mikroebene“, die durch die Einzelbausteine gebildet wird). Wie kann nun diese höhere Ordnung aussehen? Dafür gibt es unzählige Beispiele – recht anschaulich finde ich den Druck eines Gases. Diese Eigenschaft entsteht durch das Zusammenspiel der einzelnen Atome/Moleküle. Betrachtet man die Einzelteile aber isoliert, würde man nicht unbedingt darauf schließen, dass so etwas wie ein Druck entstehen kann. Was wir also suchen, ist ein Messinstrument für die höhere Ordnung, bzw. eine Idee davon, was diese höhere Ordnung sein könnte. Weitere offene Fragen (wahllos und unvollständig): - Sind die Einzelbausteine die Coups oder die Wahrscheinlichkeitsverteilungen (50:50, 60:40, 40:60)? - Man darf nicht nach Wartecoups und Prognosecoups differenzieren. Wenn man im Excel testet und beispielsweise immer den 26ten Coup betrachtet – ist das überhaupt zulässig oder entspricht das einer ebensolchen Differenzierung? - roemer erwähnt immer wieder auch die Selbstähnlichkeit. Was damit gemeint ist und dass es sie auch bei zufallsgenerierten Charts gibt, ist klar (wobei es sich meiner Auffassung nach dort um Selbstaffinität handelt, aber das ist nebensächlich). Aber wie passt sie ins Bild, wo kommt sie zur Anwendung? Ich will jetzt vorerst noch nicht zu sehr ins Detail gehen, sondern erstmal Fragen aufwerfen – meine eigenen Antworten darauf kenne ich ja, mich interessieren aber eben eure Sichtweisen/Ideen! Freundliche Grüße Tiefseefischer
  24. Hm, glaubst du, dass er sich am Unwissen anderer ergötzt? So habe ich ihn bisher nicht eingeschätzt ... Bei Markovketten haben wir doch das selbe Problem wie beim Urnenmodell: Kein Gedächtnis, also kein (wie auch immer gearteter) Zusammenhang der Einzelereignisse. Ich stell morgen eine kurze Übersicht der mir relevant erscheinenden Aussagen rein. Freundliche Grüße Tiefseefischer
  25. Vielen Dank für eure Beiträge! @Frenshy Offen gestanden ist mir nicht ganz klar, worauf du hinaus willst. Wie beschrieben erwarte ich mir eine Diskussion - ich nehme an, es beschäftigen sich noch mehr mit dem Thema. Und ich denke nicht, dass die alle bereits eine Lösung gefunden haben. Viele lesen ja einfach auch nur mit - diesen möchte ich eine Ansprechmöglichkeit bieten. @wiensschlechtester Meinst du die grundlegenden Prinzipien? Die kann ich gerne zusammenfassen. @roemer Vielen Dank für deine Hinweise. Leider ist das andere Forum ja nicht mehr online, sodass ich dort nachlesen könnte. Hat Oz3a dein Prinzip verstanden, oder kann er es auch nachspielen? Aber ich bin natürlich für Vorschläge offen: Was würdest du an meiner Stelle machen? Freundliche Grüße Tiefseefischer
×
×
  • Neu erstellen...