Große revolutionäre Entdeckungen in der Naturwissenschaft erwartet man sich vom Europäischen Kernforschungszentrum CERN. Oder der NASA. Oder ähnlich großen Organisationen und Kooperationen von internationalen Forscherteams. Aber man vermutet sie auf den ersten Blick nicht im ungarischen Debrecen, nur ein Stück von der rumänischen Grenze entfernt. Und doch könnten Physiker genau dort vielleicht eine neue Fundamentalkraft und den ersten Hinweis auf eine Physik jenseits des bekannten Standardmodells der Teilchenphysik entdeckt haben.
In Debrecen befindet sich das Institut für Kernforschung der ungarischen Akademie der Wissenschaften. Und die ist durchaus eine Organisation mit dem Potential für große Entdeckungen. Aus ihren Reihen stammen Nobelpreisträger wie der Physiker Eugene Wigner oder der Chemiker Avram Hershko. Und wenn sich das als richtig erweist, was dort im letzten Jahr untersucht wurde, gehören vielleicht auch bald Attila Krasznahorkay und seine Kollegen zu den Preisträgern.
Aber so schnell revolutioniert sich die Physik nicht. Und noch ist nicht wirklich etwas entdeckt worden. Aber es hat auf jeden Fall interessante Forschung stattgefunden. Attila Krasznahorkay und seine Kollegen haben im letzten Jahr einen Fachartikel mit dem Titel „Observation of Anomalous Internal Pair Creation in 8Be: A Possible Signature of a Light, Neutral Boson“ veröffentlicht. Die Öffentlichkeit und die Medien haben sich nicht sonderlich dafür interessiert und auch an mir ist diese Publikation komplett vorbeigegangen. Es passiert auch ja jede Menge und es ist kaum möglich, jede Facharbeit zu lesen oder auch nur zu registrieren… Aber vor ein paar Tagen haben Jonathan Fang von der Universität Kalifornien und seine Kollegen ihre eigene Interpretation der ungarischen Daten veröffentlicht („Evidence for a Protophobic Fifth Force from 8Be Nuclear Transitions“ und damit ein wesentlich dramatischeres Medienecho hervorgerufen (Die USA scheinen das mit der Öffentlichkeitsarbeit tatsächlich besser zu beherrschen als der Rest der Welt…).
Ohne tiefergehende Kenntnisse in der modernen Teilchenphysik ist kaum zu verstehen, um was es bei der ganzen Aufregung geht. Krasznahorkay und seine Kollegen haben das Element Lithium-7 untersucht. Sie haben es mit Protonen, also den Bausteinen von Atomkernen, beschossen. Dabei entstand aus dem Lithium ein anderes chemisches Element, Beryllium-8. Das ist allerdings instabil und zerfällt radioaktiv. Bei diesem Zerfall werden Paar von Elektronen und deren Antiteilchen, den Positronen frei. So weit ist alles noch im Rahmen dessen, was man weiß und kennt. Die ungarischen Forscher haben aber festgestellt, dass die Anzahl der Elektron-Positron-Paare nicht exakt den theoretischen Vorhersagen folgt. In bestimmten Bereichen findet man mehr davon als erwartet. Krasznahorkay und seine Kollegen vermuten, dass ein bisher unbekanntes Teilchen dafür verantwortlich sein könnte. Ein kleiner Teil der instabilen Beryllium-8-Kerne gibt die Zerfallsenergie nicht durch die erwarteten Elektron-Positron-Paare ab, sondern in Form eines anderen Teilchens, das dann erst später selbst zu Elektronen und Positronen zerfallen.
Dieses Teilchen wäre 34 Mal schwerer als ein Elektron und die ungarischen Wissenschaftler denken, dass es sich um ein „dunkles Photon“ handeln könnte. Dabei geht es um die dunkle Materie. Wir wissen ja schon seit fast 100 Jahren, dass im Universum neben der „normalen“ Materie auch noch eine völlig andere Art der Materie existieren muss (und wir wissen das übrigens wirklich und haben uns das nicht einfach nur aus Spaß an der Freude ausgedacht – siehe dazu hier). Diese dunkle Materie übt eine Gravitationskraft aus und wird von der Gravitationskraft der normalen Materie beeinflusst. Aber nicht von den anderen uns bekannten Kräften. Das sind die elektromagnetische Kraft, die starke Kernkraft (die die Protonen und Neutronen in den Atomkernen zusammenhält) und die schwache Kernkraft (die dafür sorgt das sich Protonen und Neutronen ineinander umwandeln können). Und da die dunkle Materie eben weder die elektromagnetische Kraft spürt noch selbst eine solche ausübt, ist sie auch nicht „sichtbar“ – denn Licht ist ja nichts anderes als eine elektromagnetische Welle.
Bis jetzt ging man davon aus, dass es sich bei der dunklen Materie um ein noch unentdecktes Elementarteilchen handelt. Bis jetzt hat man dieses Teilchen aber trotz vieler Versuche nirgendwo nachweisen können. Also beginnt man langsam, sich andere Gedanken zu machen. Es wäre zwar elegant und einfach gewesen, wenn die gesamte dunkle Materie tatsächlich mit einem einzigen Teilchen erklärbar wäre. Aber nur weil es einfach ist, muss es nicht richtig sein. Die normale Materie besteht ja auch aus vielen verschiedenen Teilchen. Da gibt es Quarks, Elektronen, Photonen, Positronen, und so weiter. Warum also sollte die dunkle Materie anders sein? Vielleicht besteht auch sie aus einer ganzen Gruppe von „dunklen Elementarteilchen“. Und zwischen diesen „dunklen Teilchen“ müssten dann auch „dunkle Kräfte“ wirken. Es könnte „dunkle Atome“ geben, deren Kerne von einer „dunklen Kernkraft“ zusammengehalten werden und so wie die normale Materie über die elektromagentische Kraft miteinander wechselwirken kann, könnte das die dunkle Materie über eine entsprechende „dunkle“ Kraft tun. Die Teilchen, die diese Kraft vermitteln, wären – analog zu den Photonen die den normalen Elektromagnetismus übertragen – eben die „dunklen Photonen“.
Soweit die Theorie. Die Praxis hat im Debrecener Labor stattgefunden, meint zumindest Krasznahorkay. Jonathan Fang und seine Kollegen sind anderer Meinung. Sie denken, dass die Daten besser zu etwas passen, dass sie „protophobic X boson“ nennen. Ich habe ehrlich gesagt keine Ahnung, worum es sich dabei handelt. Den mir verständlichen Teilen der Forschungsarbeit von Fang und seinen Kollegen nach müsste das ein Teilchen sein, dass ebenfalls eine noch unbekannte Kraft vermittelt. Die Reichweite dieser Kraft ist aber enorm beschränkt und erstreckt sich nur über circa 12 Femtometer, also einer Strecke, die ein paar Atomkerndurchmessern entspricht. Ein dunkles Photon könnte mit Elektronen und Protonen in Wechselwirkung treten; das protophobische X-Boson mit Elektronen und Neutronen.
Ich bin sicher, wenn die theoretischen Physiker noch ein wenig länger nachdenken, fallen ihnen noch ein paar weitere Möglichkeiten für hypothetische Teilchen ein, mit denen sich die Daten erklären lassen. Falls sie überhaupt eine Erklärung benötigen. Krasznahorkay und seine Kollegen meinen zwar, dass sie die Versuche ausreichend oft wiederholt und alle möglichen Fehlerquellen ausgeschlossen haben. Der Effekt sei real und nicht durch reinen Zufall zu erklären. Aber solange das nirgendwo anders in vergleichbaren Experimenten bestätigt wird, hilft das nicht viel weiter.
Aber wenn da wirklich ein neues Teilchen ist das eine neue Fundamentalkraft vermittelt, wird es früher oder später gefunden werden. Fang und seine Kollegen erwähnen am Ende ihres Artikels eine Reihe von Experimenten, bei denen entsprechende Resultate erwartet werden könnten. Zum Beispiel das DarkLight-Experiment der Thomas Jefferson National Accelerator Facility in den USA. Aber natürlich auch an den Detektoren des CERN.
Die Teilchenphysik ist tückisch. Oft genug sieht man vielversprechende Signale, die sich am Ende doch als statistisches Rauschen erweisen. Vielleicht ist das auch in diesem Fall so. Vielleicht auch nicht. Irgendwo muss eine neue Physik zu finden sein. Warum nicht auch in Debrecen?
Update (09.06.2016): So wie es aussieht, könnte die „Entdeckung“ vielleicht doch nur auf schlampige Wissenschaft zurückzuführen sein…
„Es könnte “dunkle Atome” geben, deren Kerne von einer “dunklen Kernkraft” zusammengehalten werden […]“
Ich finde den Gedanken faszinierend, daß es eine dunkle Parallelwelt um uns herum geben könnte, vielleicht sogar mit dunklen Beobachtern, deren Wissenschaftler an genau dem gleichen Rätsel herumknabbern wie unsere. Nur andersrum.
Was meines Erachtens gegen die ungarische Hypothese spricht, ist diese Symmetrie der Dunklen Materie zur normalen, zumindest was ihren Aufbau angeht. Denn sagen die Beobachtungen und Überlegen nicht gerade, dass von der reinen Menge her keine Symmetrie bestehen kann? Es gibt doch anscheinend viel mehr Dunkle als normale Materie.
Außerdem hat man Modelle zusammengebaut, wie sich die (direkt) unbeobachtbare Dunkle Materie verhalten müsste, und das sieht nicht nach Atomen und Molekülen aus, die untereinander mit mehr als der Gravitation wechselwirken. Schwere und natürlich entweder langlebige oder ständig neu entstehende Bosonen, die wir direkt nicht wahrnehmen können und die mit der Art Materie, wie wir sie kennen, kaum wechselwirken – das ist doch genau was, was die Physiker brauchen.
Ich glaube, das sollte Atomkerndurchmesser heißen, oder?
Sehr interessanter Artikel. Danke!
Dunkle Kräfte sind am Werk! Sie sind in den Labors dieser Welt zu finden!
Klingt wie der Aufmacher eines Chick-Traktats…
Das oder wir sind kurz vor der Entdeckung der „Macht“ mit ihren hellen und dunklen Ausprägungen. 🙂 Spannende Zeit!
@Captain E.
Richtig, soll diese „parallele Materie“ die Dunkle Materie stellen, müssen ihre Eigenschaften in der Tat anders sein – eine einfache parallele Kopie unserer Welt funktioniert nicht. Eine langreichweitige Kraft wie ein paralleler Elektromagnetismus, die durch masselose dunkle Photonen ausgetauscht wird, würde Reibung innerhalb der Dunklen Materie erzeugen und sie z.B. wie unsere Galaxien abplatten lassen etc. – etwas, was nicht wirklich vereinbar ist mit Beobachtungen.
Aber: die dunklen Photonen in den gängigen Modellen haben eine kleine Masse, und durch diese Masse wird die Reichweite ihrer Kraft automatisch auf mikroskopische Abstände eingeschränkt. Die einfachste Hypothese ist aber sowieso, dass die Dunkle Materie einfach nur aus den dunklen Photonen selbst besteht, und es keine weiteren stabilen dunklen Teilchen gibt.
Wegen einer möglichen Symmetrie zwischen Materie und Dunkler Materie trotz unterschiedlicher Menge: Es gibt eine reizvolle Idee namens „Asymmetrische Dunkle Materie“, gemäß der nach dem Urknall gleich viele Teilchen der Materie und der Dunklen Materie entstanden sein könnten. Die letzteren könnten aber einfach 5mal so schwer sein, und das würde erklären, warum die Dunkle Materie die fünffache Masse auf die Waage bringt. Das ist natürlich auch noch Spekulation.
Wisst ihr eigentlich, was das für ein Apparat ist auf dem ersten Bild? Das ist ein Cockcroft-Walton-Beschleuniger, ein Van de Graaf-Beschleuniger mit hintereinander geschalteten Kondensatoren und Dioden zur Spannungsaddition.
Seinen Entwicklern John Cockcroft und Ernest Walton gelang damit 1930 der erste Nachweis einer durch künstlich beschleunigte Teilchen ausgelösten Kernreaktion – damals stolz als Kernzertrümmerung bezeichnet. Lithium wurde mit Protonen der kinetischen Energie 300 keV bestrahlt.
Das wäre ja die erste Kernspaltung gewesen, noch vor Otto Hahn anno 1939? Hm.
Die Reaktion, die Cockroft und Walton damals auslösten, ist wiederum genau die oben beschriebene: Li7 bekommt ein Proton hinzu, wird zunächst Be8 und dann 2He4.
Sorry, da sollte ein Link zum Cockroft-Walton-Beschleuniger hin, der aber nicht funktioniert hat. Aber jetzt:
https://de.wikipedia.org/wiki/Cockcroft-Walton-Beschleuniger
[…] gemacht. Darauf wurde ich dankenswerterweise durch Florian Freistätter aufmerksam, der gerade auf Astrodictium darüber gebloggt hat. Die Teilchenphysiker Jonathan Feng et al. haben sich jetzt genauer angesehen, […]
Oh, ich hab doch wirklich Deinen Namen verunstaltet, sorry vielmals, Herr Freist*e*tter!
@Artur57,
ist das der ganze Beschleuniger oder nur seine Kaskade?
Fuer mich schwer zu erkennen.
Man hatte in juengerer Vergangenheit uebrigens die gute Chance, selbst einen Teilchenbeschleuniger mit Kaskade zu besitzen, einen Farbfernseher. Eine Kaskade erzeugte typ. 25-27 kV@1,5mA, die als Nachbeschleunigungsspannung der Bildroehre dienten.
Daneben gab es noch eine andere Moeglichkeit, diese Spannung zu erzeugen („Split-Dioden-Trafo“, wurde zuletzt hauptsaechlich verwendet).
Ein Teilchenbeschleuniger im Wohnzimmer, ist nicht jedem klar geworden 😉
Pete
Naja, die Überzeugung teile ich nicht, dass es wirklich dunkle Materie gibt. Als wir noch mit Newton gerechnet haben um das Sonnensystem zu erklären, da wurde bei der Periheldrehung des Merkurs auch ein dunkler Planet Vulkan angenommen, den wir nicht sehen können. Es haben sich Fantasien entwickelt aus der Vorstellung, als wenn es sogar ganze Welten gibt, die wir nicht sehen können. Sogar Spock ist ein Produkt aus dieser Phantasie Jahrzehnte später. Und dann kam Einstein und wir brauchten nur eine andere Geometrie, um dieses Phänomen zu erklären. Insofern glaube ich nicht an diese Mystik von „dunkler Materie“.
Ich würde daher dieses Phänomen erst einmal völlig unbewertet lassen und nicht gleich schon wieder etwas von ominöser „dunkler“ Sonstwas erzählen. Das bringt die Physik in Verruf irgendwie Esoterik zu sein und nur noch Mystik produziert. Wenn wir SUSY entdeckt haben, dann kann man immer noch weiter so phanasieren, aber solange wir keine SUSY finden ist das Hirngespinst.
Wenn wir ein Phänomen haben, dann sollte es auch ohne diese Marktschreierische Zuschreibung zu erklären sein. So wie damals:
Es gibt keinen dunklen Planeten Vulkan sondern die Allgemeine Relativitätstheorie von Einstein.
@Rüdiger: „nsofern glaube ich nicht an diese Mystik von “dunkler Materie”.“
Du kannst gerne die Artikel lesen, die ich ja extra auch im Text verlinkt habe: https://scienceblogs.de/astrodicticum-simplex/2013/06/26/dunkle-welten-alles-uber-dunkle-materie-die-komplette-serie/ Die Behauptung, dunkle Materie hätte man sich nur ausgedacht, ist zwar beliebt, aber falsch.
„Es gibt keinen dunklen Planeten Vulkan sondern die Allgemeine Relativitätstheorie von Einstein.“
Ein paar Jahrzehnte davor sah die Sache allerdings anders aus. Den Planeten Neptun gabs nämlich tatsächlich…
Wenn aus Lithium + Wasserstoff = Beryllium wurde – war das dann eine Kernfusion?
@Rüdiger Heescher
Die mit der Dunklen Materie assoziierten Phänomene durch eine erneute Verändrrung der Gravitationsgesetze zu erklären, wäre ja tatsächlich u.U. wissenschaftlich interessanter, als wenn es sich nur um ein weiteres Teilchen handelt. Diese Möglichkeit wird aber aufgrund von Beobachtungen von der Mehrheit der Forscher inzwischen als sehr unwahrscheinlich angesehen.
Aber ich verstehe auch nicht, warum sich so viele an dem Namen „Dunkle Materie“ aufhalten, irgendwie muss das Kind halt heißen. Würden sie dem Konzept weniger ablehnend gegenüberstehen, wenn wir zur langweilig unmysteriösen Nomenklatur „Nichtbaryonische Materie“ übergehen?
Dass der „Glaube“ an die Dunkle Materie irgendwie davon abhinge, ob es Supersymmetrie gibt, stellt die Sache auch komplett auf den Kopf – die Evidenz fuer die DM ist astronomischer und astrophysikalischer Natur und voellig unabhaengig davon, ob es Susy gibt oder nicht. Die SUSY liefert lediglich eine moegliche Erklärung von vielen, was die DM sein koennte.
Ich habe mit nichtbaryonischer Materie auch so meine Verständnisprobleme.
Es muss viel davon geben, um die beobachteten Werte zu erklären. Aber wenn es davon viel gibt, warum ist sie nicht hier zu beobachten? Gäbe es sie hier, müsste sie sich durch ihre Gravitation bemerkbar machen. Doch davon sehen wir nichts. Würde sich die dunkle Materie zu „Planeten“ zusammenfügen, alleine durch Gravitation, ohne die anderen Kräfte? Müsste ein Planet oder eine Sonne nicht vagabundierende dunkle Materie einsammeln? Doch dann würde die von uns beobachtete Masse dunkle Materie beinhalten und die beobachte Abweichung sollte es nicht geben. Irgendwie bekomme ich da keinen Sinn rein.
@Jens: „Gäbe es sie hier, müsste sie sich durch ihre Gravitation bemerkbar machen.“
Es gibt sie ja hier auch. Aber die dunkle Materie ist extrem dünn über das Universum verteilt. Und man merkt sie nur auf den sehr großen Skalen; auf den Größenordnungen von Galaxien oder Galaxienhaufen. Nur in diesen Volumen ist so viel beieinander, dass die gesamte Gravitationskraft merkbare Auswirkungen hat. Die paar Atome die hier lokal durch die Gegend schwirren, merken wir gravitativ nicht.
@Jens
Gute Frage, ich weiss nur nicht inwiefern die Antwort vllt auf einem der oben verlinkten Blogeintraegen steht.
Mein Senf – Teilchen, die nicht an sowas wie der elektromagnetischen Wechselwirkung teilhaben, ballen sich mangels Reibung nicht so zusammen wie herkömmliche Materie, und wuerden sich eher wie ein sehr dünnes Gas verhalten. Dass dennoch in grossen Materieansammlungen wie der Sonne etwas mehr davon „eingefangen“ wird, kann in diesen Modellen aber durchaus vorkommen, und daher wird gezielt z.B. bei der Sonne nach Zerstrahlungsprodukten von Paaren von Dunkle-Materie-Teilchen Ausschau gehalten.
Dass die DM auf galaktischem Maßstab einen wichtigen Einfluss hat, lokal bei uns aber nicht weiters gravitativ bemerkt wird, liegt in diesen Szenarien glaub ich vor allem daran, dass das Weltall so unglaublich leer ist was Materie anbelangt, die DM-Teilchen aber auch ueberall im interstellaren Raum halbwegs gleichmäßig verteilt wären.
@Jens
Wenn die dunkle Materie der Milchstraße wie ein dünnes Gas gleichmäßig in einem Halo um die Milchstraße verteilt ist, dann enthält ein Kugelvolumen mit dem Radius der Neptunbahn etwa die Masse eines mehrere 10 km großen Asteroiden an Dunkler Materie. Nicht viel gegen die Masse der Sonne und ihrer Planeten, wir würden sie nicht bemerken.
Nein, ohne elektromagnetische Kräfte kann Materie nicht aneinander haften bleiben. Sie halten die Elektronen bei den Atomkernen, bilden die chemischen Bindungen in Molekülen und vermitteln die Haftkräfte zwischen den Molekülen, die Flüssigkeiten oder Festkörper zusammenhält. Und sie machen die Materie sichtbar, lassen sie mit Photonen interagieren. Wenn die Dunkle Materie nicht mit Photonen interagiert, kann sie auch nicht aneinander haften, ihre Teilchen würden durch wechselseitige Gravitation nur beschleunigt und dann aneinander vorbeifallen. Wie Teilchen in einem idealen Gas.
Nein oder nur in kleiner Menge, wenn die Dunkle Materie schwach wechselwirkt (mit den Kernteilchen), denn auch dazu müsste sie mit den Elektronen elektromagnetisch wechselwirken. Die elektromagnetische Kraft hat eine viel größere Reichweite als die Kernkräfte und Atomkerne sind sehr kleine Ziele. Auch Neutrinos wechselwirken nur schwach. Ein Neutrino könnte unbehelligt durch eine mehrere Lichtjahre dicke Bleiplatte fliegen, ohne mit einem Atomkern zu wechselwirken. Entsprechend würde Dunkle Materie auch nicht von Planeten oder der Sonne eingesammelt, und wenn, dann nur in kleiner Menge. Bei Schwarzen Löchern oder Neutronensternen wäre das anders, aber die sind mit wenigen Kilometern Durchmessern winzig und außerdem sehr selten.
Erklärt nun noch wer, warum der Versuch keine astreine Fusion war?
Danke!
„Dunkle Photonen“, Lord Voldemort? Harry Potter? 😉
@Mirko
Das ist schon gewissermaßen Kernfusion, in dem Sinn dass man zwei Kerne zu einem schwereren verbindet – aber wohl keine Fusion, bei der nutzbare Energie frei wird. Dass das Beryllium 8 wieder von selbst in Li + proton zerfaellt, sagt uns ja eigentlich schon, dass das ganze eine Nullnummer ist, oder?
Nur noch einmal zur Erinnerung für alle Zweifler: Es gibt nicht-baryonische Materie mit ziemlich genau den angenommenen Eigenschaften der Dunklen Materie: Neutrinos!
Sie haben ganz offensichtlich eine winzige Ruhemasse, fliegen also deswegen nur mit Fastlichtgeschwindigkeit durchs Weltall, reagieren aber damit auf Massen und Raumkrümmungen. Und sie wechselwirken über die Schwache Wechselwirkung. Wie oben schon erwähnt, wäre eine mehrere Lichtjahre dicke Bleiplatte für ein Neutrino nicht notwendigerweise ein Hindernis.
Trotzdem betreiben wir Menschen Neutrinoobservatorien und weisen diese winzigen Geisterteilchen nach. Es gibt sie also wirklich! Und wenn die beobachteten Neutrinos langsamer wären und ihre geschätzte Gesamtmasse deutlich größer, dann wären wir bereits mit dem Thema durch.
Nach aktuellem Wissensstand gibt es also zu wenige Neutrinos, um die Dunkle Materie zu erklären. Aber wenn es da drei Teilchensorten (Elektron-, Tauon- und Myon-Neutrinos) mit den richtigen Eigenschaften gibt, wieso nicht auch eine vierte, fünfte oder sechste?
@Captain,
„Aber wenn es da drei Teilchensorten (Elektron-, Tauon- und Myon-Neutrinos) mit den richtigen Eigenschaften gibt, wieso nicht auch eine vierte, fünfte oder sechste?“
Warum nicht – man muss nur ein bisschen aufpassen, dass man die richtige Reliktdichte bekommt, dass es stabile Teilchen sind, die nicht zu stark wegen ihrer Wechselwirkungen z.B. über das Z-Boson durch vergangene direkte-Detektions-Experimente wie CDMS, XENON und Konsorten eingeschränkt werden.
Eine solche Idee wurde z.B. von Asaka und Shaposhnikov vor einiger Zeit ausgearbeitet:
https://arxiv.org/abs/hep-ph/0505013
Dabei handelt es sich aber nicht um neue linkshändige Neutringenerationen, sondern um rechtshändige Pendants der bereits existierenden, wobei man aber noch überschüssige hinzunehmen kann wenn man will.
Da die neuen Neutrinos rechtshändig sind und damit keine herkömmliche schwache Wechselwirkung besitzen, entgehen sie allzu strengen existierenden experimentellen Grenzen. Ihre einzige Kopplung an den Rest der Welt ist über das Higgs, und wenn die aufgrund ihrer kleinen Masse sehr klein ist, ist die Lebensdauer lange genug.
p.s. einfach weitere neue linkshändige Neutrinos zum Standardmodell dazuzuschreiben, ist mathematisch inkonsistent.
Tja, nachweisen muss man diese Teilchen dann natürlich schon noch. Ich wollte aber lediglich darauf hinweisen, dass „Ich kann mir nicht-baryonische Materie nicht vorstellen“ höchst untauglich ist als Argument gegen deren Existenz: Es gibt ja bereits nicht-baryonische Materie, die definitiv nachgewiesen wurde und die inzwischen auch wissenschaftlich genutzt wird. Die Neutrinos sind fast sicher nicht das, was die Physiker suchen oder allerhöchstens ein winziger Teil davon, aber genau so etwas wird gesucht.
@Captain E.
Völlig richtig. Es wird oft missverstanden dass Dunkle Materie nichts abgefahrenes neues sein muss. Mehr so „ich bestelle das übliche bitte, nur etwas besser durchgebraten“ 🙂
Und klar muss man sie nachweisen. Ich wollte oben nur sagen, dass es nix bringt, ein DM-Modell zu basteln, bei dem Teilchen rauskommen, bei denen schon vor 10 Jahren die Detektoren hätten aufleuchten müssen wie Weihnachtsbäume. Daraus ergeben sich nicht-triviale Einschränkungen für die Spekulation.
@ Florian
wir entdecken laufend neue Neutronensterne, Röntgenquellen, sogar schawrze Löcher ausserhalb von Galaxien usw. Unser Brownsches Molekulargesetz für Gase wenden wir an für statistische Erfassungen von Materie in Galaxien. Die Statistischen Werte sind allesamt nur eine „Vorstellung“, aber keine exakte Aussage. Unsere Berechnungen basieren auf de Sitter Raumzeit und wenden Lorentztransformation an und was wäre wenn wir in einem AdS Raumzeit leben und unsere Clusterberechungen folgen eher der Möbiustransformation?
Wir entdecken ständig neue Geschwindigkeiten von Galaxiegeschwindigkeiten und der Bewegung der Galaxie selbst. Die Messungen von den 30er Jahren waren ziemlich unpräzise (viel zu gross) und zudem hätte man mit dem heutigen Wissen über Materieannahmen damals sicherlich nicht auf omminöse dunkle Mateire geschlossen.
Es gibt also so viele Wenn, danns … die alle auf Annahmen basieren über dessen Daten wir nicht wirklich verfügen.
Es ist also genauso wie damals bei dem dunklen Planeten Vulkan, der einfach nur eine mysteriöse Erklärung ist, weil man an Newton festgehalten hat. Neptun oder auch andere Zwergplaneten spielen in dem Zusammenhang jetzt keine Rolle. Wir nehmen auch aufgrund von Berechnungen an, dass es einen Planeten X oder Nemesis geben müsse. Das sind Schlussfolgerungen, die etwas anderes sind als etwas, was in einer Geisterwelt existieren soll.
Solange wir keine SUSY gefunden haben, solange gehört das alles ins Reich der Geisterwelt.
Ich empfehle Wissenschaftsgeschichte zu betrachten vor den 1930 er Jahren schon. Wie hat man sich gerne schnell aufs Glatteis führen lassen mit solchen Ideen. Es scheint ein menschliches Bedürfnis zu sein.
@ Florian
ich empfehle mal sich dieses gerade (16.Mai) neu erschienene Buch über die Geschichte von Dunkler Materie zu lesen.
Man kann sich einfach mal inspirieren lassen, wie man etwas zu bewerten hat.
https://arxiv.org/abs/1605.04909
@Rüdiger Heescher
Susy hat immernoch nichts mit der Evidenz für Dunkle Materie zu tun. Dass sie darauf beharren, macht mich sehr stutzig.
Ausser dem Axion basiert alles auf der Annahme, dass es sich um ein Teilchen oder sogar vielen aus der Schattenwelt der linkshändigen Teilchenwelt bestehen soll. Florian denkt ja selber so und bastelt schon ein Universum mit dunklermaterie Atomen.
Hier wird auch von dem ominösen X Boson gesprochen, was aus der SO 10 hervorgeht.
@Rüdiger Heescher
Ich weiß echt nicht was Sie mit linkshändiger Schattenwelt meinen. DM-Teilchen müssen keine Händigkeit haben.
Das „X“- Teilchen, von dem hier in der zitierten Arbeit die Rede ist, ist außerdem kein SO(10)- Boson (und sowieso kein Dunkle Materie-Teilchen). Kann es bei den Kopplungskonstanten kaum sein. Es ist auch garnicht noetig, fuer die Erklärung der vorliegenden Anomalie solche weitreichenden Hypothesen wie Grand Unified Theories anzustrengen.
@Rüdiger Heescher:
Hmm … verstehe ich nicht.
Was ist denn jetzt im Sinne Ihrer Behauptung, dass DM nicht existiere so lesenswert an dem Artikel (nein, das ist kein Buch)?
Der Artikel fasst die Entdeckungsgeschichte der DM zusammen.
(Und zwar auf sehr faszinierende Art und Weise soweit ich ihn bis jetzt gelesen habe …)
Ja es ist faszinierend, weil es auch gerade von Physikern geschrieben wurde, aber halt auch mit den Kenntnissen darüber, welche Interpretationen von Daten möglich sind. Die Geschichte fängt halt nicht mit den 1930er Jahren an um zu beschreiben, wie man auf dunkle Materie kommt.
@Alexander
Die Schattenwelt wäre dann rechtshändig. Das ist die Bezeichnung für SUSY Teilchen.
In der SO 10 findet dann (man kann auch andere Gruppentheorien benutzen, die sehr weitreichend sind) die Ergänzung des Standardmodells statt.
All Yang Mills Vorstellungen basieren darauf, diese Symmetrie zu erhalten und alle hoffen darauf dann damit auch dunkle Materie gefunden zu haben incl Goldstone, Phi und Co.
Teilchenphysiker sind darauf angewiesen, dass es so ist.
Wenn es nicht so ist, dann haben Teilchenphysiker ein grosses Problem mit ihren Standardmodell vorstellungen und insbesondere dem Higgsmechanismus, was bisher nur mehr ein mathematischer Taschenspielertrick ist. Ich bin mal so dreist es so zu definieren, denn letztlich ist es nur ein Krücke und wird noch viel mehr Fragen stellen als beantworten.
Warten wir ab, ob wir SUSY finden. Ich denke, die werden noch bis August brauchen. Danach wird es ohnehin Fragen über Fragen geben und Teilchenphysiker werden in ein tiefes Loch fallen.
Zu dem Phänomen selbst worum es hier im Artikel geht sollte man einfach etwas vorsichtiger sein mit den ganzen Spekualtionen, die alle schon auf vorgefasste vorherige Spekulationen als faktische Annahmen beruhen.
Das war eigentlich alles, was ich zu diesem Artikel sagen wollte.
@Rüdiger Heescher:
Hmmja … das ist schön. Hat nur mit meiner Frage nichts zu tun.
„Linkshändig“, „Rechtshändig“ … da wird einem ja ganz schwindelig.
Was Sie damit meinen, verstehe ich allerdings genausowenig wie @Alexander.
Das verstehe ich auch nicht. Vielleicht formulieren Sie das ein wenig zu kompakt.
Was hat die verwendung einer nicht-abelschen Eichtheorie in der Quantenchromodynamik mit SUSY zu tun? Und mit der DM?
Das klingt leider alles ziemlich wirr.
Ich habe nicht von der QCD gesprochen. Ich habe von dem ganzen Modell gesprochen, was nun eine QFT sein soll.
OK wir können ja jetzt einen Exkurs in die ganzen Quantenfeldtheorie machen, aber das wäre mir jetzt auch zu spät dafür.
Soviel vielleicht ganz einfach dargestellt:
Es gibt nur eine Quantenfeldtheorie, die stimmig ist und wirklich passt und das ist die QED.
Alles was danach kam als Versuch eine QFT zu formulieren, funktioniert (noch) nicht. Selbst die rettende Erlösung mit dem Higgsmechanismus ist nicht wirklich sauber und lässt noch mehr Fragen offen als dass es hilft. Für das jetzige Standardmodell, wie man es in Schulbüchern lesen kann scheint es jetzt erstmal zu reichen. Aber alles andere, was eigentlich schon in der Pipeline liegt, ist es eher ein Betonklotz am Bein.
Ganz davon abgesehen, dass es ohnehin nur ein mathematischer Taschenspielertrick ist mit einem kastrierten (Sombrerohut) Tachyon womit wir nun wieder bei einer Äthertheorie gelandet sind, was wir nach Kelvin eigentlich ad acta gelegt haben.
Ok wurde jetzt wieder etwas mehr.
Ich sage nur noch: Lasst uns einfach abwarten was LHC bis August findet.
Dann beginnt sowieso eine völlgi neue Diskussion und das dann um das ganz grundsätzliche ansich.
@Alexander:
Ach, echt? … ;-).
Wenn das für euch wirr klingt, dann warten wir doch einfach ab.
Wir werden ja sehen, was nach August passieren wird. Dann reden wir nochmal.
Gerade vor kurzem las ich einen interessanten Vorschlag. Dunkle Materie könnte aus etwas bestehen, was wir lange kennen, nämlich schwarzen Löchern, die haben ordentlich Masse und sind wirklich schwer zu erkennen. Evtl. gibt’s davon ja viele. Ich hätte zwar erwartet, dass die dann zu seltsamem Verhalten anderer Sterne führen müssten und sich so verraten, aber hey, zum einen ist die Idee ja auch nicht von mir und zum anderen beobachten wir seltsames Verhalten von Sternen. https://www.nzz.ch/wissenschaft/astronomie/primordiale-schwarze-loecher-ein-neuer-kandidat-fuer-die-dunkle-materie-ld.83532
Schwarze Löcher werden mW inzwischen ausgeschlossen. Aber die Wahrheit ist doch, dass wir weiterhin zu wenig wissen (sowohl die Kommentatoren, als auch ‚reguläre‘ Wissenschaftler;-)
Nicht vergessen: Wenn es wirklich das letzte Rätsel wäre, würden alle Astronomen und Quantenphysiker nach der Lösung arbeitslos … (Und Florian müsste doch noch auf Astrologe machen :-))
Warum denn gerade August? Was soll denn da passieren? Oder was eben nicht?
Und vor allem: In welchem Jahr denn?
@Mirko
Das zitierte Paper ist von Mai 2016 und liest sich nicht wie Blödsinn. Weiss jemand mehr?
@Noonscoomo, Mirko
Stellare (und ebenso Supermassive) Schwarze Löcher werden ausgeschlossen, weil die aus ursprünglich baryonischer Materie entstanden sein müssten (was nicht mit der bei der primordialen Nukleosynthese entstandenden Elementhäufigkeiten zusammenpassen würde) und man hätte sie bei der Suche nach Gravitations-Microlensing-Events finden müssen. Wären die Schwarzen Löcher primordial, könnten sie klein genug sein, um keine beobachtbaren Events zu erzeugen und selten genug, dass sie auf der Erde nicht nachweisbar wären. Aber je nachdem ließe sich vielleicht ein Zerfall eines solchen im Weltall als naher Gammaburst beobachten.
Hmm, was in dem Artikel steht, deutet dann aber doch darauf hin, dass die Autoren die Massen Stellarer Schwarze Löcher vermuten. Das passt nicht zu den Gravitationslinsen-Messungen. Mir war nur bekannt, dass vermutet wird, während des Urknalls könnten Mini-Black-Holes entstanden sein, die nur ein paar tausend Tonnen Masse hätten, und die heutigentags schon durch Hawkingstrahlung zerfallen könnten. Bei Stellaren Schwarzen Löchern wäre das erst in 10^80 Jahren (oder so) der Fall.
Das mit der Dunklen Materie aus schwarzen Löchern ist irgendwie etwas subtil und man liest viel Widersprüchliches, und, nach LIGO, auch einigen Hype. Hier eine negative Meinung:
https://scienceblogs.com/startswithabang/2016/05/26/black-holes-as-dark-matter-heres-why-the-idea-falls-apart-synopsis/
https://www.forbes.com/sites/startswithabang/2016/05/26/black-holes-as-dark-matter-heres-why-the-idea-falls-apart/
https://www.forbes.com/sites/startswithabang/2016/05/26/black-holes-as-dark-matter-heres-why-the-idea-falls-apart/#25b5ddb46d7b
Hab ich über die Sache mit den schwarzen Löchern und der DM nicht auch schon gebloggt? Oder wollte ich das nur?
Falls ja, hat es mir zumidest Mr. Google nicht ausgespuckt, aber es wär toll, nochmal was aktuelles und unverwirrendes dazu zu lesen! Bei den ganzen verschiedenen Astro-, CMB-, Lensing-, etc.- Constraints schwirrt mir immer der Kopf….
@Mirko
Ich denke nicht, dass Astologie eine adäquate Alternative für Florian wäre 😉
Gerae in der Astronomie und Astrophysik sehe ich sogar noch am ehesten Erfolge, die wir erwarten können. Da ist das Potential jedenfalls grösser als in den Versuchen im LHC um Erkenntnisse zu bekommen über unsere Welt und was sie zusammenhält.
Modelle und Theorien die sich mit ToE bezeichnen werden dort jedenfalls eher Vorhersagen machen können. Gerade auch Alternativen zu DM, DE und weiteres, was man sich so aus der ganzen Lagrange Physik ausgedacht hat.
@Captain E
ich denke der Versuch im LHC wird wohl noch bis August dauern. Dieses Jahr natürlich.
Die Wetten stehen mittlerweile auf pessimistisch eingestellt, dass man SUSY finden wird. Ich persönlich gehe auch nicht davon aus etwas zu finden. Ich fände es auch viel beruhigender, wenn man überhaupt erstmal wieder Higgs reproduzieren könnte, was ja beim letzten mal nicht passiert ist. Bei doppelt sovieler Energie hätte es eigentlich ein leichtes sein müssen, wie man es ja auch bei allen anderen Bosonen gesehen hat zuvor.
Insofern wäre es für mich jedenfalls erstmal nur ein Erfolg überhaupt das Higgs Boson nochmal reproduzieren zu können. Ob wir nun bei 750 GeV tatsächlich noch was neues finden, sehe ich eher skeptisch. Und dann geht es wieder los, was es denn überhaupt sein kann.
@Alexander
Man muss nicht schwarze Löcher als DM postulieren. Mir würde es völlig reichen, wenn wir so nun SL als etwas annehmen, was viel häufiger vorkommt und somit auch in der Friedmann Gleichung einen massiven Zuwachs von Masse ansich bewirkt, ohne auf DM angewiesen zu sein zur Erklärung. Daher denke ich ich wird Astrophysik und Astronomie uns noch viel mehr an Erkenntnissen bringen, als es die Teilchenphysik die nächsten 30 Jahre vermag.
Schwarze Löcher, die einen massiven Beitrag zur Friedman-Gleichung machen sodass man nichtmehr auf (anderweitige) Dunkle Materie angewiesen ist – das ist ziemlich genau das, was man meint, wenn man sagt „Schwarze Löcher sind die Dunkle Materie“.
@Rüdiger Heescher:
Ich verstehe immer noch nicht, wie aus Yang-Mills mit „rechtsdrehenden Teilchen“ zu tun hat und mit der DM …
Niemand hat sich mit der „Lagrange Physik“ etwas ausgedacht. Hamilton-Lagrange ist einfach eine gute (und sehr erfolgreiche) mathematische Beschreibung dessen, was man im allgemeinen als „klassische Mechanik“ bezeichnet. Newton mit modernem mathematischem Handwerkszeug sozusagen.
Die Beobachtungen der Bewegung von Galaxienhaufen von Zwicky und der Bewegung von Galaxien von Vera Rubin sagen nunmal, dass da mehr Materie sein muss als die, die leuchtet – nach der „Lagrange Physik“.
Und denken Sie wirklich, da hat noch niemand entsprechende Rechnungen auf Grundlage der ART durchgeführt?
Was man getan hat, da die Messungen von zwei voneinander unabhängigen Detektoren gemacht wurden.
@PDP10
Ich fange mal von hinten an
Wir haben bis heute noch keine Sigma 5 Verifizierung, dass es sich bei dem Teilchen, was wir bei 125 GeV gefunden haben auch um ein Spin 0 Teilchen handelt, also ein Skalarboson. Der Spin ist also noch nicht eindeutig identifiziert. Wir können hoffen mit Gordon Kanes berechungen aus der String Theorie, dass dieses Boson ein Higgsteilchen ist, was ich aber auch eher als ein Problem ansehe, da Gordon Kane nicht nur mit stringy Methoden die Energie berechnet hat, sondern auch noch andere Annahmen zugrund legte wie MSSM. Ohne dem kommen nach QFT ohnehin nur ungenaue Berechnungen raus, die bei 140 bis ursprünglich 180 GeV lagen. Aber der Nachweis für Spin 0 also dass es wirklich ein Skalarteilchen ist, steht noch aus. Deswegen war eigentlich der Nobelpreis sowieso zu früh. Aber man wollte halt, dass es so ist.
Es ist ohnehin ziemlich schizo was zur Zeit abläuft in der Physikergemeinde.
Man beschwört das Higgsboson als der Mechanismus, der den Deckel auf das Standardmodell legt, aber gleich darauf wird der Nobelpreis vergeben für 3 masse Neutrinos, was dem Standardmodell zuwider läuft, denn nach Standardmodell kann man eben nicht Masse bei Neutrinos erklären. Nicht mal mit Higgs. Teilchenphysik ist zur Zeit auf einem Pfad, der Physik als ganzes zu einer nicht exakten unseriösen Wissenschaft diffamiert. Eine ganz schlimme Entwicklung.
Nun zu Lagrange Physik, was auch mit Yang Mills zu tun hat.
Was wir mit der QED gefunden haben funktioniert wunderbar als Annäherung und haben ein Instrument, was experimentell seine Berechtigung hat.
Mathematisch übertragen wir die Denke weiter und benutzen diese auf alle anderen Ebenen. Was müssen wir dabei aber renormalisieren, Störtheoretisch und Eichtheoreitsch alles mögliche machen, damit unsere experimentellen Ergebnisse dann auch mit der Theorie passen? Mathematisch unschön mit so vielen Strukturkonstanten, dass man nicht wirklich mehr davon sprechen kann, dass es etwas erklärt. Mathematisch gesehen eine vergewaltigung eines ganzen Systems. Unendlichkeiten heraus zu filtern oder geringste Wahrscheinlichkeiten haben wir schon bei der Schrödingergleichung. Das haben wir aber rein aus praktischen Gründen und vereinfachung gemacht. Diese Vereinfachungen die dann aber als Approximationen übrig bleiben werden aber weiter tradiert durch das ganze System, wenn wir dann das ganze als QFT betrachten. Und hier komme ich zu dem eigentlichen Problem, was direkt mit Yang Mills zu tun hat. Wir behandeln nun in den N=4 und N=8 QFT ein Graviton wie ein Gluon mit Spin 2. Mathematisch exakt das gleiche. Haben wir wirklich nicht mehr Ideen und Fantasie mathematisch andere Wege zu gehen, wo wir doch genau wissen, dass Graviton und Gravitation eben nicht zu fassen ist in dieser flachen 4 D Matrix? Trotzdem tun wir so in der QFT, als wenn das so sein müsse.
Noch schlimmer finde ich dann diese mathematische Vergewaltigung wo man die Symmetrieeigenschaft der speziellen Geometrie missbraucht um SUSY Teilchen zu generieren. Dabei sehen Quantenfeldtheoreitker nicht den Superspace als real an, sondenr nur als Behelf.
Beispiel: Wir haben ein partielles Grassmann Integral eines chiralen skalaren Superfeldes. Das ist die Ausgangslage für covariante berechnungen. Was machen QFTler damit? Sie transformieren ihre Lagrangeschreibweise und erhalten natrülich auf grund der Symmetrie eigenschaft von Grassmann Algebra einen kinetischen Term in ihren zweiten Teilchen, was sie so generieren. Jeder mathematisch denkende Physiker fragt sich dann natürlich als erstes, ob dieses tatsächlich auch real ist, oder nur ein Produkt, was man vernachlässigen muss. Physiker die Quantentheorie verinnerlicht haben und nur noch so denken können, haben da aber keine BEdenken und rechnen einfach. So haben sie es ja auch seit Kopenhagen beigebracht bekommen. Nicht denken sondern rechnen.
Wir kennen solche Dinge aber auch aus einer anderen Ecke, wo man eben nicht beigebracht bekommt zu rechnen statt zu denken. In der ART.
Wir haben dort oft Fälle von Tensorprodukten, die Zwischenprodukte liefern in der Form von +18 und -5 z.B. Beide darf man nicht verwenden, sondern nur mit einem der beiden Ergebnisse darf man nur weiter rechnen. Das ist dann erfahrungssache, wie man mathematisch damit umgeht.
Das ist aber QFTler völlig egal, denn sie haben ja nun ihre symmetrische Eigenschaft im Grassmann Raum und finden es klasse für ihre SUSY annahmen, als wenn es gegeben ist. Dabei akzwpteren sie aber nicht, dass dieser Grassmann raum selbst real ist. Auch schizo oder? Sie freuen sich also darüber, dass sie über etwas nicht reales etwas wieder passendes in ihrer Lagrangewelt erhalten.
Für mich sind heute Teilchenphysiker und QFTler einfach nur mathematische Stümper.
Mathematiker wissen, dass es durchaus auch Dinge gibt, die man nicht so machen darf und dass man durchaus auch fehlinterpretierende Dinge erhält. Deswegen schaut auch ein Mathematiker ganz genau hin. Teilchenphysiker und QFTler dagegen nehmen sich alls so, wie es ihnen passt. Hauptsache es passt irgend wie und wundern sich dann, dass es eben nicht wirklich was vernünftiges in sich konsistentes ergibt.
Das zu deinen Fragen.
Ich denke bei diesem ignoranten wie anmaßenden Rant ist es um jede Antwort schade.
@Alexander: weder ignorant noch anmaßend und auch kein Schimpfer, tacheles trifft es besser.
@Rüdiger:
Ich bin u.A. Softwareentwickler von komplexen Systemen, ich baue an den Werkzeugen mit denen z.B. auch Physiker dann erst entsprechende Ergebnisse kalkulieren und modellieren können. Die Erfahrung zeigt, dass eine Modellierung von Systemen automatisch Fehler enthält die sich kaskadieren und erst ab einer komplexeren Ebene zutagetreten. Werden diese Fehler nicht erkannt oder können aus technischen Gründen nicht erkannt werden, dann wird solange drumherum programmiert bis das Problem vermeintlich(!) beseitigt ist. Erreicht das System die nächste Stufe, treten erfahrungsgemäß unerklärliche weitere Fehler auf usw. Im Fall der Softwareentwicklung wird auf den zuletzt bekannten, fehlerfreien Zustand zurückgesetzt, die Module einzeln mit dem Zustand getestet. Schlägt der Test fehl, gehts einen Level runter usw. Es ist im Laufe der Jahre nicht das Erste mal, das hier z.B. 1/2 Jahr arbeit zurückgesetzt werden musste, oder sich herausgestellt hat, das eine winziger Fehler in einem unwichtigen Modul entsprechende Seiteneffekte erst mit hoher Komplexität aufweist (z.B. wenn tausende Prozesse gleichzeitig ablaufen kann ich als Entwickler niemals das Gesamtsystem in jedem Zustand überblicken und muss Annahmen machen).
Ich komme daher nicht umhin zuzugeben das die in der nahen zurückliegenden Zeit postulieren, wissenschaftlichen Erklärungsmodelle den Eindruck hinterlassen, dass sie sich in einer der o.g. vergleichbaren Situation befinden. Nun reicht meine eigene Erfahrung nicht um die von dir genannten „schizophrenen“ Diskrepanzen in der Interpretation der Rechnungen korrekt zu interpretieren, jedoch halte ich es für sinnvoll – zumindest parallel – ein Modell auf Basis der gegenteiligen Annahme – hier im Fall der Nichtexistenz der DM aufzubauen.
@Richard:
Tja. Ich arbeite als IT-Berater.
Vorwiegend Systemadministration von grossen Infrastrukturen, Prozess-Beratung, DevOps, Six-Sigma, Itil, das ganze Paket.
Ausserdem habe ich Physik studiert.
Und ich sage dir jetzt, dass das was du da oben an Problemen, Prozessen auf dem Weg zum Erkenntnisgewinn etc. beschreibst nichts mit dem zu tun hat, was Physiker so den ganzen Tag treiben …
Naturwissenschaften funktionieren nunmal ein klein wenig anders als Ingenieurwissenschaften.
Und jetzt?
@PDP10: theoretische Physik ist Mathematik und auch ein wenig Philosophie, sie eilt in den kritisierten Aspekten den Disziplinen voraus. D.h. viele der sehr genau gemessenen Werte aus dem Gebiet der Teilchenphysik sind durch die Quantenchromodynamik nicht berechenbar. Insofern ist die eigentliche Modellbildung der Theorien aus meiner Sicht durchaus vergleichbar und die nicht überprüfbaren Gedankengebäude keine Naturwissenschaft im Eigentlichen Sinn.
@Richard Gordon
„jedoch halte ich es für sinnvoll – zumindest parallel – ein Modell auf Basis der gegenteiligen Annahme – hier im Fall der Nichtexistenz der DM aufzubauen.“
Da haben sie natürlich im Prinzip völlig recht, zu guter Wissenschaft gehört es immer, Alternativhypothesen zu untersuchen. Deshalb wurde das natürlich auch gemacht – nur sind diese durch Beobachtungen der letzten Jahre immer weniger haltbar – lensing-Beobachtungen wie der Bullet-Cluster lassen es beispielsweise wenig plausibel erscheinen, dass die der „Dunklen Materie“ zugeordneten Phänomene lediglich durch eine Veränderung der Gravitationsgesetze zu erklären sind. Zumal die bisher ins Feld geführten veränderten Gravitationstheorien große Probleme haben, das frühe Universum und den kosmischen Mikrowellenhintergrund sauber zu beschreiben. DM-Teilchen sind mit Abstand die einfachste Hypothese, zumal wir, wie von anderen postern oben erwähnt, bereits Teilchen kennen, die *fast* die notwendigen Eigenschaften haben.
Der dunkle Planet Vulkan war auch die einfachste Erklärung um die Periheldrehung des Merkurs zu erklären um Newtons Physik aufrecht zu erhalten. Es hat kein Mensch eine Notwendigkeit gesehen, dass man eine neue Theorie braucht um das zu erklären, denn der dunkle Planet Vulkan ist einfach, auch wenn man ihn nie gesehen hat. Und dann kam EInstein mit seiner neuen Geometrie und BUMM gab es auch keinen dunklen Planeten Vulkan mehr.
Das Geozentrische Weltbild war auch über 1000 Jahre nicht notwendig über Bord zu werfen, denn man konnte ja alle Bahnen der Planeten berechnen. Es wurde zwar immer komplzierter, aber man hatte es im Griff. Und solange es funktioniert, warum also etwas ändern?
Und genauso verhält es sich mit der QFT und Standardmodell. Eigentlich noch schlimmer. Denn wir wissen, dass es falsch ist.
@Rüdiger: „Der dunkle Planet Vulkan war auch die einfachste Erklärung um die Periheldrehung des Merkurs zu erklären“
Ich erinnere ein weiteres Mal an Neptun… Und diesen Artikel speziell zu diesem Thema: https://scienceblogs.de/astrodicticum-simplex/2008/12/29/neptun-vulkan-und-die-dunkle-materie/?all=1
@Alexander
ich stimme ihnen zu, die Alternativhypothesen sind mir bekannt. Sehen sie nicht auch das Problem des Blickwinkels? Anhand eines stark vereinfachten Beispiels zur Dunklen Energie: Das uns sichtbare Volumen des „Universums“ in einigen Modellen als immanent zu betrachten, hat hohes Potential für Fehler. Das äußert sich am Beispiel der DE zur gemessenen beschleunigten Expansion. Betrachte ich ein kleines Kugelvolumen einer fließenden Flüssigkeit, kann ich anhand der Bewegungen der Moleküle nicht extrapolieren, ob es sich um einen Fluss handelt, einen Bach oder ob gerade Kaffee eingegossen wird.
„DM-Teilchen sind mit Abstand die einfachste Hypothese, zumal wir, wie von anderen postern oben erwähnt, bereits Teilchen kennen, die *fast* die notwendigen Eigenschaften haben.“
Soweit bekannt, was ich mit obigem Beispiel andeuten will ist, das eine Theoriebildung auch gänzlich unsinnig sein kann und den Blick bzw. die Arbeit erschwert die überprüfbaren Modelle zu vervollständigen oder zu korrigieren (aka „ein Level herunter“). Man stellt sich selbst ein Bein, anstatt etwas außen vor zu lassen. Was Rüdiger aufzeigt ist vergleichbar mit dem prominenten Tachyon – sicherlich kann man die Vorzeichen negativ machen, aber mit der reellen Welt hat das Ganze bekanntlich nichts gemein. Es ist schlicht eine Zahlenspielerei. Gerade die Masse des Neutrinos ist hier ausreichend spannend um stutzig werden zu können.
Spannend wäre z.B. die Frage: Wie sähe eine Hypothese aus unter folgenden Voraussetzungen, bzw. an welchem Punkt der Modelle muss begonnen werden?:
– es existiert kein Graviton im Sinne der Teilchenphysik
– es existiert keine DM oberhalb des Neutrinos
– Gravitation nicht eindimensional
@Florian
Neptun wurde zuerst gefunden und man glaubte damals, dass wenn es bei Neptun so einfach zu lösen ist, dann wird es das gleiche sein mit Vulkan.
Analog:
Wenn die QED so fantastische Ergebnisse liefert, dass es funktioniert, dann muss es auch auf allen anderen Ebenen so funktionieren als Quantenfeldtheorie. Denn QED selbst ist ja eine Quantenfeldtheorie und dann müssen wir also mit gleichen Mitteln und gleicher Vorgehensweise dann auch alles andere erklären können.
Hinzu kommt noch ein Punkt, auf den ich jetzt eigentlich nicht eingehen wollte, weil es eine grundsätzliche Diskussion ist, die erfordert, dass man auch das wissen darüber haben muss, was Physiker zu 99 % nicht haben, weil sie sich nur auf den mathematischen Beweis als solches verlassen und damit das Thema abgehakt ist:
Messtheorie von Neumann.
Es war eine grundlegende Frage, die schon Einstein 1948 heftigst angegriffen hat. Ich will jetzt nicht Einsteins Argumentation aufgreifen, sondern einen anderen Punkt beleuchten, da wir heute mit der Stringtheorie schon weiter sind, als es damals Einstein wissen konnte:
Es geht um die Feststellung von Neumanns in seinem Beweis, dass selbst wenn es verborgene Parameter gibt, diese zu dem gleichen Ergebnis führen werden, was wir messen. Dieser Punkt wird von Quantenphysikern immer ausgelassen, weil sie es schlicht und einfach nicht wissen.
Von Neumann hat selbst an Mies Statistik geglaubt und er hat auch selbst ganz klar gesagt, dass es bei der statistischen Berechnung vom Gasgesetz verborgene Parameter gibt, die wir nicht kennen und daher auf dieses Modell angewiesen sind.
Was von Neumann damals also bewiesen hat war eine etwas andere Tatsache, als es gerne Quantenphysiker behaupten wie es auch bei dem Bell Theorem immer nur die orthodoxe Intepretation gibt der Kopenhagener, wie es ja auchweiterhin immer noch an den Uni im Physikstudium gelehrt wird.
Was heisst es also für die QFT? Wir haben eine QED, die funktioniert als reine Messtheorie. Sie funktioniert aber nicht als Erklärung.
Wir haben mit Vulkan nun genau das gleiche, was sich nach 1950-1960 in der Quantentheorie vollzogen hat.
W-Bosonen, Z-Boson, ein Higgsiges Boson, wieviele „Neptune“ der elektroschwachen Theorie muss man denn noch entdecken, bevor Sie einsehen, dass Ihre Fundamentalkritik ein bisschen aus der Zeit gefallen ist?
Wer spricht von Fundamentalkritk?
Es ist lediglich die Feststellung, dass wir mit der logischen Empirie reine Phänomenologie betreiben und keine Ontologie.
Das ist alles
@Rüdiger
„erfordert, dass man auch das wissen darüber haben muss, was Physiker zu 99 % nicht haben“
WTF?
Und du hast die Weisheit mit Löffeln gefuttert, oder was?
Dann frag doch mal den „Wald und Wiesen“ Physiker. Was lernt man im Physik Studium? Es ist heute Mode zu sagen, dass man sich nicht mit philosophischen Fragen in der Physik auseinander setzen will oder auch nur philosophisch darüber nachzudenken. Das ist heute verpönt als Physiker.
Früher zu Einsteins, Bohr, Heisenbergs Zeiten war es essentiell.
Heute wird nach wie vor Kopenhagener Orthodoxie an der Uni gelehrt. Was bekommt man vom Prof zu hören?
Der von Neumann Beweis hat alle Kritiker überzeugt. Was genau der von Neumann Beweis ist, und was für 3 grundlegende Aussagen es trifft, weiss aber keiner wirklich. Es wird nur darauf verwiesen.
Das ist eine Tatsache. Du kannst ja deine Physiker Kollegen mal fragen, ob sie es wissen.
Warum ich die Weisheit mit Löffeln gefressen habe? Ich habe das studiert. Als Wissenschaftstheoretiker, der unter anderem Physik und Philosophie studiert hat lernt man sowas. Zumindest wenn man keine Positivisten als Profs hatte.
@Rüdiger:
Wann dürfen wir mit Deinem Nobelpreis rechnen?
Wenn ich mir Deine Posts hier so durchlese, hast Du ja im Gegensatz zum gesamten „Establishment“ die Weisheit mit güldenen Löffeln eingenommen…
Genau – es ist doch so einfach! Einfach aufschreiben, wo 99% der lebenden Physiker irren, eine mathematisch stimmige Erklärung, wie es richtig läuft, und dann ab zum Suchen des passenden Frackes, denn die Einladung nach Stockholm ist dann unausweichlich.
Also los, für ein neues „Annus mirabilis“ ist die Zeit sowieso schon längst überfällig.
flame-Kommentare führen zu nichts, meine Wahrnehmung ist beispielsweise eine gänzlich Andere. Viel interessanter wäre es doch den gedanklichen Horizont etwas zu öffnen und auf die Kritik einzugehen, denn im Grunde ist es doch leider genau so in der heutigen Wissenschaftswelt und das betrifft nicht nur den Bereich der Physik.
Du weißt aber schon, welche abgedrehten Ideen gerade die Physiker in den letzten 110 Jahren hatten, die es heute noch alle gibt? Solchen Menschen einen „noch zu öffnenden Horizont“ vorzuhalten, grenzt an Beleidigung.
@Richard Gordon
Achja? Was ist dann der Grund, dass du an dümmlichen Pauschalqualifizierungen wie „Für mich sind heute Teilchenphysiker und QFTler einfach nur mathematische Stümper.“ nicht nur keine Kritik übst, sondern sie im Gegenteil noch beklatschst?
Soweit ich sehe, haben weder das Original-Paper noch das Paper von Feng et al. bisher Zitate eingesammelt. Da ich mehrere Autoren auf letzterem kenne, und weiß dass die wissen was sie tun, bleibe ich mal optimistisch, dass sich da noch was tut!
@Spritkopf
Das ärgerliche ist, dass bei den meisten „Physik-Kritikern“ sich zu vielleicht manchmal berechtigter Kritik am System (Soziologische Trends, die bestimmte Themen zu stark betonen, Stellen- und Förderungspolitik, die zu Schnellschüssen zwingen und langfristig angelegte Forschung zu riskant für die Karriere macht) eine wilde Mischung an Verschwörungstheorien und „inhaltlicher“ Kritik gesellt, die Aussagen, die sowieso jedem Experten klar sind, mit falsch verstandenem, Halbwissen, eigenartigen ideologischen Einwände und schlicht inkoheräntem Geschwurbel vermengt. Das ganze ist am Ende von Nicht-Experten schwer von fachlich fundierter Kritik zu unterscheiden und schadet am Ende mehr als es Nutzt, da einerseits nichts sinnvoll verwertbares dabei rauskommt, wichtige Einwände verbrannt werden, weil sie so oft mit Unfug daher kommen, und Außenstehende einen verzerrten negativ-Eindruck von der existierenden Forschung bekommen und sie innerlich verwerfen, statt sie besser zu verstehen – das ist tragisch.
Da wird z.B. aus sowieso schon eher zu pauschalen Aussagen wie „Die auf den Mainstream ausgerichtete Forschungsförderung verhindert, dass ausreichend an Alternativideen geforscht wird“ ganz oft, etwas überspitzt gesagt, „Die auf den Mainstream ausgerichtete Forschungsförderung verhindert, dass ausreichend an Alternativideen geforscht wird, zum Beispiel dass alles falsch ist, weil mich Dunkle Materie und das Higgsfeld irgendwie an den Lichtäther erinnern, aber da das die Experten nicht einsehen, ist die Physik völlig auf dem Holzweg und ideologisch verblendet“.
@Alexander
teils richtig, teils falsch.
Es gibt viel Unfug, aber es gibt auch diesen Unfug in der Physikergemeinde. Eine soziologische Erklärung ist daher nicht von der Hand zu weisen.
Wir haben in Deutschland noch verhältnismässig gute Verhältnisse. In den USA sieht es anders aus, warum dort auch so ein Krieg tobt. QFTler fühlen sich unterdrückt, weil sie nicht auf den Stringpfad gehen und somit keine Stellen bekommen oder aussortiert werden. Ist aber zum Teil auch berechtigt.
Es gibt immer mehr Physiker, die auch glauben, dass wir die letzten 80 Jahre nix wirklich zustande gebracht haben und einem Phantom hinterher jagten udn reine Phänomenologie betreieben haben inder theoretischen Physik.
Heute findet es seinen Ausdruck in der grossen Krise, die die Physik sozusagen ja selbst verursacht hat. Wir brauchten nach der Atombombe und der damit einhergehenden Nichtakzeptanz der Physik in den 1950er udn 1960er Jahren einen neuen Pusch, der dann direkt mit etablierung von Esoterik einherging nicht nur als Wechselwirkung von der Esoterik, sondern auch direkt sogar von der Physik bewusst gefördert. Es hat wieder BEgeisterung hervorgerufen und QT wurde zum interessantesten Feld für alle nachwachsenden Physiker. Das war eine gute Phase ohne die wir sicherlich nicht die technologischen Erfolge gehabt hätten. Aber leider hat es auch dazu geführt, dass wir eine Physik entstehen liessen, die sich als ontologisch gab, was natürlich Esoterikern und religiösen sehr gefallen hat, aber eben Physiker selbst auch daran glaubten. Es ist phänomenologie und eben keine Ontologie.
Die String Theorie hat uns wieder etwas auf den Boden der Tatsachen zurück geführt und wir sprechen dort ja auch nur über eine Phänomenologie.
String Theoretiker sind wesentlich konservativer und wissen, was Mathematik kann und was nicht. Es ist also eine erfrischende wohltuende Entwicklung, die man lange Jahre gerade bei Teilchenphysikern vermisst hat. .
Ja, ist denn schon wieder Märchenstunde? Physiker, die Esoterik fördern – also wirklich!
Keine Märchenstunde.
Informiere dich über den Club “Fundamental Fysiks Group“ in San Francisco vor allem.
Alles Physiker mit PhD von elite Unis.
Eine wunderbare aufbereitung dieser Geschichte der Quantenphysik findet man in dem 2008 erschienen Buch von David Kaiser – How the Hippies saved Physics
Es ist ein wissenschaftstheoretisch historisches Buch, was sehr schön die ganze komplexe Lage zu jener Zeit beleuchtet. Die Motivationen Poppers angefangen aus der Erfahrung nach dem 1 Weltkrieg über die Atombombe im 2. Weltkrieg und der entwicklung in den 60er und 70er Jahren vor allem.
Sehr schön aufgearbeitet.
Es war ein ideologisch getriebener Kampf, der da statt fand. In gewisser Weise eine schönes Beispiel für Dialektik.
@Alexander (#75):
Schön, kurz und klar zusammengefasst.
Warum Leute wie Herr Heescher nicht in der Lage sind ihre Kritik ebenso stringent und klar zu äussern, verstehe ich bis heute nicht.
„Ideologie“, „Kampf“, „Krieg“, „Unterdrückung“, uswusf.
Solche Vokabeln fallen mir sicherlich nicht ein, wenn ich über Forschung und deren jüngerer Historie nachdenke
😉
Und ich frage mich gerade, was genau Philosophie mit Naturwissenschaften zu haben? Ja, früher, da waren Philosophen jene Leute, die sich Gedanken um die Welt gemacht haben. Da wurde auch mal experimentiert und nachgemessen. Da kamen Erkenntnisse heraus wie der Auftrieb, die Kugelgestalt der Erde und vieles mehr. Aber heute? Ein reinrassiger Philosoph steht doch vor der Physik wie der Ochs vom Berg. Schlau darüber reden kann so ein Philosoph natürlich immer noch, denn das ist ja eine seiner Kernkompetenzen, aber wohin führt das am Ende? Vielleicht bringt es neue Erkenntnisse, was Naturwissenschaften für die Menschheit bedeuten, denn moderne Philosophie kümmert sich letztlich um nichts anderes. Zum Verständnis der Natur an sich kann sie aber meines Meinung nach nichts mehr beitragen.
@Captain,
Ich würde philosophische Fragestellungen mal nicht pauschal als unwichtig für die theoretische Physik verwerfen.
Die Fragestellung, ob man eine schöne deterministische (ontologische 🙂 ) Variante z.B der relativistischen Quantenfeldtheorie oder äquivalentes finden kann, ist meiner Meinung nach schon spannend und mag sogar wegweisend für weitere Entwicklungen zu sein – obwohl es streng genommen keine naturwissenschaftliche Fragestellung ist solange die Vorhersagen genau dieselben sind, sondern die Grenze zur Philosophie zumindest ankratzt. Alle Theorien seit 1926 aus philosophischem Vorurteil als wertlos oder als Irrweg zu bezeichnen nur weil sich bisher keine wirklich akzeptable deterministische Variante aufdrängt (ich klammere mal Everett als Sonderfall aus) ist natürlich hanebüchener Unfug und hat mit guter Wissenschaft wenig zu tun.
Philosophie beschäftigt sich nicht einfach nur mit „Gedanken über die Welt“ sondern mit dem Denken der Menschen. Und der Mensch bastelt nunmal seine Physik aus Denken heraus. Wir können ja nicht nur messen und dann wissen wir was. Wir müssen auch Daten die wir messen analysieren und dazu eine Theorie haben. Philosophie und insbesondere für Naturwissenschaften die Wissenschaftstheorie beschäftigt sich also mit dem Denken, der Axiomatik, die hinter den Theorien steht, die wir benutzen für das Messen /Vermessen der Welt.
Wer Wissenschafttheorie betreibt, der hat Physik studiert in den meisten Fällen. Oftmals auch Mathematik. Den Philosophen interessiert natürlich vor allem theoretische Physik, weil es dort an die Grenzen der Erkenntnis geht. Und hier ist es wichtig zu verstehen, wie Denken in diesem Bereich funktioniert und welche Prämissen und Axiomatik des Denkens zugrunde liegt.
Analytische Philosophie war ursprünglich ein Feld, was versucht hatte mit eigener Axiomatik, dem auf die Spur zu kommen. Aber ich denke, dass analytische Philosophie heute auch schon eher eine Funktionsphilosophie geworden ist. Auch hier hat man sich verrannt die letzten Jahrzehnte.
Zu Einsteins Zeiten gehörte wie in der griechischen Anike Philosophie, Mathematik und Physik zusammen. Heute tut man so, als sei es verpönt. Das ist aber ein Fehler.
Der Wissenschaftsbtrieb und Forschung funktioniert nunmal nicht rein formal nach Regelns, an die man sich hält und dann kommen wir zur Erkenntnis. Auch Popper hatte es ja schon angemahnt und versucht eben nicht Wissenschaft als reinen Rationalismus zu verstehen, sondern er nannte es ja auch „kritischen“ Rationalismus. Darüberhinaus spielen eben auch andere Dinge eine grosse Rolle. GErade im kalten Krieg darf man Ideologien nicht ausser Acht lassen. Auch Popper hatte im Denken des Menschen die Ideologie erkannt und wollte ein Bollwerk mit seinem kritischen Rationalismus als eigene Ideologie gegen den dialektischen Ansatz im MArxismus beschreiben.
Das interessante dabei ist, dass wir heute in der Stringtheorie im Gegensatz zur QT sogar einen Hegel’schen Ansatz im Denken finden können. In den USA weitgehend unbekannt, weil Amerikaner Hegel nicht kennen und Hegel auch eher eine eigene deutsche Sprache hat, die man als nativer Englsich sprecher nicht verstehen kann. Daher ist Hegel sowieso in den USA und England eher unbekannt. In der Physiker Gemeinde sowieso. Schliesslich soll man ja rechnen und nicht denken 😉
@Alexander
Was ist denn deiner Meinung nach „gute“ Wissenschaft?
Ich habe ja oben an zwei Beispielen aufgeführt, dass gerade zur Zeit DIE „Wissenschaft“ sich ziemlich schizophren verhält, was man keinem ernstzunehmenden „guten“ Wissenschaftler verkaufen kann.
Für Spektrum der Wissenschaft Leser fällt das nicht weiter auf und man kann Schlagzeilen produzieren. Aber wir sprechen hier ja nicht über Propaganda um Wissenschaft zu verkaufen, sondern über das grundlegende Verständnis selbst.
Wenn ich davon spreche, dass wir die letzten 80 Jahre (Mathe sollte unter Physikern keine Kunst sein um dann auch auf 1936 rückdatieren zu können 😉 ) einen Irrweg genommen haben, dann bezieht es sich nicht auf technologische Erfolge, die wir zweifellos haben, aber diese haben wir ja auch nur von theoretischen Grundlagen eben von vor mehr als 80 Jahren. Wir haben keine neue Technologie entwickelt aus einer QCD oder QFT oder ähnliches. Selbst wenn wir uns Supraleiter anschauen, dann haben wir mittlerweile eine Stringy Theorie als Grundlage. Supraleiter selbst waren ein reiner Zufall zu finden. Die Erklärung basteln wir heute immer noch.
So astrein ist also deine „gute“ Wissenschaft auch nicht. Es gibt nunmal nicht den formalen Rationalismus in der Wissenschaft, wie man es gerne verkaufen würde.
@Alexander Knochel:
Wann hat denn deiner Meinung nach die Philosophie der Physik weiterhelfen können? Mir kommt heutige Philosophie immer etwas überflüssig vor: Man kreist um sich selbst und versucht allen anderen weis zu machen, dass man immer noch eine ungemein wichtige Disziplin sei.
@Captain:
die simple idee zur ART ist wohl das prominenteste Beispiel. Eine gute Theorie ist mit der Philosophie verzahnt und denkt quer. Theoretische Physik ist das beste Beispiel, wobei oben kritisiert wird das „quer“ denken im heutigen, modernen Wissenschaftsbetrieb eher verpöhnt ist. Vermutlich weil es mittlerweile als Färbung von Esoterik verstanden wird, anstatt zu akzeptieren, dass unsere größten wissenschaftlichen Erkenntnisse auf eben diesem Querdenken und keinesfalls Esoterik beruht.
Ich kann mir nicht helfen, aber mir kommt das so vor, als würden da einige Freunde der Philosophie einen theoretischen Physiker für sich vereinnahmen und seine anerkannte Leistung auf ihre eigenen Fahnen schreiben.
Um mal auf´s Thema zurückzukommen:
Ich bin mal gespannt auf weitere Analysen und auch der eventuellen, neuen Resonanz beim LHC@750GeV… 😉
@Krypto
Oh ja. Dazu wird’s bei mir zeitnah auch nen Blogeintrag geben.
@Captain
„Wann hat denn deiner Meinung nach die Philosophie der Physik weiterhelfen können? Mir kommt heutige Philosophie immer etwas überflüssig vor: Man kreist um sich selbst und versucht allen anderen weis zu machen, dass man immer noch eine ungemein wichtige Disziplin sei.“
Ganz widersprechen kann ich da nicht. Es kommt ein bissel drauf an was man bei Philosophie alles einschließt und was man aus der Physik an Erkenntnissen ziehen will. Ob die „akademische Philosophie“ in den letzten Jahrzehnten irgend etwas Nützliches zur Entwicklung der Theorien in der Physik beigetragen hat, sei dahingestellt – die meisten Vollzeit-Philosophen kennen sich vermutlich auch zu wenig mit der Materie auf technischem Level aus, um wirklich substantielles zum Theoriebau beitragen zu können. Was ich von der Seite so gelesen habe, waren meistens mit erhobenem Finger ausgesprochene Warnungen, dass man ja eigentlich gar nicht mehr versteht, was man da macht!
Ich fasse Philosophie aber für mich vielleicht ein bisschen weiter – um mal bei der Allgemeinen Relativitätstheorie zu bleiben, waren bei der Entwicklung ganz allgemeine Fragen der Struktur der Theorie (wie z.B., fordern wir Koordinatenunabhängigkeit, d.h. Diffeomorphismus-Invarianz als Konstruktionsprinzip? Ähnlich setzt sich das für die Eichtheorien fort) ganz entscheidend. Solche Überlegungen über Konstruktionsprinzipien sind für mich nicht im engeren Sinne naturwissenschaftlich und damit für mich schon philosophischer Natur. Natürlich muss das ganze dann noch empirisch überprüft werden, und solche Formüberlegungen sind höchstens ein Zwischenschritt – allerdings meines Wissens tatsächlich keiner, der von professionellen Philosophen beigetragen wurde.
Wenn man grundlegender ansetzt und sich fragt, warum und in welchem Maße wir empirische Überprüfbarkeit von einer Theorie verlangen, ist das eine philosophische Frage. Die Wissenschaftscommunity hat sich hier seit langem auf gewisse Standardvorgehensweisen geeinigt und Prinzipien der Falsifikation und Occam’s Razor etc. werden reflexartig anwendet, weshalb es nicht so offensichtlich ist, was hier noch von Seite der Philosophen beizutragen ist, aber es sind definitiv philosophische Fragen.
Auch die Frage, was uns eine Theorie überhaupt sagt, wenn wir sie erstmal konstruiert und experimentell getestet haben – Sind Theorien nur „Black Boxes“, die uns gute Vorhersagen für Experimente generieren? Wenn das alles ist, gewinnen wir dann überhaupt durch eine Theorie so etwas wie Verständnis der Natur, oder haben wir nur eine Maschine gebaut, die als Ersatz für ein Experiment herhält? Wenn das aber nicht alles ist, können Theorien Erklärungen der Natur sein, und in welchem Sinn? Was erklären sie denn überhaupt? All diese für mich eigentlich durchaus wichtigen Fragen, wie man das, was uns die theoretische Physik so liefert, interpretieren soll, sind in der Philosophie angesiedelt.
Wenn sich abzeichnet, dass wir der Quantengravitation empirisch auf absehbare Zeit nicht so richtig auf den Leib rücken können, weil die Planck-Skala so hoch ist, müssen „wir“ uns auch überlegen, ob wir die Flinte gänzlich ins Korn werfen, oder nach welchen Prinzipien wir weiterhin nach solchen Theorien suchen, und was diese uns sagen, wenn wir welche finden. Auch das ist für mich Philosophie im weiteren Sinne.
@Krypto
Ja da wird jetzt ein Hype draus gemacht. Im heutigen Spektrum Artikel wieder schön zu sehen.
https://www.spektrum.de/news/suche-nach-noch-schwereren-elementarteilchen-am-lhc/1412744?utm_medium=newsletter&utm_source=sdw-nl&utm_campaign=sdw-nl-daily&utm_content=heute
Aber wie ich ganz zu Anfang schon sagte. Warten wir ab bis August.
Higgs lässt noch auf sich warten. Der Spin 0 Nachweis fehlt noch, dass es ein Skalarboson ist und 40 Photonenpaare und 10 Photonenpaare sind auch nicht die Welt.
Einfach mal abwarten, was uns das grosse Rauschen im LHC noch bringen wird.
Im übrigen für @Alexander
auch hier im Spektrum Bericht spricht man von der Hoffnung mit SUSY damit auch DM zu erklären. 😉
Ohne SUSY ist man aufgeschmissen was DM angeht, ausser man macht komplizierte Axion P Brane Formulierungen, die mir aber persönlich als stringy affiner auch nicht gefallen würden.
Auch wenn ich mir geschworen habe, auf Ihre ganzen wilden Behauptungen nichtmehr zu Antworten, kann ich mir nicht helfen:
„Ohne SUSY ist man aufgeschmissen was DM angeht, ausser man macht komplizierte Axion P Brane Formulierungen, die mir aber persönlich als stringy affiner auch nicht gefallen würden.“
Diese Aussage ist einfach nur falsch.
@Alexander:
Ja, das kribbelt immer wieder erheblich.
Aber ein Querlesen von dem Zeugs und die förmlich in´s Auge springenden, aufmerksamkeitsheischenden Schlagwörter verhelfen recht zuverlässig zum /igno 😉
@Alexander
und was genau ist falsch?
Dann berichtige mich, wenn du mehr weisst.
@Rüdiger: Es ist falsch, weil es viele, viele Möglichkeiten gibt, dunkle Materie zu erklären. Die Supersymmetrie ist EINE Hypothese von vielen, aus der die Existenz von Teilchen folgt, die DM sein könnten. Aber bei weitem nicht die einzige. Ob Susy real ist oder nicht hat keine Auswirkungen auf die Beobachtungsdaten, die die Existenz der dunklen Materie belegen.
Wie Florian schon sagt – es gibt unzählige Möglichkeiten, DM theoretisch zu realisieren, die teilweise auch viel einfacher als das MSSM sind. Die DM in Susy mit R – Parität ist eher ein nettes Zusatzfeature, hat aber wenig mit der Susy an sich, und alles mit der Parität zu tun.
Außerdem haben Axionen erstmal nicht notwendigerweise was mit p/D-Branes o.Ä. zu tun. Klar kommen aus manchen Type II-Stringkompaktifizierungen leichte Axionen raus, aber es braucht beileibe keine Stringtheorie oder sonstige Extradimensionen mit Branes, um ein Axion zu haben. Die bekommt man viel einfacher.
@Florian und @Alexander
Dann nennt doch einfach die Alternativen. Redet nicht andaurnd drum herum.
insbesondere @Florian
Beobachtungsdaten sind zu interpretieren und du beziehst dich darauf als wenn es nur eine Erklärung geben würde: Dunkle Materie.
@Rüdiger Heescher: „Beobachtungsdaten sind zu interpretieren und du beziehst dich darauf als wenn es nur eine Erklärung geben würde: Dunkle Materie.“
Ich verweise dich gerne ein weiteres Mal auf das hier: https://scienceblogs.de/astrodicticum-simplex/2013/06/26/dunkle-welten-alles-uber-dunkle-materie-die-komplette-serie/
„Dann nennt doch einfach die Alternativen. Redet nicht andaurnd drum herum. „
Du darfst gerne auch mal selbst „dark matter candidates“ bei google eingeben; ist gar nicht schwer. Aber bitte sehr; hier ein paper vom März: https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.116.101302
Eins von vielen…
@Florian
OK Du und Alexander glauben an Neutrinos. Neutrinos müssen aber überall sein. Müsste man dann nicht auch in unserem Sonnensystem schon gravitative Abweichungen festzustellen sein, wenn sie überall sind und entsprechende gravitative Wirkung haben?
Eher unwahrscheinlich oder?
Oder gibt es Neutrinos in so hoher Dichte nur in bestimmten Bereichen des Universums? Das ist doch eher Milchmädchenlogik, die überhaupt keine Substanz haben.
Zu dem Planckskale DM Artikel:
Ich habs mal überflogen und musste nur schmunzeln.
Ich bin viel gewohnt von Stringtheoretikern, mit unglaublichen Axion und Delaton theorien.
Aber hier musste ich wirklich nur schmunzeln.
Nochmal:
DM ist nur eine Vermutung aufgrund von Messdaten, die auf Grundlage des Standardmodells und seinen Implikationen beruht. Wir haben also eine gegenseitige Wechselwirkung von dem was wir als Grundlage zur Theorie über die Welt haben und entprechende Messdaten, die dazu veranlassen zu glauben, dass wir dann das GAP füllen können mit Materie, die wir nicht kennen, sehen, messen können.
Das ist die Ausgangslage
Darauf beruht alles, was die Annahme von DM überhaupt befruchtet.
Wir sehen in Galaxien eine statistische Berechnungsgrundlage als Messdaten basierend auf einem Gasgesetz. Übrigens sogar mit Abweichungen von 20 %.
Wir erinnern uns, dass wir am Sternenhimmel auch nur Sterne sehen können, die ein paar hundert Lichtjahre entfernt sind. Wir haben nur statistische Daten über eine Materiemenge im Universum, die völlige Spekulation ist und nur ungefähr eine Grössenordnung angeben in der wir denken müssen, aber es sind keine Daten, die wir als irgend wie auch nur annähernd exakte Messdaten verwenden können. In Galaxien nicht und erst recht nicht im Universum.
Was wir machen ist einfach darauf zu vertrauen, dass unsere Messdaten einigermassen genau sind und setzen es dann in Formeln ein wie der Friedmann Gleichung. Mehr ist es letztlich nicht.
Messdaten insbesondere wenn es nur statistische Erhebungen sind auf Grundlage von angenommenen Theorien, sind nur eine Interpretation und Annahme.
KEIN BEWEIS
Du hast geschrieben, dass die Beobachtungsdaten die Dunkle Mateire BELEGEN.
Das ist in keinem Fall so.
Die Beobachtungsdaten zeigen nur, wenn man in der standardmodell denke verharrt, dass dieses Loch von ungereimtheit nur gefüllt werden kann mit zusätzlicher Materie, die wir nicht sehen können.
Wenn es noch mehr schwarze Löcher gibt als angenommen, dann brauchen wir keine esoterische Erklärung mit DM, sondern können dann auch gut mit unserem standardmodell verbleiben.
Wenn es im Universum sowieso keinen de Sitter Raum gibt sondern AdS, dann fällt DM und auch DE weg. Unsere ganzen Beobachtungsdaten im Universum beruhen auf der Annahme, dass wir einen de Sitter Raum haben. Unsere ganzen Berechnugnen erfolgen in Ableitung auf Lorentztransformation. Bei einem AdS wäre es nicht mehr der Fall.
Wie gesagt, DM ist nicht belegt, sondern nur ein Lückenfüller für unser Standardmodell in der Kosmologie.
DM als Neutrinos anzunehmen ist Milchmädchenrechnung und würde zu noch mehr ungereimtheiten führen. In der Astrophysik aber sowieso in der Teilchenphysik. Es passt nichts zusammen, was in sich wirklich ein konsistentes Bild abgeben würde.
@Rüdiger: “ Müsste man dann nicht auch in unserem Sonnensystem schon gravitative Abweichungen festzustellen sein, wenn sie überall sind und entsprechende gravitative Wirkung haben?“
Wenn du doch angeblich so ein Physik-Crack bist, kannst du ja gerne mal die lokale Dichte der DM im Sonnensystem raussuchen und dann nachrechnen, wie groß die Abweichungen sein müssten. Und dann überlegen, ob deine Frage noch Sinn macht.
Aber ok – wenn du die Existenz von Neutrinos anzweifelst, dann macht eine seriöse Diskussion mit dir vermutlich sowieso keinen Sinn.
@Rüdiger Heescher
Klares Nein.
Klares Ja, man kann anhand des Gravitationslinseneffekts feststellen, dass die DM Galaxien haloförmig umgibt. Sie soll ja überhaupt erst der Auslöser dafür sein, dass sich baryonisches Gas nach dem Urknall zu Filamenten und Galaxienhaufen verdichtete. Was in Simulationen hervorragend nachvollzogen werden kann (und ohne DM überhaupt nicht funktioniert).
Wenn man keine Argumente hat, versucht man’s wegzulachen. Bekannte Taktik. Tatsache ist: man beobachtet den Gravitationseffekt eines Stoffes, der sich wie ein Gas verhält, dass sich aufgrund seiner Eigengravitation verdichtet, aber keine kompakten Strukturen bildet – wie ein ideales Gas. Woraus dieses Gas besteht, weiß kein Mensch, vielleicht ist keiner der derzeit erwogenen Kandidaten der richtige. Man weiß aber mit großer Sicherheit, was es nicht ist: irgendwas, was mit Photonen wechselwirken kann. Und etwas, was sich schnell bewegt. Baryonische Materie und gewöhnliche Neutrinos sind damit ausgeschlossen.
Welch ein hübsch formulierter Haufen von Schwachsinn!
Du hast aber schon mitbekommen, dass die Neutrinos, die im übrigen ihre wissenschaftliche Existenz auch als bloßer Platzhalter begonnen, um eine Anomalie beim Betazerfall zu erklären, schon längst nachgewiesen sind? Und auch, dass einige Neutrinoteleskope auf der ganzen Welt nach ihnen Ausschau halten? Inzwischen spricht man doch bereits von der „Neutrino-Astronomie“, und gerade bei unserer Sonne stellt man periodische Zu- und Abnahmen des Neutrinoausstoßes fest. Und diese winzigen, geradezu geisterhaften Teilchen haben genau die Eigenschaften, die auch die Dunkle Materie haben muss. Allerdings sind die Neutrinos zu schnell und somit zu heiß. Außerdem gibt es von ihnen einfach nicht genügend, um die Effekte zu erklären. Ich wiederhole es an dieser Stelle aber gerne noch einmal: Wenn mit Elektron-, Tauon- und Myon-Neutrinos gleich drei Teilchenarten existieren, die wesentliche Eigenschaften der Dunklen Materie besitzen, wieso soll es da nicht noch andere geben, kältere natürlich? Es spricht also absolut nichts dagegen, dass es solche Teilchen gibt.
Den Physikern vorzuwerfen, dass sie sich zunächst einmal um das offensichtliche kümmern (und MOND konnte bekanntlich nicht überzeugen), ist somit einfach schäbig. Wenn du so viel Ahnung von der Materie hättest wie du von dir selber zu glauben scheinst, dann arbeite doch deine eigene Idee aus, mit mathematischer Grundlage und allem anderen. Wenn es klappt, bist du der neue Einstein und erhältst grenzenlosen Ruhm in der Fachwelt und der Öffentlichkeit.
@Florian
ich zweifle nicht Neutrinos an. Ich zweifle daran, ob sie sich verdichten und eine solche Auswirkung haben können. Warum dann nicht auch in unseren Sonnensystem?
Warum sollten sich Neutrinos verdichten in unserer Galaxie oder auch bei Clustern, aber nicht bei uns?
Zum anderen gehe ich davon aus, dass es sich dann auch wohl nicht um die 3 gefundenen Neutrinos handelt, die wir messen konnten. Es muss sich also dann auch wieder um irgend welche anderen Neutrinos handeln und die wären generiert aus einem GUT/ SUSY Modell.
Die Idee, dass sich Neutrinos wie Gas verhalten, scheint mir dann auch eine zusätzliche Irreführung zu sein. Bekommt jetzt ein Neutrino dann doch eine Eigenschaft durch das Higgsfeld? Wird es darauf begründet, dass es dann eine Wechselwirkung gibt mit Higgsbosonen? Das ist aber dann wiederum eine a priori Annahme, die dann wiederum auf die ganze Äthertheorie beruht mit dem Higgsmechanismus.
Lasst uns erstmal nachweisen, dass es Higgs überhaupt gibt mit einem Spin 0, was dann auch bedeutet, dass es sich um ein Skalarboson handelt und somit eine Theorie damit Bedeutung bekommt, die die ganze Idee vom Higgsmechanismus als Äthertheorie belegt.
Du merkst, es läuft nämlich alles in der Argumentation immer wieder nur auf eines hinaus.
Es gibt immer nur eine Grundannahme, die solche Ideen dann erst begründen, die aber alles andere als bewiesen sind.
Aber dann bleibt immer noch die Frage offen, wie wir überhaupt Higgs mit Neutrinos beschreiben können nach Standardtheorie und QFT. Bisher geht es nicht.
Irgendwie haben Neutrinos etwas gegen Higgs.
@Rüdiger: „ich zweifle nicht Neutrinos an. Ich zweifle daran, ob sie sich verdichten und eine solche Auswirkung haben können. „
Was hast du denn auf einmal mit den Neutrinos? Niemand behauptet, dass die ganze dunkle Materie aus Neutrinos besteht.
„Aber dann bleibt immer noch die Frage offen, wie wir überhaupt Higgs mit Neutrinos beschreiben können nach Standardtheorie und QFT. Bisher geht es nicht.“
Auch das bestreitet niemand. Dass Neutrinos nicht (korrekt) durch das Standardmodell beschrieben werden kann, ist bekannt.
Aber was das alles mit der dunklen Materie zu tun hat, erschließt sich mir nicht. Ich bezweifle auch langsam, dass du wirklich der große Experte für Teilchenphysik bist, der du vorgibst zu sein. Mir scheint es eher so, als hättest du nen Schwung Fachbegriffe gelernt aber keine Ahnung, was das alles wirklich bedeutet… Schnapp dir doch mal ein paar Bücher über Astronomie, ließ was dort über Gravitationslinseneffekte in Galaxienhaufen, die Messung von Bewegungsgeschwindigkeiten steht, usw. Informier dich über die großräumige Verteilung der dunklen Materie; mach dir Gedanken über Auswirkungen auf lokalen und globalen Skalen, usw. Du springst dagegen ständig von einem Thema zum anderen, vermischt irgendwelche Fachbegriffe, die nichts miteinander zu tun haben und beharrst auf deiner persönlichen Interpretation der Physik, die vom Rest der Wissenschaft nicht geteilt wird.
Ich hab dir erklärt, warum es Unsinn ist zu behaupten, dunkle Materie könne nur im Rahmen der Supersymmetrie existieren. Wenn du das nicht hören willst, ist das deine Sache. Wenn du unbedingt weiter über deine Privatphysik diskutieren willst, ist es das ebenfalls. Aber ich werde mich nicht mehr daran beteiligen.
@Alderamin:
Du warst ein wenig schneller als ich mit deiner Antwort. Die Kritik richtete sich selbstverständlich nicht an dich.
@Rüdiger Heescher:
Eine Verdichtung im Sinne baryonischer Materie wird aber von der Dunklen Materie gerade eben nicht erwartet. Eine gewisse Verdichtung scheint es um die Zentren der Galaxien herum zu geben. Und das werden die uns inzwischen bekannten fastlichtschnellen Neutrinos gerade nicht sein. In unserem Sonnensystem wird es auch Partikel dieser Dunklen Materie geben, aber dermaßen dünn verschmiert, dass sich der Nachweis extrem schwierig gestalten wird.
@Rüdiger Heescher
Hast Du meine Rechnung gesehen? Die Masse innerhalb des Sonnensystems wäre völlig vernachlässigbar bei der beobachteten Dichte (die sich aus der Schwerkraftwirkung ergibt).
Davon gehen alle aus, die normalen Neutrinos sind nämlich heiße Dunkle Materie, die kann sich nicht verdichten, weil die Teilchen mit fast Lichtgeschwindigkeit unterwegs sind. Verdichten kann sich nur, was langsamer als die lokale Fluchtgeschwindigkeit aufgrund der gegebenen Materiedichte ist. Wenn überhaupt Neutrinos, dann müsste es sich um langsame handeln, die eine hinreichend große Masse haben, so was wie „sterile Neutrinos„. Muss es aber nicht, das ist nur einer von vielen Vorschlägen.
Das Higgs wurde gefunden und es gab einen Nobelpreis dafür. Hat aber nichts mit der DM zu tun. Niemand behauptet zu wissen, woraus die DM besteht, nur, woraus sie nicht bestehen kann, und wie sie sich verhält. Man kann darauf basierend einen Haufen Hypothesen aufstellen und die der Reihe nach prüfen, das wird gemacht.
MOND ist z.B. zu verwerfen, sie erklärt weder die in einigen Galaxienhaufen beobachtete Trennung von sichtbarer und gravitativ wirkendender Materie, noch erklärt sie die relativen Elementhäufigkeiten der beim Urknall entstandenen Materie. Ein gravitativ wirkendes Teilchen würde dies erklären.
Was ist denn Deine Erklärung für die obigen Beobachtungen? Oder die Flachheit des Universums, die man beispielsweise an Korrelationen der Strukturen der Hintergrundstrahlung vermessen kann? Wieso kommt man da auf den selben Wert für die Materiedichte wie bei der Messung der Bewegung von Galaxien in Galaxienhaufen bzw. der Rotation der Galaxien? Wieso kommt nur bei gerade dieser Materiedichte in der Illustris Simulation eine Struktur des Unviersums heraus, die der beobachteten gleicht?
@Florian
ich überlese mal deinen Angriff. So redet eigentlich nur jemand, der sich erwischt fühlt.
Alderamin ist da doch etwas gefestigter wie mir scheint. Denn in der Tat geht es eben um jene „sterilen Neutrinos“, wenn sich auf Neutrinos bezieht. Und diese werden eben nicht aus unserer normalen Standardteilchengalerie generiert. Es sind andere. Und hier schliesst sich eber Kreis. Was generiert sterile Neutrinos?
@Alderamin
Ich bin nur auf die Neutrinos eingegangen, das es Alexanders und Florians bevorzugte Erklärung ist. Was sterile Neutrinos angeht, so muss man abwarten, ob SUSY existiert.
Was das Higgsboson angeht, so haben wir bisher wirklich seriös wissenschaftlich erst festgestellt, dass es ein Teilchen gibt, was 125 GeV „schwer“ ist. Mehr nicht. Ob es das besagte Higgsboson wirklich ist, werden wir erst erfahren, wenn wir mit einer Sigma 5 Relevanz auch einen Spin 0 nachgewiesen haben. Erst dann können wir von einem Higgsteilchen sprechen, was entsprechenden Mechanismus als Skalarteilchen bewirken soll. Und das steht noch aus. Beim letzten Lauf im LHC haben wir ja nicht mal trotz doppelter Energie dieses Higgsboson ansich nochmal reproduzieren können, was eigentlich ein leichtes gewesen sein sollte. (und ja ich weiss, dass die Suchparameter im Datenrauschen nicht danach ausgerichtet waren. Die Daten sind aber dennoch verfügbar und es wäre aufgefallen, genauso wie man jedesmal immer wieder W und Z Bosonen messen kann.)
Ob MOND wirklich gut ist, kann ich nicht sagen. Zumindest gab es bei zwei Elipsengalaxien die beste Übereinstimmung. Und das fand ich schon sehr interessant, dass es doch letztlich nur ein paar Stellschrauben braucht. Ist ja ähnlich wie damals mit Newton zu Einstein. Ein wenig Geometrie ändern und schon gibt es eine Übereinstimmung. MOND wird sicherlich nicht der Weisheits letzter Schluss sein, aber man sollte sich schon ein wenig mehr Gedanken über geometrie machen. Insbesondere wenn ich mit Kosmologische Modelle anschaue, so riecht es förmlich für mich danach, dass wir mit de Sitter auf dem Holzweg sind. Natürlich würde das dann QFTler nicht gefallen. Wenn man nur flache S Matrix rechnen kann, dann kommt man bei AdS ins Schleudern.
Was die Computersimulationen angeht, so gibt es für alles und jedes Computersimulationen. Es gibt auch Multiversum Simulationen mit 42 Universen, die schön beschreiben, wie unser Universum funktioniert. Und das rein auf KK basierend.
Aber dazu wird sicherlich @Richard Gordon besser drüber berichten können. Ich kenne mich nur mit Grassman Algebra und spezieller Geometrie aus und kenne aus diesem Bereich nur 3D Computersimulationen, die „zaubern“ können. Wird übrigens sogar praktisch in 3D Comouterspielen eingesetzt, was die Spiele wesentlich schnelle rgemacht haben für aufwendige Graphiken. Aber das ist noch ein völlig anderes Thema.
https://de.wikipedia.org/wiki/Dunning-Kruger-Effekt
*überlies mal das*
@Rüdgier Heescher
Confirmed: That Was Definitely the Higgs Boson Found at LHC
Beleg dafür?
Beleg? MOND ist einerseits physikalisch überhaupt nicht erklärt sondern noch mehr ad-hoc, als jedes Dunkle Materie-Teilchen und zweitens im wesentlichen ein Formel-Fit auf die gemessenen Rotationsdaten von Galaxien, was natürlich immer irgendwie hinhaut. Bei der DM kann man hingegen begründen, warum sie um die Milchstraße einen Halo bilden muss, und wie dieser dann die Umlaufzeiten der Sterne beeinflusst. Außerdem wurde, wie ich schon sagte, die Schwerkraftwirkung der DM auch schon dort gefunden, wo sichtbare und Dunkle Materie getrennte Wege gegangen sind. Wenn MOND aber von baryonischer Materie hervorgerufen wird, wo kommt ihre Wirkung dann dort her, wo man keine solche sieht? Es reicht nicht, wenn MOND bei der einen oder anderen Galaxie funktioniert, sie muss sowohl das verlinkte Beispiel erklären, als auch die relative Häufigkeit der in der Nukleogenese entstandenen Teilchen. Die hängt nämlich einerseits empfindlich von der Dichte normaler Materie ab und andererseits von der Expansionsrate des Universums (Dauer), in die die Gesamtdichte von normaler und Dunkler Materie mit eingeht, so dass sich insgesamt der Anteil Dunkler Materie aus ihr ermitteln lässt. Und die spricht für genau den Anteil an Dunkler Materie, den auch die Galaxienrotation oder die Bewegung der Galaxien in Galaxienhaufen ergibt. Komisch, wenn’s Zufall wäre.
Das ist Unfug. In die Modelle gehen gewisse Grundannahmen ein, und wenn bei der Simulation dann heraus kommt, was man beobachtet, dann waren die Annahmen korrekt. Es wird nicht auf ein bestimmtes Ergebnis hin simuliert und an den physikalischen Gesetzen gedreht, bis es passt. Die Gesetze sind bekannt und nur der Input an den Anteilen Dunkler Materie, sichtbarer Materie und Dunkler Energie wird variiert. Und dann passt es.
Wir haben also mehrere Schienen, die die Dunkle Materie bestätigen, und die MOND auf keinen Fall alle erklären kann.
Du wolltest, glaube ich, noch erklären, wie Deine bessere Theorie aussieht. Nörgeln kann jeder, besser machen!
Contenance.
Eine einigermaßen passable Übersicht von Alternativen zu DM etwa hier https://en.wikipedia.org/wiki/Alternatives_to_general_relativity ( zu den beobachteten PPN Parametern en.wikipedia.org/wiki/Parameterized_post-Newtonian_formalism#Accuracy_from_experimental_tests ).
Die (gegenwärtig noch so zu bezeichnende) Hypothese der DM gewinnt im entscheidungstheoretischen Sinn immer mehr an Plausibilität je mehr Alternativtheorien „rausfalllen“.
Mofats STVG bedient allerdings die Beobachtungsdaten wohl hinlänglich(?).
Allerdings stellt sich diese einfache Gegenüberstellung auch nicht mehr so einfach dar, wenn ohne (direkten) Nachweis zur Erklärung der beobachteten Phänomene immer mehr DM-Teilchen postuliert werden weil bestimmte vorherige Annahmen nicht haltbar sind, e.g. LSP. Auch hier ist der entscheidungstheoretische Hintergrund (gelegentlich auch Occam’s razor genannt) ja nicht außen vor.
@Alderamin
„Illustris“ – ist die Simulation nicht darauf ausgelegt „nur“ mit „Materieverteilungen“ zu spielen und berücksichtigt alternative „Gravitationsmodelle“ gar nicht? Unter „Simulation Details“ heißt es ja „We follow the coupled dynamics of DM and gas with the robust, accurate, and efficient quasi-Lagrangian code AREPO.“ und weiter „The initial conditions assume a LCDM cosmology consistent with WMAP-9 measurements, …“.
Es könnte ja fast von der „MOND-Keule“ gesprochen werden 🙂 ; abgesehen davon, dass MOND sicherlich nicht hinreichend ist, ist die Bemerkung, dass MOND in Übereinstimmung mit zwei elliptischen Galaxien bemerkenswert sei, doch eher ein Anzeichen für den Kenntnisstand des Kommentators denn ein Argument gegen „alternativ Theorien“ zur DM (e.g. f( R), TeVeS , STVG …). Auch erscheint es mir ein Mißverständnis zu sein selbst MOND nur als ein „rechnerisches fitting“ zu verstehen. Dahinter steht doch schon eine differenzierte Annahme über die Dynamik ( „a“) in den Newtonschen Gleichungen (und das unterscheidet den Ansatz durchaus von bspw. Epizyklen). Das angepasste rechnerische fitting ist dann durchaus bei der numerischen Bestimmung der sich ergebenden „Parameter-komponenten“ gegeben – das unterscheidet sich aber methodisch doch nicht von der Bestimmung irgendwelcher sonstigen Parameter/Konstanten (e.g. ‚g‘, ‚c‘, ‚H‘ etc.)
… aber zu 1E 0657-558 auch da ist DM wohl nicht zwingend: http://www.researchgate.net/publication/48182848_Modified_Gravity_or_Dark_Matter
@Rüdiger Heescher
und
Beide Sätze machen keinen Sinn:
Beobachtungsdaten beruhen nicht auf Modellannahmen – bestenfalls geben Modellannahmen Hinweise darauf was ggfs. beobachtbar sein kann und „Higgs“ wird nicht mit Neutrinos beschrieben – unabhängig davon ob die PMNS-Matrix unitär ist oder nicht.
Und der Quatsch mit
„Ohne SUSY ist man aufgeschmissen was DM angeht, ausser man macht komplizierte Axion P Brane Formulierungen, die mir aber persönlich als stringy affiner auch nicht gefallen würden.“?
Gibt es tatsächlich soviel „personal stringy affinity“ ohne p-Branen oder mit kategorischem a priori Verwerfen der M-Theorie?
@Alderamin
Nicht der Titel macht die Aussage, sondern der Text des Artikels in den letzten beiden Absätzen:
„The new findings are at a level of 3.8 sigma. This means, roughly speaking, that there is a 1 in 10,000 chance that the results are a false positive. The physicists are now waiting to confirm the result at the more exacting (and standard in particle physics) 5-sigma level, which would mean the probability described above would be roughly 1 in two million.
More work will be necessary, in order to both obtain stronger statistical proof of the new findings, and further verify other properties of the boson. But it looks like we are finally getting pretty close to certainty that the Higgs particle exists, and it agrees with the theory that has launched the massive search for it.“
zu dem letzten Lauf vom LHC gab es jede Menge Artikel, die den Diphoton ausreisser bei 750 GeV beschrieben haben und gleichzeitig erwähnten, dass man aber kein Higgsboson wieder gefunden hat. Konnte man überall nachlesen. Selbst in Spectrum.
Was MOND angeht sagte ich bereits, dass es sicherlich nicht der Weisheit letzter Schluss ist, aber es zeigt auf, wie man mit ein paar Parametern (modifizierungen der Geometrie) schon zu erstaunlichen Ergebnissen kommen kann. Die 2 Eleipsengalaxien werden auch bei Wiki gerne angegeben.
Was Halos um Galaxien angeht, so gibt es auch die Idee, dass wir nicht alle sichtbaren Halos bisher gfunden haben. Wir haben eine erstaunlich unsymmetrische Verteilung um unsere Galaxie. Wir sehen „über“ unserer Glalaxie ich glaube 16 und „unten“ nur 4. Was wäre, wenn wir nur nicht alle gefunden haben? Ist letztlich das gleiche Problem wie mit Berechnungen u Neptun oder jetzt neuerdings mit Planet X oder Nemesis. Wir sind noch nicht so exakt in unseren Daten, wie wir es gerne hätten.
Was die Cluster angeht und deren Bewegngen, so wäre ich auch vorsichtig bei der Datenlage, die wir nicht wirklich so genau bestimmen können. Wir haben ja auch die Bewegungsdaten seit den 1930er Jahren bis heute immer wieder revidieren und verändern müssen. Dass wir heute soviel exakter sind in unserer Datenlage mag ich eher bezweifeln. Und wie ich jetzt schon 2 mal anmerkte denke ich ohnehin, dass wir mit unseren Berechnungen auf Grundlage von de Sitter wahrscheinlich sowieso falsch liegen. Aber das wird sich noch erst zeigen, falls wir irgend wann Galaxien entdecken die älter erscheinen als der Urknall.
Zu dem „Zufall“ sehe ich es nicht unbedingt als zufälliges Ergebnis, sondern ist einem systemimmanenten geschlossenen Bild geschuldet, was dieses so erscheinen lässt, dass es passt. So werden sicherlich auch damals Ptolomäusanhänger gedacht haben.
Was die Computermodelle angeht sagst du selbst, dass es Grundannahmen gibt, die man dann in die Simulation füttert. Aber wie ich oben schon sagte, habe ich von Computersimulationen keine Ahnung. Da kann ich mich nur auf das beschränken, was meine Erfahrung in anderen Bereichen sagt.
Meine bessere Theorie gibt es nicht. Ich begleite nur die theoretische Physik und merke an. Gerade seit Higgs ist es notwendiger denn je zu kritisieren und Ungereimheiten aufzuzeigen, weil es Physik als ganzes in einen schlechten Ruf kommen lässt. Physik als ganzes verspielt damit seine Ruf von einer exakten Wissenschaft und überhaupt wissenschaftlich zu arbeiten. Ein gefundenes Fressen für Religioten.
Wenn du das als nörgeln auffasst, dann tut es mir leid. Aber ich sehe es als wissenschaftstheorietischen Diskurs. Ich stehe dazu und sehe mich da in der Tradition von Paul Feyerabend.
Was ich zur Zeit spannend finde ist Stringtheorie. Allerrdings wird man noch eine 3. und 4. Revolution brauchen, bis man wirklich klarer Erkenntnisse erhält.
Ich setze mitlerweile nicht mehr auf quantisierung von Gravitation sondern auf komplette Geometrieiserung. Seitdem ich mich die letzten 4 Jahre intensiv mit Grassmann Algebra und spezieller geometrie beschäftigt habe, denke ich kann da durchaus auch was draus werden. Ist aber auch nur meine persönliche Ansicht ohne es belegen zu können.
@StefanL
ich sehe Stringtheorie und M Theorie auch kritisch und glaube auch nicht alles, was man sich dort ausdenkt. Ganz davon abgesehen, dass ich Wittens Berechnungen und Annahmen sowieso nicht folgen kann wie in seiner letzten Abhandlung vom Mai. Da reicht meine Kenntnis nicht für. Aber das teile ich wohl mit den meisten.
Ich sehe durchaus die Diskrepanz zwischen P und M Branes und setze öfters eher auf originäre Superstringvorstellungen als auf M Theorie vorstellungen. Man wird es aber nach einer 3. und 4. Revolution sicherlich auch hinbekommen es einfacher und Anschaulicher zu gestalten. Mit neuen Äquivalenzprinzipien, die man noch finden muss, wird es dann einfacher sein.
Wenn man sich die ursprünglichen originären Berechnungen der ART anschaut, dann wird man auch erst stutzen und später erst mit den eleganteren Ausformulierungen klar kommen, die wir heute benutzen.
Mit mathematischen Theorien ist es halt so, dass sie erst wirklich nach 1-2 Generationen verstanden und intuitiv verinnerlicht werden.
@Rüdiger Heescher
Der Artikel ist vom Juni 2014, also zwei Jahre alt.
Und es ist Ihnen nie in den Sinn gekommen, nach neueren Meldungen zu suchen, ob vielleicht in der Zwischenzeit der „stronger statistical proof“ erzielt wurde, den man erreichen wollte? Anscheinend nicht, sonst hätten Sie ja diesen Artikel gefunden. Zitat:
@Spritkopf
Sind wohl immer noch nur Run-1-Ergbnisse. Ich hab‘ mich gestern zum Schänzchen gesucht, irgendeine Aussage über das 125 GeV-Higgs aus Run 2 zu finden, aber ich fand weder eine Aussage, dass es bestätigt wurde, noch, dass es vermisst wurde. Offenbar wurde nicht danach gesucht oder es gab nichts zu vermelden (gefundenen X- und Z-Bosonen erwähnt ja auch keiner mehr). Daher meine Frage nach dem Beleg.
Ich hab‘ im Moment keine Zeit für tiefere Recherchen und muss eine ausführlichere Antwort erstmal verschieben. Kommt später noch was nach.
[…] ein paar Tagen habe ich über eine interessante Beobachtung in der Teilchenphysik berichtet. Ungarische Nuklearphysiker haben schon im letzten Jahr Daten veröffentlicht, die auf […]
@Alderamin
Das ist richtig, aber bezüglich des von dir verlinkten Artikels suggeriert Heescher mit seinem Zitat ja, dass für die Überprüfung der Zerfallsprodukte des Higgs-Boson keine 5 Sigma erreicht worden seien und somit der Artikel keine Relevanz habe. Und dies stimmt eben nicht mehr (und er hätte das auch mit ein bißchen Suchen selbst herausfinden können).
@Alderamin
Schau mal in die Talks vom November, insb ATLAS, wo auch das 750er dabei war – da werden die Run2 Higgs-Daten besprochen. Die erwartete signifikanz war nicht toll, die gemessene blieb dahinter zurueck.
https://indico.cern.ch/event/442432/
p.s.
Obiges bezieht sich auf den ATLAS-Talk.
Im CMS-Talk steht, dass sie Daten für die Standard-Higgssuche zum Zeitpunkt des Talks absichtlich noch nicht aufgedeckt hatten, ich weiß nicht ob sich das geändert hat. Sie hatten ja auch blöde Probleme mit ihrem Solenoiden und konnten nur einen Teil der Daten mit Magnetfeld aufnehmen.
Es geht nicht um den Nachweis eines Teilchens mit 125 GeV sondern um den Nachweis den gefundenen Teilchens mit der Eigenschaft von Spin 0
Das ist entscheidend udn das allerwichtigste bei dem ganzen, denn erst wenn Spin 0 nachgewiesen wurde mit einer „mindestens“ Sigma 5 Relevanz, erst dann weiss man, dass es ein Skalarboson ist.
Die Eigenschaft ist deswegen wichtig, weil darauf der ganze Higgsmechanismus beruht. Gibt es also keinen Spin 0, dann gibt es auch keinen Nachweis für den Higgsmechanismus.
Spin Berechnungen gehen aus den Vorläufer Transformationen aus. Ich spreche hier jetzt extra nicht von Zerfall, weil es eine Irreführung ist aber normalerweise im Umganagssprachlichen Gebrauch so benutzt wird. Die Transformation verrät uns über die Lagrange physik, was für einen Spin dieses gefundene Boson hat.
Also nochmal Fazit:
Wir haben ein Boson gefunden. Das ist unbestreitbar.
Wir kennen aber noch nicht die genauen Eigenschaften dieses neuen Bosons um es dann auch wirklich zu identifizieren für das, was es angeblich machen soll.
Spin 0 Nachweis ist das entscheidende für den Higgsmechanismus. Kein Spin 0, dann auch kein Higgsmechanismus.
Diese hohe Signifikanzschranke von 5 Standardabweichungen hat man ja eingeführt, um falsche Positivergebnisse bei Neubeobachtungen zu vermeiden – wenn es nur um eine A/B-Entscheidung geht, ist es Overkill, so zu tun, als wüsste man nichts, bevor die 5 Sigma erreicht sind.
Dass ein Spin-2-Teilchen so genau die verschiedenen Produktionsraten und Verzweigungsverhältnisse des Standard-Modell-Higgs reproduzieren würde, erscheint außerdem so unplausibel, dass man darüber heute keinen Schlaf mehr verlieren muss.
um nochmal auf die Simulationen zurückzukommen: Die Annahme zur Existens von DM ist ja erst dadurch zustandegekommen, das die Beobachtungen, sowie Simulationen erst durch DM in Übereinstimmung mit der ART in Einklang mit den Beobachtungen gebracht werden konnten. Ich habe zwar in theoretische Physik hineingeschnuppert, bin aber weder Mathematiker noch Physiker. Wenn ich die Daten und Funktionen richtig interpretiere, gehen hier die Kalkulationen (im Grunde auch MOND oder die relativistisch angepasse TeVeS) gemeinsam von quasi-punktförmigen Startvektoren aus (man möge mich korrigieren).
Beobachtet wird bei der Galaxienrotation eine nur schwach abfallende Geschwindigkeit bei größer werdendem Abstand vom Galaxiezentrum. Gleichzeitig wissen wir das bei kleinsten Abständen ebenfalls Abweichungen existieren. Abstand und Zeit sind bekanntlich beeinflussende Faktoren. Ich möchte hier zum einen auf Experimente und Beobachtungen hinweisen, wonach sich drehende Felder bekanntlich verschrauben und ein Moment in Drehrichtung bei größeren Abständen hervorrufen. Zum Anderen: Ist es denn abwegig, dass sich die innerhalb eines bestimmten Radius befindlichen Massen bei großen Maßstäben unter Berücksichtigung relativistischer Effekte wie eine einzelne große Masse verhalten?
@Richard Gordon:
Nein. 1. hat das mit der ART überhaupt nichts zu tun. Und 2. Hat Fritz Zwicky in den 1930er Jahren Galaxienhaufen beobachtet und aus deren Bewegung geschlossen, dass da (sinngemäss) „mehr dunkle als leuchtende Materie sein müsse“.
Dafür hat ihm die Newtonsche Mechanik gereicht.
Simulationen haben da auch nichts mit zu tun.
Bitte lies doch endlich mal Florians Serie zur DM.
@Alexander
Wir haben den Sigma 5 Status eingeführt um damit ein Freizeichen zu geben zum publizieren darüber, dass da etwas ist. Im Rauschen der Daten, was rein nur statistische Erhebungen sind, ist das auch Sinnvoll. Sigma 5 beschreibt erst einmal nur: Da ist was. Wir haben was gefunden.
Seriöse Aussagen kann man erst machen, wenn man Sigma 6-7 erreicht hat.
Zum anderen hat Higgs einen Spin 0 und nicht 2. Das Graviton hat nach QFT Spin 2. Da hast Du dich wohl verhaspelt.
Nach Standardmodell über QFT muss eine Berechenbarkeit des Spins erbracht werden. Wenn man es nicht kann, dann gibt es auch keine Theorie, die verifiziert wird. Denn schliesslich ist ja Higgsmechanismus als ganzes eine Vorhersage, die mit dem Higgsboson verbunden ist. Und die ganze Hypthese ist für den Arsch, wenn man also kein Spin 0 Skalarboson gefunden hat. So arbeitet seriöse Wissenschaft. Einfach nur ein neues Teilchen gefunden zu haben, was nach QFT Berechnugnen ohnehin schwerer sein müsste und nur erst durch Gordon Kane mit seiner Striny BErechnung mit der Zusatzannahme von MSSM diesen Wert erreicht hat, ist also kein Argument für die Richtigkeit der Theorie die zugrunde gelegt wurde. Wenn es sich also nur um die 125 GeV handelt so ist es nix. Es muss bei Higgs gerade um Spin 0 gehen, denn nur Spin 0 beweist, dass es ein Skalarboson ist, was keine Richtung zeigt, sondern das ganze Feld gleichzeitig ausstrahlt. Deswegen heisst es ja auch dann Skalarboson, denn wir brauchen für den Higgsmechanismus diese Skalareigenschaft. Andernfalls ist es wertlos.
Sigma 5 ist nur die Mindestanforderung um darüber überhaupt publizieren zu dürfen, dass überhaupt was gefunden wurde. Und diese Anforderung ist auch richtig. Sie ist nicht hoch, sondern schon angemessen, denn sonst kommen ständig nur solche Berichterstattungen zustanden wie jetzt wieder mit dem 750 GeV Biphotonen ausstoss und wissen doch nichts. Es kann genauso auch nur ein Ausreisser sein.
Das ist das Problem in der heutigen Teilchenphysik, dass man selbst die Seriösität der Wissenschaft ruiniert und damit Glaubwürdigkeit verliert. Die Religioten freuen sich darüber und werden immer mehr Pseudoscience Anhänger für sich gewinnen.
In den USA ist es schon der Fall. Hier ein aktueller Artikel der sich damit beschäftigt. Zwar nicht Physik, aber hier als ganzes Wissenschaft. Physik gilt als die exakteste Wissenschaft und wenn sie das weiterhin bleiben will, dann muss sie anfangen auch wieder Wissenschaft seriös zu betreiben.
https://www.newyorker.com/news/news-desk/the-mistrust-of-science
Hier noch ein aktueller Artikel, der es deutlich macht anhand der Quantenphysik und schöne Quellen angibt, die man gelesen haben sollte als Physiker. Nicht nur das Buch von David Kaiser (was eine schöne Zusammenfassung ist) aber auch die Ausarbeitungen jeweils, die deutlich machen, dass eben selbst Quantentheorie Anhänger als Physiker selbst daran Schuld sind und mitgeholfen haben.
Wir stehen wieder vor dem Problem wie vor 80 Jahren, dass man eben Quantentheorie nicht als Ontologische Erklärung betrachten darf, was aber Teilchenphysiker glauben. Hierbei geht es nicht um Ontologie=Determinismus, Wie Alexander oben ja ziemlich falsch interpretierte, sondern als Realitätserklärung.
Quantentheorie ist aber nichts weiter als eine ingenieursmässige Messtheorie für Phänomenologische Prozesse. Mehr nicht. Und so sollte man es auch betrachten. Das würde den ganzen Spuk mit Pseudosciene, Esoterik udn Religioten beenden
https://scitation.aip.org/content/aip/magazine/physicstoday/article/69/5/10.1063/PT.3.3151
@Rüdiger Heescher
In dem Papier geht’s nicht um normale Physik und Quantenphysik, sondern um Pseudowissenschaft wie Homöopathie oder Quantenheilung. Das Doppelspaltexperiment wird korrekterweise mit der Wahrscheinlichkeitswellenfunktion des Elektrons auf statistischer Basis beschrieben, steht in dem Artikel, und das ist genau die Quantenmechanik. Diese ist keine „onotlogische Erklärung“, sondern einfach ein mathematischer Formalismus, mit dem man statistisch beschreiben kann, was passiert, wenn man mit einem Haufen Teilchen irgendein Quantenexperiment durchführt. Die Physik und insbesondere die Quantenphysik haben nicht das Ziel oder die Möglichkeit zu erklären, warum die Welt so ist, wie sie ist, sondern nur, wie sie ist, d.h. unter welchen gegeben Voraussetzungen was auf welche Weise geschieht und was dabei herauskommt. Das ist der ganze Anspruch der Physik und mehr nicht. Im allgemeinen kann man größere Gesamtprozesse auf elementarere Einzelprozesse zurück führen, aber das ist es dann auch mit der Erklärungsmacht der Physik. Darüber ist sich jeder ernstzunehmende Physiker im Klaren.
Was das jetzt alles mit der DM zu tun hat, verstehe ich allerdings nicht. Hier wird doch auch nur versucht, Beobachtungen auf einen grundlegenderen Mechanismus zurück zu führen, der natürlich noch zu belegen ist, wonach man sich derzeit nach Kräften bemüht (auch wenn man die verantwortlichen Teilchen noch nicht gefunden hat, so hat man auch keinen ernst zu nehmenden Hinweis gefunden, dass es etwas anderes sein könnte). Aber mehr Beobachtungen erklären kann, als jeder andere bisher in Erwägung gezogene. Das ist eigentlich alles.
Das ist schön, wenn du es auch so siehst. Ich denke aber, dass es die meisten QFT und Teilchenphysik Fans/Physiker eben nicht so sehen.
Wenn sie von einem „Zerfall“ sprechen, dann meinen sie es auch so und denken auch so, als wäre es wie bei der Atomphysik so. Wenn sie von einem Quantensprung sprechen, dann sehen sie es nicht als eine Phänomenologie, sondern sehen es als ontologisch gegeben.
Man kann es auch bei Alexander öfters so heraus hören. Das führt unweigerlich zu einem Glauben an ontologische Erklärungen. Und das impliziert entsprechend auch dass wir es tatsächlich mit Teilchen zu tun haben.
Auch wenn jeder Physiker gelernt hat, was Feldtheorie bedeutet in seiner Wechselwirkung, so verharrt das Denken denoch in diesem alten Muster. Auch wenn der Physiker lernt, dass wir letztlich nur eine Wahrscheinlichkeitsberechnung als Statistische Messtheorie haben, so bleibt die Hoffnung, dass wir es mit realen Dingen zu tun haben und nicht mit Phänomenen, die mathematisch nur nicht anders beschrieben werden können nach der QFT.
Ich denke das sollte man gerade unseren InternetQT Physikern die sich in allen möglichen Physik foren immer herumtreiben und alles wissen und erklären für den Laien deutlich machen. Das ist nämlich das Problem, was heute dazu geführt hat, dass wir es mit lauter Pseudowissenschaftlichen Ideen zu tun haben. Und das eben selbst verschuldet von Physikern selbst. Auch mit Dr titeln!
Genau das führt nun auch zu dem Problem mit Higgs, DM, DE usw.
Komisch, und ich hätte gedacht, das Problem bestünde ich Leuten, die schlau daher quatschen und ihre Menschen mit pseudowissenschaftelen Sermon traktieren würden mit dem einzigen Ziel, hart arbeitende echte (!) Wissenschaftler zu diskreditieren.
Eigentlich fehlt jetzt nur noch diese ermüdende Standardanklage von den „Mainstream-Wissenschaftlern“, die schon auf der Uni von ihren Professoren einen Haufen Blödsinn eingetrichtet bekämen und danach nicht mehr fähig seien, auch nur einen klaren Gedanken zu fassen, gefolgt von der Aufforderung, wir Schafe sollten doch endlich aufwachen.
Dunning & Krüger, bitte übernehmen Sie!
Captain E.,
Klaro, jeder, der drei Physikvorlesungen genossen hat, wird davon derart ontologisch naivisiert, dass man mindestens fünf Standardabweichungen vom Mainstream erreichen muss, bevor Rüdiger dir wieder was glaubt. 🙂
@Rüdiger,
„Zum anderen hat Higgs einen Spin 0 und nicht 2. Das Graviton hat nach QFT Spin 2. Da hast Du dich wohl verhaspelt“
Ne, das passt schon, lies nochmal, was ich geschrieben habe – ich sage ja, Spin 2 ist für X(125) deshalb sehr unwahrscheinlich.
@StefanL
Die kannte ich bisher nicht. In dem zuoberst von Dir zitierten Wikipedia-Artikel steht zumindest drin:
Nach der Messung von Gravitationswellen an zwei verschiedenen Orten mit leichtem Laufzeitunterschied dürfte zumindest diese Theorie widerlegt sein. Inwieweit die späteren mit der ART kompatibel sind, kann ich nicht beurteilen.
Habe nicht behauptet, dass man andere Modelle getestet hat, aber man hat eben das etablierte Modell ausprobiert und es kam eine verblüffend realistische Simulation des beobachtetn Universums heraus. Wären die Annahmen grundfalsch, dann wäre so ein Ergebnis nicht zu erwarten. Es ist keine Falsifikation anderer Modelle, aber eine tolle Bestätigung des Lambda-CDM-Modells.
@Rüdiger Heescher #111
16 und 4 was? Zwerggalaxien? Den DM-Halo können wir nicht sehen, der hat auch nichts mit Zwerggalaxien zu tun (die eigene DM-Halos haben), sondern solche Halos können wir nur bei anderen Galaxien aufgrund ihrer Gravitationslinsenwirkung auf Hintergrundobjekte messen (z.B. hier, Fig. 4). Außerdem ergibt die Annahme einer kugelförmigen Massenverteilung unserer scheibenförmigen Milchstraße das beobachtete Rotationsprofil über den Radius.
Wir können nur die radiale Komponente anhand der Rotverschiebung (bzw. ihrer Differenzen innerhalb eines Clusters) messen, aber diese sehr genau, und wenn man über einen großen Galaxienhaufen mittelt, bekommt man eine sehr genaue Idee über die Geschwindigkeiten, mit der die Galaxien da durch den Raum unterwegs sind.
Nur die kosmologische Komponente, die die Gesamt-Rotverschiebung in Beziehung zur Entfernung setzt, weil die unabhängige Messung der Entfernung sehr kompliziert ist. Das betrifft aber überhaupt nicht die Differenzen der Rotverschiebung von Galaxien innerhalb eines Clusters, die alle ungefähr gleich weit von uns entfernt sind. Diese Entfernung braucht man nicht zu kennen.
Aus welchem Grund? Natürlich sind wir seit Hipparcos und Hubble genauer, weil die Standardkerzen neu kalibriert werden konnten, insbesondere Supernovae vom Typ Ia (was nur aufgrund der Reichweite von Hubble gelang, welches per Cepheiden die Entfernung von Galaxien mehrere 10 Mio Lichtjahre erlaubte; die Cepheiden wiederum hat Hipparcos druch Triangulation von nahen Vertetern in der Milchstraße kalibriert). Wir sind bei der Entfernungsmessung im einstelligen Prozentbereich, während wir in den 80ern noch einen Unsicherheitsfaktor 2 in den kosmologischen Entfernungen hatten.
Du verlässt Dich dabei auf irgendein Bauchgefühl (s.o.). Das ist dann aber keine sachliche Kritik. Meinetwegen erscheinen Dir 3,8 Sigma zu ungenau und die Higgs-Veröffentlichung verfrüht, aber Du redest so, als ob es um 1 Sigma ginge und man überhaupt nichts wissen könne. Und vermengst viele verschiedene Dinge (DM, SuSy, Higgs) die erstmal nicht miteinander zu tun haben brauchen. Wir reden hier über die vorderste Front der Forschung. Natürlich gibt es da Unsicherheiten, aber nur weil eine SuSy-Theorie noch nicht belegt wurde muss ein Higgs deswegen noch nicht verfrüht gemeldet und die DM noch nicht vom Tisch sein. Die drei haben ganze verschiedene Konfidenz-Level und bestehen unabhängig voneinander aufgrund eigenständiger Beobachtungen.
@Alderamin
Ich kann auch nur das glauben, was irgendwelche Artikel über Daten veröffentlichen, die gemacht werden, von den Leuten, die diese Daten erheben und sie entsprechend interpretieren. Ich bin kein Astrophysiker und kann daher auch mich nur auf das verlassen, was Astrophysiker meinen gefunden oder eben nicht gefunden und gemssen zu haben.
Allerdings kann ich mir anschauen auf welcher Grundlage sie es getan haben. Ich gebe zu ich habe kein allzugrosses Interesse mich in irgend welche Datenrauschen hineinzusteigern ume s genau zu überprüfen. Was ich jedoch beachtlich fand war die Argumentation von den Israelis und Bonner, wie man jeweils Galaxien messen kann in ihrer Rotation und Masse/Gravitationswirkung. Ob man wirklich mit Kepler weit genug kommt, oder mit einer modifizierten Newtonmechanik. Ob es reicht oder eben nicht und welche Annahmen man berücksichtigen müsste. Im übrigen auch das gleiche bei der Berechnung von Clustern, wenn wir unsere Standardkerzen zugrunde legen, die uns einen Aufschluss über Entfernungen liefern. Auch das wurde schon relativiert. Es gibt also in diesem Bereich ziemlich viele „wenn, dann…“ und wenn die dann nicht mehr stimmen, muss man wieder neu anfangen.
Nun zum letzten Absatz:
Ich bin mit der theoretischen Physik sehr vertraut und habe da ein intuitives Gefühl entwickelt. Ist auch der eigentliche Bereich mit dem ich mich ausschliesslich beschäftige. Das war auch während der Studiums so und wird wohl so bleiben. Natürlich gibt es dieses Bauchgefühl dabei. Wer hat es nicht? Wer es leugnet, wäre ein Heuchler und wäre auch wohl nicht imstande überhaupt irgend welche Ableitungen zu basteln, die zu was neuem führen. Ohne dieses intuitive Gefühl geht gar nichts.
Was jetzt entscheidend ist bei diesem ganzen Komplex Dunkle Energie, dunkle Materie, Higgs und SUSY ist, dass es einer Denke folgt, die alles verbindet. Es gibt eine Grundannahme, der alles unterworfen ist bei allen 4 Bereichen, die einander bedingen. Man schliesst es kategorisch aus, dass jedes einzelne eine eigene andere Ursache hat, denn es stellen ja selbst in sich erklärungen dar, aber für ein Modell welches in sich konsistent sein soll vom Denken her.
Ohne SUSY können wir kein Higgs berechnen. Ohne Higgs keine Dunkle Energie, ohne SUSY keine dunkle Materie. Das gehört also alles im Denken dieses Standardmodells zusammen und soll dabei einer Theorie folgen: Der QFT.
Man wird sagen, dass man alle möglichen Alternativen testet. Aber wenn sie dann nicht den Daten mit ihren QFT theorien als Hintergrundtheorie folgen, dann sind sie falsifiziert. Denn die Messtheorie für die Daten ist in allen Annahmen erst einmal eine QFT. Darum geht es.
Weil das so ist, hatte auch Susskind Anfang der 0er Jahre für 3 Stringtheorien eine S Matrix gebastelt, die dann eine mögliche Übereinstimmung an Vorhersagen ermöglichen. Maldacena hatte dann eine noch bessere Idee und gleich ein AdS/CFT Vergleichbarkeit hergestellt, die dann sogar auch anerkannt wurde, obwohl es bei weitem nicht wirklich ausreicht. Aber immerhin. QFTler fingen an sich sogar mit dem Superspace zu beschäftigen und kamen in die Gefilde der Grassmann Geometrie. Alles schön und gut. Es gab viele Anregungen und auch sehr interessante Ansätze. Nur was kam dabei raus? Wir haben nun doch wieder eine völlig QFT lastige Standardmodell Beschreibung. Mathematisch passt eigentlich nichts zusammen und man kann auch keine wirklichen exakten Daten erhalten. Die liegen bei allem weit daneben. Trotzdem hält man daran fest. Warum? Weil man es so gelernt hat und die übliche Denke ist.
Wie gesagt ich bin auch Philosoph und Philosophie beschäftigt sich mit dem Denken des Menschen. Was daher auffällt ist also der Philosoph in mir, der aufschreit bei soviel Ignoranz und Beharrlichkeit im Denken.
Man stelle sich vor, wie leben in Keplers Zeit und er sagt er kann es einfacher beschreiben. Die Ptolomäer sagen aber, wir haben so ein wunderbares Modell, was funktioniert, auch wenn wir ein paar Absweichungen haben und es ein oder zwei Phänomene gibt, die nicht zu erklären sind nach unserem Modell, so funktioniert es gut. Wir brauchen also nicht eine völlig neue Denke. Es ist zwar immer komplizierter geworden, aber es tut’s.
Kepler sagt dann: OK aber ihr könnt euch doch mal genau nachschauen, ob meine BErechnungen nicht genauer sind und ein paar ungeklärte Phänomene erklären kann.
Darauf sagen dann die Ptolomäer: Das machen wir, aber trotzdem stört es uns, dass du unser Weltbild zerstören willst. Was machen denn dann alle Physiker unserer Generation? Sollen die dann Astologie machen? Die Zeit ist noch nicht reif dafür.
Kleine Polemik und Überspitzung. Aber so läuft es zur Zeit. Nicht so sehr bei uns in Deutschland, aber in den USA gewaltig.
Wir dürfen auch nicht ausser Acht lassen, dass vieles vom LHC abhängt. Das ist unsere Weltmaschine, die mehr oder weniger unsere Physiker generiert, die mal was zu sagen haben werden. Deswegen will ja auch jeder hin. Und wenn es nur um ein Praktikum geht um dann die lästigen Spinberechnungen für einen Prof rechnen zu dürfen, aber sonst von tuten und blasen keine Ahnung hat. So läuft es doch in der Realität.
Ich kann nur hoffen, wenn die Chinesen ihren Superringbeschleuniger gebaut haben, dass dort dann eine neue andere Generation von Physiker entsteht.
@Rüdiger Heescher
Zum ersten Teil: es sind immer dieselben paar Wissenschaftler, die behaupten, es gebe keine DM. Es gibt auch ein paar, die behaupten, es gebe keinen Klimawandel oder die kalte Fusion funktionierte und ließe sich wirtschaftlich ausnutzen. Ich halte mich in allen Fällen eher an die Mehrheitsmeinung. Wenn die betreffenden Abweichler gute Argumente hätten, dann würden sie damit auch Gehör finden. Tatsächlich wurden und werden alternative Theorien geprüft und abgehakt, was ihre Verfechter manchmal nicht anerkennen wollen, und die machen dann weiter. Ist menschlich.
Zum zweiten Teil:
Das stimmt doch alles überhaupt nicht. Das Higgs ist Bestandteil des Standardmodells. In der SuSy gibt es hingegen gleich mehrere Higgs-Teilchen. Die Ursache der Dunklen Energie ist völlig offen und keine Rechnung mit oder ohne Higgs hat bisher eine Ursache bestimmen können, die nicht um den Faktor 10^120 neben dem beobachteten Effekt lag. Und bei der DM ist ebenfalls unklar, woraus sie besteht. Axionen und sterile Neutrinos wurden vorgeschlagen und das sind keine SuSy-Teilchen.
Es sind nicht die Wissenschaftler, die das alles vermengen, sondern Du.
Das ist Unfug. Alle (wissenschaftliche) Welt sucht nach Effekten, die mit von den bisherigen Modellen nicht vorhergesagt werden, denn nur so kann man was neues lernen (siehe Dunkle Energie, die hatte niemand auf dem Radar, man wollte die Verlangsamung der Expansion messen). Natürlich schmeißt man etablierte Modelle wegen einer einzelnen Beobachtung nicht gleich über den Haufen, und das, was von den etablierten Modellen korrekt vorhergesagt wurde, wird ja auch nicht falsch, nur weil man einen neuen Fall gefunden hat, den das Modell nicht beschreibt. Und gerade die QFT gilt als diejenige, die die genauesten Vorhersagen in der Physik überhaupt macht (sagte Feynman). Es bedarf schon einer gut gesicherten und mehrfach nachgeprüften Beobachtung, dieses Modell in Frage zu stellen.
Aber wenn jetzt etwa ein neues Teilchen gefunden wird, das nicht ins Standardmodell passt, und auch nicht in SuSy, dann wird da niemand drüber heulen, im Gegenteil, das wird gefeiert werden. Endlich wieder was gelernt, endlich wieder was zum Tüfteln, neue Veröffentlichungen, neue Nobelpreise, neuer Ruhm. Wer sollte denn ein Interesse haben, an alten Modellen festzuhalten? Die bringen niemandem Ruhm. Das wäre schon aus Sicht der Forschung betreibenden völlig widersinnig.
Wenn Du das anders wahrnimmst, dann kann das eigentlich nur aus einer Perspektive des Nichtwissens so erscheinen. Während die Experten längst erkennen, welche Hypothese schon abgehakt ist (und sie kein totes Pferd reiten wollen, das sie definitiv nicht nach Stockholm trägt), mag sie den Unkundigen noch begeistern. Den Experten aus dieser Perspektive dann Borniertheit vorzuwerfen, ist ein wenig anmaßend.
Man braucht halt immer noch keine SUSY für Dunkle Materie, oder für das Higgs, da kann er die Luft anhalten und auf den Boden stampfen so lange er will. Ich weiß auch garnicht wo diese Vorstellung herkommt, hat irgend jemand von den üblichen Verdächtigen mal sowas in einer Fernsehdoku oder nem Buch behauptet?
Zumindest wird SUSY immer mal wieder erwähnt, wenn es um Kandidaten für die Dunkle Materie geht. Offensichtlich wird aus „SUSY könnte die Kandidaten liefern“ bei manchen Leuten ganz schnell „SUSY ist die einzig mögliche Quelle für Dunkle Materie“. Und das geisterhafte Higgs-Teilchen kommt dann direkt in Sippenhaft mi der DM. Wahrscheinlich geht da die Überlegung in etwa so: Der LHC sucht nach Higgs-Bosonen und hat angeblich mal eines gefunden; der LHC sucht nach DM ==> Higgs ist DM.
@Alexander Knochel
Z.Bsp. auch Fehlinterpretation bspw. von https://www.researchgate.net/publication/261475321_Heavy_gravitino_and_split_SUSY_in_the_light_of_BICEP2
Schon im Abstract:
A SUSY scale above the weak scale could be naturally associated with a heavy unstable gravitino, whose decays populate the dark matter (DM) particles.
Und einer der üblichen Verdächtigen etwa ab Minute 12:00
@StefanL,
Oh, tatsächlich, was Lesch da sagt, ist sehr irreführend! Hier schießt er einen ähnlichen Bock (12:30)
https://www.youtube.com/watch?v=9uUAKspG6vU
In dem Paper-Abstract wurde wohl einfach an Konjunktiven gespart – das „could“ bezieht sich notwendigerweise noch auf alles Folgende. Ich denke, hier tappt man in die Slang-Falle – jeder, der auf dem Gebiet arbeitet, weiß, dass es ein hypothetisches Szenario unter vielen gemeint ist, aber man könnte es missverstehen.
Nachdem ich diesen Thread durchgelesen habe, bin ich davon überzeugt dass „Rüdiger Heescher“ ein Bot mit Physik-Datenbank und einem erfahrenen Esoteriker (Stichwort sofortiges Aus- bzw. Abweichen & Thema wechseln bei Gefahr) als Operator ist.
@Rüdiger Heescher
Was das Thema Simulationen betrifft, da konnte man Illustris noch vorwerfen, dass sie zu viele Zwerggalaxien produziert. Das „Missing Dwarf Galaxies“ Problem galt in letzter Zeit als größtes Problem des ΛCDM-Modells (Λ=Dunkle Energie, CDM = cold dark matter). Eine neue Simulation (FIRE) mit besserer räumlicher und zeitlicher Auflösung hat dies nun offenbar gelöst: in Zwerggalaxien reicht der Wind junger Sterne und Supernovae, die Materie sehr effektive aus diesen herauszublasen, so dass sie nicht wachsen. Nur große Galaxien haben von Anfang an genug Schwerkraft, dass sie „too big to fail“ sind. Das alles funktioniert also wunderbar und sagt die beobachteten Galaxienhäufigkeiten und -formen voraus. So verkehrt kann das ΛCDM-Modell also nicht sein.
@Alderamin
Ist halt ein ständiges Austarrieren von Parametern in Modellen, die man in Simulationen ausprobiert.
Was aber nun wirklich der Realität entspricht, kann man nur spekulieren.
Morgen gibt es wieder neue empirische Erkenntnisse, die wieder neue Parameter erzeugen und wieder neue Simulationen gemacht werden.
Es gibt auch völlig andere Modelle und mathematische Vorgehensweisen, die dann in Simulationen wieder andere Vorstellungen entwickeln können.
Erst letztes Jahr wurde noch ein Bohmsches Modell vorgestellt, welches Geodäsien ersetzt hat aus der ART durch Trajektorien von Bohms Pilotstrahlen. Mathematisch hat es etwas völlig neues hervorgebracht, was dem völlig widerspricht, was wir jetzt glauben zu wissen. Letztlich ein Universum ohne Anfang und Ende, was sich ausdenht, aber quasi statisch ist. Auch das Problem mit der Erklärung von dunkler Materie und dunkler Energie wurde eleganter gelöst mit Axionen und Gravitonen. Ich sage eleganter, weil ich glaube, dass wenn man schon Quantenmechanisch versucht dem auf die Spur zu kommen, dann eine Reduzierung auf das wesentliche mit Gravitonen und Axionen wie Delatonen und Photonen wohl der eigentliche Schlüssel sein wird.
Ist aber auch nur meine Spekulationen aus meine Stringy Denke.
Eigentlich hoffe ich eher dem ganzen rein geometrisch auf die Spur zu kommen. Quantengravitation halte ich nicht mehr für den eigentlichen Schlüssel. Eine rein geometrische Theorie wäre die Vollendung.
Hier ganz aktuell vom 16.6.2016
Wir haben es nunmal auch bei der logisch empirischen Forschung im Bereich der Teilchenphysik mit statistischen Ausreissern zu tun, denen man als Phantomen hinterherhechelt.
Das liegt nunmal in der Mathematik der Quantenmechanik begründet. DIe Enttäuschung ist dann wieder umso grösser, wenn 100 neue Papers veröffentlicht werden und ein Hype drum gemacht wurde.
https://atlas.cern/updates/physics-briefing/something-went-bump-night
Dass der Diboson-Überschuss wohl nix war wissen wir doch schon seit letztes Jahr …
@Rüdiger Heescher
Nein, es wurde lediglich die Auflösung erhöht und der Effekt von Sternenwinden und Supernovae mit berücksichtigt. Diese sorgen dafür, dass etwa 1000-mal mehr Material aus kleinen Galaxien entweichen kann und das löste das Missing Dwarf Galaxies Problem. Eine Simulation muss immter gewisse Vereinfachungen machen, man kann nicht jedes einzelne Kernteilchen simulieren. Aber auf einer gewissen Detailebene ist die Genauigkeit dann groß genug, um das Gesamtbild korrekt wiederzugeben.
Nein, eine Simulation, die das beobachtete korrekt beschreibt, ist eine gute Beschreibung der Realität und eine Bestätigung der in sie eingehenden Annahmen und Gesetzmäßigkeiten. Heute werden routinemäßig Simulationen des Luftwiderstands oder der bei Unfällen auftretenden Verformung von Autokarosserien durchgeführt, die Windkanäle bzw. Crashversuche weitgehend unnötig machen.
Oder bei der Wettervorhersage, wo die Atmosphäre in Würfel mit mehreren hundert Metern Kantenlänge zerlegt wird und deren Entwicklung berechnet wird. Je kleiner die Würfel, desto besser die Vorhersage. Wobei das Wetter im Unterschied zur Galaxienentwicklung chaotisch ist und man nicht für jeden Würfel alle Messdaten zur Verfügung hat.
Bei der Modellierung der Galaxienentwicklung geht es außerdem nicht darum, genau unsere Nachbargalaxien zu reproduzieren, sondern nur eine räumliche und morphologische Verteilung von Galaxien, die so aussieht, wie irgendein Ausschnitt unseres Universums.
Die empirischen Ergebnisse der letzten Jahrzehnte konvergierten alle auf den selben Parametersatz. Einzig die letzten Messungen des Hubble-Parameters in der Frühzeit des Universums durch den Satelliten PLANCK zeigt eine Abweichung von den Werten, die im lokalen Universum für die heutige Zeit gewonnen wurden. Im Augenblick versucht man, die Gesetzmäßigkeiten von Gammabursts zu verstehen, um aus ihrer Dauer und ihrem Verlauf auf ihre Helligkeit schließen zu können. Damit erhielte man Standardkerzen, die Entfernungen im gesamten beobachtbaren Universum messen ließen und somit eine Kalibrierung der entfernungsabhängigen Rotverschiebung bis in die Frühzeit des Universums erlauben würden. Damit dürfte sich dann klären lassen, wie die PLANCK-Werte sich mit den Werten des Hubble-Parameters im heutigen Universum in Übereinstimmung bringen lassen.
Dann sollen sie das in einer Simulation tun und nachweisen. Mir ist keine solche bekannt. Dir?
DU?? Vielleicht liest man ja mal was von Dir. Sag‘ mal Bescheid, wenn Du ein Paper in Nature veröffentlichst. Viel Glück dabei.
@Alderamin
Wie ich oben schon sagte, kenne ich mich mit Computersimulationen nicht aus. Ist für mich auch nicht wesentlich. Es sind Simulationen zur Veranschauung, wie ich es im Studium erlebt habe. Ich will es nicht herabwürdigen, aber letztlich weiss nur der Programmierer selbst, was dahinter wirklich steckt. Ich habs erlebt damals bei der KI wie man letztlich auch nur Simulationen gemacht hat, was einem etwas vorgegaukelt hat. Ich bin daher mehr als skeptisch. Simulationen sind daher schön zur Präsentation, aber ob sie wirklich wissenschaftlich hilfreich sind bezweifle ich.
Ich bevorzuge dann eher Künstler wie Escher und Co.
Zu dem alternativen Modell nach Bohm’scher Physik siehe hier
https://arxiv.org/abs/1404.3093v3
https://arxiv.org/abs/1411.0753v3
Ist jetzt nicht so, dass ich das jetzt als DIE Alternative sehe, aber ist mathematisch interessant.
Zur rein geometrischen Theorie:
Ich habe keine. Wenn ich sie hätte, dann gäbe es eine Veröffentlichung. Ich masse mir auch nicht an, dass ich das hinbekomme. Ich lerne immer noch die Mathematik von P und M Branes aus Superstring und M Theorie und will erstmal nur Ed Witten überhaupt folgen können, bis sich mal was intuitiv entwickelt. Ich denke aber, (auch nur Bauchgefühl), dass Ed Witten da schon ziemlich was auf der Spur ist.
Ob eine Zeitdimension reichen wird, ist dann auch noch die Frage, um es weiter in den n Dimensionen zu beschränken. Es wäre manches vieleicht einfacher, wenn wir 2 Zeitdimensionen mit tau hätten.
Ist aber auch nur mein jetziger Stand. Ich kann morgen genauso genau das Gegenteil behaupten.
@Rüdiger Heescher
Du kennst Dich wirklich nicht mit Simulationen aus. Das sind keine Animationen. Im Prinzip werden da die Gleichungen der Theorie durchgerechnet, in kleinen Raum- und Zeitschritten. Wenn man z.B. die Bewegung der Sterne bei Galaxienkollisionen berechnen will, dann muss man die Summenkraft eines jeden Sterns auf jeden einzelnen Stern bestimmen und dann die Wirkung der Kraft auf die momentane Bewegung ausrechnen, um zu bestimmen, wo sich der Stern im nächsten Zeitintervall befindet und wohin er sich bewegt. Das hat mal gar nichts mit simulierter KI zu tun, sonst würde man damit kein Wetter vorhersagen, Crashtests oder Atombombenexplosionen virtuell durchführen (tun die Amerikaner, seit sie nicht mehr testen dürfen). Bei Millionen von simulierten Sternen sind das schnell mal potenziell Billionen von Gleichungen, die man durch Zusammenfassung der ferneren Sterne zu Blöcken zu reduzieren versucht, das ist die Kunst bei der Simulation.
Mit leeren Händen der etablierten Wissenschaft vorzuwerfen, dass sie die falschen Theorien verfolge und die falschen Mittel (wie Simulation) einsetze, ist schon ein wenig frech, oder?
@Rüdiger:
An dieser Stelle hättest Du besser aufhören sollen, etwas zu beurteilen, mit dem Du Dich nicht auskennst.
Das kannst Du sicherlich, aber muss das unbedingt hier sein? 😉
Da Du relativ wenig Ahnung von dem ganzen Krempel hast, stell doch einfach Fragen. Hier in Florians Blog tummeln sich viele Fachleute, die gerne Antworten geben.
@Heescher
und…
Also im Grunde der Vorwurf, der besonders gern aus esoterischen Zirkeln zu kommen pflegt (und zur Unterfütterung ihrer eigenen abstrusen Hirnblähungen dient): „Die Wissenschaft behauptet heute dieses und morgen jenes, deswegen kann man ihr sowieso nicht trauen.“
Schon peinlich, wenn man dergleichen von jemandem hören muss, der sich kurz zuvor noch als der große Wissenschaftstheoretiker aufgespielt hat.
@Alderamin
Dein Vertrauen in Modell Simulationen scheint gross zu sein. Bist du selbst dabei involviert?
Dein Vertrauen in aproximativen Modellen, die gleich das ganze Universum erklären sollen, scheint eine Vorliebe von dir zu sein.
Der Vorwurf von leeren Händen ist nicht wissenschaftlich. Es gab Zeiten, wo man noch glaubte, dass man in der Wissenschaft die richtigen Fragen stellen musste, um weiter zu kommen. Das scheint heute wohl einer ökonomschen Sicht gewichen zu sein, wo man gleich ganze Alternativtheorien aufbieten muss, damit du es gleich als Simulation „testen“ kannst. Scheint ein Prinzip zu sein, was eine Computergeneration verinnerlicht hat.
Würdest du diesen Vorwurf auch bei Smolin machen?
Wenn ich aus wissenschafttheoretischer Sicht kritische Fragen stelle und auch beurteile, wie man weiter kommen könnte in der ganzen Framework Denke, dann ist das als ein Prozess zu verstehen. Damit gibt es keine Patentrezepte der „Verwertung“. Gerade in der theoretischen Physik ist es reinste Grundlagenforschung an der Theorie ansich.
@Krypto
In einem Blog wie diesem, wo es sicherlich viele Physiker gibt, wird man keine Antworten auf Fragen erhalten, von Leuten, die gerade mal eher nur sich dazu berufen fühlen das gänge Standardmodell mit winzigen Abweichungen zu vermitteln.
Um das gängige Standardmodell erklärt zu bekommen, muss ich keinen fragen. Da kann ich selbst eine Vorlesung drüber halten.
Wissenschaft funktioniert nicht nach Vorlesungsart und es gibt auch keinen, der weiss, was richtig ist, den man fragen kann.
In der Wissenschaft ist es ein Prozess des Fragens nach neuen Antworten und nicht nach Antworten, die zur Zeit mainstream sind.
Da verwechselst du was mit Vorlesungen deines Profs.
Meine Eingangs geäusserte Kritik wendete sich an Florian, die lediglich davor gewarnt hatte, dass man nicht gleich wieder dunkle Materie, dunkle sonstwas und was damit zusammen hängt in Verbindung bringen sollte. Das ist eher reisserisch und stellt so letztlich Wissenschaft als ganzes in ein esoterisches Licht. Sowas sollte nicht mehr gemacht haben.
Die ganze Skalartensormathematik ansich ist ein Feld, was ziemlich klasse ist, woran ja selbst Einstein und Schrödinger zuletzt schon gebastelt haben, aber auch verführerisch. Wir dürfen jetzt nicht in die gleiche Esoterik abrutschen, indem man an altem Quantenmechanischen S Matrix Denken verhaftet bleibt und es weiter perpetuiert.
Das ist eigentlich meine ursprüngliche Kritik gewesen. Mehr wollte ich gar nicht sagen. Der Diskussionsverlauf hat aber gezeigt, dass man letztlich nur in diesem Denken verhaftet bleiben will, weil es „anscheinend“ keine Alternative dazu in Sicht gibt.
Ich habe daraufhin lediglich aufgezeigt, dass es eben durchaus Möglichkeiten gibt es auch ganz anders zu sehen. Die Entgegenungen mit approximativen Modellen einer Computersimulation sind dann eine weitere Stufe gewesen des unverständnisses darüber, dass man eben nicht mit Parameterschieben an das grundsätzliche Problem heran kommt. Wir haben in der Quantenmechanik solch ein Denken zu genüge exerziert. Wir haben Eichtheorien, Renormalisierungen usw, die unsere ingenieursmesstheorie ständig versuchen zu verbessern.
Was wir brauchen ist jetzt aber keine weitere Ingenieursdenke mehr in der theoretischen Physik.
Das war letztlich alles, worum es ging.
Ich hoffe @Krypto, du konntest dem folgen, was überhaupt gemeint war.
Dein Problem ist aber, dass du die wissenschaftliche Vorgehensweise in der modernen Physik zutiefst ablehnst und dann nach vermeintlich wissenschaftlichen Gründen suchst, warum du mit deiner Kritik recht haben müsstest. Dass du dich damit auf extrem dünnes Eis begibst, ist dir leider trotz intensiven Hinweisen hier im Blog bislang nicht klar geworden.
@Rüdiger Heescher
Nein, aber ich habe eine Idee, wie so was funktioniert. Im Prinzip ist eine solche Simulation nichts anderes, als eine Approximationsrechnung eines nicht in geschlossener Form lösbaren Gleichungssystems. Nimm‘ etwa das Zweikörperproblem, damit kannst Du „zu Fuß“ grob die Position eines Planeten ausrechnen (Kepler-Gesetze). Wenn Du es genauer willst, musst Du ein n-Körperproblem lösen (Einflüsse anderer Planeten), und das geht nur approximativ. Wahlweise mit Störungsrechnung (so ging’s früher, als man von Hand rechnete) oder simulativ. Mit solchen Simulation rechnen Astronomen aus, ob uns ein neu entdeckter erdnaher Asteroid trifft oder nicht. Oder eine Raumsonde auf dem richtigen Kurs ist. Warum sollte ich darin kein Vertrauen haben? Funktioniert doch offenbar.
Bei den Simulationen der Entwicklung des Universums wird dann noch der Effekt von Dunkler Materie (als nicht zu Sternen kollabierendes Gas) und Dunkler Energie (als kosmologische Konstante) berücksichtigt, sowie die Entstehung von Sternen, ihre Winde und deren Wirkung auf baryonisches Gas. Wenn man diese Simulation mit den anderweitig gemessenen kosmologischen Parametern füttert, die bekannten Naturgesetze simuliert und nach ein paar simulierten Milliarden Jahren kommt etwas heraus, was genau so ausieht, wie unser heutiges Universum, dann ist das ein starker Beleg dafür, dass man das Wesentliche verstanden und richtig gemacht hat. Wenn irgendwas fehlt, dann muss da ein anderes Ergebnis herauskommen, denn die Zusammenhänge sind komplex. Bei Illustris kamen zu viele kleine Galaxien heraus, alles andere war so weit ok. Bei FIRE wurde der Effekt der Sternenwinde mit berücksichtigt, und siehe da, die Zahl der kleinen Galaxien kommt auch hin.
Das ist auch immer noch so. Die Fragen erfolgen in der Art: „Es wurde xy beobachtet, kann man dies auf der Basis des Bekannten erklären? Und falls nicht, gibt es eine alternative Erklärung oder eine mögliche Modifikation des Bekannten? Und erklärt die alternative Erklärung alle anderen Beboachtungen mindestens ebenso gut?“
Natürlich muss man eine komplette Alternativtheorie aufbieten, man will es ja mit einem etablierten und zigfach belegte Theoriengebäude aufnehmen. Nur weil man vielleicht mal einen schiefen Stein gefunden hat, bricht dieses nicht gleich zusammen. Weder die Entdeckung einer zweiten Cepheiden-Art, die mal eben die Entferungsskala im Universum um den Faktor 2 vergrößerte, noch die Endeckung der Dunklen Energie brachten das Urknallmodell in Schwierigkeiten, das Gegenteil war der Fall, das resultierende Weltalter passte immer besser zum Alter der ältesten Sterne (wie bestimmt man das Alter von Sternen? Das geht auch nur per Näherungsrechnung der Sternentwicklung, heutzutage per Simulation).
Computer sind nichts anderes als Werkzeuge, die wir heute nutzen können und die uns Berechnungen ermöglichen, die früher an ihrem Aufwand gescheitert werden. Das ist keine Hexerei, es sind die gleichen Formeln, die man früher zu Fuß ausrechnete. Heute geht’s halt viel genauer, schneller und größer. Zur Falsifikation einer Theorie braucht man nicht unbedingt eine Simulation, es reicht eine widersprechende Beobachtung, aber wenn man sie anderweitig nicht falsifizieren kann, dann muss sie auch in einer Simulation bestehen können. Das ist der ultimative Lackmus-Test, den die etablierte Theorie schon bestanden hat.
Kommt drauf an, zu welchem Thema. Der hat so viel gemacht.
Dieser Kommentarthread bleibt ein Quell des Erstaunens. Aber nicht der schönen Art…
Ja, mich beschleicht auch ein ungutes Gefühl, wenn Kommentatoren behaupten, diese und jene Werkzeuge seien nicht geeignet, ein Ergebnis zu liefern, um gleich darauf unverblümt rauszuhauen, daß sie diese Werkzeuge nicht wirklich kennen.
Wer Simulationen als computergestützte Numerik ablehnt, lehnt also schon einmal ein Teilgebiet der Mathematik ab. Gut, dann kann man natürlich machen – manche Promis sonnen sich geradezu im Schein ihrer Inkompetenz. Allerdings sollte man dann wirklich nicht behaupten, der große Checker oder so zu sein.
@Alexander:
„Quell des Erstaunens“…der war gut.
Ich fand es ne Weile witzig, gegen die Dunning-Kruger-Windmühle zu reden, aber mittlerweile ist es langweilig geworden.
Da bewundere ich Deine Engelsgeduld, Alderamin 😉
@Alderamin
Dann ist es doch noch schlimmer als ich dachte. Wenn man nun sogar schon Computersimulationen als Lackmusstest zur Falsifikation betrachtet, dann ist es kein Wunder, dass wir heute nicht vorankommen.
@Alderamin
ergänzung. Zu schnell weggeklickt
Ich sehe du vertraust also dem, was man dem Computer einfüttert und erhält dann etwas was wir heute scheinbar beobachten.
Ich kann dir aus eigener Erfahrung sagen:
Vertraue nicht dem Computer sondern du kannst nur dem Programmierer vertrauen.
Als Hintergrund dazu: In den 80ern selbst Pascal und Turbopascal in der Oberstufe Informatik gelernt, Accessories für Atarie gebaut, Anfang der 90er und 1997 offizieller Developer für BeOS und habe API Anpassungen gemacht. Alles nebenher im Studium. Für mein eigenes Pendelmodell eine Simulation gebaut, welches aus 16 gekoppelten Pendeln bestand und habe die Trajektorien dazu errechnet.
Ich bin daher nicht ganz unbeleckt, gerade was das angeht. Ich weiss natürlich nicht genau, was man heute für Parameter verwendet in den Simulationen und habe deshalb auch keine Ahnung.Ich habe dem immer skeptisch gegenüber gestanden, schon alleine weil ich bei meinem Pendelmodell gesehen habe welche Abweichungen entstehen können.
Für dich scheint es aber alles mehr eine positivistische Glaubensgeschichte zu sein nach dem Motto. „Sieht gut aus und kommt raus, was man erwartet. Dann muss es richtig sein.“
Ich hatte gehofft du würdest selbst solche Simulationen bauen. Schade.
@Rüdiger Heescher:
Man kann ein Computerprogramm so erstellen, dass es genau die Werte auswirft, die man haben will. Natürlich kann man das. Aber was um alles in der Welt bringt dich dazu zu glauben, die programmierenden Physiker würden so etwas tun?
Simulationen sind letztlich sehr weit durchgerechnete numerische Berechnungen, zudem logischerweise auch sehr komplexe. Die Numerik ist aber eine anerkannte und bewährte Disziplin in der Mathematik. Im Gegensatz zur Physik kann man in der Mathematik aber beweisen, dass eine Aussage stimmt. Wenn also mathematisch bewiesen ist, dass eine numerische Annäherung gegen einen Wert konvergiert, stellt sich für die Physik „nur noch“ die Frage, ob das Verfahren zu ihrem Problem passt und ob sie die Anfangsbedingungen bereits hinreichend genau kennt. Man kennt das ja von Wettersimulationen: Eine kleine Abweichung zu Beginn kann zu erheblich unterschiedlichen Wetterverläufen führen.
Aber auch die Chaostheorie, die sich mit solchen Problemen beschäftigt, ist ein recht gut erforschtes Teilgebiet der Mathematik.
@CaptainE
Danke für die Aufklärung. Wie ich schrieb habe ich selbst ein Pendelmodell mit gekoppelten Pendeln gebaut, was reine nicht lineare Mathematik ist. Insofern erzählst du mir nichts neues. Deswegen bin ich auch skeptisch, vor allem was dann approximative Modelle sind.
Aber zu hier noch ein schmankerl zur anderen Diskussion. Gerade aktuell:
Kaku macht sich zum neuen Tipler und es wird wieder esoterik gestreut. Zum anderen wird die String feld theorie hier auch als Stingtheorie verkauft, was falsch ist, aber hört sich ja gleich an. Hier wieder ein Beleg, wie Physiker selbst und das heute noch, aus verzweiflung sich wieder zum Affen machen für Religioten und unbedarfte, weil schon jetzt klar ist, dass im August wohl nix bei raus kommt.
https://cnsnews.com/news/article/barbara-hollingsworth/string-theory-co-founder-sub-atomic-particles-are-evidence-0#.V2WKMayt3Ts.facebook
@Heescher
Sie führen tatsächlich Kakus religiöse Hirngespinste als Beleg dafür an, dass die heutige Teilchenphysik nur ein „mathematischer Taschenspielertrick“ sei? Und Computersimulationen als Ganzes seien zweifelhaft, weil Sie in der Steinzeit mal ein 16fach gekoppeltes Pendel simuliert haben und Ihr Programm damals nicht funktioniert hat?
Ich muss gestehen, dass ich zu Ihrer Art zu argumentieren keinen Zugang finde. Aber so überhaupt nicht.
@Rüdiger Heescher
Nicht scheinbar. Nicht einmal anscheinend. Sondern tatsächlich. Sieh‘ Dir die Bilder an.
Und, kam nicht raus, was rauskommen sollte? Meinst Du, Experten in numerischer Mathematik machen die gleichen Fehler wie Anfänger? Donald E. Knuth gelesen?
Natürlich gibt es ein gewisses Chaos im Mehrkörperproblem. Es ist sehr schwierig, über lange Zeit exakt vorauszuberechnen, wie sich eine Menge Körper unter gegenseitiger Schwerkraft bewegen. Ein gekoppeltes Pendel ist ebenfalls chaotisch und im wahrsten Sinne des Wortes unberechenbar. Oder die Entwicklung des Wetters für die nächsten 2 Wochen.
Aber was man berechnen kann, ist ein möglicher Ablauf. So hat man z.B. mal simuliert, dass es möglich wäre, dass der Planet Merkur unter dem Einfluss der anderen Planeten seine Bahn irgendwann einmal so weit ändert, dass er mit der Venus oder gar der Erde kollidiert. Bei Variation der Anfangsbedingungen konnte das in einigen Simulationen passieren. Ob es jemals wirklich passiert, kann niemand sagen, man kann nur eine Wahrscheinlichkeit dafür angeben.
So eine Simulation wie FIRE oder Illustris versucht aber keine Vorhersage für das konkrete Aussehen unserer Milchstraße oder der Lokalen Gruppe in zig Milliarden Jahren zu machen, sondern lediglich, einen möglichen Ablauf für einen Teilausschnitt des Universums zu simulieren, ausgehend von den Annahmen über die Verteilung und Dichte von baryonischer und Dunkler Materie, die man anderweitig bestimmt hat. Im echten Universum gab es Milliarden von möglichen Abläufen, wie Galaxien sich gebildet haben, und im Großen kam ein bestimmter Mix aus verschiedenen Galaxienformen und -größen heraus. Genau so einen Mix kann man auch in der Simulation reproduzieren. Da wird man zwar nirgends genau eine bestimmte, bekannte Galaxie wiederfinden, aber die Größenverteilung und die typischen Formen, die man im All beobachtet, findet man durchaus, siehe das Bild unten im verlinkten Artikel. Und wenn man die Verteilung korrekt reproduzieren kann, hat man den Prozess insgesamt verstanden (genau so, wie man die Prozesse verstanden hat, die das Wetter hervorbringen, auch wenn man es nicht exakt für längere Zeit vorhersagen kann.
Was man auch korrekt reproduziert hat, ist die Verteilung der Dunklen Materie um die Galaxien herum, was in den Modellen vorher (blaue Linie) noch nicht gelungen war.
Das ist nicht alles Zufall und schon gar keine gezielte Programmieruing zur Erreichung eines bestimmten Ergebnisses. Die Leute, die so was machen, sind weder Idioten noch Betrüger. Das ist einfach mal ein Triumph des Lambda-CDM-Modells und der Modelle, die wir über die Sternentwicklung haben.
Ich bin promovierter Informatiker und beschäftige mich beruflich mit Mobilfunk und Wellenausbreitung, das ist ein anderes Thema. Wir simulieren auch, aber kein Gravitationsgesetz und keine Sterne. Was ich persönlich tue, schmälert in keinster Weise die Arbeit der Astrophysiker, die entsprechende Simulationen durchführen. Und da ich weiß, wie der Wissenschaftsbetrieb funktioniert und selbst schon wissenschaftlich gearbeitet habe, weiß ich auch um die Kontrollmechanismen und dass unsinnige Behauptungen, Betrug oder Dummheit in der Wissenschaft vorkommen, aber nicht lange Bestand haben. Daher mein Vertrauen in die Ergebnisse. Skepsis habe ich eher gegenüber Einzelkämpfern auf verlorenem Posten, ob Profis oder (erst recht) Laien.
Ich kenne jemand, der ist unglaublich skeptisch gegenüber allem, was in den Medien zu lesen ist. Aber er glaubt jeden Mist, den er auf Facebook oder Youtube hört, und der seine Weltanschauung bestätigt. Das ist keine Skepsis, sondern das Confirmation Bias. Tappe nicht in diese Falle.
@Spritkopf
Auch in der Computersteinzeit, wie sie es nennen, hat man die gleiche Mathematik angewendet wie heute. Ob heute Computer schneller sind und ob ich eine andere Computersprache benutze spiel keine Rolle. Das Prinzip bleibt das gleiche.Ob in den 90ern oder heute.
@Alderamin
Es geht nicht um Betrug, sondern um Approximationen in nicht-linearen Systemen und da kann man wirklich alles oder nix heraus entwickeln.
Und wie du nun sogar geschrieben hast, dass es ein Lackmus Test zur Falsifikation sei, dann ist es einfach nur ein positivistischer Glaube in etwas, was für mich wie reine Autosuggestion klingt.
Das ist Ingenieursdenke und hat mit theoretischer Physik nichts zu tun.
Ich weiss, dass man gerne auf ergebnisse in Datenübereinstimmung zielt, wenn man mit dem rudimentären Handwerkszeug der Mathematik, was sich in Simulationen erzeugen lässt, dann gerne darauf verweisen will.
In der theoretischen Physik geht es aber um mehr. Man muss die Mathematik in den Griff bekommen und verstehen, die uns zu einem Bild verhilft, was erklärt und nicht simuliert.
Ich hatte oben schon einmal das Thema P_M Branes angesprochen und meiner Hoffnung, dass wir zu einer reinen geometrischen Theorie kommen können und dass Ed Witten dem wohl auf der Spur ist (mein Bauchgefühl).
Wir haben mit der Gromov-Witten Invarianz z.B. ein solches mathematisches Modell. Es könnte die 3. Revolution in der Stringtheorie einleiten. Das wird uns aber nicht helfen in Computersimulationen. Es gibt wohl kaum einen Programmierer, der überhaupt weiss wovon dort gesprochen wird. Ich bin ja selbst auch noch dabei es zu verstehen. Wahrscheinlich ist nur Witten in der Lage zu verstehen, was er da alles rechnet.
@Rüdiger Heescher:
Sie brauchen mir nicht zu danken und auch nicht zuzustimmen, wenn Sie danach wieder denselben ermüdenden und unsinnigen Sermon verfallen. Die Numerik ist nun einmal die Mathematik, die sich mit den Lösungswegen beschäftigt, ein mehr oder weniger unlösbares Problem eben doch noch angehen zu können. Numerische Iterationsverfahren werden dazu geschaffen, zum gewünschten Ergebnis zu konvergieren. Das erfordert einiges an Rechenarbeit, wenn man hunderte oder tausende von Durchgängen wieder und wieder dasselbe errechnen muss. Genau setzt aber dann doch der Computer an. Der rechnet Ihnen ein Verfahren millionen- oder milliardenfach durch. Die Genauigkeit eines Ergebnisse hängt weitestgehend davon ab, wieviel Rechenleistung und wieviel Zeit man bereit ist zu investieren. Das ist angewandte Mathematik, aber keine Zauberei. Und auch kein Wunschdenken, denn ein Physiker, der so eine Simulation aufsetzt, will der Wahrheit näher kommen und nicht einfach nur einem schönen Ergebnis. Vergessen Sie eines nie: Unerwartete Resultate versetzen einen echten Wissenschaftler in weit größere Erregung als althergebrachtes, denn man könnte dann auf der Spur von etwas völlig neuem sein.
Schon Richard Feynmann, der seinem Sohn bei solchen Problemen geholfen hat, hatte angezweifelt jemals zu solchen Leistungen zu kommen bei classischer Computerarchitektur. (Er hatte ja die Hoffnung mit einem Quantencomputer solche Probleme lösen zu können.) Selbst wenn man einen Studenten 5 Jahre daran setzen würde so etwas zu programmieren, dann wäre es eine Approximationskalkulation.
Verschwendete Lebenszeit und sowas als Lackmustest für Falsifikationen zu bezeichnen, einfach naiv um es deutlich zu sagen.
Richard Feynman hat aber auch behauptet, es wäre kein Problem, in einen Atomblitz zu schauen, solange eine Glasscheibe zwischen der Explosion und den Augen ist.
Argument from authority: ungültig.
@Heescher
Erstens ist das schon sachlich falsch, Stichwort Genauigkeit von Fließkommaberechnungen. Zweitens wird dadurch Ihr Argument, dass Ihre eigene Pendelsimulation nicht korrekt gearbeitet habe und somit alle Simulationen per sé fehlerhaft sein müssten, keinen Deut valider.
Das von jemandem, der als Argument immer wieder sein Bauchgefühl ins Feld führt.
@Rüdiger Heescher
Darauf bin ich in #161 schon ausführlich eingegangen.
Was beim Dreikörperproblem bereits scheitert. Damit wäre jede Berechnung des Kurses einer Raumsonde oder der Position eines Himmelskörpers Deiner Meinung nach also sinnfrei?
Die Gleichungen in der Simulation sind doch bereits die verstandenen Kraft- und Bewegungsgesetze, die alleine dadurch verkompliziert werden, dass so viele Probemassen betrachtet werden. Es ist völlig aussichtslos, eine Gleichung aufstellen zu wollen, die ohne massiven Rechenaufwand die Form einer Galaxie erzeugt.
Es ist ebenso aussichtslos, ein entsprechend großes „kosmologisches Experiment“ durchführen zu wollen. Ob irgendein lokal durchgeführtes Experiment (und wenn man dabei DM-Teilchen nachwiese) Naturgesetze bestätigt, die die Struktur einer Galaxie hervorbringen, kann letztendlich nur eine Simulation nachweisen. Wer sich mit den gefundenen Gesetzen zufrieden gibt, ohne sie auf die Probe gestellt zu haben, muss am Ende auch glauben, dass er alles verstanden und nichts übersehen hat.
Oh, wenn die Argumente ausgehen, wird’s persönlich.
Die traurige Wahrheit aber ist, dass auch das Drücken auf die Wurzeltaste am Taschenrechner nur ein Iterationsverfahren anschmeißt. Und trotzdem ist jede schlussendlich angezeigte Ziffer korrekt.
Ich bin jetzt aber mal raus. Wir sind lange genug im Kreis gelaufen, Deine Meinung ist Deine Meinung, soweit ich sehe hast Du keinen Anhänger dafür gewinnen können.
Doch, eines muss ich zusammenfassend noch anhängen:
Hier sieht man sehr schön eine Selbstimmunisierungstrategie: Da füttern Wissenschaftler also einen Computer mit ein paar Naturgesetzen über Gravitation, Gas, Sterne, Dunkle Materie und Dunkle Energie, und es kommen Galaxien heraus, die Profis auf den Bildern nicht von echten unterscheiden können. Das müsste jede Kritik am Lambda-CDM-Modell eigentlich in der Luft zerreissen.
Dann bleibt als Gegenargument natürlich nur, die Methodik anzuzweifeln. Da mit der falschen Methode aber eigentlich unmöglich das richtige Ergebnis herauskommen kann, müssen die Programmierer offenbar nachgeholfen haben.
Eine solche Argumentationsweise man ansonsten nur aus der Welt der VTs. Die man auch nicht mit irgendwelchen Fakten beindrucken kann. Das macht die Diskussion dann sinnlos.
@Alderamin
dunkle Materie und dunkle Energie werden als Parameter angegeben und nicht als sich erklärende Faktoren, die man aus Feldgleichungen ableitet.
Dunkle Materie kann man bei solchen Simulationen genauso gut auch durch fehlende Materie normaler Art ersetzen. Wenn ich in der Friedmann gleichung die Krümmung ändere kann ich auch gleich das Lambda ersetzen.
Es sind halt keine Erklärungen. Es sind nur Simulationen.
Ich kann auch genauso ein ptolomäisches Modell simulieren und es würde genauso nach beobachtungen alle Planetenbahnen genau beschreiben.
Es simuliert, aber es erklärt nichts.
Aber ich denke, wir haben jetzt wirklich genug über Simulationen geredet.
„Aber ich denke, wir haben jetzt wirklich genug über Simulationen geredet.“
Allerdings. Und du darfst dir gerne die vielen, vielen Artikel durchlesen, die ich über numerische Astronomie und die Simulation von (nichtlinearen) physikalischen Systemen hier im Blog geschrieben haben. Vielleicht wird die nächste Diskussion zum Thema dann ein wenig informierter.
Hier weil es gerade aktuell ist ein Nature Artikel
Richard Feynmann war sich sehr wohl bewusst, dass das ganze Problem ansich in der Mathematik der Quantenmechanik selbst liegt. Daher auch seine Voraussage, dass es dann nur gelingen wird Simulationen zu erzeugen, die nur von Quantencomputern erzeugt werden. Die altvorderen, die wirklich was gewusst und gekonnt haben, sind nicht so blöd gewesen, wie man hier im Thread unterestellt. Die hatten schon das richtige Gespür für grundsätzliche Dinge und vertrauten keiner positivistischen Weltanschauung.
https://www.nature.com/news/quantum-computer-makes-first-high-energy-physics-simulation-1.20136
Die Litanei mit Positivismus oder nicht Positivismus ist doch dermaßen irrelevant dafür, dass man selbstverständlich Simulationen verwenden kann, um approximativ Vorhersagen von Theorien zu generieren, die sich nicht analytisch rechnen lassen. Man kann quantentheoretische Prozesse in der Störungstheorie wunderbar auf klassischen Computern rechnen und tut das mit großem Erfolg.
Natürlich könnte man mit den Quantencomputern den „nichtdeterministischen Maschinen“ aus der theoretischen Informatik ein ganzes Stückchen näher kommen, und das kann so einiges leichter, schöner, schneller machen.
Man sollte sich nur nicht der Illusion hingeben, der zu erzielende Fähigkeitsgewinn wäre wie der vom Faustkeil zum Laserskalpell. Heutige Computer können auch schon eine ganze Menge wegschaufeln, und die Dinger sind nun einmal genau das richtige, um endlose stumpfsinnige numerische Iterationen durchzurechnen.
Wir hatten neulich schon einmal hier festgestellt, dass Quantencomputer und normale Computer die gleichen Komplexitätsklassen berechnen und auch nicht mehr als eine Turingmaschine berechnen können. Stand auch im Wilipedia-Artikel über Quantencomputer.
Da steht aber auch folgendes:
Warten wir es also am besten einfach ab, ob Quantencomputer nur schneller arbeiten werden oder sogar irgendein neues Element in die reale Informatik bringen werden.
Ich will mal die Frage stellen, ob die Ungereimtheiten des DM-Modells im lokalen kosmischen Bereich der Galaxis, aber auch bei anderen Galaxien, von denen Kroupa und Koslowski in „Das kosmische Standardmodell auf dem Prüfstand“ (Spektrum 08/2010) berichtet haben, schon ausgeräumt? Beispiele:
– Materieverteilung im sog. Lokalen Volumen
– fehlende Satellitengalaxien (Missing Satellite Problem), aber auch deren Anordnung (in einer Scheibe) und Bewegungsrichtung
– Abhängigkeit der Rotationsanomalien anscheinend nur von der Verteilung der sichtbaren Materie. Dazu sagen die Autoren: „… dass also die DM auf beinahe magische Weise mit normaler Materie gekoppelt sein müsste“.
Diese Befunde scheinen durchaus härter zu sein, was man aus „Der verborgene Kosmos“ (Dobrescu, Lincoln, Spektrum 11/2015) schließen kann. Man überlegt sich komplexere DM-Modelle mit mehreren DM-Teilchen, bis zu einer parallelen Materiewelt. Den Autoren ist schon bewusst, dass das an die Epiyzklen des geozentrischen Weltbildes erinnert, aber als DM-Verfechter weisen sie es natürlich zurück.
Mir kamen da auch die Epiyzklen in den Sinn. Es ist nun mal kein guter Weg, wenn man eine Hypothese hat, die zunächst ganz gut passt, aber dann Widersprüche auftauchen, worauf man die Hypothese verkompliziert. Das ist ihrer Plausibilität nicht zuträglich, eher kommt das Ockhamsche Rasiermesser näher. Die Natur der DM ist nun mal komplett spekulativ und wenn man jetzt ganze DM-Welten erfindet, ist das Spekulationsphysik in Reinkultur. Wie bitteschön begründet sich das alles teilchenphysikalisch? Dort muss es fundiert sein.
Recht gut fundiert wäre es mit der SUSY. Das ist eine attraktive, begründete Erweiterung des SM. Aber für die SUSY sieht’s nicht gut aus. Zumindest die naheliegendste Variante, die sog. natürliche SUSY, wo die SUSY ihre ganzen Vorteile ausspielen kann, ist durch den LHC fast schon ausgeschlossen.
@Physik-Fan:
Kroupa schwimmt ein wenig gegen den Strom, was grundsätzlich auch richtig ist.
Grundsätzlich falsch hingegen sind Umkehrschlüsse nach dem Motto:
„Ich finde lokal keine Indizien für DM, also gibt es sie nicht.“
Ich bin auch kein Freund von „Verfechtern“ oder Leuten, die meinen, dass abweichende Ansichten unterdrückt werden.
Allein schon die Tatsache, dass Kroupa an der Uni Bonn eine Forschungsabteilung leitet, zeigt schon hinreichend, dass auch Forscher abseits des Mainstreams zurecht und unbehindert forschen können.
Es ist ja nicht nur er, sondern es werden auch die Ergebnisse von anderen Physikern zitiert.
So sagen es die Autoren nicht. Sie zeigen, dass die DM zu Konsequenzen führt, welche nicht zu den Beobachtungen passen. Die Milchstraße müsste z.B. von einer kugelsymmetrischen Wolke hunderter, evtl. tausender DM-Subhalos umgeben sein. Die Subhalos sind ja die Kerne von Zwerggalaxien. So viele Zwerggalaxien gibt es aber nicht annähernd und ihre Verteilung ist nicht kugelsymmetrisch. Desweiteren nennen die Autoren Strukturen, die mit der DM kaum plausibel erklärt werden können.
Die Autoren setzen sich auch mit den Gegenargumenten (also pro DM) auseinander.
Erwähnen sollte ich, dass mit DM das WIMP-basierten DM-Modell des Standardmodells gemeint ist.
Das wäre auch das Ende der Physik als seriöse Naturwissenschaft. Es liegen hier ja wohlbegründete Forschungsergebnisse vor. Die scheinen so erhärtet zu sein, dass man sich gezwungen sieht, das DM-Modell zu verkomplizieren, durch weitere WIMPs, um z.B. einen scheibenförmigen Halo zu bekommen. Vom Standpunkt des Theoriebaues her, ist das jedenfalls keine gute Entwicklung.
Allerdings sind die Alternativen auch nicht besser. Es handelt sich um Ad-Hoc-Modifikationen des Grav.gesetzes bzw. der ART. Da fragt man sich, warum es so sein sollte. Woher kommt die Modifikation? Andererseits, wie kann man denn sehr feine Abweichungen von Grav.gesetz überhaupt beobachten? Doch wohl nur auf kosmischen Skalen, sicher nicht im Labor. Deswegen haben solche Ansätze als Effektivtheorie schon ihre Berechtigung. Zurecht weisen die Autoren auf mögliche Wissenslücken über die Raumzeit und ihre Zusammenhänge hin. Die ART ist ja auch nur eine Effektivtheorie.
@Physik-Fan:
Was soll denn in deinem Sprachgebrauch eine „Effektivtheorie“ sein? Die meisten von uns würden zwar bestätigen, dass die Allgemeine Relativitätstheorie effektiv ist, aber dein „nur“ verrät dich: Du hältst sie für schlecht.
Erklär es uns also, was dich daran stört und was du meinst, wenn du von einer “Effektivtheorie” sprichst.
Und selbst wenn – wenn eine Theorie nicht „effektiv“ nach heutigem Sprachgebrauch ist, hat sie dennoch genauso wenig „Endgültigkeitsanspruch“ wie eine effektive Theorie. Man weiß nur nicht von vornherein, wo sie spätestens zusammenbricht 🙂
@Physik-Fan
Vielleicht ein lokaler Effekt, evtl. könnte ja eine verschluckte Zwerggalaxie für Turbulenzen in der DM sorgen? Die Messung wird aber auch generell in Zweifel gezogen. Wir erinnern uns an Arp, der Brücken zwischen Quasaren und Galaxien mit unterschiedlicher Rotverschiebung gesehen haben wollte. Die wurden nie bestätigt, lange nichts mehr davon gehört.
Siehe den bereits von mir erwähnten Artikel. Bzgl. der Anordnung: wir haben nur eine eingeschränkte Sicht auf die Umgebung der Milchstraße, die tatsächliche räumliche Verteilung ist nicht gut bekannt (Seite 20/21).
Generell ist die Annahme, dass baryonische Materie dahin gezogen wird, wo Dunkle Materie sich ansammelt. Allerdings flachen sich Spiralgalaxien ab, weil das Gas mit sich selbst kollidiert und nur in einer Ebene kreisen kann. Die DM tut das nicht und bleibt kugelsymmetrisch verteilt. Die Rotationskurven von Spiralgalaxien lassen sich so sehr gut erklären. DM kann sich aber in bestimmten Fällen auch vom Gas trennen, wie an seiner Linsenwirkung zu erkennen ist. Da ist definitiv die DM überhaupt nicht an normale Materie gekoppelt (auch im obigen Link).
Ich weiß nicht, welche Anomalien Kroupa wo gesehen hat und wie andere Forscher darauf geantwortet haben.
Die Erklärung der Beobachtungen mit einem kalten, nicht elektromagnetisch wechselwirkenden Gas funktioniert so beeidruckend gut in vielen, völlig unabhängigen Fällen (Elementhäufigkeiten, Flachheit des Universums, Galaxienentstehung, Rotationskurven, Fluchtgeschwindigkeiten, Gravitationslinseneffekte usw.), dass sie praktisch zwingend richtig sein muss und keine alternative Erklärung ihr nahe kommt. Eine Welt paralleler Teilchen scheint auf den ersten Blick weit hergeholt, aber erstens kennen wir ja schon die Neutrinos, die auch nicht elektromagnetisch wechselwirken und zweitens ist es ja genau das Fehlen dieser Wechselwirkung, die ihr Aufspüren so schwer macht. Die Neutrinos finden wir aufgrund ihrer Schwachen Wechselwirkung. Was, wenn die auch fehlt? Dann bleibt nur die Gravitation.
Vielleicht werden diese Teilchen nie gefunden, aber wenn man mit dem Modell der DM das Universum und seine Entwicklung erfolgreich beschreiben kann, dann ist dies ein gutes Modell, denn mehr als beschreiben will die Physik ja nicht. Erst, wenn es ein Modell gibt, das die Realität besser beschreibt, wird man zu diesem wechseln. Die Epizykeltheorie wurde fallen gelassen, weil Keplers Modell die Positionen der Planeten besser vorhersagen konnte und nebenbei auch noch einfacher war. Falls die DM eine Epizykeltheorie wäre, dann ist jedenfalls weit und breit kein Kepler in Sicht.
@Physik-Fan:
Genau das ist der Weg der Wissenschaft; was soll an diesem Weg nicht gut sein?
Die ART z.B. ist hochkompliziert, bestand bislang jeden Härtetest mit bravour und beißt sich trotzdem mit der Quantentheorie.
Auch finde ich es völlig richtig, an MOND, TeVeS und weiteren Alternativen zu basteln.
Es mag am Ende ein Ausschluss oder eine Verbesserung im Sinne einer effektiven Theorie herauskommen. Auch wenn ich darauf nicht viel verwetten würde 😉
Kleiner Irrtum. Andere Beiträge von mir scheinen Sie nicht zu kennen. Da sollte man sich mit vorschnellen Urteilen etwas zurückhalten oder? Aber zugegeben, es war wohl etwas missverständlich von mir. Als „Physik-Fan“ bin ich natürlich ein großer Anhänger der ART. Sie ist sicher einer der schönsten physikalischen Theorien und eine der größten intellektuellen Leistungen überhaupt.
Das „nur“ bezog sich auf ihren Charakter im Kontext von dem ich redete. Die Autoren von “Das kosmische Standardmodell auf dem Prüfstand” thematisieren, dass die ART wohl nicht das letzte Wort ist und grundlegende Fragen offen lässt. Das sagen sie zurecht. Wie kam denn Einstein (plus Mitstreiter) auf die Feldgleichung? Nicht durch ein Strukturmodell der Raumzeit, sondern mit einer cleveren Kombination von notwendigen Kriterien und Erraten der Gleichung mit Hilfe leistungsfähiger, damals noch neuer Mathematik. So kam ein Medium heraus, das stark die Züge mathematischer Abstraktion trägt, kontinuierlich, beliebig krümmbar bis zum Grenzfall, beliebig dehnbar. Ich will das nicht als Mangel hinstellen, andere Ansätze waren kaum realistisch. Cartan konnte ja später in einem Geniestreich die Feldgleichung aus der Erhaltung der Impenergie ableiten, aber das bringt keine tieferen Aufschlüsse über die Natur der Raumzeit. Das versucht man z.B. in der LQG durch die Annahme einer darunterliegenden körnigen Struktur. Die Konsequenz solcher Ansätze werden Modifikationen der ART sein. Das genau thematisieren die Autoren, so habe ich sie verstanden. Die Gravitation kann durchaus von der ART abweichen, eine Abweichung, die sich erst auf kosmischen Skalen spürbar auswirkt
Wird’s jetzt klarer?
@Physik-Fan:
Nöö, ist es nicht!
Also, was ist eine „Effektivtheorie“ und warum ist die ART „nur“ eine solche?
Wieso hat von euch „Simulationsexperten“ keiner erwähnt, dass man nicht mal die ART als Grundlage verwendet hat für Universumssimulationen? Das ist doch ein Witz! Mit Newtons Theorie und Approximationen werden Simulationen gemacht und das soll nun sogar Lackmustest sein für Falsifikationen?
Ein Witz.
Ich habe gleich gesagt, dass ich keine Ahnung von Simulationen habe, aber das scheint mir doch von eurer Seite her grobfahrlässige Irreführung zu sein, wenn ihr meint, dass SImulationen mit Newtons Himmelsmechanik sei wirklich etwas Substanzielles. Dann hat sich seit den 90er Jahren in „meinem Computersteinzeitalter“ nicht wirklich was getan von den Simulationen her.
https://physics.aps.org/synopsis-for/10.1103/PhysRevLett.116.251301
@Rüdiger: „wenn ihr meint, dass SImulationen mit Newtons Himmelsmechanik sei wirklich etwas Substanzielles. „
Mit Newton kannst du immerhin Raumsonden punktgenau auf andere Planeten fliegen… Und jede Menge andere Sachen mehr. Als Experte für dynamische Astronomie und Numerik kann ich dir sagen: GERADE Newton ist wichtig und richtig. Genau genug um zu leisten, was geleistet werden soll. Und viel schneller implementierbar als die ART. ART ist wichtig – aber eben nur für Spezialfälle.
Die ART ist aber nicht nur kompliziert, sondern in bestimmter Hinsicht das Gegenteil davon. Ihre Mathematik ist anspruchsvoll, klar, denn man hat es mit einer 4-dimens. Riemannschen Mannigfaltigkeit zu tun, die Krümmungen aufweist. Die Feldgleichung ist mit ihren 10 gekoppelten, nichtlinearen Diff.gleichungen mit das am schwierigsten zu lösende Gleichungssystem der Physik. Im großen Kontrast dazu ist das Modell der ART sehr einfach, sogar von bestechender Einfachheit. Es werden ganz wenige Prämissen gemacht. Genau das hatte Einstein so sicher gemacht, dass sie korrekt ist (schon zu einer Zeit, als noch keine spezifischen Vorhersagen verifiziert waren).
Man muss eben differenzieren zwischen der mathematischen Komplexität und dem physikalischen Kern einer Theorie. Über das Letztere rede ich, genauer die zugrundeliegenden Hypothesen. Die sollten so wenige. so einfach, so plausibel wie möglich sein. Das ist (etwas verfeinert) das Ockhamsche Prinzip. Umgekehrt gilt, je man voraussetzen muss, umso wackeliger wird ein Ansatz. Der kann sich trotzdem als richtig erweisen, genauso wie man z.B. mehrmals hintereinander die 6 würfeln kann. Aber so ein Dusel ist halt selten.
Genau hierin liegt der Punkt, warum ich die Entwicklung bei der DM-Theorie kritisch sehe. Mit einer WIMP-Art, naja gut, aber man braucht jetzt offensichtlich mehrere WIMPs. Die werden natürlich so postuliert, dass die beobachteten Effekte herauskommen. Tauchen neue Befunde auf, braucht man nur passende neue WIMPs oder Wechselwirkungen „aus dem Ärmel zu ziehen“, ist ja kein prinzipielles Problem, schließlich sind der Phantasie keine Grenzen gesetzt, im Rahmen der physikalischen Gesetze. So wird die DM immer der Realität angepasst werden können. Ob darin aber physikalische Substanz steckt, ist eine andere Frage. Und je größer der Hypothesen-Satz wird, umso geringer werden die Erfolgsaussichten, s. Ockham.. Nicht in der Komplexität der Hypothesen liegt die Kunst, sondern in ihrer Einfachheit, Musterbeispiel: ART.
@Florian:
Apropos Spezialfälle:
Ihm wird kaum bewusst sein, dass Newtons Gleichungen bei entsprechenden Rahmenbedingungen und Genauigkeiten mit der ART übereinstimmen.
@Physik-Fan:
Darf ich Dich dezent an die -angeblich- „größte Eselei meines(Einsteins) Lebens“ erinnern:
Die
https://de.wikipedia.org/wiki/Kosmologische_Konstante
wurde erst von Einstein eingeführt, wieder verworfen und im Rahmen des Lambda-CDM-Modells wiederum eingeführt.
Das ist -negativ formuliert- auch ein Herumbasteln an Theorien, um sie mit Beobachtungen in Einklang zu bringen 😉
@Rüdiger Heescher
Weil ich den Programmcode nicht kenne? Und weil es so pauschal nicht stimmt. Illustris berücksichtigt die kosmologische Konstante aka Dunkle Energie aka Omega Lambda. Die Endlichkeit der Lichtgeschwindigkeit wird mit Sicherheit auch berücksichtigt, wo nötig. Darüber hinaus bewegt sich im All nichts mit mehr als ein paar hundert km/s, also nichtrelativistisch. LATTE hat ohnehin nur die unmittelbare Umgebung einer Galaxie simuliert. Da keine konkrete Konfiguration vorhergesagt wird (vergleichbar mit der Position eines Asteroiden in 100 Jahren) spielen kleine Abweichungen, die durch die Nichtberücksichtigung der RT enstehen würden, keine Rolle für das Ergebnis. Wenn ich einen typischen Wirbelsturm simulieren will, muss ich auch nicht die Topologie des Erdbodens berücksichtigen, bei einer konkreten Wettervorhersage aber wohl schon.
Nochmal: eine Simulation ist nicht anderes als das Ausrechnen der bekannten Gleichungen (und Gleichungen sind immer Approximationen der Natur). Das Ausrechnen alleine sagt noch nichts darüber aus, ob die Gleichungen stimmen – wie Du sagst, man kann auch die Epizykel ausrechnen. Wenn man die Epizykel ausrechnet, wird man aber keine korrekten Planetenpositionen herausbekommen, mit Kepler hingegen schon. Der Abgleich mit den Beobachtungen ist der Beleg, dass Kepler besser ist als die Epizykel. In den neueren Simulationen kommen die im Weltall beobachteten Strukturen heraus, also funktionieren die Gleichungen. Wenn ein alternatives Modell besser sein soll, muss es in der Simulation wenigstens ebenso gute Ergebnisse liefern. Und das ist meines Wissens nach nicht nachgewiesen.
Die Aussage „da wird keine ART simuliert, also muss die Simulation falsch sein“ ist ein unzulässiger Strohmann ohne eine Angabe, welche Abweichungen denn da zu erwarten wären und wie groß sie sind. Virtuelle Crashtests werden auch nicht den Einfluss der Fahzeuglackiereung berücksichtigen. Offenbar treten ja keine solchen Abweichungen auf, die das Gesamtbild wesentlich verändern, sonst käme ja etwas signifikant anderes heraus.
Eine effektive Theorie ist an den Phänomenen orientiert. Sie beschreibt diese, ohne auf ein tiefer liegendes Modell zurückzugreifen. Die Thermodynamik ist so was. Boltzmann konnte sie dann mit seiner statistischen Mechanik ableiten. Sie ist keine effektive, sondern eine fundamentale Theorie. Aber genau genommen stimmt das nicht ganz, auch Boltzmann hat vereinfachende Annahmen gemacht. Überhaupt kann man fast jede physikalische Theorie als effektiv betrachten.
Eine Ausnahme ist die QM. Sie vertritt explizit den Anspruch wirklich fundamental zu sein. Für die Gründerväter Heisenberg, Pauli, Bohr, Born waren die statistischen Aussagen der QM bereits das letzte Wort. Darüberhinaus sollen keine präziseren Aussagen möglich sein und zwar prinzipiell. Übrigens, das war genau der Kritikpunkt von Einstein. Das konnte er nicht akzeptieren.
Die ART hat für mich den klaren Charakter einer effektiven Theorie. Ein Medium das vollkommen kontinuierlich und beliebig krümmbar, beliebig dehnbar ist. Was soll das? Es ist zunächst nur Mathematik. Allerdings hat die ART bis jetzt allen empirischen Tests glänzend standgehalten. Aber ist sie auch das letzte physikalische Wort? Abwarten, was mal herauskommen wird. Bisher jedenfalls nicht Neues. Etwa die von der LQG vorhergesagte Frequenz-Abhängigkeit der LG hat sich (noch?) nicht gezeigt.
@Physik-Fan:
Ähm…was soll das?
Im Übrigen ist es schwierig für Diskussionen, wenn Du eigene Definitionen von „effektive Theorie“ bildest.
Gut, ich hätte was Entsprechendes dazu sagen sollen, aber so wie ich es verwende, trifft es schon den Kern der Sache. Um mal Wikipedia zu zitieren:
Dazu ist zu sagen, dass die Thermodynamik vor der statistischen Mechanik da war, ist also keine bewusste Vereinfachung. Es ist einfach die wissenschaftl. Entwicklung von einem zunächst groben Modell zu feineren, tiefer ansetzenden Modellen.
@Florian
Wir reden aber hier nicht von Sonnensystem Simulationen sondern vom ganzen Universum.
@Alderamin
Deswegen habe ich auch von vornherein gesagt, dass ich keine Ahnung von heutigen Simulationen habe, weil ich eben nicht weiss, was man da programmiert. Daher galt auch von vornherein meine Warnung als Hinweis:
Vertraue nicht dem Computer, sondern dem Programmierer.
Und ein solches Modell, was wie Florian hier beschwichtigt, letztlich nur dazu taugen kann für das Sonnensytsme Approximativ zu gelten dann auch noch als Lackmustest für Universumsmodelle zu deklarieren, ist einfach nur der naive Positivismusglaube. Mehr nicht.
Ich denke, damit hat sich jetzt endgültig die Simulationsdiskussion erledigt.
@Rüdiger Heescher
Das hat etwa so viel Bedeutung wie „Vertraue nicht der Formel, sondern dem, der sie ausrechnet“. Blödsinn. Weder noch. Dem Abgleich mit der Realität ist zu glauben, sonst gar niemandem.
Die Worte, die ich schrieb, rauschten offenbar wieder an Dir vorüber, ohne dass sie Deinen Verstand erreichten. Da kann ich auch für die Wand schreiben.
Ich bleibe bei meiner Aussage. Jede Formel und jede Simulation sind unvermeidlicherweise nur Approximationen der Wirklichkeit, das ist eine Binse. Der Vorwurf, irgendeinen Effekt nicht beachtet zu haben, geht vollkommen ins Leere, wenn nicht wenigstens eine Fehlerabschätzung für das Weglassen mitgeliefert werden kann. Dann ist das einfach nur substanzlose Nörgelei, die ohnehin vom oben erwähnten Abgleich mit der Realität ad absurdum geführt wird. Halt Dir nur weiter Augen und Ohren zu und Dich selbst für einen großen Kritiker der Wissenschaft.
@Alderamin:
Das sogar du dich zu so einem Satz hinreissen lässt, bestätigt mich dann doch darin mich aus dieser Diskussion mit jenem Herrn frühzeitig verabschiedet zu haben.
Der Herr Heescher hat halt mal ein bischen Rhetorik gelernt und das einzige, was er davon behalten hat, ist die Strategie „argumentieren durch Masse“.
Soll heissen:
Benutze so viele Fachwörter aus irgendeinem Bereich, in dem du dich wenigstens ein bisschen auskennst bis den Anderen schwindelig wird. Das du die meisten Wörter die du benutzt gar nicht wirklich verstehst, spielt keine Rolle.
(Ganz Allgemein eine beliebte Strategie bei Salon-Linken übrigens. Was einer der Gründe ist, warum die mir so auf den Sack gehen …)
Macht keinen Sinn, mit dem zu diskutieren. Da kommt nichts bei raus, was sowas wie einer interessanten Erkenntnis auch nur nahe kommt.
Ich zitiere ja i.W. nur aus Artikeln und einer davon ist der von Dobrescu u. Lincoln (Spektrum 11/2015), die auf dem Gebiet der DM arbeiten und Anhänger der DM sind. Sie sagen z.B.:
„… Außerdem weichen einige astronomische Beobachtungen von manchen Vorhersagen dieser einfachen Theorie ab.“ (einfach = eine WIMP-Sorte)
„… sagt die WIMP-Theorie eine viel größere Anzahl von Zwerggalaxien voraus“
„… außerdem sollte sich die DM in den Zentren der Galaxien noch mehr konzentrieren, als die gemessenen Rotationskurven es vermuten lassen.“
Der Artikel dürfte ziemlich den aktuellen Stand darstellen, d.h. es ist anerkannt, dass es widersprüchliche Beobachtungen gibt, so anerkannt, dass man sich gezwungen sieht, das DM-Modell zu erweitern.
Solange die Teilchen nicht gefunden sind, hängt die Theorie in der Luft. Sie ist eine Luftnummer, mehr nicht. Außerdem muss man die Teilchen exakt so nachweisen, wie sie die Theorie vorhersagt.
Was ein gutes Modell ist, darüber kann man streiten. Für mich ist ein Modell fraglich, das eine neue Materieart postuliert und das sogar in komplexerer Form. Das ist nun mal eine sehr weitgehende Hypothese. Es liegen auch „nur“ astronomische Befunde zugrunde, keine teilchenphysikalischen. Die Frage nach der teilchenphysikalischen Systematik stellt sich. Warum sollte es die Teilchen überhaupt geben? Für die SUSY gibt es immerhin gute Argumente.
Problematisch ist, dass die DM alles Mögliche sein kann. Da ist sehr viel Spielraum für Phantasie, die Theoretiker können sich austoben (innerhalb gegebener Randbedingungen natürlich). Das bedeutet, die DM-Hypothese als solche wird wohl nicht falsifizierbar sein. Immer wenn ein widersprüchlicher Befund auftaucht, wird man DM-Modelle passend erweitern/modifizieren können. Man bastelt mit Teilchen und Wechselwirkungen herum, denkt sich ggf. neue aus. Die Hürden für den experimentellen Nachweis kann man hoch genug legen. Aber damit betreibt man mehr Metaphysik als Physik (die String-Theorie ist bis heute so).
Problematisch ist auch, dass der DM-Ansatz stark dominiert. Es herrscht fast eine wissenschaftl. Monokultur. Wer weiß, wenn man die Alternativen annähernd so intensiv untersucht hätte, wäre man vielleicht schon weiter. Es drängt sich auch der Verdacht auf, dass man die Befunde gerne im Sinne der DM interpretiert. Ich bin jedenfalls skeptisch, wenn wieder mal die Erhärtung der DM-Theorie verkündet wird. Bezeichnend ist, dass die Widersprüche von alternativen Leuten gefunden wurden. Aber so sollte es nicht laufen! Die DM-Verfechter müssen ihre Modelle sorgfältig prüfen. Die Sache mit den Satellitengalaxien hätten sie finden müssen. Deswegen bin ich misstrauisch und frage mich, ob hier die wissenschaftl. Objektivität in ausreichendem Maße gewährleistet ist.
@Alderamin
nicht Kritiker der Wissenschaft. Ich bin der Verteidiger der Wissenschaft und für die Mathematik stock konservativ.
Ich bin Gegner des naiven Positivismus!
Positivismus ist ungleich Wissenschaft
@Physik-Fan
Meine Links in #181 sind neuer. Insbesondere der mit den Zwerggalaxien ist ganz frisch von diesem Monat.
Hat Peter Higgs doch auch getan. Oder Positron und Neutrino, wurden auch postuliert. Eine Änderung des Gravitationsgesetz müsste dann allerdings auch auf einer plausiblen Theorie aufbauen. Jedenfalls sind die Beobachtungen kompatibel mit einer neuen Materieart, die sich ähnlich wie ein Gas verhält, aber mit normaler Materie nur über Gravitation wechselwirkt. Insbesondere das getrennte Auftreten von DM und gewöhnlichem Gas ist hingegen nicht kompatibel mit einer wie auch immer modifizierten Schwerkrafttheorie.
Weil die Beobachtungen ihre Existenz stützen. Warum nicht? Wenn sie nicht schwach oder stark oder elektromagnetisch wechselwirken, dann wären sie nicht auf der Erde nachweisbar. Man könnte argumentieren, was nicht nachweisbar ist, gibt es nicht. Aber kosmologisch ist da ja etwas gravitativ Nachweisbares. Im Großen ist der Nachweis der DM ein Klacks.
Weil die Hinweise so erdrückend sind. Aus vielen unabhängigen Richtungen. Hintergrundstrahlung, Elementhäufigkeiten, Galaxienrotation, Geschwindigkeiten von Galaxien, Voids und Filamente (kosmologische Entwicklung), Cluster mit heißem Gas. Alles stützt sich gegenseitig.
Das kennt man auch von Einstein-Kritikern…
Ist gelöst! Guck‘ doch mal in die Links in #181!
Der Kosmologische Term ist ein ganz heißes Thema, bis heute. Was macht man denn da? Eine erfolgreiche Theorie wird vorsichtig modifiziert, unter Erhaltung ihrer gegebenen Vorzüge. Genau das versuchen ja die Anhänger alternativer Ansätze. Ein ganz anderes Gewicht hat es, wenn man eine neue Materieart postuliert, quasi ins Blaue hinein, zumindest aus Sicht der Teilchenphysik gesehen. Warum sollte es diese Dinger überhaupt geben? Wo so sind die teilchenphysikalischen Indizien dafür?
Übrigens, was der Kosmologische Term für Einstein leisten sollte, kann er eh nicht, denn auch mit ihm wird das All nicht stabil statisch. Ein winziges Ungleichgewicht reicht aus, um es expandieren oder komprimieren zu lassen. Für einen dauerhaft stabilen Zustand braucht man eine Rücklenkung. Heute ist der Kosmologische Term nur ein Platzhalter für eine unbekannte Eigenschaft des Vakuums (z.B. ein Feld) die zur beschleunigten Expansion führt.
@Rüdiger Heescher & Physik-Fan:
Ihr beide mögt euch für die ganz großen Kenner halten, und ihr werft auch mit jeder Menge Fremdwörtern um euch herum. letztlich leidet ihr aber beide am Dunning-Kruger-Effekt. Von Physik habt ihr aber allerhöchstens so viel Ahnung wie der Durchschnitt, und zum Widerlegen der modernen Physik langt es daher vorne und hinten nicht.
@Captain E.:
Bei Heescher war es auch schnell klar, Physik-Fan ist aber nicht so schlimm; mit ihm ist der Austausch angenehmer.
Auch wenn der letzte Absatz von #200 „Übrigens…“ schon ein Knaller ist, wenn man bedenkt, dass er mich belehren will mit von mir verlinkten Informationen 😀
@Physik-Fan:
Bevor Du Dich ernsthaft qualifizierst, solche Fragen zu stellen, hast Du noch viel zu lernen.
Das Lesen(und natürlich auch Verstehen) von Alderamins Antworten hätte sicherlich geholfen.
@Krypto:
Du magst das so völlig subjektiv anders empfinden. Bei mir kommt eigentlich immer nur folgende Botschaft an: „Die moderne Physik ist doof und die Physiker, die sie betreiben, haben keine Ahnung.“ Da kann unser Physik-Fan noch so oft betonen, wie sehr er die Physik an sich lieben würde, aber am Ende bleibt doch nur seine Pauschalkritik hängen.
@Alderamin:
Ein Nachtrag zu @Rüdiger Heeschers Behauptung noch niemand habe bei einer Simulation des gesamten Universums die ART berücksichtigt – Doch, hat inzwischen:
https://www.spektrum.de/news/alles-ist-relativ/1414709
@Captain E
Moderne Physik ist mehr als Higgs und Co
@PDP10
siehe meinen link oben
@Rüdiger Heescher:
Ich hoffe, du steckst jetzt auch 5 € in das Phrasenschwein, ja?
@Krypto
@Captain E.
Es sollte Euch schon klar sein, dass Ihr Euch gerade aus einer sachlichen Diskussion verabschiedet. Antwortet inhaltlich oder lasst es. Polemisches Zeugs hat hier nichts zu suchen. Eure plötzliche Wendung nährt bei mir den Verdacht, dass Ihr keine Argumente mehr habt, evtl. nicht mal richtig verstanden habt, was ich sage.
Und lasst bitte Aldemarin aus dem Spiel. Ich habe mit ihm schon öfters und immer sachgerecht diskutiert, Das wisst Ihr halt nicht. Sobald in etwas mehr Zeit habe, schaue ich mir seine Sachen an.
@Physik-Fan:
Stell Dir mal vor, Du schreibst/verlinkst/kopierst/druckst Informationen für jemanden und der antwortet Dir:
„Übrigens:{irgendwelcher Inhalt aus den Informationen}“
Wie würdest Du reagieren?
Im Übrigen bleibe ich bei meiner Kritik; ob Du es polemisch auffast, ist mir egal.
Nicht egal ist mir, wenn jemand Alderamins Hilfsbereitschaft und Geduld ausnutzt.
Ach so, Dein Wikipedia-Link. Ich hab‘ mir den, ehrlich gesagt, gar nicht angesehen. Ich kenne die Zusammenhänge eh und hab‘ die Antwort einfach so hingeschrieben, mit eigenen Worten. Wenn da was nach Textzitaten klingt, war es nicht beabsichtigt.
Ich nutze niemanden aus. Lasse es bitte, mir irgendwas was zu unterstellen, sonst wird’s ein Fall für den Mod. Schlechter Stil ist es sowieso. In einer Sachdiskussion wie dieser, gehört so was schon gar nicht hin. Ich halte mich daran und erwarte das auch von anderen.
Ich bemühe mich wirklich Gesichtspunkte darzustellen, führe Argumente an, begründe sie, bringe Zitate, nenne Quellen. Dann könnte man sich doch bemühen, vernünftig darauf zu antworten, statt mit Polemik anzukommen. Wenn Dir was von mir nicht passt, dann schreibe eine sachliche Entgegnung. Wenn Dir meine Beiträge gar nicht passen, dann überlese sie einfach. Aber mit Polemik braucht man mir nicht zu kommen, ich bin nicht provozierbar. Außerdem offenbart der Polemiker ja nur seine eigene Schwäche.
Mit der Erweiterung der Modelle um Gasphysik und Sternenwirkungen wie Supernova-Explosionen, kann das Problem gelöst sein, aber das ist nur einer der Befunde, die Kroupa u. Koslowski nennen. Sie kommen zur generellen Aussage: „dass also die DM auf beinahe magische Weise mit normaler Materie gekoppelt sein müsste”. Sie zitieren auch Peebles u. Nasser, dass die Verteilung der Materie im sog. Lokalen Volumen nicht den DM-Vorhersagen entspricht. Auch Dobrescu u. Lincoln nennen weitere Befunde. Sind diese Widersprüche alle ausgeräumt? Das war ja meine anfängliche Frage.
Higgs hat das SM ergänzt, um das Problem mit der Masse gewisser Eichbosonen zu lösen. Das war eine teilchenphysikalische Problemstellung. Mit dem Higgs-Mechanismus ist das SM vollständig, aber kein SM-Teilchen passt für die DM. Man braucht was ganz Neues, das ist die Crux. In jahrzehntelanger Suche hat sich kein passendes Teilchen gezeigt (auch nicht in Detektoren, die Teilchen aus dem All registrieren) und solange das so bleibt, ist jedes DM-Modell spekulativ. Ich wette, dass man immer wieder neue Modelle finden wird, die dasselbe leisten. Welches ist jetzt das richtige? Wenn es nur bei kosmologischen Fakten und Argumenten bleibt, dann hängt’s in der Luft. Man braucht die teilchenphysikalische Fundierung.
Ich bin gar nicht gegen DM-Modelle und für die Alternativen. Habe ja schon die Probleme der Letzteren genannt, aber grundsätzlich sind auch sie gerechtfertigt. Ich spreche nur die Probleme mit der DM an, die mir bekannt geworden sind. Außerdem sage ich, wenn die DM-Modelle dafür komplizierter werden, ihre Erfolgschancen sinken. Es ist nun mal eine Erfahrung aus der Physikgeschichte (ist mein Steckenpferd), dass die Verkomplizierung von Hypothesen kein guter Weg ist und fast immer in eine Sackgasse führt, s. z.B. die Äther-Theorie.
Warten wir`s ab. Auch im LHC tut sich ja wieder was. Da ist der Effekt bei 750 GeV. Das wäre das erste Teilchen jenseits des SM. Vielleicht kommt man dann der DM näher …
@Physik-Fan
Hm, stellst du gerade den Versuch an, dich unangreifbar zu machen?
Also, zum einen macht es keinen Sinn, immer alles, was einem nicht gefällt unwidersprochen stehen zu lassen. Das tust du ja auch nicht. Erzähl uns also bitte nicht, wir wären so schrecklich polemisch und du andererseits nicht provozierbar und vermeintlich unpolemisch.
Halten wir es doch einmal fest: Du wagst dich auf ein ziemlich schmales Brett und hältst dich dabei an den Arbeiten einiger Wissenschaftler fest, die eine abweichende Meinung vertreten. Nun gut, vielleicht liegen diese Leute ja völlig richtig, nur konnten sie die Mehrheit ihrer Kollegen bislang nicht überzeugen. Wenn du also, und genau hier steckt u.a. deine ganz persönliche Polemik, von modernen Epizykeln und Äthern redest, brauchst du dich nicht zu wundern, dass andere bei dir einen Fall von Dunning-Kruger vermuten. Wer die Wissenschaft kritisieren will, braucht etwas besseres, oder er sollte lieber die Klappe halten. Hast du etwas besseres auf Lager oder möchtest du nur „Mainstream“-Kritik am modernen Wissenschaftsbetrieb ablassen?
@Physik-Fan
Dazu hatte ich in #181 schon was geschrieben. Es gibt eben Fälle, wo die DM offensichtlich und messbar gerade nicht an die sichtbare Materie gekoppelt ist. Umgekehrt: nach der DM-Theorie ist nicht sehr viel dunkle Materie im Sonnensystem vorhanden, ich kam mal auf die Masse eines mittleren Asteroiden oder kleinen Planetenmonds (60 km Durchmesser). Diese Masse würde die Bewegung von Objekten im Sonnensystem nicht beeinflussen.
Wenn aber eine schwache Gravitation sich anders verhielte als die bekannte 1/r²-Formel, dann müsste man dies an der Bewegung von Raumsonden weit weg von der Sonne (Voyager oder jetzt New Horizons) eigentlich bemerken, denn deren Position ist extrem genau bekannt. Denn die Sonne ist eine große Masse baryonischer Materie, die in großer Entfernung nur eine geringe Schwerkraft ausübt, ein prima Testfall für alternative Schwerkrafttheorien.
Was die vorgeblich geringere Dichte der DM im lokalen Volumen betrifft, hatte ich in #181 ein Papier verlinkt, dass die Messung generell anzweifelt, und selbst wenn, kann es eben ein lokaler Effekt sein (ich erwähnt die Möglichkeit von Turbulenzen in der DM, etwa durch eine Zwerggalaxie, die durch die Milchstraße hindurchgestoßen ist, so etwas gibt es öfters). Ich kann ja aus den Messungen des Wetters in Deutschland in einem Jahr auch nicht auf das Wetlklima schließen. Wir haben einen besseren Überblick über Galaxien- und -Haufen, die wir von außen sehen, und da ist die Dichte und Verteilung der DM konistent.
Ich bin kein Astronom und zu einzelnen Papers und deren Be- oder Entkräftung kann ich Dir nicht mehr sagen, als Du selbst googeln kannst. Ich kann nur etwas zum „Big Picture“ beitragen.
Das, welches am besten funktioniert. Bis ein besseres gefunden wird. Hell, die ART sagt, der Raum sei gekrümmt. Normalerweise braucht es für eine Krümmung eine höhere Dimension, z.B. das berühmte von einer Masse durchgebogene Gummituch, wo der Raum die Ebene des Gummis ist. Aber für eine 5. Raumzeitdimension gibt es keinerlei Beleg (Martin Bäker versucht das Problem immer mit projizierten Landkarten und Temperaturfeldern zu erklären, aber der Raum ist kein Temperaturfeld und Landkarten sind eben Projektionen der dritten Dimension in die Fläche). Wenn man so rechnen kann, als ob sich da was in eine höhere Dimension krümmt, und es kommt das richtige heraus, dann ist das Modell gut. Wir werden vermutlich nie heraus bekommen, ob es eine fünfte Dimension gibt, aber das ist für das Modell Wurst.
Und die DM verhält sich eben wie ein kaltes Gas, das nicht klumpt. Selbst wenn die Teilchen nicht gefunden werden, ist das Modell das beste, das wir haben, um alle Beobachtungen zu erklären. Es ist außerdem viel zu früh, Teilchen jenseits des Standardmodells abzuschreiben, nur weil der LHC noch nichts konkretes gefunden hat (übrigens ist der „Bump“ des 750 GeV-Teilchens mittlerweile wieder verschwunden). Es wird ja auch über Strings spekuliert, die zum Nachweis einen Beschleuniger bräuchten, der so groß wie die Milchstraße ist. Wir werden immer Beobachtungsgrenzen haben, über die wir nicht hinweg kommen und wir werden nie ausschließen können, dass hinter diesen Grenzen noch Physik passiert, die sich auf Dinge unterhalb der Grenze auswirkt. Die Abwesenheit von Messdaten belegt eben nicht notwendigerweise die Abwesenheit eines Objekts.
DM ist das Modell, das mit großem Abstand am besten zahlreiche Beobachtungen erklärt, und wenn man die zugehörigen Teilchen noch nicht gefunden hat, dann hat man sie halt noch nicht gefunden. Alternative Schwerkrafttheorien sind im Übrigen experimentell genau so wenig belegt. Und erklären weniger.
In der Tat, und abgesehen davon, dass sich alternative Schwerkrafttheorien sehr schwer tun werden, so etwas wie den Bullet cluster plausibel zu erklären, ist, wenn man mal Occam bemühen will, die Einführung eines neuen DM-Teilchens in das Standardmodell aus theoretischer Sicht geradezu trivial im Vergleich, gerade bei der aktuellen Datenlage.
Du solltest auf Deine Ausdrucksweise besser achten! Ich überlege mir jedes Wort, bemühe mich zumindest darum, auch wenn es mir nicht immer gelingen mag. Wer zu billigen, geradezu lachhaften Pauschalismen greift wie „die“ Wissenschaft kritisieren oder „den“ modernen Wissenschaftsbetrieb, disqualifiziert sich als seriöser Diskussionspartner. Jemand den Mund verbieten zu wollen, geht in einem Forum gar nicht, das ist ein grober Verstoß gegen die Netiquette. So was gehört eigentl. sanktioniert.
Wer meine Beiträge liest, merkt, dass ich aus der Physik heraus argumentiere, aus dem gesicherten aktuellen Stand sowie erkenntnistheoretischen Gesichtspunkten, in allg. Art (Ockham, Popper etc.) sowie physikspezifischer Art (Grundauffassungen, Plausibilitäten etc.). Anscheinend machst Du Dir nicht die Mühe, meine Beiträge genau zu lesen, sonst wüsstest Du, dass das mit den Epyizklen von Dobrescu u. Lincoln stammt (Spektrum 11/2015). Es ist nicht auf meinem Mist gewachsen, es muss aus der Community heraus kommen, sonst wären sie nicht explizit darauf eingegangen.
Die Diskussion zwischen uns wird fruchtlos. Ich werde Deine Beiträge erstmal ignorieren und Du kannst es gerne mit meinen auch tun.
Hier kommen wir gerade zu einem problematischen Punkt. Die Ideen schießen ins Kraut, von SUSY-Kandidaten (wie Neutralino) zu Axion, dunklen Photonen, protophobischen X-Bosonen und was alles noch kommen mag. Dobrescu u. Lincoln schreiben in der Spektrum 11/2015 einiges darüber. Ich denke, dass es bis auf weiteres „das“ Modell gar nicht geben wird. Der Spielraum ist enorm und die Kreativität der Theoretiker groß. Aber, in welche Richtung sollen sie gehen? Es fehlen Kriterien, z.B. experimentelle, welche die Möglichkeiten einschränken. Wir werden es wohl mit konkurrierenden Modellen/Modellvarianten zu tun haben, die i.W. gleichwertig sind. Rein kosmologisch wird man das nicht entscheiden können, man braucht die Teilchenphysik. Das bedeutet:
1. ein am besten systematisches theoretisches Fundament (z.B. aus Symmetriebetrachtungen heraus, wie bei der SUSY), keine Ad-Hoc-Sachen
2. experimentelle Indizien
Solange es nicht soweit ist, hängt die DM-Theorie mehr oder minder in der Luft.
Für mich ist die ART kein guter Vergleichsmaßstab. Sie beruht auf ganz wenigen Prämissen und mit ein paar allg. Kriterien (z.B. Kovarianz) kommt man ziemlich zwangsläufig zur Feldgleichung. Ein so enges Korsett gibt es nicht für die DM.
Noch eine Bemerkung dazu. Wir hatten damals darüber diskutiert. Die ART macht ja keine Aussagen über eine äußere Krümmung. Dieser Ansatz hätte auch keinen Sinn gemacht. Die Theorie beschreibt eine innere Krümmung in Form einer Riemannschen Mannigfaltigkeit und seit Riemann wissen wir, dass man zwischen innerer und äußerer Krümmung unterscheiden muss. Man kann also aus der ART nicht auf eine äußere Krümmung schließen. Ich war aber der Meinung, dass es zumindest ein recht gutes Indiz für die Existenz einer äußeren Krümmung gäbe, nämlich eine in sich geschlossene Geodäte (da hatte ich etwa die Zylinderwelt als Modell im Kopf). Das ist natürlich auch nur theoretisch und wohl kaum praktikabel anwendbar.
Danke für die Info, wusste ich noch nicht. Die öffentliche Infopolitik des CERN ist leider schlecht. Schade, also nichts Neues. Teilchen jenseits des SM ist abzuschreiben, ist natürlich Quatsch. Das SM lässt wichtige Fragen offen und eine davon sind die Anomalien, die sich um die DM ranken. Die kann man als ein Indiz für die Existenz einer neuen Materieform werten. Ich stelle das gar nicht in Abrede, meine Betonung liegt nur auf „Indiz“.
@Physik Fan
Es lohnt nicht, solange der naive Positivismus herrscht wie eine Religion
„Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt.“
Immanuel Kant als er wach wurde aus seinem dogmatischen Schlummer durch David Hume
„Habe Mut, dich deines eigenen Verstandes zu bedienen!“ Schlussfolgerung von Kant
@@Physik Fan
Du darfst allerdings auch nie vergessen, daß es durchaus auch Menschen gibt, die sich für besonders mutig halten.
@Heescher
Ihre Versuche, Alderamin und anderen ein Etikett aufzukleben, damit Sie die Diskussion auch ohne Argumente bestreiten können, werden von Mal zu Mal peinlicher.
Die DM-Theorie ist doch nicht positivistisch, denn es wird eine neue Materieart postuliert, z.T. mit komplexer Struktur. Eher positivistisch, konventionell sind Modifikationen der Grav.theorien. Über die Qualität der Theorien sagt das aber nichts aus. Über den alten Streit zwischen Positivisten und Atomisten, wie er zu Einsteins Zeiten herrschte, sind wir hinaus.