CNG MrKrateos
Assistent Bondscoach
Dat is dan toch precies die interpretatie waar ik het over heb? Ik kan ook verschillende (foutieve) wiskundige methodes loslaten op cijfers die in zichzelf niks met statistiek te maken hebben. Kijk goed naar wat de statistische testen zeggen, wat ze testen en hoe je het resultaat moet interpreteren. Als je een test doet die niet geschikt is op jouw dataset, dan krijg je zinloze resultaten. Over sommige zaken moet wel consensus worden bereikt, bijvoorbeeld de hoogte van de p-waarde (dus de threshold om je nul-hypothese te verwerpen). Daar zijn normen voor, maar die zijn natuurlijk gekomen uit consensus, en kunnen wel met veld verschillen. Niet heel drastisch, overigens. Maar ook daar wordt vooraf de p-waarde gemeld, en ligt het aan de interpretatie van de cijfers wat je ermee doet. Een hogere p-waarde is een lagere confidence interval, en vice versa. De wiskunde is onveranderd, de interpretatie kan anders zijn. Onderdeel van de interpretatie is dus ook het bepalen welke tests en welke p-waarden geschikt zijn.het feit dat er zoveel verschillende statistische benaderingen zijn die jij al aangeeft in je post maakt het voor mij een stuk 'wiskunde' wat gemaakt is om wishful thinking in de lucht te houden. Je kiest zelf een statistische benadering uit die het dichst bij jouw waarheid komt te liggen. Met 1 dataset kan ik met verschillende benaderingen ook 10 verschillende 'wiskundige' manieren verklaren waarom het zo is. Allemaal individueel zijn ze juist, leg je ze naast elkaar dan spreken ze elkaar tegen.
Dat heeft alles te maken met statistiek, werkelijkwaar alles. Die nauwkeurigheid die een leverancier rapporteert is de waarschijnlijkheid dat de werkelijke waarde binnen de genoemde afwijking zit, vaak de 95% confidence interval. (Maar dat hangt af van hoe de leverancier het rapporteert en getest heeft.) Uiteraard probeer je je meetapparatuur zo te gebruiken dat je achtergrond parameters zo'n klein mogelijk effect hebben, maar je blijft altijd een deviatie hebben in de praktijk. Want hetgene wat je meet - je meetprincipe - is heel vaak niet precies datgene wat je wil weten - je meetresultaat.Dit zijn geen statistische vraagstukken, maar juist vraagstukken over nauwkeurigheid van je apparatuur. Deze wordt ingegeven door wat de leverancier aan nauwkeurigheid kan benaderen, hij zal al aangeven of je 1 of 10% afwijking kan hebben van je meetwaarde. De manier van meten, de locatie van meten zijn allemaal parameters die invloed hebben op de meting, maar niet iets wat je statistisch gaat bepalen. Je gaat het juist andersom bepalen. Waar moet ik de meting doen om het juiste resultaat te behalen, dus waar zijn de omgevingsfactoren juist niet van toepassing of werken ze juist gunstig mee.
En dan heb ik het nog niet eens gehad over macro fysische (thermodynamische) grootheden als temperatuur en druk wat gewoon letterlijk een uitwerking is van statistiek op microschaal. Werkt fantastisch. Druk bijvoorbeeld is de kans dat moleculen botsen tegen een oppervlakte en daarmee een kracht uitoefenen. Meer deeltjes -> grotere kans op botsingen -> meer kracht per oppervlakte. En laat kracht per oppervlakte N/m2 nou precies onze macro definitie van druk zijn.
Of als we dieper gaan naar quantumfysica is die link met statistiek nog veel en veel sterker. Quantumtunneling wat alleen uitgelegd kan worden door een probability density (waarschijnlijkheidkromme ? ), de statistische kans dan een deeltje zich op een specifieke plek begeeft, waar hij op de klassieke manier onmogelijk kan zijn. (Heel kort door de bocht nu hoor, als er forummer dit leuk vinden kan ik hier wel eens meer over uitwijden. Of wat filmpjes doorlinken die het veel sneller en slimmer uitleggen dan ik dat kan.)
Ik heb een beetje het gevoel dat we een heel andere definitie van de termen wiskunde en statistiek an sich hebben.
Laatst bewerkt: