Wetenschap

het feit dat er zoveel verschillende statistische benaderingen zijn die jij al aangeeft in je post maakt het voor mij een stuk 'wiskunde' wat gemaakt is om wishful thinking in de lucht te houden. Je kiest zelf een statistische benadering uit die het dichst bij jouw waarheid komt te liggen. Met 1 dataset kan ik met verschillende benaderingen ook 10 verschillende 'wiskundige' manieren verklaren waarom het zo is. Allemaal individueel zijn ze juist, leg je ze naast elkaar dan spreken ze elkaar tegen.
Dat is dan toch precies die interpretatie waar ik het over heb? Ik kan ook verschillende (foutieve) wiskundige methodes loslaten op cijfers die in zichzelf niks met statistiek te maken hebben. Kijk goed naar wat de statistische testen zeggen, wat ze testen en hoe je het resultaat moet interpreteren. Als je een test doet die niet geschikt is op jouw dataset, dan krijg je zinloze resultaten. Over sommige zaken moet wel consensus worden bereikt, bijvoorbeeld de hoogte van de p-waarde (dus de threshold om je nul-hypothese te verwerpen). Daar zijn normen voor, maar die zijn natuurlijk gekomen uit consensus, en kunnen wel met veld verschillen. Niet heel drastisch, overigens. Maar ook daar wordt vooraf de p-waarde gemeld, en ligt het aan de interpretatie van de cijfers wat je ermee doet. Een hogere p-waarde is een lagere confidence interval, en vice versa. De wiskunde is onveranderd, de interpretatie kan anders zijn. Onderdeel van de interpretatie is dus ook het bepalen welke tests en welke p-waarden geschikt zijn.

Dit zijn geen statistische vraagstukken, maar juist vraagstukken over nauwkeurigheid van je apparatuur. Deze wordt ingegeven door wat de leverancier aan nauwkeurigheid kan benaderen, hij zal al aangeven of je 1 of 10% afwijking kan hebben van je meetwaarde. De manier van meten, de locatie van meten zijn allemaal parameters die invloed hebben op de meting, maar niet iets wat je statistisch gaat bepalen. Je gaat het juist andersom bepalen. Waar moet ik de meting doen om het juiste resultaat te behalen, dus waar zijn de omgevingsfactoren juist niet van toepassing of werken ze juist gunstig mee.
Dat heeft alles te maken met statistiek, werkelijkwaar alles. Die nauwkeurigheid die een leverancier rapporteert is de waarschijnlijkheid dat de werkelijke waarde binnen de genoemde afwijking zit, vaak de 95% confidence interval. (Maar dat hangt af van hoe de leverancier het rapporteert en getest heeft.) Uiteraard probeer je je meetapparatuur zo te gebruiken dat je achtergrond parameters zo'n klein mogelijk effect hebben, maar je blijft altijd een deviatie hebben in de praktijk. Want hetgene wat je meet - je meetprincipe - is heel vaak niet precies datgene wat je wil weten - je meetresultaat.

En dan heb ik het nog niet eens gehad over macro fysische (thermodynamische) grootheden als temperatuur en druk wat gewoon letterlijk een uitwerking is van statistiek op microschaal. Werkt fantastisch. Druk bijvoorbeeld is de kans dat moleculen botsen tegen een oppervlakte en daarmee een kracht uitoefenen. Meer deeltjes -> grotere kans op botsingen -> meer kracht per oppervlakte. En laat kracht per oppervlakte N/m2 nou precies onze macro definitie van druk zijn.

Of als we dieper gaan naar quantumfysica is die link met statistiek nog veel en veel sterker. Quantumtunneling wat alleen uitgelegd kan worden door een probability density (waarschijnlijkheidkromme ? ), de statistische kans dan een deeltje zich op een specifieke plek begeeft, waar hij op de klassieke manier onmogelijk kan zijn. (Heel kort door de bocht nu hoor, als er forummer dit leuk vinden kan ik hier wel eens meer over uitwijden. Of wat filmpjes doorlinken die het veel sneller en slimmer uitleggen dan ik dat kan.)

Ik heb een beetje het gevoel dat we een heel andere definitie van de termen wiskunde en statistiek an sich hebben.
 
Laatst bewerkt:
Die nauwkeurigheid die een leverancier rapporteert is de waarschijnlijkheid dat de werkelijke waarde binnen de genoemde afwijking zit, vaak de 95% confidence interval.

Nee, een leverancier geeft aan wat de maximale afwijking is tov gemeten waarde. Dus een sensor meet 200 met een nauwkeurigheid van 2%, dan weet je de gemeten waarde tussen de 198 en 202 ligt. Als je hele dure sensoren koopt dan krijg je nauwkeurigheid per meetgebied, dus bijvoorbeeld 2% nauwkeurigheid van 0 tot 100, 1% tussen de 100 en 150 en 2% van 150 tot 250.

Een sensor die meet buiten de toleranties wordt afgekeurd.
 
Nee, een leverancier geeft aan wat de maximale afwijking is tov gemeten waarde. Dus een sensor meet 200 met een nauwkeurigheid van 2%, dan weet je de gemeten waarde tussen de 198 en 202 ligt. Als je hele dure sensoren koopt dan krijg je nauwkeurigheid per meetgebied, dus bijvoorbeeld 2% nauwkeurigheid van 0 tot 100, 1% tussen de 100 en 150 en 2% van 150 tot 250.

Een sensor die meet buiten de toleranties wordt afgekeurd.
Dat is inderdaad de praktijk. Bij beter apparatuur kun is die confidence interval hoger, naar 99% of zo hoog als dat je wil. Maar het principe wat erachter schuilt, is een statistisch principe. Dat is mijn punt, niet de uitwerking van 1 voorbeeld.
 
Dat is inderdaad de praktijk. Bij beter apparatuur kun is die confidence interval hoger, naar 99% of zo hoog als dat je wil. Maar het principe wat erachter schuilt, is een statistisch principe. Dat is mijn punt, niet de uitwerking van 1 voorbeeld.

Nee want elke sensor moet een calibratie certificaat hebben waarbij dit gemeten wordt. Zonder certificaat mag je de sensoren helemaal niet gebruiken. Dan is het een gok wat de nauwkeurigheid is van de sensor.
 
Nee want elke sensor moet een calibratie certificaat hebben waarbij dit gemeten wordt. Zonder certificaat mag je de sensoren helemaal niet gebruiken. Dan is het een gok wat de nauwkeurigheid is van de sensor.
Maar dat is het nauw precies! Elke meting is een gok. En hoe nauwkeuriger je apparatuur, hoe beter de gok! Hoe denk je anders dat een 2% onzekerheid tot stand komt? Waarom meet een systeem de ene keer 101 en de andere 99, terwijl we weten dat het 100 zou moeten zijn? Als we een drift weten, dan kunnen we ervoor calibreren/normaliseren. Maar op een gegeven moment is het willekeur, als je alle factoren hebt uitgesloten. Waarom denk je anders dat een enkele meting nooit van (wetenschappelijke) waarde is?

Kijk en ik snap jouw punt wel van de maximale range. Het zal best zo zijn dat een leverancier - als hij ziet dat de daadwerkelijke onzekerheid 2% is - 3% op zn specsheet zet. Dan zit je wat ruimer, kijk maar hoe snel dat gaat met een normale verdeling. Ik ben gewend bij mij meetapparaten dat er hele confidence sheets bijgeleverd worden op basis van randvoorwaarden.

Punt blijft dat een meting altijd een gok is. Een educated gok, dat wel, waar we met grote zekerheid iets over kunnen zeggen.
 
Had ook in natuur en milieu gekund, maar dit klinkt ergens wel een beetje hoopvol.


Als het vooral in Afrika zit gebruik het daar dan ook lekker, met toenemende welvaart in enkele delen van dat continent zal ook de energievraag toenemen.
 
Had ook in natuur en milieu gekund, maar dit klinkt ergens wel een beetje hoopvol.


Als het vooral in Afrika zit gebruik het daar dan ook lekker, met toenemende welvaart in enkele delen van dat continent zal ook de energievraag toenemen.
Ze hebben energie zat daar door de hele dag niks te doen.
 
Op dit forum ligt het wel eens anders! :ROFL:


"... of betrokken zijn bij virtuele forums”, aldus de onderzoeker. “Die banden ontstaan vaak door gedeelde overtuigingen, waarden en interesses. Maar dat kan ook leiden tot ‘groepsdenken’, wat ervoor kan zorgen dat mensen uit die groep onredelijke overtuigingen aan gaan hangen.”

*Kuch Derksen Kuch*

Topartikel (Y)
 

Interessant filmpje over hoe gevaarlijk paracetamol kan zijn bij een overdosis. Wees gewaarschuwd!
 

Interessant filmpje over hoe gevaarlijk paracetamol kan zijn bij een overdosis. Wees gewaarschuwd!
Shit, dus je moet gewoon de bijsluiter lezen en opvolgen, je verwacht het niet.
 
Shit, dus je moet gewoon de bijsluiter lezen en opvolgen, je verwacht het niet.
Dat klinkt heel logisch natuurlijk, maar paracetamol is zo standaard dat mensen er niet meer over nadenken. Het was mij ook niet bekend wat de gevolgen kunnen zijn, ondanks dat de bijsluiter echt wel een keer gelezen heb.

Maar goed, ik zou zelf nooit een volledige strip paracetamol nemen. Als je dat doet ben je ook gewoon echt een beetje dom.
 
Dat klinkt heel logisch natuurlijk, maar paracetamol is zo standaard dat mensen er niet meer over nadenken. Het was mij ook niet bekend wat de gevolgen kunnen zijn, ondanks dat de bijsluiter echt wel een keer gelezen heb.

Maar goed, ik zou zelf nooit een volledige strip paracetamol nemen. Als je dat doet ben je ook gewoon echt een beetje dom.
Wel eens het verwisseld met plaspillen?
 

Interessant filmpje over hoe gevaarlijk paracetamol kan zijn bij een overdosis. Wees gewaarschuwd!

Gelukkig moet er heel wat gebeuren voordat ik überhaupt overweeg om er 1 of 2 in te nemen.
Die gast nam er 20. 20!!! Manmanman.:FP:

Leuk filmpje (Y)
 

Goede investering of roekeloos?
Gezien de voorraad (vloeibaar) helium om magneten extreem te koelen eindig is - en de voorraad binnen 50 jaar op lijkt te zijn - not to mention future applications - lijkt een project als de HHC (huge hadron collider) me wel n dingetje..
 
Gezien de voorraad (vloeibaar) helium om magneten extreem te koelen eindig is - en de voorraad binnen 50 jaar op lijkt te zijn - not to mention future applications - lijkt een project als de HHC (huge hadron collider) me wel n dingetje..
Zeker. Als je zo'n grote investering doet, moet de werking en het onderhoud wel gewaarborgd zijn voor langere tijd. Helium wordt nu overigens al erg snel erg veel duurder, met soms zelfs een stop op de levering. Ik weet niet hoeveel hij dat bijvoorbeeld gebruikt en of er andere koelers mogelijk zijn.

Investeren in fundamenteel onderzoek lijkt me wel altijd belangrijk. Maar het blijft erg lastig in te schatten welk fundamenteel onderzoek, hoeveel geld dat mag kosten, en wat de kans op goeie resultaten is.
 
Terug
Bovenaan Onderaan