<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Matemáticas - Física médica</title>
	<atom:link href="https://fisicamedica.es/general/matematicas/feed/" rel="self" type="application/rss+xml" />
	<link>https://fisicamedica.es/general/matematicas/</link>
	<description>La Física Médica es el área de conocimiento dedicada a la prevención, diagnóstico y tratamiento de las enfermedades humanas, aplicando los principios, instrumentos y métodos propios de la ciencia física.</description>
	<lastBuildDate>Thu, 28 Nov 2024 12:45:51 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://fisicamedica.es/wp-content/uploads/2022/11/cropped-imagen-no-user-32x32.png</url>
	<title>Matemáticas - Física médica</title>
	<link>https://fisicamedica.es/general/matematicas/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Todo lo que comes previene o causa cáncer (o las dos cosas a la vez)</title>
		<link>https://fisicamedica.es/blog/todo-lo-que-comes-previene-o-causa-cancer-o-las-dos-cosas-a-la-vez/</link>
					<comments>https://fisicamedica.es/blog/todo-lo-que-comes-previene-o-causa-cancer-o-las-dos-cosas-a-la-vez/#respond</comments>
		
		<dc:creator><![CDATA[Ines Garmendia]]></dc:creator>
		<pubDate>Thu, 28 Nov 2024 12:28:33 +0000</pubDate>
				<category><![CDATA[Actualidad]]></category>
		<category><![CDATA[Matemáticas]]></category>
		<category><![CDATA[Medicina]]></category>
		<category><![CDATA[Sociedad]]></category>
		<category><![CDATA[cáncer]]></category>
		<guid isPermaLink="false">http://desayunoconfotones.org/?p=4434</guid>

					<description><![CDATA[<p>Todos tenemos, en mayor o menor medida, la misma sensación: lo que hoy se descubre que es bueno para algo no tardará por ser refutado por otro estudio en el que se diga todo lo contrario. Que si antes a los bebés se les ponía boca abajo para dormir y ahora es boca arriba, que [&#8230;]</p>
<p>The post <a href="https://fisicamedica.es/blog/todo-lo-que-comes-previene-o-causa-cancer-o-las-dos-cosas-a-la-vez/">Todo lo que comes previene o causa cáncer (o las dos cosas a la vez)</a> appeared first on <a href="https://fisicamedica.es">Física médica</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p style="text-align:justify;"><span style="font-weight:400;">Todos tenemos, en mayor o menor medida, la misma sensación: lo que hoy se descubre que es bueno para algo no tardará por ser refutado por otro estudio en el que se diga todo lo contrario. Que si antes a los bebés se les ponía boca abajo para dormir y </span><a href="http://www.hola.com/salud/enciclopedia-salud/2010031245177/pediatria/bebe/el-bebe-siempre-debe-dormir-boca-arriba/"><span style="font-weight:400;">ahora es boca arriba</span></a><span style="font-weight:400;">, que si había que beber un vaso de vino tinto al día y ahora resulta que </span><a href="http://www.elconfidencial.com/alma-corazon-vida/2012-08-30/beber-una-sola-copa-de-vino-al-dia-triplica-el-riesgo-de-contraer-cancer_502806/"><span style="font-weight:400;">ni vino, ni cerveza,</span></a><span style="font-weight:400;"> etc, etc&#8230; Se trata de un hecho tan extendido en la literatura científica que incluso ha sido bautizado como </span><a href="https://en.wikipedia.org/wiki/Proteus_phenomenon"><span style="font-weight:400;">fenómeno de Proteo</span></a><span style="font-weight:400;"> en honor a un antiguo Dios griego del mar con una marcada propensión a cambiar de aspecto.</span></p>
<div id="attachment_4436" style="width: 480px" class="wp-caption aligncenter"><a href="https://bnnas.files.wordpress.com/2016/02/randommedicalnews.png" rel="attachment wp-att-4436"><img fetchpriority="high" decoding="async" aria-describedby="caption-attachment-4436" class="wp-image-4436 size-full" src="https://bnnas.files.wordpress.com/2016/02/randommedicalnews.png" alt="La noticia médica del día. Figura extraída de referencia [4]" width="470" height="304" srcset="https://fisicamedica.es/wp-content/uploads/2016/02/randommedicalnews.png 902w, https://fisicamedica.es/wp-content/uploads/2016/02/randommedicalnews-300x194.png 300w, https://fisicamedica.es/wp-content/uploads/2016/02/randommedicalnews-768x496.png 768w, https://fisicamedica.es/wp-content/uploads/2016/02/randommedicalnews-480x310.png 480w" sizes="(max-width: 470px) 100vw, 470px" /></a><p id="caption-attachment-4436" class="wp-caption-text">La noticia médica del día. Figura extraída de referencia [4]</p></div>
<h2 style="text-align:justify;"><i><span style="font-weight:400;">¿Es que todo lo que comemos está relacionado con el cáncer?</span></i></h2>
<p style="text-align:justify;"><span style="font-weight:400;">En 2013, Jonathan D. Schoenfeld y John PA Ioannidis </span><a href="http://ajcn.nutrition.org/content/97/1/127.full.pdf+html"><span style="font-weight:400;">publicaron un estudio </span></a><span style="font-weight:400;">titulado «</span><i><span style="font-weight:400;">Is everything we eat associated with cancer? A systematic cookbook review</span></i><span style="font-weight:400;">«, en el que hacían una revisión de la literatura publicada en torno a la ingredientes alimentarios y el cáncer. Los autores seleccionaron 50 ingredientes al azar de un típico libro de recetas americano con la intención de ver cuántos estudios se habían publicado relacionando la alimentación con un aumento o disminución del riesgo de padecer cáncer. Querían hacerse una idea de cuántos estudios había y qué tipo de conclusiones sacaban.</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">La búsqueda de artículos en </span><a href="http://www.ncbi.nlm.nih.gov/pubmed"><span style="font-weight:400;">PubMed</span></a><span style="font-weight:400;"> encontró que para el 80% de los ingredientes -40 de los 50 alimentos seleccionados-, existía al menos un estudio informando sobre el riesgo de padecer cáncer. En la </span><span style="font-weight:400;">Figura 1</span><span style="font-weight:400;"> podemos observar las asociaciones halladas (cada punto corresponde a un estudio): las positivas (mayor riesgo de cáncer) a la derecha del eje vertical y las negativas (menor riesgo) a la izquierda. En el gráfico de arriba los estudios se clasifican según el tipo de cáncer, y en de abajo según el tipo de alimento. (Sólo se muestran los ingredientes con 10 estudios o más relacionados con el cáncer).</span></p>
<div id="attachment_4443" style="width: 450px" class="wp-caption aligncenter"><a href="https://bnnas.files.wordpress.com/2016/02/figure1ioannidis-440x640.jpg" rel="attachment wp-att-4443"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-4443" class="size-full wp-image-4443" src="https://bnnas.files.wordpress.com/2016/02/figure1ioannidis-440x640.jpg" alt="Asociaciones entre alimentos y el riesgo de cáncer (aumento de riesgo en la parte derecha, disminución del riesgo en la izquierda). Figura extraída de referencia [1]" width="440" height="640" /></a><p id="caption-attachment-4443" class="wp-caption-text">Asociaciones entre alimentos y el riesgo de cáncer (aumento de riesgo en la parte derecha, disminución del riesgo en la izquierda). Figura extraída de referencia [1]</p></div>
<p style="text-align:justify;"><span style="font-weight:400;">¿Cómo es que los diferentes estudios podían hallar, para un mismo ingrediente, una asociación así como la contraria? Para aclararlo Ioannidis y Schoenfeld analizaron la distribución de los p-valores resultado de los análisis de datos presentados en las publicaciones, y se encontraron con que la significación estadística era demasiado débil, o incluso inexistente, en gran parte de los estudios. Es decir: por mucho que se afirmase haber encontrado asociaciones con el cáncer, la evidencia aportada no era suficiente en muchos de los estudios.</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">Un examen riguroso de una buena colección de publicaciones en el área de la epidemiología de los alimentos hacía ver que </span><a href="http://francis.naukas.com/2012/12/01/atencion-pregunta-todo-lo-que-comemos-causa-cancer/"><span style="font-weight:400;">no se había determinado una relación clara</span></a><span style="font-weight:400;"> entre los alimentos y el cáncer, a pesar de todo el ruido generado. ¿Significaba esto que los estudios de PubMed eran falsos?</span></p>
<h2 style="text-align:justify;"><i><span style="font-weight:400;">Los p-valores, el quid de la cuestión</span></i></h2>
<p style="text-align:justify;"><span style="font-weight:400;">Los estudios sobre los alimentos no eran fraudulentos, pero seguramente hacían un uso poco riguroso de una herramienta popular en estadística: el p-valor.</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">La historia comienza hace unos noventa años con el </span><i><span style="font-weight:400;">gentleman</span></i> <a href="https://en.wikipedia.org/wiki/Ronald_Fisher"><span style="font-weight:400;">Sir Ronald. A. Fisher</span></a><span style="font-weight:400;"> (1890-1960), biólogo, genetista y estadístico británico y uno de los padres de la estadística moderna. Fisher popularizó una herramienta llamada p-valor, inicialmente introducida por otro gran estadístico, </span><a href="https://en.wikipedia.org/wiki/Karl_Pearson"><span style="font-weight:400;">Karl Pearson</span></a><span style="font-weight:400;"> (1857-1936).</span></p>
<div id="attachment_4450" style="width: 480px" class="wp-caption aligncenter"><a href="https://bnnas.files.wordpress.com/2016/02/photojoiner.jpg" rel="attachment wp-att-4450"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-4450" class="size-full wp-image-4450" src="https://bnnas.files.wordpress.com/2016/02/photojoiner.jpg" alt="Karl Pearson (1857-1936) y Ronald A. Fisher (1890-1960), inventores del p-valor" width="470" height="264" srcset="https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner.jpg 1920w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner-300x169.jpg 300w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner-1024x576.jpg 1024w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner-768x432.jpg 768w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner-1536x864.jpg 1536w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner-1080x608.jpg 1080w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner-1280x720.jpg 1280w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner-980x551.jpg 980w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner-480x270.jpg 480w" sizes="auto, (max-width: 470px) 100vw, 470px" /></a><p id="caption-attachment-4450" class="wp-caption-text">Karl Pearson (1857-1936) y Ronald A. Fisher (1890-1960), inventores del p-valor</p></div>
<p style="text-align:justify;"><span style="font-weight:400;">El p-valor</span><span style="font-weight:400;"> ayuda a razonar sobre la evidencia proporcionada por un experimento en términos de probabilidades. Por ejemplo, supongamos que diseñamos un experimento para determinar si el café produce cáncer. Se toma un grupo de consumidores sanos y otro, de características comparables </span><span style="font-weight:400;">–</span><span style="font-weight:400;">edad, sexo, estilo de vida&#8230;</span><span style="font-weight:400;">–</span><span style="font-weight:400;">, de no consumidores. Se les hace un seguimiento durante un tiempo y </span><span style="font-weight:400;">–</span><span style="font-weight:400;">simplificando mucho</span><span style="font-weight:400;">–</span><span style="font-weight:400;"> al final del experimento se determina la proporción de personas que ha contraído un determinado cáncer. Supongamos que esta proporción resulta un 10% más elevada en el grupo de consumidores que en el grupo de no consumidores. ¿Será la diferencia debida al consumo de café, o puede ser atribuible a una pura casualidad (improbable, aunque posible)? </span></p>
<p style="text-align:justify;">La idea del p-valor es simple: Veamos qué pasa si suponemos que el efecto es nulo (i.e. si pensamos que el café no produce cáncer). Bajo este supuesto, es posible calcular la probabilidad de obtener un 10% o una diferencia superior, por pura casualidad. Razonando así obtenemos una medida de hasta qué punto el experimento está acorde con la idea de que el café no produce cáncer. Fisher usó la palabra “significativo” para referirse a un resultado que mereciera la atención del investigador: si el p-valor era bajo, y de acuerdo con el resto de información a su disposición, el investigador tomaría una decisión en relación al riesgo de consumir café.</p>
<p style="text-align:justify;"><span style="font-weight:400;">Pero, ¿qué era un p-valor bajo? Ahí estaba la pega: la responsabilidad de interpretarlo recaía enteramente en el investigador. Fisher propuso el valor de 0.05 (un 5%) como un umbral convencional: “</span><i><span style="font-weight:400;">We shall not often be astray if we draw a conventional line at 0.05&#8230;</span></i><span style="font-weight:400;">» (“No estaremos desencaminados si fijamos una línea convencional en el 0.05&#8230;”).</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">Otros dos estadísticos, </span><a href="https://en.wikipedia.org/wiki/Jerzy_Neyman"><span style="font-weight:400;">Jerzy Neyman</span></a><span style="font-weight:400;"> (1894-1981) y </span><a href="https://en.wikipedia.org/wiki/Egon_Pearson"><span style="font-weight:400;">Egon Pearson</span></a><span style="font-weight:400;"> (1895-1980, hijo de Karl), no sintiéndose cómodos con la subjetividad del procedimiento de Fisher, fueron un paso más allá e introdujeron los test de hipótesis. Antes de realizar el experimento, se diseñaría una regla para poder tomar la decisión de si “rechazar” o “no rechazar” la hipótesis nula </span><span style="font-weight:400;">–</span><span style="font-weight:400;">i.e. que el café no produce cáncer</span><span style="font-weight:400;">–</span><span style="font-weight:400;">. Una vez realizado el experimento, los datos nos indicarían qué conclusión sacar.</span></p>
<div id="attachment_4448" style="width: 480px" class="wp-caption aligncenter"><a href="https://bnnas.files.wordpress.com/2016/02/photojoiner_2.jpg" rel="attachment wp-att-4448"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-4448" class="size-full wp-image-4448" src="https://bnnas.files.wordpress.com/2016/02/photojoiner_2.jpg" alt="Egon Pearson (1895-1980) y Jerzy Neyman (1894-1981), propusieron los test de hipótesis como medio para evaluar hipótesis científicas." width="470" height="264" srcset="https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2.jpg 1920w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2-300x169.jpg 300w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2-1024x576.jpg 1024w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2-768x432.jpg 768w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2-1536x864.jpg 1536w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2-1080x608.jpg 1080w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2-1280x720.jpg 1280w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2-980x551.jpg 980w, https://fisicamedica.es/wp-content/uploads/2016/02/photojoiner_2-480x270.jpg 480w" sizes="auto, (max-width: 470px) 100vw, 470px" /></a><p id="caption-attachment-4448" class="wp-caption-text">Egon Pearson (1895-1980) y Jerzy Neyman (1894-1981), propusieron los test de hipótesis como medio para evaluar hipótesis científicas.</p></div>
<p style="text-align:justify;"><span style="font-weight:400;">En su razonamiento, Neyman y Pearson introdujeron la idea de “hipótesis alternativa” </span><span style="font-weight:400;">–</span><span style="font-weight:400;">suponer que el café produce un efecto determinado, por ejemplo, aumentar el riesgo de cáncer en un 10%</span><span style="font-weight:400;">–</span><span style="font-weight:400;"> como contrapartida de la “hipótesis nula” </span><span style="font-weight:400;">–</span><span style="font-weight:400;">suponer la ausencia de efecto</span><span style="font-weight:400;">–</span><span style="font-weight:400;">. Así pues, eran dos las hipótesis que se evaluaban, lo que daba lugar a dos posibles formas de equivocarse: el “error de “tipo I”, que ocurría cuando el investigador decidía rechazar la hipótesis nula siendo ésta cierta (i.e. cuando erróneamente se concluía que existía un efecto); y el “error de tipo II”, que se cometía al aceptar la hipótesis nula siendo cierta la alternativa (existía un efecto dado).</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">Controlando ambos tipos de errores (un umbral para el error de tipo I, nivel alfa, y otro para para el error de tipo II, nivel beta), era posible controlar todos los posibles errores al sacar conclusiones de experimentos, avanzando así en el conocimiento científico. En palabras de Neyman y Pearson “(&#8230;) </span><i><span style="font-weight:400;">without hoping to know whether each separate hypothesis is true or false, we may search for rules to govern our behavior with regard to them, in following which we insure that, in the long run of experience, we shall not often be wrong.</span></i><span style="font-weight:400;">’” (“Sin pretender saber si cada hipótesis por separado es verdadera o falsa, podremos buscar reglas que rijan nuestro comportamiento con respecto a ellas, de tal manera que siguiéndolas aseguraremos que, al acumular experiencia, no nos equivocaremos demasiado a menudo”).</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">Pero, aunque Neyman y Pearson nunca propusieron emplear el nivel 5% como una línea decisoria para el error de tipo I, este umbral caló hondo en la comunidad científica, convirtiéndose casi en un objetivo “per se” en todo tipo de experimentos. Los resultados eran divididos en dos clases, los “estadísticamente significativos” (p&lt;alfa) y los “no significativos” (p&gt;=alfa), con alfa fijado en 0.05, y solamente los resultados “significativos” eran publicados, reduciendo a menudo el análisis de datos a un “tuneo” de los parámetros de tal manera que dieran lugar a p-valores inferiores a 0.05 (actividad que se conoce como </span><a href="http://journals.plos.org/plosbiology/article?id=10.1371/journal.pbio.1002106#pbio.1002106.ref003"><span style="font-weight:400;">“p-hacking”</span></a><span style="font-weight:400;">).</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">Todo ello tuvo como consecuencia un deterioro en la calidad de las publicaciones científicas y una </span><a href="http://science.sciencemag.org/content/349/6251/aac4716.full?ijkey=1xgFoCnpLswpk&amp;keytype=ref&amp;siteid=sci"><span style="font-weight:400;">crisis de reproducibilidad en muchas áreas de la ciencia</span></a><span style="font-weight:400;">, debido a que muchos resultados, establecidos sobre la base de una evidencia demasiado pobre, no eran reproducibles por equipos de investigadores independientes.</span></p>
<h2 style="text-align:justify;"><i><span style="font-weight:400;">El valor predictivo positivo de un estudio, o hasta qué punto es cierto un hallazgo</span></i></h2>
<p style="text-align:justify;"><span style="font-weight:400;">Muchos de los estudios sobre los alimentos de Ioannidis y Schoenfeld eran seguramente resultado de un sesgo de publicación (la tendencia a publicar solamente los resultados positivos) y del “p-hacking” (explorar las posibles combinaciones al analizar los datos hasta conseguir un resultado positivo).</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">Sin embargo, no era éste el único problema. La epidemiología de los alimentos es un campo en el que se pueden estudiar todo tipo de cosas (existan efectos o no). Podemos plantear estudios para ver si el café, la pimienta o la carne de vacuno son cancerígenos. Algunas de las investigaciones plantearán estudiar un efecto real (que se da en la naturaleza), mientras que otros buscarán un efecto que no existe. A priori, no sabemos cuál de ellos está en lo cierto. Y, estadísticamente, es posible descartar la hipótesis nula en ambos casos.</span></p>
<p style="text-align:justify;">Ahora bien, para un estudio con un p-valor dado (imaginemos que éste es inferior a 0.05, y que por tanto se ha publicado), ¿podemos estimar la probabilidad de que el efecto estudiado exista de verdad? La respuesta es sí. Esa probabilidad se denomina “valor predictivo positivo” del estudio.</p>
<p style="text-align:justify;"><span style="font-weight:400;">John P.A. Ioannidis, el mismo autor del estudio de los alimentos, publicó en 2005 un ensayo con un título rotundo: “</span><i><span style="font-weight:400;">Why most published research findings are false</span></i><span style="font-weight:400;">” (“Por qué son falsos la mayoría de hallazgos publicados”). Ioannidis desarrolló una formulación teórica sobre la tasa de falsos positivos, lo que permitía llegar a una serie de corolarios aplicables a cualquier área de la ciencia. La fórmula más básica para el valor predictivo positivo de un estudio  (PPV o “positive predictive value”) es la siguiente:</span></p>
<p style="text-align:center;">PPV = (1-beta) R /[(1- beta)*R+alfa]</p>
<p style="text-align:justify;">En la fórmula intervienen el alfa y beta de Neyman-Pearson, de modo que si alfa o beta disminuyen, el estudio tiene mayor probabilidad de ser cierto (como era de esperar). La novedad es que también interviene un tercer elemento, R, la razón entre el número de estudios verdaderos y falsos en un determinado campo de estudio. Imaginemos que de 1000 estudios que pudiéramos plantear, 500 fueran verdaderos y 500 falsos (aunque esto, a priori, no lo podamos saber). En ese caso R valdría 1 (por cada estudio verdadero, hay uno falso).</p>
<p style="text-align:justify;">Empleando la fórmula anterior vemos que en un área de la ciencia con un R=1, para un estudio con un nivel alfa igual a 0.05 y un beta igual a 0.2 (niveles habitualmente usados), la probabilidad de que el hallazgo sea falso será del 5.9/100 (en la tabla no se usa beta sino 1-beta, el poder del estudio, esto es, 1-beta = 0.8). Y vemos otras variantes en la tabla. Si para ese mismo estudio exigimos un nivel alfa de 0.001 (esto es, con el mismo diseño, nos ponemos más estrictos, y no concluimos que se trata de un resultado positivo hasta obtener un p-valor inferior a 0.001), la probabilidad de que el hallazgo sea falso baja hasta 0.1/100.</p>
<p style="text-align:justify;"><span style="font-weight:400;">Así pues vemos que exigir un p-valor por debajo de 0.001 ayuda, pero R actúa como un factor limitante: en un área muy especulativa, en la que solamente el 1% de las ideas planteadas fuesen correctas, con 1-beta igual a 0.8 (valor estándar), aún exigiendo un p-valor de 0.001, tendríamos un 11% de falsos positivos según la tabla.</span></p>
<div id="attachment_4438" style="width: 480px" class="wp-caption aligncenter"><a href="https://bnnas.files.wordpress.com/2016/02/captura-de-pantalla-2016-01-24-a-las-13-05-48.png" rel="attachment wp-att-4438"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-4438" class="size-full wp-image-4438" src="https://bnnas.files.wordpress.com/2016/02/captura-de-pantalla-2016-01-24-a-las-13-05-48.png" alt="Proporción de resultados “significativos” que realmente son falsos positivos, en función del poder del estudio, el p-valor y el porcentaje de suposiciones “a priori” correctas. Tabla extraída de [3]" width="470" height="304" srcset="https://fisicamedica.es/wp-content/uploads/2016/02/captura-de-pantalla-2016-01-24-a-las-13-05-48.png 530w, https://fisicamedica.es/wp-content/uploads/2016/02/captura-de-pantalla-2016-01-24-a-las-13-05-48-300x194.png 300w, https://fisicamedica.es/wp-content/uploads/2016/02/captura-de-pantalla-2016-01-24-a-las-13-05-48-480x311.png 480w" sizes="auto, (max-width: 470px) 100vw, 470px" /></a><p id="caption-attachment-4438" class="wp-caption-text">Proporción de resultados “significativos” que realmente son falsos positivos, en función del poder del estudio, el p-valor y el porcentaje de suposiciones “a priori” correctas. Tabla extraída de [3]</p></div>
<h2 style="text-align:justify;"><i><span style="font-weight:400;">Una estimación directa en las publicaciones médicas</span></i></h2>
<p style="text-align:justify;"><span style="font-weight:400;">La tabla anterior sigue el modelo teórico de Ioannidis, pero ¿qué pasa en la práctica? En 2013, Leah R. Jager y Jeffrey T. Leek (a este último lo podéis seguir en </span><a href="https://twitter.com/jtleek"><span style="font-weight:400;">Twitter</span></a><span style="font-weight:400;"> y en el blog </span><a href="http://simplystatistics.org/"><span style="font-weight:400;">SimplyStatistics</span></a><span style="font-weight:400;">) se propusieron hacer directamente </span><a href="http://biostatistics.oxfordjournals.org/content/15/1/1.full"><span style="font-weight:400;">una estimación de la proporción de falsos positivos (i.e. estudios que concluían haber encontrado un efecto sin que tal efecto exista en realidad) en revistas médicas</span></a><span style="font-weight:400;">, y situaron la cifra en torno al 14%. </span></p>
<p style="text-align:justify;"><span style="font-weight:400;">Los autores recogieron 5.322 p-valores reportados en los resúmenes de los 77.430 artículos publicados en las revistas The Lancet, JAMA, NEJM, BMJ, y AJE entre los años 2000 y 2010, y los utilizaron como dato para realizar la estimación. Para realizar el cálculo se basaron en algoritmos ya empleados por otros autores (</span><a href="http://onlinelibrary.wiley.com/doi/10.1002/gepi.1124/abstract;jsessionid=9436ADB65EC498E9998AFEBE6225BD4D.f02t01"><span style="font-weight:400;">Efron y Tibshirani,</span></a><span style="font-weight:400;"> en 2002, en el campo de la genómica). Jager y Leek no solo vieron que la proporción de “hallazgos falsos” era más baja de lo indicado por Ioannidis y otros; vieron, además, que esta proporción no aumentaba notablemente con los años o con el número de artículos publicados. En cualquier caso, la cifra no hacía pensar que “la mayoría de los hallazgos publicados” fuesen falsos en medicina.</span></p>
<div id="attachment_4437" style="width: 480px" class="wp-caption aligncenter"><a href="https://bnnas.files.wordpress.com/2016/02/captura-de-pantalla-2016-02-02-a-las-13-59-07.png" rel="attachment wp-att-4437"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-4437" class="size-full wp-image-4437" src="https://bnnas.files.wordpress.com/2016/02/captura-de-pantalla-2016-02-02-a-las-13-59-07.png" alt="Estimación de la proporción de “hallazgos falsos” en las publicaciones médicas a lo largo de los años y según la revista. Extraído de [5]." width="470" height="404" srcset="https://fisicamedica.es/wp-content/uploads/2016/02/captura-de-pantalla-2016-02-02-a-las-13-59-07.png 499w, https://fisicamedica.es/wp-content/uploads/2016/02/captura-de-pantalla-2016-02-02-a-las-13-59-07-300x258.png 300w, https://fisicamedica.es/wp-content/uploads/2016/02/captura-de-pantalla-2016-02-02-a-las-13-59-07-480x413.png 480w" sizes="auto, (max-width: 470px) 100vw, 470px" /></a><p id="caption-attachment-4437" class="wp-caption-text">Estimación de la proporción de “hallazgos falsos” en las publicaciones médicas a lo largo de los años y según la revista. Extraído de [5].</p></div>
<p style="text-align:justify;"><span style="font-weight:400;">En los últimos años, la credibilidad de muchos hallazgos en ciencia ha quedado en entredicho por culpa de prácticas poco rigurosas como la de hackear p-valores y publicar solamente los resultados “estadísticamente significativos” (con un p-valor inferior a 0.05). Ésta y otras prácticas impiden el avance de la ciencia y han sido criticadas desde hace muchos años, incluso </span><a href="http://www.nature.com/news/psychology-journal-bans-p-values-1.17001"><span style="font-weight:400;">directamente prohibidas</span></a><span style="font-weight:400;"> por algunas revistas. </span></p>
<p style="text-align:justify;">La formulación teórica propuesta por Ioannidis en su conocido ensayo nos ayuda a valorar al completo el panorama: a un empleo dudoso de la estadística, se le suma a la exploración de áreas muy novedosas y con un ratio de hipótesis verdaderas y falsas (R) posiblemente muy bajo, seguramente dando lugar a un cóctel de falsos hallazgos.</p>
<p style="text-align:justify;"><span style="font-weight:400;">Pero, ¿es la situación tan desesperada como la pinta Ioannidis en su ensayo? Pues hay quien dice que no. Hemos visto que Leah R. Jager y Jeffrey T. Leek tienen razones para situar la proporción de hallazgos falsos en torno al 14% en las publicaciones médicas, así como para suponer que esta proporción no aumenta notablemente con los años ni con el número de artículos. Pero el rifirrafe continúa porque Ioannidis publicó el comentario titulado “ </span><a href="http://www.ncbi.nlm.nih.gov/pubmed/24068251"><span style="font-weight:400;">Why «An estimate of the science-wise false discovery rate and application to the top medical literature» is false.</span></a><span style="font-weight:400;">”</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">En cualquier caso, y mientras la discusión continúa en esas altas esferas, para nosotros los mortales es preciso, y además técnicamente posible, adoptar prácticas tan buenas y necesarias como la de </span><a href="https://figshare.com/"><span style="font-weight:400;">compartir los datos</span></a><span style="font-weight:400;">, </span><a href="http://rmarkdown.rstudio.com/"><span style="font-weight:400;">compartir el software</span></a><span style="font-weight:400;"> para que otros puedan reproducir los cálculos, y compartir los resultados en </span><a href="http://arxiv.org/"><span style="font-weight:400;">sitios</span></a><span style="font-weight:400;"> donde todo el mundo los pueda leer, discutir y contrastar. Conseguiremos que la ciencia avance de forma segura solo si caminamos por esta senda.</span></p>
<p style="text-align:justify;"><b>Referencias:</b></p>
<p style="text-align:justify;">[1] Schoenfeld, J. D., &amp; Ioannidis, J. P. (2013). Is everything we eat associated with cancer? A systematic cookbook review. The American journal of clinical nutrition, 97(1), 127-134.</p>
<p style="text-align:justify;"><span style="font-weight:400;">[2] Ioannidis, J. P. (2005). Why most published research findings are false. Chance, 18(4), 40-47.</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">[3] Wacholder, S., Chanock, S., Garcia-Closas, M., &amp; Rothman, N. (2004). Assessing the probability that a positive report is false: an approach for molecular epidemiology studies. Journal of the National Cancer Institute, 96(6), 434-442</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">[4] Sterne, J. A., &amp; Smith, G. D. (2001). Sifting the evidence—what&#8217;s wrong with significance tests?. Physical Therapy, 81(8), 1464-1469.</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">[5] Jager, L. R., &amp; Leek, J. T. (2014). An estimate of the science-wise false discovery rate and application to the top medical literature. Biostatistics, 15(1), 1-12.</span></p>
<p style="text-align:justify;"><span style="font-weight:400;">[6] Biau, D. J., Jolles, B. M., &amp; Porcher, R. (2010). P Value and the Theory of Hypothesis Testing: An Explanation for New Researchers. Clinical orthopaedics and related research, 468(3), 885-892.</span></p>
<p style="text-align:justify;">[7] Francisco R. Villatoro. (2012) Atención, pregunta: ¿Todo lo que comemos causa cáncer? Naukas http://francis.naukas.com/2012/12/01/atencion-pregunta-todo-lo-que-comemos-causa-cancer/</p>
<p>The post <a href="https://fisicamedica.es/blog/todo-lo-que-comes-previene-o-causa-cancer-o-las-dos-cosas-a-la-vez/">Todo lo que comes previene o causa cáncer (o las dos cosas a la vez)</a> appeared first on <a href="https://fisicamedica.es">Física médica</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fisicamedica.es/blog/todo-lo-que-comes-previene-o-causa-cancer-o-las-dos-cosas-a-la-vez/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Números aleatorios, radiaciones y métodos de Monte Carlo</title>
		<link>https://fisicamedica.es/blog/numeros-aleatorios-radiaciones-y-metodos-de-monte-carlo/</link>
					<comments>https://fisicamedica.es/blog/numeros-aleatorios-radiaciones-y-metodos-de-monte-carlo/#respond</comments>
		
		<dc:creator><![CDATA[Agustín Válgoma]]></dc:creator>
		<pubDate>Thu, 28 Nov 2024 11:51:33 +0000</pubDate>
				<category><![CDATA[Matemáticas]]></category>
		<category><![CDATA[Método Montecarlo]]></category>
		<guid isPermaLink="false">http://desayunoconfotones.org/?p=3543</guid>

					<description><![CDATA[<p>1.- Introducción Como bien nos explicó Salvador García en El Casino de Monte Carlo y las Radiaciones, el método de Monte Carlo es una herramienta numérica de gran utilidad para resolver problemas complejos de naturaleza probabilística en muchas ramas de la ciencia y la ingeniería. De su análisis quedaba claro que para su uso práctico [&#8230;]</p>
<p>The post <a href="https://fisicamedica.es/blog/numeros-aleatorios-radiaciones-y-metodos-de-monte-carlo/">Números aleatorios, radiaciones y métodos de Monte Carlo</a> appeared first on <a href="https://fisicamedica.es">Física médica</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><strong>1.- Introducción</strong><br />
Como bien nos explicó Salvador García en <a href="http://desayunoconfotones.org/2015/04/23/el-casino-de-monte-carlo-y-las-radiaciones/" target="_blank" rel="noopener">El Casino de Monte Carlo y las Radiaciones</a>, el método de Monte Carlo es una herramienta numérica de gran utilidad para resolver problemas complejos de naturaleza probabilística en muchas ramas de la ciencia y la ingeniería. De su análisis quedaba claro que para su uso práctico eran necesarios recursos computacionales potentes por un lado, y generadores de números aleatorios rápidos y eficientes por otro.<br />
En la entrada de hoy voy a analizar más en profundidad el asunto de los generadores de números aleatorios, su naturaleza y sus limitaciones.<br />
<strong>2.- Generadores de Números Aleatorios Verdaderos (GNAV) y de Números PeudoAleatorios (GNPA)</strong><br />
Los generadores de números aleatorios ideales o verdaderos serían aquellos sistemas o algoritmos informáticos capaces de producir secuencias infinitas de números uniformemente distribuidos, no correlacionados, que superaran cualquier prueba estadística de aleatoriedad y con periodos de repetición infinitos.<br />
¿Existen realmente esos generadores o son una leyenda urbana más?<br />
Ciertamente existen los generadores de números aleatorios verdaderos (GNAV). Son aquellos que utilizan un fenómeno físico aleatorio conocido (por ejemplo el ruido electrónico o el decaimiento radiactivo) y lo incorporan a un ordenador que es el que en definitiva produce el número aleatorio. Los GNAV se emplean en simulaciones, seguridad informática, criptografía, loterías y juegos de azar, por ejemplo.<br />
Curiosamente, el Sistema Nacional de Loterías del Reino Unido utiliza un equipo llamado ERNIE (Electronic Random Number Indicator Equipment) para producir los números de la lotería nacional. La versión actual (ERNIE 4) utiliza el ruido térmico de los transistores para generar números aleatorios verdaderos. La versión original del año 1957 utilizaba el ruido generado por tubos de gas neón. Esta notable diferencia entre nuestro sistema de loterías de bombo con bolas y el británico de fluctuaciones de la naturaleza, y su relación con la idiosincrasia de cada país, seguro que daría para un debate más que interesante en el café de la mañana.<br />
De acuerdo con lo anterior, podríamos construir nuestro propio ERNIE con una fuente radiactiva de Cs-137 para generar números aleatorios y atacar rigurosamente cualquier problema con cálculos de Monte Carlo. Sin embargo, la baja eficiencia y la naturaleza no determinista de los GNAV imponen serias limitaciones que hacen que no sea factible su uso en simulaciones de Monte Carlo. La baja eficiencia hace que sean demasiado lentos para realizar cálculos computacionales en tiempos razonables y la naturaleza no determinista hace que las secuencias generadas no sean reproducibles y, por lo tanto, hacen muy complejo un análisis de su influencia en el cálculo.<br />
Con la llegada de los primeros ordenadores los programadores reconocieron la necesidad de introducir los números aleatorios en sus programas y crearon los primeros algoritmos generadores de números pseudoaleatorios (GNPA). Dado que un ordenador sigue ciegamente las instrucciones que se le dan de una manera secuencial y totalmente predecible nunca podrán producir por sí solo números aleatorios verdaderos. Lo que generan realmente son números casi aleatorios (pseudoaleatorios) que no están uniformemente distribuidos, están correlacionados, son perfectamente reproducibles a partir de un número inicial que se toma como semilla y tienen periodos de repetición finitos. A pesar de estas limitaciones, que hasta cierto punto se pueden superar, los GNPA son mucho más eficientes (rápidos) estando mejor adaptados que GNAV para su implantación en programas que realizan cálculos de Monte Carlo.<br />
<strong>3.- Algoritmos para generar números pseudoaleatorios</strong><br />
Un algoritmo ideal de números pseudoaleatorios sería uno que fuera fácil de implementar, rápido, que consumiera pocos recursos computacionales y que produjera secuencias de números uniformemente distribuidos, con una correlación baja y con periodos de repetición muy largos.<br />
La mayoría de los generadores de números pseudoaleatorios están basados en Generadores de Congruencia Lineal (GCL), Generadores de Fibonacci (GF) o combinaciones y variaciones de ambos. Todos ellos emplean relaciones de recurrencia del tipo N<sub>i</sub>= F(N<sub>i-1</sub>,…, N<sub>i-k</sub>) que parten de un número inicial llamado semilla de tal forma que para generar un nuevo número aleatorio N<sub>i</sub> se emplean uno o varios de los números generados con anterioridad.<br />
<strong>i) Generadores de Congruencia Lineal (GCL)</strong><br />
Son los más sencillos y comunes. Se basan en la siguiente relación de recurrencia:<br />
N<sub>i+1</sub> = (aN<sub>i</sub> + c) mod m, donde a, c y m son constantes y N<sub>0</sub> sería la semilla.<br />
El resultado de una operación mod m es el resto del cociente (aN<sub>i</sub> + c)/m, por lo tanto hay m valores posibles de N<sub>i</sub>. La secuencia es periódica y el período de repetición depende de las constantes a, c y m, así como de la semilla N<sub>0</sub>. Una buena elección de estas constantes no es trivial y es lo que determina la validez del GNPA.<br />
Si alguien quiere pasar el rato puede entretenerse con este GCL que ha demostrado ser muy eficiente:<br />
N<sub>i+1</sub> =65539 N<sub>i</sub> mod 2<sup>31</sup><br />
Las ventajas más importantes de los GCL son su sencillez, su bajo consumo de recursos computacionales y facilidad de implementación. Además, son fáciles de paralelizar lo que permite dividir el proceso de generación de números aleatorios en subprocesos que se pueden calcular de manera simultánea (paralela) en varios procesadores ahorrando así tiempo de cálculo.<br />
Las limitaciones más importantes de los GCL son su periodicidad (normalmente no suele ser más grande de 2<sup>32</sup>), que depende de la semilla inicial, y la presencia de correlaciones entre términos consecutivos de la secuencia de los números generados. Existen técnicas como desordenar la secuencia generada, por ejemplo, para minimizar estos problemas. Y, por supuesto, con las nuevas arquitecturas de 64-bits los periodos se pueden ampliar hasta 2<sup>64</sup>.<br />
<strong>ii) Generadores de Fibonacci (GF)</strong><br />
Se basan en relaciones de recurrencia del tipo:<br />
N<sub>i+1</sub> = (N<sub>i-r</sub> * N<sub>i-s</sub>) mod m, donde r&lt;s son enteros dados, * representa alguna de las operaciones binarias (+, -, x, ^) y son necesarias s semillas.<br />
Este tipo de generador requiere el uso de otro generador para iniciarse y se tiene que mantener una lista de los últimos s números generados.<br />
Aunque los GF son más complejos de implantar y requieren más recursos computacionales que los GCL, son mucho más rápidos y tienen periodos de repetición más largos.<br />
Me gustaría recalcar que la creación de algoritmos para obtener buenos GNPA tiene una parte empírica fundamental que reside en la elección de las constantes a, c, m, r, s y de las operaciones binarias en las relaciones de recurrencia. Pero, ¿cómo podemos saber si unas son más adecuadas que otras? La única manera que hay es poniendo a prueba los algoritmos y para ello existen diversas pruebas de aleatoriedad que es necesario realizar antes de aceptar un nuevo generador.<br />
<strong>4.- Pruebas de aleatoriedad</strong><br />
Existen pruebas de uniformidad (Figura 1), correlación y análisis espectral para analizar las propiedades de las series de números pseudoaleatorios. En principio, si un GNPA supera estas pruebas parece que podríamos asegurar que estamos ante un generador de números aleatorios bastante competente.<br />
<a href="https://bnnas.files.wordpress.com/2015/05/1.png"><img loading="lazy" decoding="async" class="aligncenter wp-image-3549 size-full" src="https://bnnas.files.wordpress.com/2015/05/1.png" alt="" width="470" height="470" srcset="https://fisicamedica.es/wp-content/uploads/2015/05/1.png 512w, https://fisicamedica.es/wp-content/uploads/2015/05/1-300x300.png 300w, https://fisicamedica.es/wp-content/uploads/2015/05/1-150x150.png 150w, https://fisicamedica.es/wp-content/uploads/2015/05/1-480x480.png 480w" sizes="auto, (max-width: 470px) 100vw, 470px" /></a><br />
<div id="attachment_3550" style="width: 480px" class="wp-caption aligncenter"><a href="https://bnnas.files.wordpress.com/2015/05/2.png"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-3550" class="size-full wp-image-3550" src="https://bnnas.files.wordpress.com/2015/05/2.png" alt="Figura 1: Representación bidimensional de la uniformidad para un GNAV (arriba) y para un mal GNPA (abajo). Fuente: www.random.org" width="470" height="470" srcset="https://fisicamedica.es/wp-content/uploads/2015/05/2.png 512w, https://fisicamedica.es/wp-content/uploads/2015/05/2-300x300.png 300w, https://fisicamedica.es/wp-content/uploads/2015/05/2-150x150.png 150w, https://fisicamedica.es/wp-content/uploads/2015/05/2-480x480.png 480w" sizes="auto, (max-width: 470px) 100vw, 470px" /></a><p id="caption-attachment-3550" class="wp-caption-text">Figura 1: Representación bidimensional de la uniformidad para un GNAV (arriba) y para un mal GNPA (abajo). Fuente: <a href="http://www.random.org" target="_blank" rel="noopener">www.random.org</a></p></div><br />
Sin embargo, a veces esto no es cierto y para ponerlo de manifiesto se pueden emplear precisamente los mismos métodos de Monte Carlo que utilizan los GNPA. La idea es muy sencilla. Supongamos que, por un lado, conocemos la solución analítica exacta de un problema estadístico determinado y que, por otro, resolvemos ese mismo problema con cálculos de Monte Carlo. Entonces, por simple comparación podríamos determinar fácilmente la influencia de los distintos GNPA en el cálculo.<br />
¿Existe un problema estadístico real con una solución analítica exacta? Pues sí y se conoce como Modelo de Ising 2D (Figura 2). Éste es un modelo propuesto para estudiar el ferromagnetismo de la materia y consiste en una red bidimensional cuadrada de espines que sólo pueden tener dos valores + y – (arriba y abajo) y que interaccionan con sus vecinos próximos según el hamiltoniano cuántico correspondiente. A diferencia del Modelo de Ising 1D (unidimensional), éste sí presenta propiedades físicas útiles y reales como la existencia de una transición de fase ferromagnética a una determinada temperatura crítica T<sub>c</sub>. Onsager fue el primero en determinar la función de partición Z correspondiente a este modelo 2D (lo que le sirvió, entre otras aportaciones, para recibir el premio Nobel) y a partir de Z el resto de propiedades termodinámicas: Energía, calor específico, entropía, etc. Para un modelo 3D general aún no se conoce una solución analítica exacta y ni siquiera está del todo claro si existe.<br />
<a href="https://bnnas.files.wordpress.com/2015/05/3.png"><img loading="lazy" decoding="async" class="aligncenter size-full wp-image-3552" src="https://bnnas.files.wordpress.com/2015/05/3.png" alt="3" width="278" height="233" /></a><br />
<div id="attachment_3551" style="width: 260px" class="wp-caption aligncenter"><a href="https://bnnas.files.wordpress.com/2015/05/3.jpg"><img loading="lazy" decoding="async" aria-describedby="caption-attachment-3551" class="wp-image-3551 size-full" src="https://bnnas.files.wordpress.com/2015/05/3.jpg" alt="Figura 2: Red cuadrada de espines (+,-) del modelo bidimensional de Ising (arriba) y representación de la magnetización, susceptibilidad magnética y capacidad calorífica obtenidos a partir del modelo (abajo)" width="250" height="250" srcset="https://fisicamedica.es/wp-content/uploads/2015/05/3.jpg 250w, https://fisicamedica.es/wp-content/uploads/2015/05/3-150x150.jpg 150w" sizes="auto, (max-width: 250px) 100vw, 250px" /></a><p id="caption-attachment-3551" class="wp-caption-text">Figura 2: Red cuadrada de espines (+,-) del modelo bidimensional de Ising (arriba) y representación de la magnetización, susceptibilidad magnética y capacidad calorífica obtenidos a partir del modelo (abajo)</p></div><br />
Así pues, estudiando las diferencias entre el valor calculado y teórico de la energía o el calor específico, por ejemplo, para un número dado de iteraciones de Monte Carlo uno puede evaluar fácilmente los diferentes GNPA y encontrarse con sorpresas desagradables que no quedaban al descubierto con otras pruebas: Generadores que superan las pruebas de uniformidad y correlación presentan problemas de convergencia, por ejemplo, en un cálculo de Ising 2D.<br />
<strong>5.- Conclusiones</strong><br />
La naturaleza aleatoria de las desintegraciones radiactivas, de las que tantas veces contamos cosas en Desayuno con Fotones, sirve para generar números aleatorios verdaderos. A su vez estos números aleatorios son los que nos permiten realizar cálculos de Monte Carlo para simular el transporte de la radiación en la materia y conocer, por ejemplo, la dosis de radiación depositada en un tejido biológico.<br />
Sin embargo, en la práctica resulta mucho más eficiente trabajar con números que a pesar de no ser realmente aleatorios, nos funcionan casi como si lo fueran. No es una tarea fácil conocer cómo y cuándo pueden fallarnos y por ello esto es un campo de investigación abierto y en pleno desarrollo. Aquí he tratado de ilustrar algunas de las herramientas que existen para ayudarnos a entender un poco mejor la naturaleza del número pseudoaleatorio.<br />
<strong>Para saber más</strong><br />
En esta entrada sólo he mostrado algunas de las ideas y conceptos más sencillos sin profundizar demasiado en ellos. Por ello, al que tenga curiosidad le recomiendo las siguientes lecturas:<br />
Random.org: <a href="https://www.random.org/analysis/" target="_blank" rel="noopener">https://www.random.org/analysis/</a><br />
Random Numer Generation and Monte Carlo Methos, Gentle, James E., Ed. Springer-Verlag New York, 2003<br />
Random Number Generators: <a href="http://random.mat.sbg.ac.at/links/rando.html" target="_blank" rel="noopener">http://random.mat.sbg.ac.at/links/rando.html</a></p>
<p>The post <a href="https://fisicamedica.es/blog/numeros-aleatorios-radiaciones-y-metodos-de-monte-carlo/">Números aleatorios, radiaciones y métodos de Monte Carlo</a> appeared first on <a href="https://fisicamedica.es">Física médica</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://fisicamedica.es/blog/numeros-aleatorios-radiaciones-y-metodos-de-monte-carlo/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
