Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


domingo, 20 de septiembre de 2015

La muestra de ceros

En Probabilidad Imposible el valor cero adquiere una gran relevancia por diferentes factores. En primer lugar, se dice que un fenómeno tiene asociada una Probabilidad Imposible cuando su probabilidad empírica es igual a cero, o el truncamiento decimal en la probabilidad empírica, derivado de la división de la puntuación directa o frecuencia individual entre el total es igual a una secuencia de ceros, al menos hasta donde se produce el corte decimal, de modo que la probabilidad empírica sería igual a cero “0,0000 = 0”. Y en segundo lugar, en las pruebas estadísticas para la crítica racional de la realidad, en los modelos de contrates diferenciales, cuando se contrasta la diferencia entre un valor empírico frente a otro crítico, se acepta la hipótesis empírica siempre y cuando el resultado de la diferencia sea igual a cero o positivo, por ejemplo en Validez de Igualdad o Validez de Sesgo, Positivo o Negativo, en Significación de Igualdad o Significación de  Sesgo, Positivo o Negativo, y en dispersión muestral el Nivel Muestral Crítico de Igualdad o Nivel Muestral Crítico de Sesgo, o la Significación Muestral de Igualdad o Significación Muestral de Sesgo.

 
 

En el caso concreto que aquí nos atañe por muestra de ceros se entenderá aquella muestra de puntuaciones directas o frecuencia es igual a una muestra de puntuaciones directas o frecuencias igual a cero. Cuando cada uno de todos los sujetos u opciones por igual tiene asociada una puntuación directa o frecuencia igual a cero, de modo que su probabilidad empírica sólo puede ser igual a cero.


La muestra de ceros en Probabilidad Imposible juega un papel central en determinados estudios, especialmente cuando el ideal es la muestra de ceros.  De este modo habría que identificar dos situaciones por las cuales se puede producir la muestra de ceros, ya bien porque en un contexto real se da una total ausencia de una cualidad en una muestra, o porque el objetivo del estudio es que al término del tratamiento experimental se logre la anulación de una determinada cualidad en una muestra. De modo que las situaciones que se pueden dar en este sentido se simplifican a dos: una muestra de ceros real por cuanto se evidencia ausencia de una cualidad en todos los sujetos u opciones, y los estudios donde el ideal sea la muestra de ceros.

Una muestra de ceros real es cuando en la investigación de una determinada cualidad en una muestra de verifica una total ausencia de esa cualidad en esa muestra. Supongamos que queremos estudiar los niveles de un determinado componente químico sobre una serie de muestras, y se da el caso que sobre las muestras seleccionadas, hay una total ausencia de ese componente químico, entonces sería una muestra de ceros real. Si estamos estudiando la posibilidad de petróleo en Mercurio, Venus, la Luna, Marte, la cadena de asteroides, Júpiter, Saturno, Urano, Neptuno, y Plutón, y en cada uno de estos sujetos u opciones se verifica la ausencia de petróleo, entonces la probabilidad empírica de petróleo fuera de la Tierra en nuestro sistema solar será igual a cero, Probabilidad Imposible de petróleo en nuestro sistema solar fuera de nuestro planeta, luego sería una muestra de ceros. Si sobre una muestra de animales carnívoros se investiga la existencia de clorofila, y se da el caso que ninguno tiene clorofila, entonces la probabilidad empírica de clorofila en estos animales es igual a cero, Probabilidad Imposible de clorofila en animales carnívoros.

En un estudio en fase descriptiva para al reconocimiento de las cualidades de un objeto, que la probabilidad empírica de una cualidad en las muestras sea de ceros es un método de descarte de las propiedades de ese objeto,  igual de importante la verificación positiva de sus cualidades. Tanto la prueba positiva como la negativa para el descarte son formas alternativas y complementarias que ofrecen de forma combinada una panorámica general de la realidad que se estudia. Teniendo presente siempre que cualquier valoración sobre lo verdadero o lo imposible, dentro de un universo infinito, está siempre sujeto a márgenes de error, dentro del cual lo verdadero puede ser falso y lo imposible inevitable.

En el caso de estudios inferenciales, bajo determinadas condiciones la muestra de ceros puede ser un ideal. Si en medicina se investiga un tratamiento médico que logre la anulación de todos los síntomas de una enfermedad, lo que se pretende es que tras la aplicación del tratamiento médico la probabilidad empírica de síntomas de esa enfermedad en particular en cada paciente sea igual a cero. Si en un proceso de producción industrial, se pretende un 100% de excelencia en cada producto, este proceso implicaría cero errores o imperfecciones en su fabricación, es decir, que la probabilidad de que halla el más mínimo error en la fabricación del producto sea imposible, luego la muestra de errores debería ser igual a cero.

En el caso de los estudios donde la muestra de ceros sea el ideal lo que sí se produce es la siguiente paradoja, y que se explica en el apartado número 10 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, y es que conforme tendamos al ideal de la muestra cero se produce un aumento de la dispersión empírica.

El Segundo Método de Probabilidad Imposible es un método para el estudio y crítica racional de la realidad dentro del campo de la estadística de la probabilidad o probabilidad estadística, dentro de este campo de estudio y bajo este método nunca se opera directamente con las puntuaciones directas o frecuencias, siempre se opera con probabilidades estadísticas, lo que implica que realmente estamos trabajando constantemente con números racionales, que entre sus muchas funciones una de ellas es la de medición de la proporción entre los dos factores del cociente, en el caso particular de la probabilidad empírica el cociente de puntuación directa o frecuencia entre el sumatorio total de puntuaciones directas o frecuencias.

Debido a que realmente lo que se mide y compara continuamente son proporciones racionales, aunque el ideal sea la muestra de ceros, a medida que aumenta la tendencia en la aproximación asintótica a cero puntuaciones directas o frecuencias por sujeto u opción en toda la muestra, entonces la dispersión aumenta.

Según aumente el número de sujetos u opciones que tienen probabilidad empírica cero, pero no todos por igual, cuantos menos sujetos u opciones, en tendencia a un único sujeto u opción, tengan probabilidad empírica distinta de cero, la dispersión se dispara.

A medida que se aplica un tratamiento médico para combatir una enfermedad los síntomas van desapareciendo en la mayoría de pacientes, pero no en todos, luego la mayoría de pacientes va obteniendo probabilidad empírica cero, salvo en los que aun sigan persistiendo los síntomas. Y en un proceso de mejora de la excelencia en la fabricación de un producto el número de productos sin errores aumenta, aumentando el número de unidades cuya probabilidad empírica de error es cero, a excepción de aquellas unidades, aunque escasas, donde aún se sigan observando errores. Pero mientras no todas las probabilidades empíricas de síntomas o errores, en pacientes o unidades producidas, sean igual a cero, aumenta la dispersión porque mientras quede un solo paciente que tras el tratamiento médico siga observando el más leve síntoma, o en el proceso de producción industrial halla al menos una unidad que observe el más mínimo error, el sumatorio de puntuaciones directas o frecuencias ya no es igual a cero,  luego el sumatorio de puntuaciones directas o frecuencias será distinto de cero, y la probabilidad empírica de ese único sujeto u opción distinto de cero será igual a probabilidad empírica uno, dándose entonces las máximas condiciones de dispersión empírica.

En Probabilidad Imposible se dice que se dan condiciones de máxima dispersión empírica cuando la probabilidad empírica de un sujeto u opción es igual a probabilidad uno, la Máxima Probabilidad Empírica Posible. Luego su Nivel de Sesgo es igual al Máximo Sesgo Teórico Posible, igual a la diferencia de la unidad menos inversión de N. De modo que entonces es igual también al Máximo Sesgo Empírico Posible, igual a Sesgo Total entre dos. Por lo que a nivel muestral la dispersión tiende a Máxima Desviación Media o Típica Teórica Posible.

Precisamente una de las diferencias entre el Segundo Método de la teoría de Probabilidad Imposible frente a la estadística tradicional, que sería el Primer Método, es que mientras en lo que Probabilidad Imposible denomina muestra de ceros para la estadística tradicional la dispersión tiende a cero de modo absoluto, y a mayor tendencia a cero de las puntuaciones directas entonces mayor tendencia a cero de la dispersión, en Probabilidad Imposible sucede lo opuesto, dentro de la asíntota de tendencia a cero de una muestra, conforme la mayoría de sujetos u opciones tiende a cero mientras tiende a decrecer el número de sujetos u opciones distinto de cero en tendencia a un único sujeto u opción distinto de cero, la dispersión aumenta. En  las muestras de cero en Probabilidad Imposible sólo logra estabilizarse la dispersión empírica de la muestra cuando absolutamente todos los sujetos u opciones tienen puntuación directa o frecuencia cero, luego absolutamente todas las probabilidades empíricas serían igual a cero, Probabilidad Imposible, momento en el cual se evitarían las condiciones de máxima dispersión.

Pero aun cuando se logre definitivamente que todos los pacientes de tratamiento médico dejen de tener síntoma alguno, o en un proceso de producción industrial todas las unidades producidas dejen de tener errores, aun así la dispersión empírica tampoco sería igual a cero.

Mientras en la estadística tradicional cuando todos los elementos de una muestra tienen puntuación directa igual a cero, la dispersión muestral sería igual a cero. En el Segundo Método de Probabilidad Imposible se da la paradoja que independientemente que todas las puntuaciones directas o frecuencias de todos los sujetos u opciones sea igual a cero, la dispersión de la muestra no es igual a cero. Por la sencilla razón de que mientras en la estadística tradicional la media aritmética de cero es igual a cero, luego las puntuaciones diferenciales serían igual a cero, siempre y cuando todas las puntuaciones directas sean igual a cero. En cambio en Probabilidad Imposible aunque la media aritmética sea igual  a cero, la inversión de N absolutamente nunca puede ser igual a cero, siempre y cuando N sea distinto de cero, luego aunque toda la muestra sea una muestra de ceros, el Nivel de Sesgo de sujeto u opción será igual al valor absoluto de inversión de N, el Máximo Sesgo Negativo Posible. Luego aun cuando se den condiciones que verifiquen positivamente que una muestra es una muestra de ceros, la Desviación Media de la muestra nunca será igual a cero, por cuanto si en una muestra de ceros el Nivel de Sesgo de absolutamente todos los sujetos u opciones es igual al valor absoluto de inversión de N, entones la Desviación Media de la muestra de ceros es igual a inversión de N, la Varianza de la muestra de ceros es igual al cuadrado de inversión de N, y la Desviación Típica de la muestra de ceros es igual a la raíz cuadrada del cuadrado de inversión de N.

 

Rubén García Pedraza, Madrid 20 de septiembre del 2015
 



 
https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería

 

sábado, 12 de septiembre de 2015

El método quasi-experimental




El método quasi-experimental es un método particular en determinadas ciencias sintéticas para modelos de investigación que no reúnen todos los requisitos del método experimental: que se centra sobre los efectos de la manipulación de una o más variables independientes sobre la dependiente, y se realiza bajo estrictas condiciones de control de laboratorio, habiendo posibilidad de  grupo de control. En caso que una investigación pretenda la  utilización del método experimental, no cumpliendo todos los requisitos , se trataría de un método quasi-experimental.


La verdadera importancia del método experimental moderno viene dado por el modo en que revoluciona la filosofía de la ciencia, y la estructura del conocimiento científico, frente el canon de la antigüedad clásica, y la escolástica metafísica medieval.


Desde la antigüedad se observan dos tradiciones opuestas, una la de Pitágoras,  Euclides, Apolonio, Arquímedes, a nivel filosófico el idealismo de Platón, en esta primera tradición el conocimiento se deriva del análisis lógico de las relaciones entre elementos geométricos o ideas filosóficas. Para Platón el conocimiento es un proceso de reminiscencia que se logra a través de la dialéctica, por la cual se puede llegar a la contemplación del mundo de las ideas, siendo su propedéutica el estudio de las matemáticas, especialmente geometría. La filosofía de Platón se sabe que ejerció influencia en Euclides a través de Eudoxo de Cnido, discípulo del filosofo ateniense.

De otro lado, la tradición empirista, cuyo principal representante clásico es  Aristóteles, habiendo anteriormente entre los presocráticos eminentes filósofos, por citar a alguno, Demócrito, quien propone la hipótesis de la estructura de la materia por átomos.

La tradición platónica-euclidea, basada en el estudio de las relaciones lógicas, en Platón las relaciones lógicas entre ideas, en Euclides las relaciones lógicas entre elementos, implica un modelo científico lógico donde los factores empíricos quedan en segundo plano. En la tradición empirista de Demócrito y Aristóteles, el concepto de experiencia es interpretado en su aceptación pasiva,  producto de la experiencia sensorial.

La nueva ciencia se configura a  partir de Roger Bacon, siglos XIII y XIV, Francis Bacon, siglos XVI y XVII, quienes introducen el método experimental moderno, y Copérnico, siglos  XV y XVI, base de los paradigmas científicos actuales. De un lado la tradición empirista clásica se transforma en el empirismo moderno de Roger y Francis Bacon basada en la experiencia activa, el método experimental: el conocimiento no es producto de la simple afectación sensorial, es resultado de la manipulación activa de variables, para la observación de sus efectos.

Y la tradición platónica-euclidea, la fundamentación lógica matemática de las relaciones entre elementos o ideas, se transforma a un nuevo modelo a partir de Copérnico, que frente la tradición escolástica de la metafísica medieval, desarrolla un modelo científico, aplicado a las órbitas celestes, sobre una fundamentación lógico matemática que explica las relaciones entre observaciones , en este caso sobre el movimiento se los cuerpos celestes, fundamentación geométrica para la demostración de una hipótesis, en este caso la heliocéntrica, defendida en la antigüedad clásica por Aristarco de Samos e Hipatia de Alejandría.

La síntesis entre la adaptación copernicana de la tradición euclideo-platónica, unido a la adaptación moderna del empirismo clásico aristotélico al nuevo empirismo moderno de Roger y Francis Bacon, son la base de la nueva ciencia auspiciada por Galileo, quien une método experimental y análisis lógico matemático, de modo que las leyes naturales pueden ser expresadas en lenguaje matemático, siendo leyes que se descubren a través del método experimental.

Hoy en día la tradición platónica-euclidea, sobre la fundamentación lógica de las relaciones entre las ideas puede parecer obsoleta, pero nada más lejos de la realidad. Una vez que Copérnico recupera y adapta la geométrica clásica: el propósito de las matemáticas ya no es la contemplación pasiva de las ideas, es el conocimiento activo y análisis de la realidad; el nuevo método científico es detallado por Descartes, quien entre sus principales aportaciones se encuentra el análisis sobre los ejes cartesianos, una herramienta fundamental en el moderno  análisis geométrico y la estadística.

La estadística contemporánea, es síntesis de aritmética, geometría, y algebra, en donde el análisis geométrico puro se sustituye por el análisis de l su expresión algebraica, la expresión en lenguaje matemático de las relaciones geométricas. Cada vez que en estadística a una variable la denominamos “x”, o la denominamos “y”, hacemos un análisis algebraico de unos datos que en el plano geométrico sobre los ejes cartesianos se corresponderían a elementos geométricos.

A partir de la filosofía moderna, sintetizada primero por Descartes, continuada por Hume, Kant, y los nuevos modelos empiristas, materialistas, y positivistas, de los siglos XVIII y XIX, surgen los paradigmas de los siglos XX y XXI, y sobre los cuales se fundamenta Probabilidad Imposible, y ha sido sintetizada en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.

En los últimos siglos la ciencia progresa a un nuevo modelo donde aparecen nuevos conceptos como relatividad, incertidumbre, caos, complejidad, muy alejados de los primeros métodos de análisis euclideos de análisis lineal, aunque conservando de la antigüedad que son para el estudio de relaciones entre elementos o ideas, analíticas o sintéticas. Sólo que en las ciencias sintéticas a partir de datos obtenidos de un concepto más activo de experiencia, y  teniendo por fin el contraste de hipótesis.

En esta evolución de la ciencia moderna Galileo sienta un primer referente, síntesis del método experimental y análisis lógico matemático, que se aplica por primera vez a las ciencias naturales. En el siglo XIX los primeros científicos sociales que proponen la utilización de este método a las ciencias sociales fueron los positivistas, y fue aplicado a la psicología por Wundt, o en las ciencias de la educación, sin embargo hubo científicos sociales que evidenciaron que no en todas las ciencias sociales era aplicable, entre ellas la Historia donde se empieza a configurar el método histórico, sobresaliente el historicismo y el materialismo histórico, y de otro lado la sociología, en donde surgirá una corriente positivista, el estructuralismo, liderada por Emilie Durkheim, quien propone que el método comparado es a las ciencias sociales lo que el método experimental a las naturales.

A partir de que se evidencian los límites del método experimental a determinados grupos de ciencias sintéticas se empieza a utilizar el concepto de método quasi-experimental, para estudios que no reuniendo todos los requisitos experimentales reúnen al menos algunos, tratándose en todo caso de estudios donde sobre el análisis de datos se obtiene un conocimiento del modo en que las variables se afecta entre sí. Aunque, lo que en el método experimental se llama variable independiente, en el método quasi-experimental no sería en puridad independiente, por cuanto en algunos casos no hay posibilidad de manipulación directa en la investigación.

Un estudio es quasi-experimental si se da al menos una de las siguientes condiciones: 1) la posibilidad de manipulación de la variable independiente es nula, limitada, o parcial, 2), ausencia de posibilidad de condiciones de control de laboratorio, 3) ausencia de posibilidad de establecimiento de grupo de control. A medida que se expliquen las principales diferencias se percibirá que el concepto de método quasi-experimental, inicialmente aplicado a determinadas ciencias sociales, es aplicable a determinados estudios en ciencias naturales.

En relación a la naturaleza de la variable independiente, mientras en el método experimental la variable independiente es siempre manipulable, esta propiedad desaparece en determinados estudios quasi-experimentales. Normalmente el concepto de estudio quasi-experimental comenzó a utilizarse en las ciencias sociales, por ejemplo, supongamos que queremos conocer el efecto de una política económica inflacionista en periodos de crisis económica, basada en la austeridad salarial y presupuestaria, en los estándares de vida. Se podrían elaborar hipótesis y someterlas a contraste, a partir de la creación de bancos de datos sobre determinados items, para la comparación de datos del nivel de calidad de vida, definido cuantitativamente en conceptos tales como nivel adquisitivo, expectativa de vida, niveles medios de estudios, tasas de bajas en la seguridad social por enfermedad o incapacidad temporal o permanente, índice de suicidios, tasa de embarazos, tasa de matrimonios, renta per capita, nivel de conflictividad social … la comparación puede ser a diversos niveles: comparación entre países que presentando niveles de similitud parecidos de crisis económica realizan políticas inflacionistas similares, comparación entre países que presentando condiciones similares sin embargo unos  siguen políticas inflacionistas y otros siguen modelos diferentes, y en los países que siguen políticas inflaccionistas comparaciones entre antes y después de la aplicación de este tipo de políticas.

En modo alguno se puede decir que sea un estudio experimental, lo que podría llamarse variable independiente, las políticas inflacionistas, no responden al concepto de variable independiente en sentido estricto como factor sujeto a la manipulación del investigador o equipo de investigación, si acaso por el asesoramiento al gobierno por un consejo científico, que en todo caso sólo actuaría de consejo, no como sujeto propio, y en todo caso dependiendo de las directrices de la ideología política del gobierno.

Mientras en un acelerador de partículas, en un estudio farmacológico, o en un estudio sobre la mejora de procesos y sistemas industriales o tecnológicos, las variables independientes son manipulables en todo momento,  formando parte de los métodos experimentales , en los modelos quasi-experimentales esta posibilidad no existe.

Ahora bien, lo que diferencia al estudio de cómo los ciclos en la órbita de la Tierra en torno al Sol afecta al comportamiento de los seres vivos, siendo no manipulable la órbita planetaria, frente el estudio de los efectos de los ciclos económicos sobre el comportamiento social, es que mientras los ciclos planetarios son regulados por leyes naturales no manipulables, los ciclos económicos sí pueden manipularse por la acción humana, siendo una manipulación quasi-experimental, por cuanto no tiene porque ser científica, o de intervenir la manipulación científica a través de consejos científicos de asesoramiento a gobiernos y agencias supranacionales, es uno entre otros factores globales y sociales, incluidos ideológicos y políticos.

Otro elemento propio de algunos estudios quasi-experimentales es la ausencia de condiciones de control de laboratorio. Supongamos que en una campaña de marketing, en la cual se han elaborado anuncios para mass media y social media,   desde el momento que se inicia la campaña de publicidad se hace un seguimiento estadísticos de las ventas. En este caso sí hay variable independiente claramente manipulable, la campaña de marketing, manipulable hasta el punto que según el transcurso de la campaña se pueden introducir reajustes, reforzando los elementos  más positivos, o reduciendo y eliminando los menos productivos. Sin embargo d adolece de condiciones de control de laboratorio, de modo que, por muy pensada que a priori se haya diseñado la campaña de marketing, durante su evolución va a interaccionar con un sinfín de factores no integrados inicialmente en el diseño, que pueden afectar a sus resultados. Si la campaña sale bien, y se introducen los reajustes adecuados, será un éxito, pero en ningún momento hay plenas garantías. Es más aunque para asegurarse un margen de éxito aceptable se recuperase el modelo de una campaña antigua, los cambios sociales y globales son tan rápidos y profundos, que tampoco habría plenas garantías de éxito. En ningún momento se podría recrear condiciones de control de laboratorio, que garantizase que unos mismos resultados en un estudio pudieran repetirse en cualquier otro momento diferente, porque en cada momento las variables que definen la sociedad y la economía cambian.

La ausencia de condiciones de control de laboratorio, a pesar que dispongamos de una variable independiente al menos a priori manipulable, no es propio sólo de determinados estudios de ciencias sociales, también se puede dar en ciencias naturales. Si para conocer la estructura de los agujeros negros lanzamos a la singularidad una sonda, partícula, o algún tipo de aparato de medición, lo haríamos en ausencia de condiciones de control de laboratorio, podríamos tener una expectativa de lo que puede suceder a partir de la previsión, según lo que conocemos sobre agujeros negros. Pero entre nuestro conocimiento actual, y lo que realmente suceda, hay un abismo, y en ningún momento habría condiciones estrictas de control de laboratorio.

Como se ha mencionado más arriba, el concepto de método quasi-experimental se empezó a popularizar en el siglo XX en el campo de la ciencias sociales, entre otros motivos para ahondar en las diferencias dentro de las ciencias sintéticas entre ciencias naturales y sociales. Uno de los factores que a mediados del siglo XX animó a determinados paradigmas a aumentar la brecha entre estas ciencias era por el escepticismo sobre la vigencia del positivismo, por cuanto dichos paradigmas postulaban su inviabilidad . Sin embargo al igual que en no todas las ciencias sociales el método experimental es viable, lo mismo sucede en las ciencias naturales.

En la distinción tradicional entre estudio de campo y estudio de laboratorio, se puede observar como independientemente del tipo de ciencia sintética, natural o social, en el momento que en un estudio de campo se modifica o introduce una variable, el marketing de una campaña publicitaria o una sonda u objeto que lancemos a la singularidad de un agujero negro, la propia definición de estudio de campo hace inviable la creación de condiciones de control de laboratorio. En ausencia de condiciones de control de laboratorio, aunque la variable independiente sea a priori manipulable, cualquier pretensión  experimental, en cualquier ciencia sintética, natural o social, es en puridad quasi-experimental.

Y finalmente, la ausencia de grupo de control. Mientras en los estudios experimentales cabe la posibilidad del establecimiento de grupos de control, en el método quasi-experimental esta posibilidad no existe. Si estudiamos los efectos de una política inflacionista durante ciclos económicos de crisis, lo único que podemos hacer a modo de control es la comparación entre países  de condiciones similares y han seguido políticas inflacionistas frente países, de condiciones similares, que han seguido otro tipo de políticas. Pero tampoco sería un grupo de control en un sentido estricto, dado que en términos experimentales grupo de control implica la comparación de dos grupos que reúnen las mismas condiciones, pero a uno se le expone a una variable independiente, y al otro se le estudie en ausencia de variable independiente.  

Si quisiéramos conocer los efectos de una técnica de terraformación en Marte, a pesar de que una simulación virtual a través de un modelo matemático para la predicción de sus efectos dé información valiosa, en el momento que la terraformación se aplique sobre Marte, aunque las agencias de investigación espacial y sus respectivos gobiernos afirmen que se trata de un experimento,  en realidad sería un modelo quasi-experimental.

De este modo las principales diferencias entre método experimental y quasi-experimental, es que mientras en los experimentales la variable independiente es manipulable por el equipo de investigación, hay condiciones de control de laboratorio, y posibilidad de  grupo de control, en los quasi-experimentales al menos una de estas tres condiciones no se cumple, ya bien porque  1) la manipulación de la variable independiente es nula, limitada o indirecta, 2) hay ausencia de condiciones de control de laboratorio por cuanto normalmente es la utilización de métodos experimentales en estudios de campo, 3) y no hay posibilidad de grupo de control.

En todo caso, el conocimiento que obtengamos  a través de  la estadística y la probabilidad a estudios quasi-experimentales es de suma relevancia, dado que hay determinados campos de conocimiento que sin este tipo de métodos particulares, aunque no reúnan en sentido estricto todas las condiciones de un estudio experimental, aportan información valiosa capaz de ser utilizada en modelos de contraste de hipótesis.

 


Rubén García Pedraza, Madrid a 13 de septiembre del 2015
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false


 

 
 
http://probabilidadimposible.wordpress.com/