Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


domingo, 20 de septiembre de 2015

La muestra de ceros

En Probabilidad Imposible el valor cero adquiere una gran relevancia por diferentes factores. En primer lugar, se dice que un fenómeno tiene asociada una Probabilidad Imposible cuando su probabilidad empírica es igual a cero, o el truncamiento decimal en la probabilidad empírica, derivado de la división de la puntuación directa o frecuencia individual entre el total es igual a una secuencia de ceros, al menos hasta donde se produce el corte decimal, de modo que la probabilidad empírica sería igual a cero “0,0000 = 0”. Y en segundo lugar, en las pruebas estadísticas para la crítica racional de la realidad, en los modelos de contrates diferenciales, cuando se contrasta la diferencia entre un valor empírico frente a otro crítico, se acepta la hipótesis empírica siempre y cuando el resultado de la diferencia sea igual a cero o positivo, por ejemplo en Validez de Igualdad o Validez de Sesgo, Positivo o Negativo, en Significación de Igualdad o Significación de  Sesgo, Positivo o Negativo, y en dispersión muestral el Nivel Muestral Crítico de Igualdad o Nivel Muestral Crítico de Sesgo, o la Significación Muestral de Igualdad o Significación Muestral de Sesgo.

 
 

En el caso concreto que aquí nos atañe por muestra de ceros se entenderá aquella muestra de puntuaciones directas o frecuencia es igual a una muestra de puntuaciones directas o frecuencias igual a cero. Cuando cada uno de todos los sujetos u opciones por igual tiene asociada una puntuación directa o frecuencia igual a cero, de modo que su probabilidad empírica sólo puede ser igual a cero.


La muestra de ceros en Probabilidad Imposible juega un papel central en determinados estudios, especialmente cuando el ideal es la muestra de ceros.  De este modo habría que identificar dos situaciones por las cuales se puede producir la muestra de ceros, ya bien porque en un contexto real se da una total ausencia de una cualidad en una muestra, o porque el objetivo del estudio es que al término del tratamiento experimental se logre la anulación de una determinada cualidad en una muestra. De modo que las situaciones que se pueden dar en este sentido se simplifican a dos: una muestra de ceros real por cuanto se evidencia ausencia de una cualidad en todos los sujetos u opciones, y los estudios donde el ideal sea la muestra de ceros.

Una muestra de ceros real es cuando en la investigación de una determinada cualidad en una muestra de verifica una total ausencia de esa cualidad en esa muestra. Supongamos que queremos estudiar los niveles de un determinado componente químico sobre una serie de muestras, y se da el caso que sobre las muestras seleccionadas, hay una total ausencia de ese componente químico, entonces sería una muestra de ceros real. Si estamos estudiando la posibilidad de petróleo en Mercurio, Venus, la Luna, Marte, la cadena de asteroides, Júpiter, Saturno, Urano, Neptuno, y Plutón, y en cada uno de estos sujetos u opciones se verifica la ausencia de petróleo, entonces la probabilidad empírica de petróleo fuera de la Tierra en nuestro sistema solar será igual a cero, Probabilidad Imposible de petróleo en nuestro sistema solar fuera de nuestro planeta, luego sería una muestra de ceros. Si sobre una muestra de animales carnívoros se investiga la existencia de clorofila, y se da el caso que ninguno tiene clorofila, entonces la probabilidad empírica de clorofila en estos animales es igual a cero, Probabilidad Imposible de clorofila en animales carnívoros.

En un estudio en fase descriptiva para al reconocimiento de las cualidades de un objeto, que la probabilidad empírica de una cualidad en las muestras sea de ceros es un método de descarte de las propiedades de ese objeto,  igual de importante la verificación positiva de sus cualidades. Tanto la prueba positiva como la negativa para el descarte son formas alternativas y complementarias que ofrecen de forma combinada una panorámica general de la realidad que se estudia. Teniendo presente siempre que cualquier valoración sobre lo verdadero o lo imposible, dentro de un universo infinito, está siempre sujeto a márgenes de error, dentro del cual lo verdadero puede ser falso y lo imposible inevitable.

En el caso de estudios inferenciales, bajo determinadas condiciones la muestra de ceros puede ser un ideal. Si en medicina se investiga un tratamiento médico que logre la anulación de todos los síntomas de una enfermedad, lo que se pretende es que tras la aplicación del tratamiento médico la probabilidad empírica de síntomas de esa enfermedad en particular en cada paciente sea igual a cero. Si en un proceso de producción industrial, se pretende un 100% de excelencia en cada producto, este proceso implicaría cero errores o imperfecciones en su fabricación, es decir, que la probabilidad de que halla el más mínimo error en la fabricación del producto sea imposible, luego la muestra de errores debería ser igual a cero.

En el caso de los estudios donde la muestra de ceros sea el ideal lo que sí se produce es la siguiente paradoja, y que se explica en el apartado número 10 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, y es que conforme tendamos al ideal de la muestra cero se produce un aumento de la dispersión empírica.

El Segundo Método de Probabilidad Imposible es un método para el estudio y crítica racional de la realidad dentro del campo de la estadística de la probabilidad o probabilidad estadística, dentro de este campo de estudio y bajo este método nunca se opera directamente con las puntuaciones directas o frecuencias, siempre se opera con probabilidades estadísticas, lo que implica que realmente estamos trabajando constantemente con números racionales, que entre sus muchas funciones una de ellas es la de medición de la proporción entre los dos factores del cociente, en el caso particular de la probabilidad empírica el cociente de puntuación directa o frecuencia entre el sumatorio total de puntuaciones directas o frecuencias.

Debido a que realmente lo que se mide y compara continuamente son proporciones racionales, aunque el ideal sea la muestra de ceros, a medida que aumenta la tendencia en la aproximación asintótica a cero puntuaciones directas o frecuencias por sujeto u opción en toda la muestra, entonces la dispersión aumenta.

Según aumente el número de sujetos u opciones que tienen probabilidad empírica cero, pero no todos por igual, cuantos menos sujetos u opciones, en tendencia a un único sujeto u opción, tengan probabilidad empírica distinta de cero, la dispersión se dispara.

A medida que se aplica un tratamiento médico para combatir una enfermedad los síntomas van desapareciendo en la mayoría de pacientes, pero no en todos, luego la mayoría de pacientes va obteniendo probabilidad empírica cero, salvo en los que aun sigan persistiendo los síntomas. Y en un proceso de mejora de la excelencia en la fabricación de un producto el número de productos sin errores aumenta, aumentando el número de unidades cuya probabilidad empírica de error es cero, a excepción de aquellas unidades, aunque escasas, donde aún se sigan observando errores. Pero mientras no todas las probabilidades empíricas de síntomas o errores, en pacientes o unidades producidas, sean igual a cero, aumenta la dispersión porque mientras quede un solo paciente que tras el tratamiento médico siga observando el más leve síntoma, o en el proceso de producción industrial halla al menos una unidad que observe el más mínimo error, el sumatorio de puntuaciones directas o frecuencias ya no es igual a cero,  luego el sumatorio de puntuaciones directas o frecuencias será distinto de cero, y la probabilidad empírica de ese único sujeto u opción distinto de cero será igual a probabilidad empírica uno, dándose entonces las máximas condiciones de dispersión empírica.

En Probabilidad Imposible se dice que se dan condiciones de máxima dispersión empírica cuando la probabilidad empírica de un sujeto u opción es igual a probabilidad uno, la Máxima Probabilidad Empírica Posible. Luego su Nivel de Sesgo es igual al Máximo Sesgo Teórico Posible, igual a la diferencia de la unidad menos inversión de N. De modo que entonces es igual también al Máximo Sesgo Empírico Posible, igual a Sesgo Total entre dos. Por lo que a nivel muestral la dispersión tiende a Máxima Desviación Media o Típica Teórica Posible.

Precisamente una de las diferencias entre el Segundo Método de la teoría de Probabilidad Imposible frente a la estadística tradicional, que sería el Primer Método, es que mientras en lo que Probabilidad Imposible denomina muestra de ceros para la estadística tradicional la dispersión tiende a cero de modo absoluto, y a mayor tendencia a cero de las puntuaciones directas entonces mayor tendencia a cero de la dispersión, en Probabilidad Imposible sucede lo opuesto, dentro de la asíntota de tendencia a cero de una muestra, conforme la mayoría de sujetos u opciones tiende a cero mientras tiende a decrecer el número de sujetos u opciones distinto de cero en tendencia a un único sujeto u opción distinto de cero, la dispersión aumenta. En  las muestras de cero en Probabilidad Imposible sólo logra estabilizarse la dispersión empírica de la muestra cuando absolutamente todos los sujetos u opciones tienen puntuación directa o frecuencia cero, luego absolutamente todas las probabilidades empíricas serían igual a cero, Probabilidad Imposible, momento en el cual se evitarían las condiciones de máxima dispersión.

Pero aun cuando se logre definitivamente que todos los pacientes de tratamiento médico dejen de tener síntoma alguno, o en un proceso de producción industrial todas las unidades producidas dejen de tener errores, aun así la dispersión empírica tampoco sería igual a cero.

Mientras en la estadística tradicional cuando todos los elementos de una muestra tienen puntuación directa igual a cero, la dispersión muestral sería igual a cero. En el Segundo Método de Probabilidad Imposible se da la paradoja que independientemente que todas las puntuaciones directas o frecuencias de todos los sujetos u opciones sea igual a cero, la dispersión de la muestra no es igual a cero. Por la sencilla razón de que mientras en la estadística tradicional la media aritmética de cero es igual a cero, luego las puntuaciones diferenciales serían igual a cero, siempre y cuando todas las puntuaciones directas sean igual a cero. En cambio en Probabilidad Imposible aunque la media aritmética sea igual  a cero, la inversión de N absolutamente nunca puede ser igual a cero, siempre y cuando N sea distinto de cero, luego aunque toda la muestra sea una muestra de ceros, el Nivel de Sesgo de sujeto u opción será igual al valor absoluto de inversión de N, el Máximo Sesgo Negativo Posible. Luego aun cuando se den condiciones que verifiquen positivamente que una muestra es una muestra de ceros, la Desviación Media de la muestra nunca será igual a cero, por cuanto si en una muestra de ceros el Nivel de Sesgo de absolutamente todos los sujetos u opciones es igual al valor absoluto de inversión de N, entones la Desviación Media de la muestra de ceros es igual a inversión de N, la Varianza de la muestra de ceros es igual al cuadrado de inversión de N, y la Desviación Típica de la muestra de ceros es igual a la raíz cuadrada del cuadrado de inversión de N.

 

Rubén García Pedraza, Madrid 20 de septiembre del 2015
 



 
https://play.google.com/store/books/details?id=lERWBgAAQBAJ&rdid=book-lERWBgAAQBAJ&rdot=1&source=gbs_vpt_read&pcampaignid=books_booksearch_viewport
Google Play
 
 
https://probabilidadimposible.wordpress.com/
La Librería