Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 20 de diciembre de 2014

Sesgo negativo en modelos omega



Sesgo negativo en Probabilidad Imposible es cuando en el Nivel de Sesgo la diferencia de la probabilidad empírica menos probabilidad teórica es igual a resultado de signo negativo, de modo que la probabilidad empírica es inferior a la teórica. Y un modelo omega es aquel donde dada una muestra N de sujetos u opciones, hay un subconjunto de sujetos u opciones ideales, denominado omega, Ω, que tiende o debe tender a la probabilidad ideal, siendo aquel subconjunto de sujetos u opciones que a criterio de la política científica se definen ideales, ya sea por sus cualidades, o sean elementos de eficacia o eficiencia en un proceso o sistema, compartiendo todos el ideal en un mismo grado, o un mismo grado de eficacia o eficiencia . De no ser así y haber gradaciones jerárquicas en el modo de compartir el ideal, o el grado de eficacia o eficiencia, sería un modelo de Distribución Efectiva.

El número de sujetos u opciones ideales del subconjunto omega varía entre dos y N menos uno, en la medida que el conjunto omega sólo puede ser inferior a N y superior a uno. Para que se pueda hablar de subconjunto dentro de N, el subconjunto no puede ser igual a N, y en cualquier caso dicho subconjunto no puede estar formado por un solo miembro en particular, dado que entonces ya sería un modelo normal de sesgo positivo.

Para todos los sujetos u opciones comprendidos en omega, lo ideal es la tendencia a la probabilidad ideal, que es igual a la inversión de omega,” 1/Ω”, de modo que el sesgo ideal para cualquier ideal es igual a la diferencia de la probabilidad ideal menos la probabilidad teórica, “1/Ω - 1/N”, o lo que es lo mismo, inversión de omega menos inversión de N, en donde si en todos los sujetos u opciones comprendidos en omega se dieran estas condiciones, probabilidad empírica igual a probabilidad ideal y Nivel de Sesgo igual a sesgo ideal, entonces para todos los demás sujetos u opciones de la muestra N, no comprendidos en el conjunto omega, la probabilidad empírica tendería a cero, luego el Nivel de Sesgo tendería al Máximo Sesgo Negativo Posible.

La Mínima Probabilidad Empírica Posible es la probabilidad cero, “0”, Probabilidad Imposible, dado que ninguna probabilidad puede ser inferior a cero en la medida que no existen probabilidades de signo negativo, las probabilidades sólo pueden ser de signo positivo en la medida que representan grados de posibilidad de hechos positivos.  El Nivel de Sesgo de una probabilidad empírica que tiende a cero sólo puede ser de sesgo negativo, porque conforme tienda a cero aumentara su diferencial negativo con respecto la probabilidad teórica. Según tienda a cero una probabilidad empírica el Máximo Sesgo Negativo Posible sólo puede ser cuando la probabilidad empírica es igual  a cero, de modo que el Nivel de Sesgo sea igual a cero menos inversión de N, “0 – 1/N”, siendo por tanto su Nivel de Sesgo igual a menos inversión de N, “-1/N”, en términos absolutos inversión de N, “/-1/N/ = 1/N”, siendo la inversión de N en términos absolutos el Máximo Sesgo Negativo Posible, una función más añadir a la multi-funcionalidad de inversión de N en la teoría de Probabilidad Imposible.

En los estudios omega lo más frecuente es el estudio de la tendencia positiva del sesgo en aquellos sujetos u opciones ideales comprendidos en omega, ahora bien, otra forma alternativa de estudiar que dicha tendencia se verifica, es inversamente estudiar la tendencia a cero de los sujetos u opciones no ideales, de modo que a mayor tendencia a cero de los sujetos u opciones no ideales supondría la adecuada tendencia a los ideales de los sujetos u opciones omega.

Si en un examen tipo test se estudiara  todas las opciones de respuesta de todas las preguntas, el conjunto de opciones correctas sería el subconjunto omega dentro de N, en donde N sería el total de opciones de respuesta de todas las preguntas del test. La forma más convencional de verificar que las opciones de respuesta correctas han tenido una probabilidad más elevada que las respuestas incorrectas sería directamente estudiando la tendencia a la probabilidad ideal de cada opción de respuesta correcta.

Otra opción alternativa, complementaria a la convencional, una vez determinado el grado de tendencia a los ideales de las opciones de respuesta correctas, estudiar la tendencia a cero de las probabilidades empíricas asociadas a las opciones de respuesta incorrecta. Evidentemente en caso que se observase alguna contradicción entre el estudio del sesgo positivo y del sesgo negativo, sería una señal de alarma de que ha habido un error en el análisis, de modo que el estudio de la tendencia de sesgo negativo puede ser a su vez un modo de asegurar que no ha habido error en el estudio del sesgo positivo

Si en un examen tipo test, por cada pregunta hay más de una opción de respuesta correcta, estudiar por cada pregunta del test si el sesgo positivo en las opciones correctas demuestra una tendencia positiva suficientemente racional, un estudio que igualmente se podría compaginar con el análisis del sesgo negativo de las opciones de respuesta incorrecta por cada pregunta del test..

Si en un sistema o proceso hay una serie N de elementos, en donde todos los elementos hay algunos tipificados de ideales por su eficacia o eficiencia, y se quiere estudiar el grado de tendencia ideal de los elementos más eficaces o eficientes del proceso o sistema, el modo más directo es estudiar si los elementos ideales tienden al ideal de forma suficiente o racional, y un medio de garantizar que dichos resultados sean correctos es verificando, complementariamente, si en los elementos no ideales se verifica una tendencia inversa a cero, al menos en igual a proporción a la tendencia al ideal de los ideales.

Dado un modelo, si dentro del modelo hay un subconjunto de funciones ideales, el modo más habitual de estudiar la tendencia al ideal de las funciones ideales, es estudiando el grado de tendencia ideal de las funciones ideales. Ahora bien, un modo inverso de hacer este estudio, o un modo de corroborar que la tendencia a los ideales es correcta una vez analizada, es estudiando que a su vez, en la misma medida o proporción que los ideales tienden de forma racional y suficiente a los ideales, es estudiando si aquellos elementos no ideales tienden de forma racional o suficiente a cero.

Es más, se puede dar el caso que , los modelos omega puedan ser utilizados de forma diferente a la explicada, en donde lo realmente ideal no sean los sujetos u opciones omega, sino que lo realmente ideal sea la tendencia a cero de los sujetos u opciones no comprendidos en omega.

Supongamos que en una investigación sobre una vacuna, en lugar de hacer la clásica división entre grupo de control y grupo experimental , a la hora de tratar los datos, aunque a nivel de campo se haga la división entre grupo de control o experimental en diversas salas de un hospital o laboratorio, pero en el tratamiento de la información dicha división no se haga: todos los datos se vuelcan en una misma muestra, de forma que en la misma muestra están todos los sujetos u opciones, tanto de los que se ha aplicado el tratamiento experimental, y a los que no se ha aplicado el tratamiento experimental.

Supongamos que a los sujetos u opciones a los que no se les ha aplicado el tratamiento experimental lo denominamos omega, de modo que para este caso particular, todos los sujetos de omega son aquellos que no han recibido tratamiento experimental, mientras que los sujetos fuera de omega son los que han recibido tratamiento experimental.

Bajo estas condiciones, para que se verifique un efecto positivo suficientemente racional sobre los sujetos experimentales, sería necesario que, independientemente de la tendencia que se pueda observar en los sujetos omega no experimentales, siempre y cuando los sujetos experimentales fuera de omega observasen una tendencia suficiente a cero en la probabilidad empírica de síntomas, o en la probabilidad empírica de virus o bacterias por centímetro cúbico de sangre, se observaría una tendencia positiva en el tratamiento experimental.

El Nivel de Sesgo es explicado en los primeros apartados de la Introducción a la Probabilidad Imposible,  estadística dela probabilidad o probabilidad estadística, y los modelos omega se explican en diferentes apartados, una primera panorámica general se ofrece en el apartado10, así como en el apartado 11 para la crítica racional intramedicional, luego intramuestral, ya sea para la crítica racional de diferenciales o proporciones, así como su adaptación al Primer Método en el apartado 12, y posteriormente para estudios intermedicionales, intramuestrales o intermuestrales, en el apartado  20.

A nivel de pruebas estadísticas, la principal diferencia entre estudios de sesgo positivo o sesgo negativo en modelos omega, es que mientras para la crítica racional de sesgo positivo en modelos omega si hay ecuaciones propias, muchas de ellas ya explicadas en este blog, por ejemplo a nivel individual Validez Omega, a nivel muestral el Nivel Muestral Omega, para la crítica racional del sesgo negativo en modelos omega se utilizarían los mismos modelos que para la crítica racional de sesgo negativo en modelos normales, dado que si bien hay diferencias en la crítica racional del sesgo positivo, en función sea en modelos normales o modelos omega, dichas diferencias desaparecen a la hora de criticar el sesgo negativo, dado que tanto para sesgo negativo que se crítica siempre es la misma tendencia a cero de la probabilidad empírica, compartiendo los mismos modelos de contraste de hipótesis.

 Rubén García Pedraza, Madrid 21 de diciembre del 2014

 

 
https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/                                     

sábado, 6 de diciembre de 2014

Estadística de la Probabilidad


 La estadística y la probabilidad son dos disciplinas que aparecen históricamente en épocas diferentes, y tienden a fusionarse. La teoría de la probabilidad surge en la Edad Media, para el estudio de los juegos de azar, motivo por el cual la definición clásica es número de casos favorables entre total de casos. El uso de la estadística en cambio data de la Antigüedad,  aunque como teoría matemática en la era moderna, en un principio para la elaboración de censos poblacionales, práctica que deviene de las primeras grandes civilizaciones.

Si bien los primeros matemáticos de la antigüedad, Pitágoras, Euclides, Arquimedes, Deofonte… nunca se preocuparon por la probabilidad y la estadística, en la era moderna se observa un importante desarrollo de ambas, evolucionando de forma conjunta. Hoy en día en los manuales de estadística es habitual la mención de la teoría de la probabilidad, y aunque la probabilidad ha sido integrada en la estadística, sin embargo, no toda estadística implica probabilidad. 

La tendencia a la fusión de estadística y probabilidad se observa en diferentes momentos de la historia de las matemáticas, la curva normal de Gauss transforma el cálculo integral en cálculo de probabilidades en función de la frecuencia acumulada, y a principios del siglo XX el uso de la frecuencia relativa para la estimación de la probabilidad estadística. Una de las razones de  por qué el positivismo se interesa en la probabilidad es para la determinación de la probabilidad de certeza de una proposición empírica, lo cual lleva al contraste de hipótesis.

 Probabilidad Imposible tiende a la síntesis completa de probabilidad y  estadística . Hasta el momento ha habido teorías que tienden a la fusión de ambas, pero respetado sus límites tradicionales, mientras para Probabilidad Imposible toda probabilidad es estadística y toda estadística es probabilidad, en esencia, la aparición de un nuevo campo de conocimiento, la estadística de la probabilidad o probabilidad estadística.
 El concepto de probabilidad estadística se refiere a un tipo de probabilidad, a principios del siglo XX asociada a probabilidad frecuencial, que no era otra cosa que la frecuencia relativa, mientras en Probabilidad Imposible el concepto de probabilidad estadística se redefine, en la medida que se integran diversos tipos de probabilidades estadísticas, no ajustándose ninguna de ella de forma estricta a la noción de frecuencia relativa, salvo parcialmente la probabilidad empírica, y sólo parciamente. La semejanza que pueda haber entre probabilidad empírica y frecuencia relativa  se  debe únicamente a que dentro del concepto de probabilidad empírica se integran las frecuencias, aunque en igualdad de condiciones que las puntuaciones directas. Mientras la frecuencia relativa es igual a la frecuencia de un elemento entre frecuencia total, en Probabilidad Imposible la probabilidad empírica de sujeto u opción es igual a la puntuación directa o frecuencia del sujeto u opción entre el sumatorio de las puntuaciones directas o frecuencias de todos los  sujetos u opciones, de modo que el trato estadístico que se da a la frecuencia es exactamente el mismo que se da a la puntuación directa, no habiendo diferencias en el tratamiento de la información según sean puntuaciones directas o frecuencias, todo dato, independientemente que sea de la medición de la frecuencia o la medición de la puntuación directa, todo información derivada de una medición recibe el mismo tratamiento estadístico en la probabilidad empírica.
 La probabilidad estadística hace referencia a un concepto de la probabilidad, o a un modo de operación o cálculo de la probabilidad, en cualquier caso qué entendemos en estadística por probabilidad, y lo que Probabilidad Imposible entiende por probabilidad estadística es toda aquella estimación de posibilidad, sea empírica, teórica, crítica o ideal, que se genere del estudio de relaciones entre hechos o fenómenos en condiciones estocásticas. De modo que integra al conjunto de probabilidades estadísticas de: probabilidad empírica, probabilidad teórica, probabilidad ideal, y probabilidad crítica.
 Mientras el concepto de probabilidad estadística hace referencia a que entendemos por probabilidad, estadística de la probabilidad hace referencia al uso de técnicas estadísticas para el estudio de la probabilidad, independientemente de nuestro concepto de probabilidad
 A la estadística tradicional en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se denomina primer método, para diferenciarlo del Segundo Método de Probabilidad Imposible. Si en un estudio estadístico que utilice la estadística tradicional o primer método, una vez que se ha hecho un tratamiento tradicional de la información, se somete a técnicas de probabilidad como la curva normal, o se hacen estudios de probabilidad sobre frecuencias relativas, lo que dentro de la estadística tradicional se estaría haciendo es un estudio estadístico de la probabilidad, sólo que aplicando métodos tradicionales, la puntuación Z en la curva de Gauss o la probabilidad frecuencial.
 En la estadística tradicional, la estadística de la probabilidad más habitual se basa en la curva normal, calculando probabilidades sobre áreas que reflejan frecuencias acumuladas, o bien el empleo de frecuencias relativas.
 En el segundo Método de Probabilidad Imposible la estadística de la probabilidad adquiere una dimensión mucho más desarrollada, en la medida que el modo en que se estudia el comportamiento de los sujetos u opciones a través de sus probabilidades empíricas, es exactamente aplicando las mismas técnicas estadísticas que para puntuaciones directas. De modo que sobre las probabilidades empíricas, ya sean calculadas de frecuencias o puntuaciones directas, independientemente del origen de las mediciones, se aplican técnicas de estadística descriptiva y estadística inferencial.
 La estadística descriptiva sobre las probabilidades empíricas se inicia a partir de la diferenciación entre cada probabilidad empírica y la probabilidad teórica, que se denomina Nivel de Sesgo de sujeto u opción, siendo en esencia similar a la puntuación diferencial del primer método, la estadística tradicional, pero con una diferencia notoria, con independencia de que la muestra sea una muestra de ceros, es decir, todos los sujetos u opciones tuvieran probabilidad empírica igual a cero, el Nivel de Sesgo nunca será igual a cero, algo que nunca sucedería en la puntuación diferencial de la estadística tradicional, el primer método, donde si toda la muestra es igual a cero entonces la puntuación diferencial es igual a cero, luego la dispersión es igual a cero. En el Segundo Método en la medida que el Nivel de Sesgo es la comparación entre probabilidad empírica y teórica, e independientemente que todas las probabilidades empíricas de todos los sujetos u opciones tuvieran probabilidad empírica igual a cero sin embargo la probabilidad teórica seguiría siendo igual a inversión de N, aunque una muestra fuera una muestra de ceros, es decir, todas las probabilidades empíricas igual a cero, se daría el caso que el Nivel de Sesgo de todo sujeto u opción sería igual a menos inversión de N, - 1/N, el Máximo Sesgo Negativo Posible, luego la dispersión de la muestra igual a inversión de N, 1/N, siendo esta una diferencia importante entre Segundo Método y primer método, que la dispersión al calcularse sobre una probabilidad estadística de carácter teórico, la probabilidad teórica, inversión de N, 1/N, la dispersión nunca sería cero por el simple motivo que la muestra de puntuaciones directas o frecuencias fuera igual a cero. La única razón que justifica que la dispersión sea cero es que el comportamiento de la muestra tienda a igualdad de oportunidades de forma absoluta.
 A partir de la aplicación de técnicas de estadística descriptiva sobre las probabilidades empíricas del Segundo Método de Probabilidad Imposible, se pueden realizar procesos ulteriores de crítica racional a través de la estadística inferencial, de modo que la estadística de la probabilidad en Probabilidad Imposible, significa que dada una definición de probabilidad estadística, la posibilidad de aplicar a las probabilidades estadísticas el mismo trato estadístico que a cualquier otro conjunto de datos que estuvieran en formato diferente al de probabilidad.
 Mientras probabilidad estadística significa una determinada definición y concepto de probabilidad, que en su formato tradicional implica probabilidad frecuencial, y en Probabilidad Imposible un conjunto de probabilidades estadísticas que incluyen probabilidad empírica, teórica, ideal y crítica, la estadística de la probabilidad implica el uso de técnicas estadísticas para estudiar las probabilidades, en de Probabilidad Imposible sobre su propia definición de probabilidad estadística, sobre las que se aplican técnicas de estadística descriptiva e inferencial
 

Rubén García Pedraza, Madrid  7 de diciembre del 2014
 
 


 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 


 

 
http://probabilidadimposible.wordpress.com/