Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


domingo, 28 de abril de 2013

Introducción a la Probabilidad Imposible (Edición 2015), en amazon

La nueva edición 2015 de Introducción a la ProbabilidadImposible, estadística de la probabilidad o probabilidad estadística, se encuentra ya disponible al público para su adquisición inmediata, tanto en versión Kindle de amazon, y la versión impresa de createspace.

Desde últimas  horas de ayer ya  se podía adquirir la nueva edición 2015 para ebook a través de kindle, y desde primeras horas de hoy la versión de createspace, la marca de amazon para la edición impresa de libros físicos,  pudiéndose encontrar tanto en amazon.com como en amazon Europa, y amazon.es, ambas versiones, ebook e impresa, y  además en el createspace store la versión impresa. Y por supuesto ya se han añadido los enlaces oportunos al blog de la Librería Matemática en donde siempre se pueden encontrar las últimas actualizaciones de la obra.


En el caso de la obra impresa, para los lectores europeos, señalar que todavía no está disponible en amazon Europa, puede tardar unos días, se informa porque en caso de adquirir la obra inmediatamente en lugar de ser enviada desde Europa, el país de envío quizás sea Estados Unidos, lo que aumente el precio del cargo. En cinco días laborables aproximadamente ya estará disponible en amazon Europa la versión impresa.


La importancia de la Edición 2015 reside en que va a ser la última ampliación de la obra, quedando este formato ya establecido definitivamente. En próximas ocasiones, en lugar de hacer nuevas ediciones se van a publicar periodicamente estudios monográficos sobre aplicaciones concretas de la teoría, de modo que quien estaba esperando la edición definitiva esta es la oportunidad, la obra que se presenta en amazon y en createspace bajo el nombre de Introducción a la Probabilidad Imposible (Edición 2015) va a ser desde ahora la única que se distribuya desde los canales oficiales del blog de Probabilidad Imposible, sus redes sociales, y páginas amigas.

El motivo por el cual se deja clara constancia en el título de que es la Edición 2015, es para que se pueda diferenciar de cualquier otro ejemplar de segunda mano de versiones antiguas ya no disponibles, que todavía pueden seguir apareciendo en amazon.

La principal y definitiva novedad de la Edición 2015 es la incorporación de valoraciones sobre el tratamiento de probabilidades estadística calculadas sobre puntuaciones directas de signo negativo, que en tal caso, para el cálculo, se tomarán sobre su valor absoluto, para la estimación de sumatorios y cocientes para la obtención de probabilidades. Un detalle extremadamente importante dado que será determinante para la futura interpretación de las soluciones de los resultados, y de las comparaciones pertinentes.

Para aquellos lectores que estén interesados sobre el modo en que se resuelven estas cuestiones directamente deberán leer a los siguientes puntos, desde el 3.3.12.1. al 3.3.12.11. de la obra, así como hay menciones a lo largo de la nueva edición sobre este modo de valorar el tratamiento estadístico de probabilidades estimadas sobre puntuaciones directas obtenidas de la medición sobre escalas que comprenden enteros desde valores negativos a positivos.

Como ya muchos lectores saben, la obra se encuentra organizada por apartados y párrafos numerados, lo que facilita la lectura y la localización de  párrafos.
Para los lectores que ya han leído la obra se estudiará el modo que puedan tener acceso a las nuevas ampliaciones, en cualquier caso la Edición 2015, como siempre, se ha mantenido fiel al manuscrito original, únicamente modificándose aspectos formales no sustanciales, además de la incorporación de los nuevos casos mencionados para tratamiento en forma de probabilidad de valores enteros negativos.
La Edición 2015 que aquí se presenta de este modo es una contribución más a la expansión de una teoría que desde el  2011 que sale por primera vez a la luz en edición física, ha ido creciendo en lectores, seguidores, y fans, que entienden la necesaria reformulación de muchos conceptos tradicionales desde parámetros más innovadores, y la necesidad de nuevos aires en el campo de la epistemología y las matemáticas, que ofrezcan nuevas perspectivas de futuro a un campo del que, más allá del academicismo, es trascendental para el desarrollo de todas las ciencias, no sólo desde la contemplación de la matemática como una ciencia pura, también desde el punto de vista aplicado, cuyas aportaciones al resto de ciencia pueden ser determinantes para la modelación final de la sociedad en que vivimos.
 
En este sentido, Introducción a la Probabilidad Imposible, además de ser una obra eminentemente dedicado a la epistemología de la probabilidad estadística o estadística de la probabilidad, aporta importantes reflexiones sobre el futuro tecnológico de la humanidad a expensas de  los nuevos desarrollos matemáticos, especialmente hay que hacer hincapié en el apartado 23 en donde se aborda la íntima relación entre replicación matemática y replicación robótica en la creación de nuevos modelos de Inteligencia Artificial, en donde la probabilidad y la estadística tienen mucho que decir, al igual que otros campos de la matemática.
 
También en el terreno de la reflexión sobre las relaciones matemáticas-ciencia, el apartado 24 ofrece una detallada reflexión sobre la importancia de la creación de modelos matemáticos en todo tipo de ciencias, no sólo naturales, también sociales, y finalmente el apartado 25, una aportación más al debate sobre un aspecto fundamental en la lógica del descubrimiento científico, la definición de hipótesis empírica.
 
En este blog se está haciendo una labor de divulgación y difusión de la teoría de Probabilidad Imposible para el estudio del campo de la estadística de la probabilidad o probabilidad estadísica, pero para un conocimiento más profundo, más allá del simplemente divulgativo que se pueda hacer desde las redes sociales sobre un esquema teórico, la lectura de Introducción a la Probabilidad Imposible es imprescindible, en la medida que ofrece un discurso ordenado y coherente sobre el sentido de la probabilidad en la ciencia contemporánea, un discurso que en su forma más abstracta no se puede encontrar en las redes sociales, a pesar de los avances de la tecnología.
 
La razón discursiva precisa de contextos explicativos que sobrepasan la inmediatez de la página web o el blog, y quizás sea algo en lo que la humanidad, a pesar de las profundas transformaciones cibernéticas, no cambie. La imperiosa necesidad de la construcción de la teoría sobre hipótesis, y proposiciones, cuya cadena lógica de relaciones formales y silogismos precise de un discurso claro y diferenciado, donde los conceptos aparezcan nítidos y no haya lugar a dudas más allá de las necesarias, la razón crítica de la lógica discursiva .
 
Por este motivo animo a todos mis lectores habituales del blog, seguidores en redes sociales, y fans que se han ido sumando a lo largo de los últimos años, para una mayor comprensión de esta teoría que están viendo nacer,  a una lectura profunda y reflexiva de  Introducción a la Probabilidad Imposible (Edición 2015), al mismo tiempo sigan las últimas novedades del blog de Probabilidad Imposible donde se informan de las últimas novedades, al mismo tiempo que se introduce a sus aspectos más relevantes, , y sobre todo para la divulgación y difusión de una teoría joven, que lentamente crece y se expande.
 
A todos vosotros, muchas gracias, y que disfrutéis de la lectura. 
 
Rubén García Pedraza, Madrid 21 de enero del 2015
 


https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=A2neVNzgO8n-UreOgJgJ&ved=0CCIQ6AEwAA#v=onepage&q=probabilidad%20imposible&f=false
Probabilidad Imposible  en Google Libros

 


http://probabilidadimposible.wordpress.com/
La Librería Matemática

                                         





 

 

domingo, 21 de abril de 2013

La probabilidad empírica

La probabilidad empírica es la probabilidad estadística real de un sujeto o una opción, y mide las posibilidades reales e individuales, sobre la medición de la puntuación directa del sujeto, o  de una opción de la cual se ha medido la frecuencia de ocurrencia. En cualquier caso la probabilidad empírica será igual a la puntuación directa o frecuencia, de sujeto u opción, entre el sumatorio de todas las puntuaciones directas o frecuencias, de todos los sujetos u opciones.

La probabilidad empírica de sujeto u opción se representa "p(xi)", que viene a representar la probabilidad de "xi", siendo "xi" la representación simbólica de la puntuación directa o frecuencia de sujeto u opción, luego la probabilidad empírica será igual a la puntuación directa o frecuencia de sujeto u opción entre el sumatorio de las puntuaciones directas o frecuencias "Σxi".

probabilidad empírica = p(xi) = xi : Σxi

xi= puntuación directa o frecuencia
Σxi= sumatorio de puntuaciones directas o frecuencias
En el caso particular de la probabilidad empírica en una muestra de sujetos, de los cuales se ha estimado sus puntuaciones directas, la probabilidad empírica es la probabilidad estadística asociada a cada sujeto individual, y mide las verdaderas posibilidades reales individuales, en comparación al resto de sujetos de la muestra.
Supongamos una investigación en educación, donde los sujetos de estudio, la muestra,  son un grupo de alumnos,  después de una prueba de evaluación, un examen, cada alumno tiene una puntuación directa igual a la calificación obtenida, la probabilidad empírica de cada alumno será igual a su calificación entre la suma de todas las calificaciones.
Ya simplemente a partir de la probabilidad empírica de cada alumno, que mide su posibilidad real de éxito en la evaluación, tenemos una probabilidad estadística real sobre el tipo de comportamiento de cada alumno en la prueba. El valor de la probabilidad empírica será tanto descriptivo, nos permite una descripción fidedigna del grado de dominio y conocimiento del alumno sobre la asignatura, y también predictiva, ya simplemente a través de la probabilidad empírica se puede tener una estimación a priori, de dadas esas mismas circunstancias, un examen sobre la misma asignatura, cual es la probabilidad empírica de resultados del alumno en la prueba.
El Nivel de Sesgo de cada probabilidad empírica de cada sujeto de la muestra, el grupo de alumnos, será igual a la diferencia de la probabilidad empírica menos la probabilidad teórica, y los alumnos más aventajados que hayan obtenido mejores calificaciones tendrán sesgo positivo, mientras los alumnos con peores calificaciones tendrán sesgo negativo. Aquellos alumnos cuyos resultados se encuentren en torno a la media aritmética del grupo, la inversión de N, tendrán una probabilidad empírica tendente a cero, en la medida que su probabilidad empírica será próxima a probabilidad teórica.
Supongamos un estudio en un universo de sujetos donde los sujetos de estudio son los meses del año en donde se ha medido la temperatura media mensual, la puntuación directa de cada mes es igual a su temperatura media, y la probabilidad empírica de temperatura por mes el cociente de la temperatura mensual entre la suma de la temperatura de todos los meses, midiendo la posibilidad real de temperatura en cada mes.
La probabilidad empírica de temperatura de cada mes particular es la posibilidad real de temperatura mensual según esa medición, de forma que se tiene una estimación descriptiva del comportamiento de la temperatura  por meses. Un mes cuya probabilidad de temperatura sea baja significa que es un mes que ha tenido bajas temperaturas, ha hecho frío, y un mes donde la probabilidad de temperatura sea alta significa que es un mes donde ha habido mucha temperatura, ha sido caluroso, siendo entonces la probabilidad empírica un valor predictivo sobre la tendencia mensual de la temperatura en próximos años en función de los meses.
Una forma de poder baremar a partir de qué término medio un mes se puede decir que ha sido frío por cuanto su probabilidad empírica esté por debajo del término medio, o se pueda afirmar que un mes ha sido caluroso por cuanto su probabilidad empírica esté por encima del término medio, es mediante el Nivel de Sesgo, diferencia de probabilidad empírica menos probabilidad teórica, de forma que todos los meses que tengan sesgo positivo son calurosos, y todos los meses que tengan sesgo negativo son fríos, y los meses cuya probabilidad empírica se encuentren en torno a la probabilidad teórica meses de temperaturas templadas.
Los estudios de sujetos son estudios donde los sujetos de estudios son sujetos a una puntuación directa, siendo muestras de sujetos que forman parte de universos de sujetos, por ejemplo, un grupo de alumnos en una escuela forma parte del universo de todos los posibles alumnos escolarizados, y a los universos de sujetos en Introducción a Probabilidad Imposible se las llamará universos de sujetos u opciones infinitos, en tanto que los sujetos son tratados como si fuera opciones, e infinitos por cuanto son universos que, en función del tiempo  pueden llegar a ser infinitos, ya sea en un tiempo que no tenga ni principio ni fin, o tenga principio pero no tenga fin, o teniendo principio y fin existen infinitud de instantes entre los límites de tiempo, luego posibles infinitas mediciones, de la cual, cualquier medición, es una entre las posibles.
En los universos de sujetos la puntuación directa es igual al resultado de la medición de aquella cualidad singular objeto de estudio, que se mide a todos los sujetos de la muestra, siendo su probabilidad empírica igual a la puntuación directa de su cualidad particular entre el sumatorio de todas las puntuaciones directas.
La puntuación directa es la medición cuantitativa de la intensidad de una cualidad singular en cada sujeto en particular.
Además de los universos de sujetos, de los que se estiman sus puntuaciones directas, existen los universos de opciones, siendo una opción una alternativa posible ante una posible ocurrencia, en donde el concepto de alternativa implica que debe haber más de una alternativa simultáneamente en la que la ocurrencia puede resolverse, de forma que en una muestra de opciones, siendo cada opción una alternativa posible, habiendo más de una alternativa , la medición estadística determina el número total de ocurrencias por opción, que se llama frecuencia.
La frecuencia de una opción es el número total de ocurrencias en que esa opción se ha manifestado en la realidad, y la probabilidad empírica de la opción será igual a dividir su frecuencia particular entre el sumatorio de todas las frecuencias de todas las opciones, y mide las posibilidades reales de ocurrencia de esa opción en la muestra. En este sentido lo que la estadística tradicional llama frecuencia relativa, la frecuencia individual entre la total, es lo que en Introducción a la Probabilidad Imposible se llama probabilidad empírica de opción.
Supongamos que jugamos a lanzar una moneda al aire y queremos saber s la probabilidad de cara o cruz, la muestra de opciones es la muestra formada por las opciones cara o cruz, y la probabilidad empírica de cara igual al número de veces que ocurre cara entre el sumatorio de todos los lanzamientos de la moneda, siendo el número total de veces que se lanza la moneda igual a la suma de todas las ocurrencias de cara y todas las ocurrencias de cruz, y la probabilidad empírica de cruz igual al número de veces que ocurre cruz entre el número total de lanzamientos.
Al número de veces que ocurre cara se llama frecuencia de cara, y al número de veces que sale  la opción cruz se llama frecuencia de cruz, y la probabilidad empírica de cada opción será igual a su frecuencia particular entre el sumatorio de todas las frecuencias, y mide cuales son las posibilidades reales de que salga cada opción en particular.
Supongamos que queremos hacer un estudio de la probabilidad de hombres o mujeres en una población concreta, donde la muestra de opciones son dos, hombre o mujer, luego la probabilidad empírica de mujeres es igual a la cantidad total de mujeres en toda la población entre toda la población, y la probabilidad empírica de hombres la cantidad total de hombres entre toda la población.
Ya sea en el estudio de cara o cruz, hombre o mujer, si en condiciones normales, en ausencia de sesgo, lo más normal es que la probabilidad de cara o cruz sea la misma, o la probabilidad de mujer u hombre debiera ser la misma, lo que se observa es que no siempre tiene porque darse esta ausencia de sesgo, y en el caso de que la moneda este sesgada a favor de las caras o las cruces la probabilidad de cara o cruz será superior a la de cruz o cara, lo que significará que aquella opción que tenga mayor frecuencia en el Nivel de Sesgo tendrá sesgo positivo, lo cual se observa en los estudios demográficos, en donde por factores normalmente naturales, luego aleatorios, normalmente la probabilidad de mujeres es mayor a la de hombres, siendo un sesgo a favor de las mujeres producido naturalmente, es decir, un sesgo aleatorio del propio azar.
Supongamos que jugamos a lanzar un dado de seis caras, y apostamos que número saldrá de los seis, tenemos seis opciones, la probabilidad empírica de cada número asociado a cada cara del dado de seis caras será igual a la frecuencia en que sale cada número individualmente entre el número total de lanzamientos del dado, que es igual al sumatorio de todas las frecuencias obtenidas por todos los números de todas las caras.
En una democracia representativa se presentan una serie de partidos políticos, las opciones políticas, y antes de las elecciones se hace una encuesta de intención de voto, la frecuencia de voto por partido será igual a la cantidad de personas dispuestas a votar a ese partido, la probabilidad empírica de intención de voto a cada partido será igual a la frecuencia de votantes por partido entre todos los encuestados en la muestra. La probabilidad empírica de cada partido en la encuesta mediría cuales son las posibilidades reales de ganar de cada partido, aquellos partidos más cercanos a la Máxima Probabilidad Empírica Posible, la probabilidad empírica igual a uno, son los que tienen más posibilidades de ganar, debido a su sesgo positivo, probabilidad empírica superior a la teórica,  mientras aquellos que estén más próximos  a la Mínima Probabilidad Empírica Posible son los que  menos posibilidades tienen de ganar, luego tendrán asociado mayor sesgo negativo, probabilidad empírica inferior a la teórica.
La probabilidad empírica de una opción, sea al lanzar una moneda o un dado, sea la probabilidad empírica de hombres o mujeres, o la probabilidad empírica de ganar unas elecciones un partido político, es siempre la misma, frecuencia individual entre  la frecuencia total, el sumatorio de toda la frecuencia, y lo que mide la probabilidad empírica de una opción son las posibilidades reales de esa opción en comparación a las demás.
Los universos de opciones, a diferencia de los universos de sujetos que pueden tender a infinito, los universos de opciones son siempre universos limitados a las opciones predeterminadas a priori en la investigación, motivo por el cual los universos de opciones en Introducción a la Probabilidad Imposible se las llama universos de opciones limitadas.
En cualquier caso, sea un universo de sujetos a puntuación directa tras la medición de la intensidad de una cualidad particular, o sea un universo de opciones de frecuencia, en cualquier caso de forma universal, para todo sujeto u opción, en Introducción a la Probabilidad Imposible, se dirá que la probabilidad empírica de sujeto u opción es igual a puntuación directa o frecuencia entre el sumatorio de todas las puntuaciones directas o frecuencias.
Lo cual implica que la probabilidad empírica de sujeto es igual a su puntuación directa particular entre sumatorio de puntuaciones directas, y si lo que se estudia son opciones, la probabilidad empírica de una opción será igual a la frecuencia particular de la opción entre el sumatorio de todas las frecuencias.
La probabilidad empírica de sujeto u opción será siempre una probabilidad estadística real, por cuanto se deriva de una medición estadística, ya sea de puntuaciones directas o frecuencias, y mide en todo caso las posibilidades reales de ese sujeto u opción en la muestra, ya sea una muestra extraída de un universo de sujetos o un universo de opciones limitadas.
Las funciones de la probabilidad empírica son descriptiva y predictiva, en función de la probabilidad empírica de un sujeto u opción no sólo obtenemos una estimación descriptiva de ese sujeto u opción en la realidad presente o medida, tenemos un indicador a priori predictivo de dado su comportamiento actual cual puede ser su comportamiento futuro.
Si dado un grupo de alumnos, disponemos de las probabilidades empíricas después de una evaluación en una asignatura, ya disponemos de una estimación a priori para, si el alumno mantienen constante su comportamiento y no varía en el futuro, predecir su comportamiento según sus posibilidades reales actuales si estas no varían, la función de la probabilidad empírica no es sólo descriptiva, es predictiva, por cuanto los alumnos con mayores posibilidades, de mantenerse constantes las mismas condiciones, seguirán teniendo altas puntuaciones, y los alumnos con menores posibilidades seguirán teniendo menos puntuaciones, siempre que las condiciones de partida en la evaluación se mantengan constantes.
Evidentemente un buen profesor una vez hecha esta predicción de futuro sobre las posibilidades reales lo que intentará será en todo caso mejorar las condiciones de los alumnos con peores posibilidades, a fin que aumenten sus probabilidades, ahora bien, de no introducirse cambios, la probabilidad empírica es un buen estimador a priori.
De mantenerse constante la temperatura media mensual, la probabilidad de temperatura por mes es a priori una estimación de las posibilidades reales de temperatura mensual en los próximos años, salvo que el cambio climático altere significativamente el comportamiento de  las temperaturas mensuales.
Si en un estudio sobre la tasa estadística de la proporción de hombres y mujeres en la sociedad se demuestra que la probabilidad de mujeres es mayor a la de hombres, de mantenerse constantes estas condiciones, y no producirse variaciones significativas en la pirámide demográfica, lo que cabe estimar a priori, como predicción para siguientes años es que la tasa de mujeres seguirá siendo mayor que la de hombres. No es sólo un valor descriptivo, es predictivo.
Si en una encuesta de intención de voto a días antes de unas elecciones un partido político tiene la máxima probabilidad empírica, “p(xi+)”, otro partido tiene una probabilidad empírica próxima a probabilidad teórica “p(xi≈)”, y otro partido tiene la mínima probabilidad empírica, "p(xi-)", salvo que los partidos que no detentan la máxima hagan algo por invertir los resultados, lo más probable, a modo de predicción electoral, es que el partido que tiene la máxima en la encuesta en intención de voto sea el partido que gane las elecciones y obtenga la presidencia, mientras que el partido que tiene una probabilidad empírica próxima a teórica sacará unos resultados moderados, y el partido que tiene la mínima probabilidad empírica será aquel que tenga la menor representación electoral.
La probabilidad empírica tiene una función descriptiva por cuanto describe cuales son las posibilidades reales en el momento de la medición estadística, pero simultáneamente tiene una función predictiva por cuanto si las condiciones de la medición presente no varían y se mantienen constantes, lo más posible es que en el futuro las posibilidades reales de cada sujeto u opción son las que estima su probabilidad empírica.
La probabilidad empírica es una función estadística relativa o proporcional, en cuanto para que cualquier probabilidad empírica de sujeto u opción se mantenga constante, es imprescindible a priori que se mantengan constantes todas las probabilidades empíricas de todos los sujetos u opciones de la muestra. En el momento que varía la probabilidad empírica de un solo sujeto u opción entonces normalmente varían todas las probabilidades empíricas, por este motivo las relaciones entre las probabilidades empíricas son de carácter sistémico, baste que haya una variación un solo sujeto u opción para que todo cambie.
El modelo de probabilidad empírica es un modelo sistémico por cuanto un simple cambio en el comportamiento individual supone un cambio global en el comportamiento toda la muestra.
En el apartado 10 de Introducción a la Probabilidad Imposible se detallan los diferentes tipos de estudios intramedicionales inferenciales, y en el apartado 11 se detallan los diferentes modelos de crítica racional en función del objeto de estudio, utilizando probabilidades estadísticas, lo que viene a ser el Segundo Método de estadística de la probabilidad o probabilidad estadística. En el apartado 12 se exponen los modelos de crítica racional pero adaptados a las puntuaciones directas o frecuencias.
Dentro de los diferentes tipos de estudio en Probabilidad Imposible hay que diferenciar entre los estudios normales y los estudios omega. Dentro de los estudios normales diferenciar aquellos cuyo objeto de estudio es la igualdad de oportunidades: que las probabilidades empíricas tiendan a probabilidad teórica, inversión de N; estudios de sesgo positivo cuando si de toda N sólo hay un sujeto u opción ideal a elevar al máximo su probabilidad empírica, sea la máxima probabilidad empírica, en tendencia a Máxima Probabilidad Empírica Posible, la probabilidad empírica igual a uno; y los estudios de sesgo negativo donde el ideal es o bien la muestra de ceros, que todas las probabilidades empíricas sean igual a cero, porque miden cualidades negativas, por ejemplo, lo ideal es que la probabilidad empírica de todas las enfermedades sea cero, o la probabilidad empírica de todos los errores sea cero, o bien de sesgo negativo porque de toda N hay una serie de sujetos u opciones a reducir al mínimo su probabilidad empírica.
Los modelos omega en Introducción a la Probabilidad Imposible son aquellos en donde dada N hay un subconjunto de de sujetos u opciones ideales, siendo un subconjunto inferior a N pero igual o mayor de dos, siendo modelos que reciben un tratamiento diferente a los modelos normales. Mientras en los modelos normales la dispersión varía entre cero o máxima en los modelos omega lo ideal es una dispersión ideal.
En la medida que en función del objeto de estudio la manipulación de la variable independiente puede hacer variar las puntuaciones directas o frecuencias de la muestra, cualquier cambio, por mínimo que sea en un sujeto u opción individual produce automáticamente cambios en toda la distribución de probabilidades empíricas, debido a su carácter relativo y proporcional.
Si en un estudio, por el motivo que sea, un sujeto u opción determinado aumenta su puntuación directa, aunque todos los demás sujetos u opciones la mantengan constante, en cuanto un sujeto u opción determinado aumenta su puntuación directa o frecuencia entonces aumenta el sumatorio de las puntuaciones directas o frecuencias, luego únicamente aumentará la probabilidad empírica de ese sujeto u opción determinado, mientras que por el efecto de verse aumentado el sumatorio de las puntuaciones directas o frecuencias, aunque los demás sujetos u opciones mantengan constante su puntuación directa o frecuencia, por efecto del aumento del computo total del sumatorio de todas las puntuaciones directas o frecuencias, verán reducidas, los demás sujetos u opciones, sus probabilidades empíricas, porque el valor proporcional real, probabilidad empírica,  de una puntuación directa o frecuencia constante decrece conforme aumente el sumatorio de las puntuaciones directas o frecuencias.
Y viceversa, si en un estudio un sujeto u opción reduce su puntuación directa o frecuencia, se verá reducida su probabilidad empírica, mientras, aunque los demás sujetos u opciones mantuviesen constantes sus puntuaciones directas o frecuencias, sus probabilidades empíricas aumentarán porque el valor proporcional real, probabilidad empírica, de una puntuación directa o frecuencia constante aumentará conforme se reduzca el suma total de todas las puntuaciones directas o frecuencias.
La probabilidad empírica es un valor relativo y proporcional, en la medida que la probabilidad empírica de un sujeto u opción depende de dos tipos de variaciones, ya bien la variación directa individual sobre su puntuación directa o frecuencia, causa directa de aumento o disminución en la probabilidad empírica, o bien indirectamente por variaciones en el sumatorio de las puntuaciones directas o frecuencias, que con independencia que se mantenga constante una puntuación directa o frecuencia, es causa indirecta de aumento o disminución en la probabilidad empírica: a puntuación directa o frecuencia constante, conforme disminuya o aumente el sumatorio de puntuaciones directas o frecuencias, entonces mayor o menor probabilidad empírica
Si N es la muestra de sujetos u opciones, N sujetos en universos de sujetos, N opciones en universos de opciones limitadas, al sumatorio de puntuaciones directas o frecuencias se llamará muestra de puntuaciones directas o frecuencias, siendo un factor de dispersión estadística. De esta forma todo estudio tendrá dos muestras diferenciadas : la muestra N de sujetos u opciones y la muestra de puntuaciones directas o frecuencias .En una muestra de N sujetos la muestra de puntuaciones directas es igual a la suma de todas las puntuaciones directas, y en una muestra de opciones la muestra de frecuencias será igual a la frecuencia total
Precisamente a causa de que la dispersión puede estar motivada por diferentes factores, ya sea la manipulación experimental, la magnitud de N, y la magnitud de la muestra de puntuaciones directas o frecuencias, estos factores se estudian dentro de las relaciones entre dispersión empírica o teórica, dentro de la doble dimensión empírica o teórica de la realidad, que es en definitiva, el verdadero objeto de estudio.
En síntesis la probabilidad es el estudio de lo que sucede,  en función de lo cual se establecen proporciones o probabilidades estadísticas, sean empíricas, teóricas o críticas, siendo la probabilidad empírica la que se deriva de los datos reales de la muestra,  y estudia las posibilidades reales de los sujetos u opciones, para la descripción y predicción estadística.del comportamiento o la tendencia.

Rubén García Pedraza, Madrid a 21 de abril del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 

 

sábado, 13 de abril de 2013

La naturaleza estocástica de la estadística y la probabilidad


Se  dice que un hecho o fenómeno es de naturaleza estocástica cuando su incidencia no está ligada ni vinculada absoluta o directamente a factores exclusivamente causales propio de modelos deterministas, habiendo fenómenos o hechos cuya ocurrencia sucede en un contexto o margen de indeterminismo o incertidumbre, los hechos se producen en un margen de posible distribución aleatoria, luego se estudian a través de la probabilidad y la estadística.
 
La naturaleza estocástica de la estadística y la probabilidad obedece a que son métodos de investigación aplicada a fenómenos que suceden en ausencia de determinación plausible o certeza, habiendo una posible incidencia del azar en la forma de distribuirse.

Se dirá que un suceso se da en un margen de indeterminación o incertidumbre cuando no existe certeza de ocurrencia, entendiendo por certeza cuando la probabilidad es igual a uno, luego sí habría condiciones de determinación causal. En el momento que la certeza de un fenómeno es inferior a uno se dan condiciones aleatorias, o al menos en un grado o porcentaje, el cual puede ser desconocido o estimado en un margen de error, desapareciendo la certeza, luego se generan niveles de incertidumbre o indeterminación al azar en el comportamiento de lo que sucede.
 
En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, a la probabilidad empírica igual a uno, lo que sería certeza, se llamará Máxima Probabilidad Empírica Posible, siendo un objetivo de la política científica bajo ciertas condiciones de estudio de sesgo positivo.


Cuando el estudio se centra en la ocurrencia estocástica, bajo un grado de incertidumbre e indeterminación, de un hecho en particular, se hace un estudio sobre la probabilidad del suceso la ocurrencia, que en Probabilidad Imposible se hace a través de la probabilidad empírica de sujeto u opción.

Cuando el estudio tiene por objeto las relaciones entre dos o más variables entonces es un estudio correlacional, diferenciándose tres tipos: en primer lugar estudios correlaciones en función de causas probables, en segundo lugar estudios correlaciónales de fenómenos simultáneos o sucesivos pero mutuamente independientes aunque dependan a priori de factores comunes, y finalmente estudios correlaciónales de fenómenos simultáneos o sucesivos por factores puramente caóticos y no lineales, la propia distribución aleatoria .


Los estudios correlaciónales que estudien las probables causas de un fenómeno, son aquellos que comprenden un modelo de causalidad aunque no absoluta, por cuanto está asociada a una tasa estadística o de probabilidad, la probabilidad de causalidad, de modo que la probable causa de B sea A, en donde A y B pueden ser variables simples, variable independiente A y variable dependiente B, o complejos multi-variable, A y B integren un sistema de variables, ya bien sea A un conjunto de variables independientes pero que en conjunto incidan sobre B, ya incidan de forma diferente o igual, ya bien sea B un conjunto de variables dependientes en relación a A, en donde A incida de forma igual o diferente en cada variable de B. De modo que las categorías A o B pueden ser simples o complejas en función integren una o más variables..

Se pueden dar las siguientes situaciones: que A y B sean simples, A compleja y B simple, A simple y B compleja, A y B complejas. Si A y B son simples se estudia la probabilidad de causalidad de A sobre B. Si A es compleja y B es simple, la distribución de probabilidades de causalidad de cada variable de A sobre B. Si A simple y B compleja, la distribución de probabilidades de causalidad de A sobre cada variable de B. Y si A y B son complejas, la distribución de probabilidad de causalidad de cada variable de A en cada variable de B.

Si el estudio correlacional no se basa en distribuciones de causalidad estadística, y se observa sólo correlación entre variables mutuamente independientes aunque coetáneas o sucesivas, dicho fenómeno puede producirse o bien porque compartan algún nexo o circunstancia común que los haga simultáneos o sucesivos, aunque independientes entre sí, o dicho fenómeno de simultaneidad o sucesión se debe únicamente a una distribución caótica al azar en la historia, o la historia del azar, sin que haya nada que los relacione.

La forma en que las correlaciones pueden establecerse, en cualquiera de los diferentes casos, será estableciendo relaciones de tasas de relación directa o inversamente proporcional, siempre en términos de probabilidad estadística, que en los estudios que tengan por objeto la determinación causal serán probabilidades de causalidad.

Las relaciones de causalidad, directa o inversamente proporcional, estadísticas, pueden darse tanto en las ciencias analíticas y en ciencias sintéticas. Dentro de las ciencias analíticas, en estadística y probabilidad en tanto que disciplinas de investigación pura dentro de las matemáticas, en Probabilidad Imposible integrada dentro de las ciencias analíticas, se observan múltiples situaciones de relaciones lógicamente directa o inversamente proporcionales. Dentro de  las ciencias sintéticas igualmente se pueden observar en los estudios empíricos multitud de situaciones en donde se producen este tipo de relaciones directas o inversas.

A nivel analítico en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, donde se explica la teoría de Probabilidad Imposible, un caso de relación analítica directamente proporcional sería la relación directamente proporcional entre aumento de la magnitud de la muestra y aumento de la fiabilidad del estudio, y una relación analítica inversamente proporcional sería el aumento de la magnitud muestra y el descenso en la probabilidad de error de representatividad muestral. De forma que se puede observar una relación analítica, lógica, de causa y efecto, entre magnitud de la muestra, fiabilidad y probabilidad de error de representatividad muestral.
De igual manera en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística se podría decir que hay una relación analítica de causa y efecto inversamente proporcional entre magnitud de la muestra y la probabilidad de dispersión estadística, por cuanto, en condiciones normales, a mayor magnitud de la muestra menos tendencia a la dispersión estadística, luego a menor muestra mayor tendencia a la dispersión estadística.
A nivel sintético, un ejemplo de modelos causales directamente proporcionales, el aumento de la tasa de producción industrial proporcionalmente aumentan las inversiones en investigación y desarrollo. Un ejemplo de modelo causal inversamente proporcional, la reducción de las tasas de incidencia de una determinada enfermedad conforme aumentan las personas beneficiadas por los planes de vacunación.
Los estudios correlaciones de tipo causales en las ciencias sintéticas, en caso que quieran erigirse como una explicación científica de la realidad, deberán concretar la probable relación causa-efecto en forma de hipótesis empíricas verificables, de forma que la verificación racional de la hipótesis será utilizando procedimientos de estadística inferencial, cuando su objeto de verificación empírica es una hipótesis explicativa que estudia la relación entre diferentes variables en términos cuantitativos y no absolutos por cuanto hay un margen impredecible sujeto a factores aleatorios, entre ellos los márgenes de error y azar. En la medida que toda inferencia está ligada a márgenes de error o fiabilidad, hay un margen de indeterminismo o incertidumbre en el que posiblemente la inferencia estadística sea falsa, y siempre hay un margen duda directamente proporcional al doble margen de error, de hecho o racional, sobre el que se establece la inferencia.
Si bien no sujetos a estudio correlacional, pero si de naturaleza estocástica, en la estadística inferencial, también se definirán estocásticos todos aquellos estudios que hagan referencia al comportamiento de una sola variable por sí misma, y en general cualquier hipótesis tecnológica cuya inferencia estadística está igualmente sujeta a márgenes de error y variables aleatorias impredecibles.
En cierto sentido, ciencias empíricamente estocásticas serán aquellas para las que es absolutamente imprescindible el uso de la estadística y la probabilidad para la verificación racional de hipótesis, explicativas o tecnológicas, luego toda la construcción científica de esa ciencia depende de paradigmas construidos sobre modelos sustentados en teorías basadas en hipótesis, aceptadas racionalmente dentro de un margen de error, en el que posiblemente dichas hipótesis sean falsas, luego dichas teorías sean insostenibles, los modelos sean incoherentes, luego los paradigmas sean inconsistentes, de manera que toda la construcción científica de la realidad se edifica dentro de un nihilismo lógico en el que la ciencia quizás, de momento, sea útil, pero llegado el momento de la verdad se demuestre falsa.
Precisamente Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, es una obra que parte de la síntesis de diferentes escuelas filosóficas, racionalismo crítico, positivismo, materialismo dialéctico, en donde el isomorfismo necesario para la ciencia entre idea y realidad se produce dentro de unos márgenes de error que al mismo tiempo que verifican racionalmente las hipótesis y las teorías, crean simultáneamente los márgenes de duda racional y escepticismo empírico, razón por la cual la ciencia descansa sobre verdaderos pilares de relativismo e incertidumbre, ofreciendo explicaciones provisionalmente universales, aunque de forma incompleta e inconsistente.
La estadística y la probabilidad  desde el punto de vista analítico son disciplinas matemáticas, dependen formalmente de la lógica, y dan forma a un lenguaje matemático, sobre expresiones y símbolos propios, relacionados lógicamente, susceptibles de sustitución numérica por los resultados de la medición o cuantificación de la realidad,  para la explicación y comprensión, tanto  de las posibles relaciones lógicas de sí, de la propia estadística o la  probabilidad, y  de la realidad misma, lo que sucede,  razón por la cual se postulan como métodos analíticos para  la investigación de hechos o fenómenos en las ciencias sintéticas, naturales o sociales, siendo ambas, estadística y probabilidad, tradicionalmente diferenciadas, formando para sí cada una disciplina y método, simultáneamente, ligadas en epistemología, entre otros, a los métodos correlaciónales y a las ciencias estocásticas, en la medida que se proponen para el estudio de fenómenos en ausencia de certidumbre, o en un margen de incertidumbre.
Una metodología es correlacional cuando su ámbito de aplicación, estocástico, no es el establecimiento de relaciones causales puras o absolutas, del tipo, “si A entonces B”, que significa que si se da A entonces absoluta y necesariamente se da B, más bien lo que estudian son índices y tasas de causalidad, interacción, o validez de una hipótesis, sustentados sobre datos estadísticos y probabilidades, que miden la probabilidad o tasa de incidencia de un factor dadas unas condiciones de partida o variables de interacción, lo cual no significa que dadas esas condiciones o variables la incidencia del factor sea inevitable de forma inmediata, únicamente testimonia cual es la probabilidad de ocurrencia de ese factor dadas esas condiciones variables.
En síntesis, dentro de los modelos estocásticos, hay que diferenciar  entre aquellos que estudian una única variable, ya sea en probabilidad o estadística, descriptiva o inferencial, y aquellos que estudian la correlación entre dos o más variables, de forma directa o inversamente proporcional, ya sean mutuamente independientes entre sí porque tengan nexos comunes o simplemente por azar, o se puedan establecer relaciones causales de dependencia en función de una probabilidad de ocurrencia en la relación causa-efecto, en donde finalmente para la aceptación racional de si una determinada tasa de correlación es suficiente para ser una explicación científica serían necesarios modelos de contraste de hipótesis.
Los métodos correlacionales, para la estimación de las condiciones de probabilidad causal,  son del tipo “ si A entonces probablemente B”, siendo  A las condiciones de posibilidad, para que suceda B, si bien, la secuenciación de A a B no es automática ni inmediata, estando sujeta a una probabilidad estadística. Los métodos correlacionales para la estimación que algo ocurra dada una condición previa, son correlacionales en tanto en realidad lo que miden es la probabilidad de correlación en la secuencia de A y B.
En el caso de las correlaciones directamente proporcionales, si conforme A aumenta B, y se observa un incremento de la tasa estadística de B entre A en dos momentos diferentes, y la diferencia de la tasa de la segunda medición menos la tasa de la primera medición, es una diferencia positiva de forma significativa, se dirá que hay una correlación positiva directamente proporcional de forma significativa, que si es igual o inferior a un margen de error, o igual o superior a un margen de fiabilidad, pasará a aceptarse provisional y universalmente racional.
En el caso de las correlaciones inversamente proporcionales, si conforme aumenta A disminuye B, luego la tasa de B sobre A disminuye entre dos mediciones diferentes, siendo negativa de forma significativa la diferencia de la tasa de segunda medición menos la tasa de la primera medición, se dirá que hay una correlación negativa inversamente proporcional de forma significativa, que si es igual o inferior a un margen de error, o igual o superior a un margen de fiabilidad, pasará a ser una explicación racional y provisional del universo.
La metodología correlacional aplicada a los estudios que miden la interacción directa o inversamente proporcional, puede darse en una situación donde se identifiquen relaciones directamente o inversamente proporcionales en función de causas y efectos probables, o en ausencia total de secuencias causales, únicamente mide, dada una serie de variables, las relaciones directa o inversamente proporcionales entre las variables mutuamente independientes, ya sea independientes entre sí por puro azar o debido a la existencia a priori de nexos comunes causales de los cuales dependen, aunque entre ellas sean independientes.
Las estimaciones de correlación positiva o negativa, directa o inversamente proporcionales, se estudian mediante tasas o cocientes, y se encuentran ampliamente explicadas a partir del apartado 11 de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística.
La estimación de una relación directa o inversamente proporcional entre dos variables se puede medir en términos estadísticos y de probabilidad mediante el cociente de la magnitud de ambas variables, que sería la pendiente, y sobre un eje barras representar en cada abscisa o eje cartesiano cada variable, y sobre la recta la estimación de predicciones.
Las predicciones en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se estudian en el apartado 17, diferenciándose entre proyecciones teóricas, sobre las variaciones ideales, y pronósticos empíricos, sobre las variaciones reales. 

Rubén García Pedraza, Madrid  10 de mayo del 2014
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/