Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 1 de junio de 2013

Modelos normales

La estadística tradicional llama modelos normales a modelos de distribución estadística donde la mayor parte de las mediciones, datos, se ordenan en torno a la media aritmética, siendo la distribución estadística  la forma en que los datos de la muestra se ordenan o relacionan entre sí, una ordenación o relación que puede representarse de distintas maneras, según la forma en que se expongan las mediciones.
De forma directa los datos de la medición en estadística tradicional se llaman puntuaciones directas, y la forma en que gráficamente se representa su distribución sobre los ejes cartesianos es la Nube de Puntos, siendo la forma más simple de ver la distribución estadística de la muestra.
Igualmente la distribución estadística puede estudiarse utilizando otros métodos, que gráficamente podrán exponerse de diferente forma, por ejemplo el estudio de la frecuencia relativa y los percentiles, que expone los valores porcentuales, y su representación gráfica a través del valor proporcional de la frecuencia relativa o percentil sobre el área de una circunferencia, o representando los valores porcentuales sobre ejes de barras.
Finalmente, otra forma muy común de representar los datos es mediante la transformación de la puntuación directa en Puntuación Típica, igual a la división, entre Desviación Típica, de la diferencia de puntuación directa menos la media aritmética, siendo dicha diferencia la puntuación diferencial, luego, en síntesis, Puntuación Típica igual a puntuación diferencial entre Desviación Típica. La representación gráfica de las Puntuaciones Típicas es lo que se denomina curva normal o campana de Gauss, siendo los modelos normales aquellos normales en donde la mayor concentración de puntuaciones típicas se produce en torno a la Puntuación Típica de la media aritmética, con un error de más o menos uno.
La estadística tradicional dice que lo normal es que la distribución se ordene en torno al valor cero de la curva normal porque es el valor de la media aritmética. La Puntuación Típica de la media aritmética es cero, porque si la puntuación típica es igual a puntuación diferencial entre Desviación Típica, lógicamente el primer factor del cociente para la media aritmética es cero, dado que media aritmética menos media aritmética sería cero, luego la Puntuación Típica de la media aritmética sólo puede ser cero.
El motivo por el cual en la estadística tradicional se dice que la ordenación en campana de Gauss de los modelos normales se da en torno a media aritmética dentro de un error más o menos uno es porque, se consideran normales aquellos valores empíricos cuya puntuación diferencial, positiva o negativa, sea igual o inferior a la Desviación Típica, de forma que toda puntuación diferencial superior a Desviación Típica deja de seguir un patrón de comportamiento normal para ser de carácter excepcional o fuera de lo normal, demasiado sesgado, ya sea de signo positivo o negativo.
Para la estadística tradicional el máximo valor que puede adquirir un valor empírico normal es igual a la suma de media aritmética más Desviación Típica, o el mínimo valor normal sería igual a la resta de media aritmética menos Desviación Típica,  toda medición superior a la suma de media más Desviación Típica, o inferior a la resta de media menos Desviación Típica, deja de ser un valor normal, para ser excesivamente sesgado, excepcional o fuera de lo normal.
El hecho que un comportamiento esté fuera de lo normal no es positivo ni negativo, únicamente significa que su patrón de comportamiento no es normal, y dependiendo del modelo de estudio puede ser algo significativo o simplemente un modelo de comportamiento diferente.
Mientras para la estadística tradicional lo normal es la ordenación de la muestra en torno a la media aritmética, en Probabilidad Imposible el concepto de normalidad difiere. Evidentemente, en el momento que se utilizan técnicas estadísticas diferentes a la estadística tradicional, también llamada estadística normal, el concepto de normalidad cambia en el mismo instante que se utilizan técnicas diferentes a las tradicionales o normales.
Probabilidad Imposible es una nueva teoría que desarrolla un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, fruto de la fusión o síntesis, eclecticismo, entre las técnicas estadísticas y de probabilidad, para lo cual, desde el método analítico aplicado a la estadística y la probabilidad, el silogismo aplicado a la tendencia, el silogismo de la tendencia, desarrolla nuevos métodos sintéticos, uno de ellos, el Segundo Método. Una teoría que en sus primeros desarrollos en el año 2001 ya proponía modelos diferentes a los normales, “paranormales”, si bien este concepto dejo de emplearse en el año 2003, debido a sus limitaciones, dado que, más bien, lo que hace Probabilidad Imposible, es la evolución a un nueva definición de normalidad estadística.
Ya de por sí el propio nombre de la propia teoría, Probabilidad Imposible, apunta al hecho, nada norma, o anormal,  en la perspectiva tradicional, que sucesos que tengan probabilidad empírica cero, Probabilidad Imposible, sin embargo, dentro de un margen de coherencia lógica, dadas unas condiciones o premisas de posibilidad válidas, son inevitables. Esta teoría, fuera de la definición tradicional de normalidad, desarrollará un modelo teórico a fin a las actuales teorías no lineales y del caos, en donde la realidad está formada por una serie de contingencias producto de accidentes, comprensión estocástica propia de las teorías indeterministas,  en donde absolutamente nada, más allá del margen de error, es absolutamente fiable, salvo en el margen de fiabilidad inverso al margen de error que acepte la política científica, dentro de una ciencia en donde toda hipótesis empírica de aceptarse racional pasa a formar parte del conjunto de verdades universales provisionales de la ciencia.
Finalmente, la propia evolución de Probabilidad Imposible, lo que hace es superar el concepto de normalidad, hacia un concepto diferente, en el momento que se sintetiza estadística y  probabilidad, los conceptos de la estadística tradicional deben transformarse y superarse. Si bien, en todo momento en Introducción a la Probabilidad Imposible se deja bien claro que es una teoría alternativa y complementaria a la estadística tradicional, que es en esencia, la matemática tradicional, el primer método de referencia, siendo el Segundo Método de la Probabilidad Imposible un nuevo método alternativo desde el cual aportar una perspectiva diferente. El objeto del Segundo Método en ningún caso es la sustitución de la estadística tradicional, simplemente enriquecer la estadística tradicional aportando nuevos planteamientos y métodos de estudio.
Mientras para la estadística tradicional lo normal es la agrupación de las mediciones en torno a la media aritmética, en Probabilidad Imposible el concepto de normalidad se puede emplear de dos formas, una de ellas en sintonía al concepto tradicional de normalidad, y otra definición de normalidad diferente en donde lo normal es que todo estadístico oscile entre su mínimo valor, cero, o su valor máximo.
La primera acepción de normalidad en Probabilidad Imposible, próxima a la estadística tradicional, se desprende fácilmente de la lectura de los capítulos 3 y 5 de Introducción a la Probabilidad Imposible, donde se explica que bajo condiciones normales en universos infinitos, según tiende N, número de sujetos u opciones, a infinito, lo normal es que la dispersión empírica tienda a cero, en tanto en cuanto las probabilidades empíricas tienden a ordenarse en torno a inversión de N, 1/N, que es media aritmética y probabilidad teórica, universalmente para todo tipo de universo, y para universos infinitos inversión de N además probabilidad de dispersión teórica, al mismo tiempo que conforme N tiende a infinito la inversión de N, 1/N, tiende a cero, luego tienden a cero las probabilidades empíricas, motivo por el cual lo normal es que en universos infinitos conforme N tiende a infinito lo normal es que todo tienda a cero, dándose la contradicción lógica de que al mismo tiempo que todo tiende a cero, Probabilidad Imposible, sin embargo todo es igualmente posible, en la medida que las probabilidades empíricas tienden a igualarse a la probabilidad teórica, inversión de N, siendo un modelo típico donde se confirma la existencia de Probabilidades Imposibles sucesos, empírica o teóricamente imposibles, que, siguiendo además un modelo de comportamiento normal, ordenación de la probabilidad empírica en torno a la media aritmética, y según N tiende a infinito la media aritmética y las probabilidades empíricas, por igual, tienden a cero, Probabilidad Imposible, sin embargo pueden transformarse en inevitables.
Este suceso lo que demuestra es que el concepto clásico de normalidad debe actualizarse, en la medida que, si para la estadística tradicional lo normal es que algo cuya probabilidad sea cero sea entonces imposible, siendo anormal que ocurra algo imposible, en Probabilidad Imposible lo que sucede es que, precisamente, en universos infinitos, lo normal es que ocurran sucesos imposibles, dado que si N tiende a infinito, y todo tienda a Probabilidad Imposible, entonces todo tiene las mismas posibilidades de suceder en igualdad de oportunidades.
Igualmente en universos de opciones limitadas, siempre y cuando las infinitas ocurrencias posibles se den en igualdad de oportunidades entre las diferentes opciones limitadas, ausencia de sesgo, lo normal es que la probabilidad empírica de las diferentes opciones tienden a ser iguales a inversión de N, que en estos universos únicamente tendría las funciones de probabilidad teórica y media aritmética, en la medida que en universos limitados la probabilidad de dispersión teórica dependería de la muestra de puntuaciones directas o frecuencias, a mayor número de ocurrencias posibles mayor probabilidad de equipararse las frecuencias de las diferentes opciones.
El concepto de normalidad en Probabilidad Imposible por tanto tiene una primera acepción propia o cercana a la propia estadística tradicional: que bajo condiciones normales, en universos infinitos o limitados, las probabilidades empíricas tienden a probabilidad teórica, inversión de N, teniendo la particularidad en universos infinitos, que, si un universo infinito es verdaderamente infinito en todas sus dimensiones, habiendo infinitos sujetos u opciones, entonces, conforme N tienda a infinito todas las probabilidades empíricas tienden por igual a cero, Probabilidad Imposible, siendo todas, sin embargo, igualmente posibles, en igualdad de oportunidades, siendo entonces normal que sucedan hechos imposibles.
Junto a esta primera definición de normalidad, próximo a la tradicional,  un patrón de comportamiento normal es aquel similar a la media aritmética, siendo la diferencia entre Probabilidad Imposible y la estadística tradicional, en que Probabilidad Imposible mantiene esta tesis aunque la media aritmética tienda a cero, habría una segunda forma de entender el concepto de normalidad, un modelo normal es aquel modelo en donde, cualquier estadístico puede oscilar normalmente entre su valor mínimo, cero, y su valor máximo.
Los modelos normales de Probabilidad Imposible, aquellos en donde cualquier estadístico, ya sean estadísticos individuales, o estadísticos muestrales, de la realidad empírica o teórica, pueden oscilar entre cero y máxima, se diferencian de los modelos omega, en la medida que los modelos omega no oscilan entre el cero y máxima, los modelos omega oscilan en torno a los valores ideales, ya sea la probabilidad ideal o la Desviación Media Ideal, llamándose modelos omega aquellos modelos que dentro de N presentan un subconjunto de sujetos u opciones ideales, que a diferencia de los demás, deben tender a la probabilidad ideal, y toda la distribución estadística debe ordenarse en torno a sus ideales
De esta manera en Probabilidad Imposible hay dos conceptos de normalidad, el primero de ellos, que bajo condiciones normales, ausencia de sesgo, las probabilidades empíricas tienden a inversión de N, siendo la diferencia de Probabilidad Imposible y la estadística tradicional, que Probabilidad Imposible mantiene esta tesis aunque se lleve a su máximo extremo, que N tienda a infinito luego inversión de N tienda a cero, y un segundo concepto de normalidad, que son modelos normales aquellos en donde cualquier estadístico puede oscilar entre cero y la máxima. Diferenciándose los modelos normales de los modelos omega en que en los modelos omega la distribución estadística debe seguir un modelo de distribución en función de la magnitud de sus ideales.
La razón por la cual en Probabilidad Imposible se dice que bajo condiciones normales todo tiende a inversión de N, y se dice que un modelo normal es aquel cuya dispersión puede oscilar entre cero o máxima, se debe a que, bajo condiciones normales, fuera de todo sesgo, lo normal es que los sujetos u opciones tiendan a ordenarse aleatoriamente, al azar, en torno a la media aritmética, si bien, son modelos en donde, independientemente que los sujetos u opciones sean o no normales, la dispersión empírica puede variar en una oscilación entre cero o máxima, algo que dependerá del objeto de estudio.
La redefinición de normalidad lleva implícita una redefinición de los diferentes tipos de  objeto de estudio dentro de los modelos normales, los cuales se clasifican según sean: estudios de igualdad o estudios de sesgo, y dentro de los estudios de sesgo hay que diferenciar entre estudios de sesgo positivo y estudios de sesgo negativo. Para entender los diferentes tipos de objeto de estudio se recomienda la lectura del apartado 10 de Introducción a la Probabilidad Imposible, así como es en los apartados subsiguientes en donde explica la forma de desarrollarse la crítica racional en cada tipo de estudio, explicándose en el apartado 15 la adaptación de la Puntuación Típica en el Segundo Método.
El objeto de estudio a su vez dependerá del objetivo que persiga la política científica en la investigación, que a su vez dependerá de la magnitud de sus ideales, que a su vez es una variable dependiente de la ideología política de la política científica, la cual se concreta, entre otros aspectos, en el objeto de estudio, la selección de la magnitud de la muestra,  y la razón crítica en el contraste de hipótesis.
En estudios de igualdad de oportunidades el ideal que se persigue es que, sean universos de sujetos o universos de opciones limitadas, la probabilidad empírica de todo sujeto u opción tienda por igual a probabilidad teórica, inversión de N, de forma que son modelos que se ajustarían a la definición clásica o tradicional de normalidad. Por ejemplo, que dado un nuevo método educativo aplicado a una muestra de alumnos, todos los alumnos muestren por igual un aumento del rendimiento educativo, lo cual se traduciría, en términos de estadística tradicional, en un aumento por igual de las puntuaciones directas de todos los alumnos en las evaluaciones, y en términos del Segundo Método se observaría que ese aumento de las puntuaciones directas en todos los alumnos se daría dentro una tendencia de las probabilidades empíricas a probabilidad teórica.
En los modelos de estudio de sesgo positivo, dada una muestra N en donde de toda N halla un sujeto u opción más ideal que los demás, por ejemplo, en un universo de opciones limitadas, si en un cuestionario se ofrecen varios ítem a cada pregunta y de todos los ítem únicamente uno es el ideal o correcto, ya sea en un estudio sobre actitudes ecológicas, que sobre cada pregunta entre la variada libertad de opciones o ítems sólo una opción o ítem sea la más ideal por pregunta, al ser la más ecológica, o en un examen tipo test, de todos los ítem por pregunta sólo uno sea el correcto, lo ideal sería que por cada pregunta, del cuestionario sobre actitudes ecológicas, u opciones de respuesta por examen del test, sólo un ítem u opción tuviera la mayor cantidad de frecuencia, teniendo la mayor probabilidad empírica, siendo lo ideal que aquel ítem o respuesta ideal o correcto tendiera a la Máxima Probabilidad Empírica Posible, la probabilidad uno, mientras los demás tendieran a probabilidad empírica cero, Mínima Probabilidad Empírica Posible
Si una muestra de un universo de sujetos lo ideal sería que, por el motivo que sea, uno de ellos destaque por encima de los demás, obteniendo el mayor sesgo positivo, lo ideal es que ese sujeto u opción tienda igualmente a Máxima Probabilidad Empírica Posible, siendo un estudio de sesgo positivo.
Los estudios de sesgo negativo pueden ser aquellos en donde, siendo estudios de sesgo, lo que se pretende es maximizar el sesgo negativo de los sujetos u opciones no ideales, o cuyo ideal sea obtener la menor probabilidad empírica posible. Si hacemos el estudio de cómo un medicamento disminuye los síntomas de una enfermedad por paciente, lo ideal es que conforme aumente el sesgo negativo de la probabilidad empírica de síntomas por sujeto de estudio, a medida que la probabilidad empírica tienda a Mínima Probabilidad Empírica Posible, probabilidad cero de síntomas, aumente proporcionalmente la eficacia de la nueva medicina para reducir los síntomas, aceptándose lógicamente en la crítica racional experimental, el contraste de hipótesis, un margen de error, ya sea por variables aleatorias no controladas en el proceso experimental, o que halla pacientes en donde el medicamento no tenga el mismo efecto por variables personales, por interacción de la nueva medicina con determinadas cualidades personales u otras variables aleatorias.
Si para la estadística tradicional lo normal es que la distribución de las mediciones se ordenen en torno a la media aritmética, en Probabilidad Imposible el concepto de normalidad cambia, en la medida que por modelos normales se entiende todos aquellos modelos en donde lo normal es que todos los estadísticos, individuales o muestrales, puedan oscilar libremente entre cero y máxima, y dentro de los modelos normales en aquellos modelos que la distribución se dé bajo condiciones de igualdad en ausencia de sesgo, por ejemplo en estudios de igualdad, las probabilidades empíricas tiendan a inversión de N, que dentro de su multifuncionalidad, para todo tipo de universo, infinito o limitado, la inversión de N es al mismo tiempo probabilidad teórica y media aritmética.
La redefinición de la normalidad en Probabilidad Imposible lleva a la paradoja, que si en la estadística tradicional, también llamada estadística normal, algo completamente fuera de lo normal o totalmente anormal sería la ocurrencia sucesos imposibles, precisamente en Probabilidad Imposible este fenómeno que sería anormal para la estadística tradicional, se transforma en algo completamente normal dentro de Probabilidad Imposible, en la medida que según N tienda a infinito luego en universos infinitos todo tienda a cero, precisamente lo normal es la ocurrencia de sucesos imposibles.

Rubén García Pedraza, en Madrid a 1 de junio del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/