Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


sábado, 29 de junio de 2013

Puntuación directa o frecuencia


Dentro de la estadística tradicional hay que diferenciar tres tipos de puntuaciones: puntuación directa, puntuación diferencial, y puntuación típica; la primera de ellas, puntuación directa, es la que se obtiene directamente de la medición, motivo por el cual se denomina puntuación directa, al ser producto de la medición directa de un elemento de la muestra, y de la cual dependerán las demás.

La puntuación directa tradicionalmente es el valor derivado de la medición directa de un elemento, y la frecuencia de la puntuación directa el número de veces que ese valor se repite en una serie de elementos, la muestra.

El fin de la medición seria la obtención de las puntuaciones directas y las veces que se repiten, y así determinar los estadísticos de tendencia central o dispersión. Dentro de la tendencia central  la media aritmética es la puntuación media proporcional a la frecuencia de las puntaciones directas, y en los estadísticos de dispersión la Desviación Media sería la dispersión media de las puntuaciones directas en relación a la puntuación media e igualmente en proporción o dependiendo de la frecuencia de las puntuaciones directas.

A partir de esta definición de puntuación directa o frecuencia dentro de la estadística tradicional, la media aritmética es igual a la suma del producto obtenido de la multiplicación de cada puntuación directa por su frecuencia, y el resultado de la suma dividido entre la frecuencia total, la muestra de frecuencias.

 

Media aritmética tradicional= µ = Σ ( xi · f ): F

Xi = puntuación directa

f= frecuencia

F=  Σf = frecuencia tota

 

Además de la puntuación directa, otro tipo de puntuación imprescindible en estadística tradicional es la puntuación diferencial ,  igual a la diferencia de la puntuación directa menos la media

 

Puntuación diferencial tradicional = xi – µ

 

La puntuación diferencial es la piedra angular para la construcción de los estadísticos de dispersión, el primero de ellos,  Desviación Media, en donde quitándole el signo a las puntuaciones diferenciales se multiplican por la frecuencia  de su respectiva puntuación directa, y el resultado final de la suma se divide entre el sumatorio de la frecuencia, la frecuencia total.

 

Desviación Media tradicional =   [/(  xi – µ)/ · f ] : F

 

Si las puntuaciones diferenciales, en la Desviación Media, se elevaran al cuadrado, en lugar de Desviación Media se llamaría Varianza,”S²”, y la raíz cuadrada de la Varianza es la Desviación Típica, “S”.

Dos muestras que contemplen las mismas puntuaciones directas, pero distribuidas en diferentes frecuencias, tendrían de todos modos estadísticos de tendencia central o dispersión diferentes.

La forma en que  la estadística tradicional define los estadísticos tradicionales de tendencia central o dispersión se explican más detalladamente en el apartado 4 de Introducción a la Probabilidad Imposible.

Finalmente la puntuación típica sería igual a la puntuación diferencial entre la Desviación Típica,

 

Puntuación típica = (xi – µ) : S

 

De esta manera lo que se observa es que la base de toda la estadística tradicional es la definición de puntuación directa, en la medida que es de la definición de puntuación directa de lo que dependerá después el cálculo de la puntuación diferencial y la puntuación típica.

Si la estadística tradicional se centra en el estudio de la tendencia de las puntuaciones directas, La teoría tradicional de la probabilidad se centraría en el estudio de la probabilidad de ocurrencia, dado un suceso cual es la probabilidad de que ocurran las diferentes posibilidades u opciones asociados a dicho suceso, de forma que la probabilidad que ocurra cualquiera de las opciones posibles sería igual al cociente de la unidad entre el número de opciones. De esta forma si lanzamos una moneda al aire y hay dos opciones, cara o cruz, la probabilidad de que suceda cara o cruz sería de  una entre dos, ½, 0,5, lo cual contrasta frente a la probabilidad que tendría realmente, la frecuencia relativa, también llamada probabilidad de frecuencia o probabilidad frecuencial, igual a dividir la frecuencia particular de cada opción entre la frecuencia total, siendo la frecuencia el número de veces que se produce una ocurrencia determinada.

La estadística y la probabilidad son dos disciplinas de las matemáticas, que a pesar del concepto clásico de las matemáticas, en tanto que ciencia hierática por cuanto sus principios y teoremas son eternos y universales, es una ciencia en continuo movimiento, y gran parte del progreso en las ciencias ha dependido y dependerá de las innovaciones en la investigación pura en matemáticas.

Desde que Riemann y Lobachevsky desarrollaran la geometría no euclidiana, se inician los modelos no lineales, unido al avance en las demás ciencias, especialmente los modelos no lineales en mecánica cuántica y las teorías sistémicas, las matemáticas  observan una transformación vertiginosa,  donde muchos de los conceptos empezarán a ser sometidos a un examen crítico, generándose nuevas teorías y perspectivas.

Más en concreto, en el campo de la estadística, desde finales del siglo XX y principios del siglo XXI se da un auge de las teorías críticas a la estadística normal, también denominada estadística tradicional, teorías críticas entre  las que se encuentra Probabilidad Imposible, que frente al concepto tradicional y muy restringido de lo posible y lo imposible desarrolla una nueva concepción admitiendo la posibilidad de lo imposible bajo determinadas circunstancias lógicas, tal como se explica en el apartado 7 y sucesivos, de Introducción a la Probabilidad Imposible y en el apartado 13, desde una visión dialéctica, al mismo tiempo que positiva y racional.

Para el desarrollo de esta nueva concepción es imprescindible a priori  una redefinición de los conceptos básicos en función de los cuales elaborar un discurso coherente sobre estadística y probabilidad, alternativo y complementario a la tradicional, aunque  superando la  distinción clásica de probabilidad y estadística , diferentes y separadas aunque interconectadas, para avanzar a una teoría unificada, tal como propone Probabilidad Imposible, creando  un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística.

A fin de hacer posible la síntesis es necesaria una redefinición sintética de los conceptos más fundamentales, entre ellos los conceptos de puntuación directa o frecuencia.

Mientras tradicionalmente se ha diferenciado de forma hermética y cerrada puntuación directa y frecuencia, en donde la estadística  estudia el comportamiento de las puntuaciones directas, y la probabilidad el estudio de la frecuencia, donde la frecuencia relativa es la probabilidad frecuencial o probabilidad de frecuencia, la teoría de Probabilidad Imposible genera un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, en donde, independientemente que sea un estudio centrado en el comportamiento de las puntuaciones directas, estadística tradicional, o frecuencias, probabilidad tradicional, las puntuaciones directas serán estudiadas en tanto que frecuencias, y las frecuencias en tanto que puntuaciones directas, para lo cual se diferencia entre dos tipos de universos, universos de sujetos y universos de opciones.

Los universos de sujetos son aquellos formados por sujetos de predicados, donde el predicado informa de la puntuación directa individual obtenida en la medición de una cualidad particular del sujeto, una cualidad del sujeto común al resto del universo al que pertenece y por la cual el sujeto forma parte de ese universo, si bien cada sujeto puede tener una magnitud de intensidad diferente en la cualidad, en coherencia al resto de sus cualidades particulares, motivo por el cual un mismo sujeto puede pertenecer a tantos universos como cualidades particulares lo definan. El concepto de universo de sujetos debe entenderse como aquel macroconjunto de sujetos que comparten una cualidad en común, aunque diferente en intensidad todos ellos, universo del cual únicamente se puede estudiar una muestra, y dependiendo de la magnitud de la muestra de sujetos dependerá la probabilidad de error de representatividad muestral.

Debido a la limitadas capacidades humanas, origen del error estadístico, dado un universo en la medida que no puede estudiar absolutamente de forma completa, luego el ser humano se ve obligado al estudio de una selección parcial, una parte del universo, la muestra, la muestra de sujetos seleccionada del universo para el estudio estadístico será la muestra N sujetos, siendo N el número de sujetos que forman la muestra,

De esta forma, cuando en Introducción a la Probabilidad Imposible se menciona el concepto de sujeto no debe entenderse en la forma coloquial de persona física,  por sujeto debe entenderse cualquier elemento, persona u objeto físico,  del  cual se ha obtenido una puntuación directa al medir una cualidad determinada, siendo la puntuación directa la magnitud de intensidad de dicha cualidad.

En la medida que los sujetos de un universo pueden tender a infinito,  por ejemplo, dada una historia natural infinita podrían haber infinitas estrellas o planetas, o infinitos átomos o partículas subatómicas, o dada una historia social infinita podrían haber infinitas personas, a los universos de sujetos también se les denomina universos de sujetos u opciones infinitos, recalcando, además de su posible  naturaleza infinita, su tratamiento en tanto que opciones. En el caso de ausencia de infinito longitudinal en el tiempo, en cualquier periodo de tiempo limitado, en tanto que la subdivisión del tiempo es infinita, igualmente, cabría infinitas mediciones.

El motivo por el cual se destaca la posibilidad de la existencia de universos infinitos es por la sencilla razón que los universos de sujetos se contraponen a los universos de opciones, en donde los universos de opciones en Introducción a la Probabilidad Imposible se llaman directamente universos de opciones limitadas, por cuanto el universo está limitado directamente a las opciones posibles.

Los universos de opciones limitadas a su vez se sub-clasifican en dos tipos de universos, universos de opciones limitadas materialmente o universos de opciones limitadas socialmente. Ejemplos de universos de opciones limitadas materialmente, el ser humano sólo puede ser hombre o mujer, si lanzamos una moneda al aire sólo puede ser cara o cruz, y un ejemplo de opciones limitadas socialmente, en unas elecciones democráticas la intención de voto sólo puede distribuirse entre las distintas opciones políticas o candidaturas que se presentan. Los distintos modelos de universos de opciones se explican más detalladamente en el apartado 9 de Introducción a la Probabilidad Imposible.

En los universos de opciones limitadas, dado que el propio universo de opciones ya viene limitado entonces si se puede estudiar el universo directamente sin selección muestral previa, siendo la muestra N la muestra de opciones, el universo de opciones es en sí mismo la muestra.

Mientras en los universos de sujetos lo que se estudia es la puntuación directa asociada a cada sujeto individualmente, en universos de opciones lo que se estudia es la distribución de la frecuencia entre todas las opciones, siendo la frecuencia particular de cada opción el número de ocurrencias de esa opción, de modo que si la puntuación directa es la magnitud de intensidad en la cualidad del sujeto, y la frecuencia es la magnitud de intensidad en la cantidad de la ocurrencia de una opción, en cualquier caso, puntuación directa o frecuencia son distintas formas de expresarse la magnitud de intensidad, en un caso, puntuación directa, magnitud de intensidad de la cualidad, en otro caso, frecuencia, magnitud de intensidad de la cantidad de ocurrencia.

En la medida que a partir de esta redefinición que hace Probabilidad Imposible de ambos conceptos, puntuación directa o frecuencia, en esencia idénticos, magnitud de intensidad, diferenciándose en que en un caso, puntuación directa, es de cualidad y otro, frecuencia, cantidad de ocurrencia, entonces ya se establecen las bases para la elaboración de una aproximación teórica al estudio de la estadística de la probabilidad o probabilidad estadística, en donde la estadística se aplica a la teoría de probabilidad y viceversa, la teoría de probabilidad a la estadística, en donde, independientemente que sea un estudio de puntuaciones directas en universos de sujetos, o un estudio de frecuencia en universos de opciones, independientemente del tipo de universo la probabilidad empírica será siempre igual a puntuación directa o frecuencia individual entre la puntuación directa o frecuencia total, y la media aritmética igual a inversión de N, al mismo tiempo que probabilidad teórica y otras funciones añadidas, dentro de la multifuncionalidad de la inversión de N.

El motivo por el que de forma universal la probabilidad empírica se defina puntuación directa o frecuencia entre sumatorio de puntuación directa o frecuencia, es para que sea válida para todo tipo de universo posible, ya sea sujetos, probabilidad empírica igual a puntuación directa particular entre la total, o de opciones, probabilidad empírica igual a frecuencia particular entre la total, de esta forma, sintetizando el concepto de puntuación directa o frecuencia en tanto que idénticos, magnitud de intensidad, sólo que uno de cualidad, y otro de cantidad de ocurrencia, pero en esencia, magnitud de intensidad resultado de la medición estadística, todo tipo de universo, de sujetos u opciones, se puede estudiar al mismo tiempo en tanto que estadística y probabilidad.

En la medida que la media aritmética sería igual al promedio del sumatorio de las probabilidades empíricas, entonces la media aritmética de las probabilidades empíricas serían la inversión de N, ya sea N sujetos de una muestra de sujetos extraída de un universo de sujetos, o sea N opciones de un universo de opciones, indistintamente para todo universo posible la inversión de N además de media de las probabilidades empíricas sería la probabilidad teórica, entre otras funciones.

De esta manera, independientemente que en universos de sujetos se mida la puntuación directa de cada sujeto individual, o en universos de opciones la frecuencia de cada opción individual, finalmente, independientemente del tipo de universo, se llevaría a cabo el mismo tratamiento estadístico de la probabilidad, mediante probabilidades empíricas o teóricas, en donde la puntuación diferencial de la estadística tradicional se transformaría en el Nivel de Sesgo, y la puntuación típica se transformaría para adaptarse a un estudio de probabilidades, tal como se explica en el apartado 15 de Introducción a la Probabilidad Imposible.

Desde una visión diferente a los conceptos más básicos de estadística y probabilidad, se elabora un discurso matemático diferente y alternativo, que responde a las actuales expectativas y exigencias de la ciencia, en un proceso de redefinición de la estructura de estas disciplinas.

 

Rubén García Pedraza, Madrid a 29 de junio del 2013
 
https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/                                     

sábado, 22 de junio de 2013

Las matemáticas


Las matemáticas son, para sí mismas, una ciencia analítica, y para las ciencias sintéticas,  la base de métodos científicos para el análisis de la realidad empírica, los llamados métodos cuantitativos. En tanto que ciencia analítica y base de método sintéticos, son en sí mismas un lenguaje, el lenguaje matemático, que se caracteriza por su precisión y objetividad.

En tanto que lenguaje a diferencia de otras lenguas, habladas o simbólicas, las matemáticas no dejan espacio a la subjetividad en la interpretación de sus símbolos, de forma que su significado, si bien puede sufrir transmutaciones a lo largo de la historia, son normalmente de carácter exacto y estable.

Las matemáticas para sí mismas son una ciencia por cuanto tienen por objeto el conocimiento, y analítica porque ese objeto de conocimiento es el establecimiento de relaciones lógicas o formales, de carácter objetivo, cuantitativo, medibles, entre elementos o factores o entre relaciones. A ese proceso se llama análisis, y el análisis matemático, aplicado a las ciencias sintéticas da lugar a métodos cuantitativos, que a diferencia de los cualitativos, utiliza el lenguaje matemático, mientras los cualitativos modelos de lenguajes que aceptan parcial o totalmente la subjetividad en el lenguaje o la interpretación del lenguaje.

Dentro de las ciencias sintéticas se pueden utilizar diferentes lenguajes simultáneamente, sin embargo de todos ellos el más objetivo y preciso será siempre el lenguaje matemático, que para la elaboración de proposiciones matemáticas en las ciencias sintéticas utilizará técnicas matemáticas de análisis de datos, especialmente la estadística y la probabilidad, transformándose las matemáticas, además de ciencia para sí misma, en la base de muchos método para las ciencias sintéticas.

En tanto que lenguaje en sí mismo, la investigación pura en matemáticas tiene por objeto el estudio del mismo lenguaje, tal cual la filología en lenguas habladas, para la relación de relaciones históricas en su evolución, o en su morfología y utilización presente, o para el desarrollo y adaptación a las nuevas relaciones científicas, tecnológicas, económicas, sociales o humanas. Las matemáticas, al igual que cualquier otra creación humana es arbitraria, y depende de las nuevas construcciones y transformaciones lingüísticas que sobre la propia lengua y símbolos se operen.

Introducción a la Probabilidad Imposible en tanto que redefinición de muchos conceptos matemáticos tradicionales, como media aritmética, dispersión, Desviación Media,Media Típica, lo que hace es un determinado desarrollo linguístico introduciendo nuevas variables en las definiciones de sus símbolos, creando nuevas significaciones y representaciones simbólicas, en definitiva lo que hace es crear un nuevo lenguaje.

La construcción de una teoría matemática, como es el caso de Introducción a la Probabilidad Imposible, implica un proceso de análisis lingüístico de conceptos a partir de los cuales elaborar el discurso, conceptos sobre los que se articulan  proposiciones e hipótesis que darán lugar a teorías y modelos, y sobre los cuales se establecen los paradigmas.

En tanto que un lenguaje  de las ciencias sintéticas, las matemáticas en la investigación aplicada a otras ciencias da lugar a métodos matemáticos también llamados métodos cuantitativos, si bien tradicionalmente se ha diferenciado entre dos tipos de ciencias que utilizan este tipo de métodos, las llamadas ciencias exactas y las ciencias estocásticas, si bien esta clasificación hay que revisarla.

Tradicionalmente por ciencias exactas se entendía las ciencias naturales, si bien esta definición tradicional ha sufrido importantes cambios a medida que ha evolucionado la epistemología en el siglo XX y han experimentado importantes transformaciones las ciencias naturales. Si bien todavía en artículos, revistas, manuales, se sigue identificando a la física como un paradigma de ciencia exacta, de acuerdo a los ideales de los primeros positivistas de los siglos XIX, que tenían la física de Newton como un paradigma de ciencia, o en el siglo XX aquellos positivistas que tenían por principal modelo de referencia la física de Einstein, un modelo de ciencia exacta por cuanto “Dios no juega a los dados”, la consideración de que la física es un modelo de ciencia exacta se ha puesto en duda a medida que las teorías cuánticas han ido tomando forma, y han aparecido nuevos modelos no lineales y caóticos, tanto en las matemáticas, la física, y diversas ciencias naturales y sociales.  Este tipo de modelos, no lineales o caóticos, aplicados en las ciencias sintéticas, más que ofrecer estimaciones absolutamente exactas  lo que hacen son estimaciones sobre márgenes de probabilidad, motivo por el cual al conjunto de ciencias sintéticas que utilizan este tipo de modelos formarían parte de las ciencias estocásticas.

Si bien es cierto que en determinados campos  de la física, y posiblemente otras ciencias, siga siendo posible la elaboración de proposiciones exactas utilizando el lenguaje matemático, hoy en día más que de ciencias exactas, habría que hablar de ciencias estocásticas, aquellas ciencias que utilizan la estadística y la probabilidad para la elaboración de proposiciones y verificación de hipótesis y están sujetas siempre a un margen de duda o escepticismo, que en Probabilidad Imposible viene determinado por el margen de error que la política científica esté dispuesta a aceptar la razón crítica, función que en la práctica desempeña la probabilidad crítica en la crítica racional, el contraste de hipótesis.

El hecho que en matemáticas se acepten márgenes de error en ningún caso significa que dejen de ser precisas u objetivas, o que bajo determinadas circunstancias las matemáticas sean imprecisas o subjetivas, dado que el margen de error, o inversamente el margen de fiabilidad, una vez seleccionado, es en sí mismo preciso y objetivo. Mientras el margen de error es en sí mismo preciso y objetivo, lo que sí en parte es subjetivo es la forma en que la política científica decide el margen de error o fiabilidad de la razón crítica, en función de variables ideológicas dependientes de su ideología política.

El margen de error o fiabilidad de la razón crítica, en sí , en tanto que valor cuantitativo concretado en la probabilidad crítica, es totalmente objetivo, lo que sí pueden ser subjetivas son las razones ideológicas de la política científica para aceptar un mayor o menor margen de error  en el contraste de hipótesis, razones ideológicas que ya no dependen de las matemáticas, dependen de la ideología política en función de su grado de compromiso ético y moral. A mayor fiabilidad mayor nivel de rigor hacia la verdad, luego mayor nivel de compromiso ético y moral, e inversamente, a mayor error menor nivel de rigor hacia la verdad, y mayor actitud inmoral. Si bien siempre es necesario aceptar un margen de error lo verdaderamente político debería ser asumir siempre el menor riesgo moral en las decisiones políticas.

Mientras el porcentaje de error de la razón crítica es un criterio preciso y objetivo de validación, en tanto que se acepta  toda proposición cuyo error empírico sea igual o inferior al margen de error de la razón crítica, y a la inversa, se acepta toda proposición cuya fiabilidad empírica sea igual o superior al margen de fiabilidad de la razón crítica, la única subjetividad en el establecimiento del  margen de error o fiabilidad en la razón crítica depende de la política científica, que es la qué decide los márgenes de error o fiabilidad, que dependerán a su vez de su ideología política, la cual responderá a sus ideales de ciencia y humanidad

Debido a la evolución de la ciencia en el siglo XX se puede decir que las denominadas ciencias exactas se han transformado en su mayoría en ciencias estocásticas,  y en cualquier caso, sean ciencias exactas o estocásticas en tanto que utilizan el lenguaje matemático serían ciencias matemáticas. Entendiendo el concepto “matemático/a” en tanto que uno de los adjetivo que describe, junto a otros atributos, estas ciencias.

A diferencia de otras ciencias la denominación de las matemáticas se hace normalmente en plural, rara vez se utiliza el sustantivo “la matemática”, o si se utilizan es  para hacer un uso en abstracto o universal de las matemáticas, lo más normal para referirse a esta ciencia es su denominación en plural, “las matemáticas”.

El hecho que se denomine en plural a esta ciencia, las matemáticas, se  debe a que, a pesar de lo que se pueda opinar, las matemáticas no son una ciencia homogénea, si bien en general siempre se dice las matemáticas, en realidad las matemáticas están formadas por un conjunto de disciplinas.

Mientras no hay lugar a  dudas que la física, la biología, la geología, la sociología, la economía, la historia, la filología, la pedagogía, son cada una de ellas individualmente una ciencia, de las que a su vez dependen muchas disciplinas, sin embargo cuando se habla de ciencias políticas o ciencias de la educación, no se hace mención a una ciencia en particular, se utiliza la denominación en plural de una serie de ciencias que tienen en común o bien un campo interdisciplinar, o bien mantienen entre sí una serie de características comunes.

Las matemáticas son una ciencia que en realidad está formada por una serie de disciplinas, entre las que cabe destacar dos disciplinas fundamentales para las ciencias estocásticas, la estadística y la probabilidad.

De esta forma, si “matemático/a” es un adjetivo o atributo de unas ciencias, determinadas, por ejemplo la física o la economía, que utilizan el lenguaje matemático en  sus proposiciones, una de las cualidades de este tipo de ciencias es que son ciencias matemáticas.

La diferencia entre las matemáticas y la física o la economía sería que las matemáticas en tanto que ciencia analítica o formal es el estudio analítico de las relaciones objetivas entre elementos o factores o entre relaciones. Un ejemplo de disciplina matemática se ha dicho que es la estadística o la probabilidad, igualmente se podría decir geometría, aritmética, algebra, y otros muchos campos de las matemáticas. Mientras la física es una aplicación sintética de las matemáticas a un determinado campo de estudio, la materia, y la economía una aplicación sintética de las matemáticas al estudio de los modelos de producción e intercambio de bienes y servicios.

La denominación “matemáticas” haría referencia a todas aquellas disciplinas que se caracterizarían por tener por objeto de estudio  las relaciones formales o lógicas entre factores o elementos o entre relaciones, de forma pura o simple, o para la resolución de problemas, y siempre de manera objetiva y cuantificable, y las ciencias matemáticas, exactas o estocásticas, serían aquellas ciencias sintéticas que entre sus principales atributos o adjetivos sería la utilización del lenguaje o métodos matemáticos para la elaboración de proposiciones empíricas exactas o estocásticas, por ejemplo la física o la economía, que son algunos ejemplos de modelos de ciencias matemáticas, al igual que las ciencias experimentales o comparadas que utilizan métodos de análisis cuantitativos.

La trascendencia de las matemáticas en la historia ha sido fundamental para la especie humana, todo el desarrollo científico, tecnológico, y social, que ha logrado la humanidad en los miles de años de su historia, hubieran sido muy difíciles sin las  matemáticas. Si bien desde las teorías crítico sociales el actual progreso humano es dudoso, y siempre hay que pensar que otros modelos sociales hubieran sido posibles, sin el nivel de deshumanización que ha vivido la humanidad en su historia, y cuyo zenit alcanzó en las diferentes guerras mundiales del siglo pasado, o actualmente las diferentes crisis que vive hoy la humanidad, financiera, alimenticia, sanitaria y ecológica, lo cierto es que para la superación de la crisis sistémica, además de un cambio de paradigma hacia un uso más racional o social de los recursos naturales y sociales de forma sostenible y equitativa para toda la  humanidad, la investigación matemática es imprescindible.

Una de las cualidades diferenciales del ser humano frente a otras formas de vida, es que somos una especie que demuestra una mayor capacidad de inteligencia, al menos a nivel instrumental, lo que nos da mayor capacidad de adaptación, motivo por el cual junto al desarrollo de la cavidad craneal,  la bipedestación y liberación de las manos para utilizar utensilios fueron impulsores del homo sapiens. A lo largo de la obra de Introducción a la Probabilidad Imposible, unido a las consideraciones filosóficas que implican la teoría de la probabilidad, sintetizando el  legado de diferentes escuelas filosóficas, racionalismo crítico, positivismo, y materialismo dialéctico, se hacen continuas reflexiones sobre la función social de las matemáticas en la historia y la humanidad.

En Introducción a la Probabilidad Imposible se define  inteligencia  en tanto que  capacidad de resolver problemas, siendo el principal problema a resolver el problema de la supervivencia, y principal el paradigma en la resolución de problemas es la resolución de problemas matemáticos.  En diferentes apartados de Introducción a la Probabilidad Imposible, especialmente en el apartado 13 sobre la identidad sesgo y azar, en donde se alude a la naturaleza estocástica de la realidad, que se plantea en Probabilidad Imposible, en el apartado 17 sobre la predicción en Probabilidad Imposible, el apartado 23 sobre Inteligencia Artificial, y en el apartado 24 sobre el concepto de modelo, aparecen párrafos en donde se menciona la importante función que han desempeñado las matemáticas en la historia humana.

En el proceso de transformación de las primeras tribus y clanes cazadoras y recolectoras en pueblos agrícolas o ganaderos, dependió del grado de desarrollo de la capacidad simbólica de crear un lenguaje matemático, previamente gestado durante miles de años anteriormente, y visible en las pinturas de los primeros hombres y mujeres de las cavernas, en donde lentamente el ser humano durante el proceso de hominización construye el concepto de número, sin el cual hubiera sido imposible la creación de calendarios lunares, sistemas geométricos para la  delimitación de tierras, o la contabilidad de las cabezas de ganado, desarrollo la astronomía, contabilidad, geometría, y diferentes disciplinas científicas, que fueron la primera piedra de las grandes civilizaciones.

Si la construcción del concepto matemático de número tuvo que ser un motor esencial en la transformación de los modelos de producción, de cazadores y recolectores a agricultores y ganaderos, a lo largo de todas las revoluciones económicas y sociales que ha vivido la humanidad, las matemáticas o una determinada aplicación de las matemáticas han desempeñado un papel muy importante, algo que igual se observa a principios de la modernidad, donde las ciencias experimentales impulsadas por Francis Bacon,  Galileo y Newton, éstos dos últimos para quienes las matemáticas ya representaba claramente un lenguaje, será el preludio de la revolución científico tecnológica de los siglos XVIII y XIX que dará lugar a la Revolución Industrial y una nueva transformación radical del modelo de producción tradicional al actual modelo capitalista, un modelo socio-económico que actualmente vuelve a sufrir importantes transformaciones a consecuencia de las múltiples revoluciones científicas que tienen lugar en diferencias ciencias, desde la física a la biotecnología, la robótica y la computación, y en las nuevas energías renovables que sustituyan a las energías fósiles.

Las  matemáticas está formada por un conjunto de disciplinas, de las que forma parte la estadística y la probabilidad, que la teoría de Probabilidad Imposible sintetiza en un nuevo campo de estudio, la estadística de la probabilidad o probabilidad estadística, caracterizando a las matemáticas que son un lenguaje para el estudio objetivo de las relaciones formales o lógicas ya sea entre elementos o factores o entre relaciones, cuya investigación aplicada a las ciencias sintéticas genera un conjunto de ciencias matemáticas, exactas o estocásticas,  que junto a la orientación ideológica de la política científica, son un elemento de progreso hacia los ideales de la humanidad.

Rubén García Pedraza, Madrid a  22 de junio del 2013
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false

 
 
 
http://probabilidadimposible.wordpress.com/                                     
 

 


domingo, 16 de junio de 2013

Modelos omega

Los modelos omega son aquellos donde dada una muestra de N sujetos u opciones, se subdivide en dos grupos, de sujetos u opciones no ideales, cuya probabilidad empírica tiende a cero , y de sujetos u opciones ideales, y su probabilidad empírica tiende a la probabilidad ideal, aquella por la cual la distribución de puntuaciones directas o frecuencias tiende a distribuirse entre los sujetos u opciones designados ideales, siendo otra de sus características que sean ideales en igualdad de oportunidades, es decir,  todos igual de ideales. 

Al conjunto de sujetos u opciones ideales se llamará omega, y el símbolo omega, Ω, representa el número de sujetos u opciones ideales que forman el conjunto ideal dentro de N.  


Ω = número de sujetos u opciones ideales  


Se  pueden dar muchas circunstancias por las cuales dentro de N puede haber un grupo de sujetos u opciones especialmente ideales, el conjunto omega, dentro de la definición dada en Introducción a la Probabilidad Imposible. 


En una encuesta de actitudes en donde lo ideal son las actitudes de carácter moral o ética, por ejemplo en una encuesta de actitudes ecológicas, si dada una serie de preguntas o ítems de respuesta múltiple, por cada ítem o pregunta hay al menos una o más opciones ideales, por ser las más ecológicas, lo ideal es que, de dividir la frecuencia de cada opción de respuesta en particular entre la frecuencia total, la suma de la frecuencia de todas las opciones, lo ideal sería que todas aquellas opciones de respuesta de carácter no ecológicas, inmorales, la probabilidad empírica tienda a cero, y las probabilidades empíricas de todas las opciones de respuesta de carácter ecológicas, morales, luego ideales, tiendan a probabilidad ideal. En donde siempre y cuando todas las opciones de respuesta ecológicas o morales, ideales, por cada ítem o pregunta sean igual de ideales, forman un modelo omega, en cuanto dentro de la muestra de opciones en la encuesta habría dos conjuntos, el de opciones de respuesta de carácter ecológico, morales, ideales, y el de opciones de respuesta no ecológico, inmorales, luego no ideales, en donde además se daría el caso que dentro del subconjunto omega, de opciones de respuesta ideales, todas serían igual de ideales.

 

Supongamos un estudio en donde se quiere evaluar el grado de conocimiento o habilidades de una o más personas,  en donde para realizar dicha evaluación se procede a la elaboración de una encuesta de respuesta múltiple, en donde por cada ítem o pregunta hay al menos una o más opciones de respuesta correctas o verdaderas. Nos encontraríamos con el mismo ejemplo que el caso anterior, sólo que en este caso en lugar de opciones de respuestas ideales por su naturaleza ética o moral, serian opciones de respuesta ideales por cuanto fueran  verdaderas. Si dentro de la muestra de opciones de respuesta, hay dos submuestras diferenciadas por diferente motivo, la de respuestas correctas, luego ideales por cuanto lo ideal sería responder siempre la verdad, y la no ideal de respuestas falsas, de igual forma que el caso anterior sobre actitudes ecológicas, si la probabilidad empírica de cada opción es igual a su frecuencia particular entre la frecuencia total de toda la muestra,la suma de la frecuencia de todas las opciones, verdaderas o falsas, de toda la muestra, lo ideal es que la probabilidad empírica de cada opción de respuesta correcta tienda a la probabilidad  ideal, y todas  las demás a cero,


Tanto en el ejemplo de la encuesta de actitudes ecológicas o encuesta de conocimiento, ambos modelos omega corresponderían a un universo de opciones limitadas, sólo que en este caso universos limitados a opciones de respuesta en estudios de encuesta de respuesta múltiple, si bien los  modelos omega también se pueden aplicar a universos de sujetos, entendiendo por sujeto cualquier persona u objeto, sujeto de un predicado donde de la medición de alguna de sus cualidades da lugar a una puntuación directa o frecuencia. 


Si en un estudio experimental en una muestra de un universo de sujetos, en donde el tratamiento experimental pretende incrementar las puntuaciones directas o frecuencias de los sujetos a los que se aplica,  si de un universo dado se extrae una muestra de sujetos dentro de la cual se subdivide la muestra de sujetos en dos conjuntos o grupos, dos submuestras, la submuestra  que se aplica el método experimental, y la de control, siendo lo ideal que a los sujetos u opciones a los que se aplicó el tratamiento experimental tuvieran las mayores puntuaciones directas o frecuencias, entonces, necesariamente, si al final del estudio, para establecer las probabilidades empíricas de todos los sujetos u opciones de toda la muestra, incluidas las dos submuestras, la experimental y la de control, la probabilidad empírica de cada sujeto u opción, sea del grupo experimental o de control, es igual a su puntuación directa o frecuencia particular entre el sumatorio de puntuaciones directas o frecuencias de todos los sujetos u opciones de la muestra, incluyéndose tanto los del grupo experimental y control, lo ideal es que conforme las puntuaciones directas o frecuencias de los sujetos u opciones del grupo experimental se incrementen, de forma inversamente proporcional tiendan a cero las puntuaciones directas o frecuencias de los sujetos u opciones del grupo de control, cuanto más tiendan a cero las probabilidades empíricas del grupo de control, mayor tendencia de las probabilidades empíricas del grupo experimental a la probabilidad ideal.
 

Al conjunto dentro de la muestra N formado por los sujetos u opciones ideales se llamara omega, y si el total de la distribución de puntuaciones directas o frecuencias es igual al sumatorio de las puntuaciones directas o frecuencias, y la suma de las probabilidades empíricas igual a la unidad, de darse el caso ideal que sólo los sujetos u opciones ideales tienen puntuación directa o frecuencia distinta de cero, luego probabilidad empírica distinta de cero, en tanto que los sujetos u opciones no ideales tenderían a puntuación directa o frecuencia cero, luego la probabilidad empírica tendería a cero, y siendo todos los sujetos u opciones ideales de omega igual de ideales entre sí, necesariamente la probabilidad ideal de cada sujeto u opción ideal, también llamados sujetos u opciones omega, sería igual a la división de la unidad entre omega. 

1/Ω= probabilidad ideal

En aquellos universos en donde el objeto no sea tanto reducir a cero la puntuación directa o frecuencia de los sujetos u opciones no ideales, más bien el incremento de las puntuaciones directas o frecuencias de los ideales, igualmente se observa que cuanto más aumente la puntuación directa o frecuencia de los ideales, más aumenta proporcionalmente su probabilidad empírica, luego de forma inversamente proporcional tenderá a cero la probabilidad empírica de los sujetos u opciones no ideales.
 
La probabilidad ideal es aquella probabilidad a la cual debería tender todo sujeto u opción ideal por el simple hecho de pertenecer a omega, siempre que se den condiciones omega, que dentro de N halla dos grupos: uno formado por sujetos u opciones ideales, sujetos u opciones omega, y el de sujetos u opciones no ideales; y los sujetos u opciones ideales adscritos al conjunto omega sean todos igual de ideales entre sí, no habiendo sujetos más ideales que otros, que en tal caso ya no se estudiaría mediante el Segundo Método, aquel que estudia el comportamiento de los sujetos u opciones a través de observar el comportamiento de sus probabilidades empíricas, en tal caso, de haber sujetos u opciones más ideales que otros, dentro de una categorización jerárquica de ideales, se estudiaría aplicando la Distribución Efectiva, que se detalla en el apartado 22 de Introducción a la Probabilidad Imposible. Los modelos omega se explican tanto en el apartado 10, apartado 11, su aplicación al Primer Método en el apartado 12, en el apartado 15 aplicado a Puntuación Típica, y en el apartado 20 para la estadística intermedicional.
 
En Probabilidad Imposible se diferencia entre modelos normales y modelos omega, en la medida que los modelos omega son aquellos que tienden a los ideales, luego tienden a una dispersión ideal. Los modelos normales son aquellos en donde la dispersión oscila entre cero o  máxima, dependiendo del objeto de estudio, y bajo condiciones normales, la tendencia normal de la muestra sea media aritmética, inversión de N.
 
Dentro de la dispersión hay que diferenciar entre dispersión individual y dispersión muestral. La dispersión individual se mide a través del Nivel de Sesgo, que es la diferencia de probabilidad empírica menos la probabilidad teórica, inversión de N, que en Probabilidad Imposible asume la función de media aritmética de las probabilidades empíricas. En la medida que en los modelos omega la probabilidad empírica del sujetos u opciones ideales es a probabilidad ideal,  entonces el Nivel Sesgo Ideal es igual a probabilidad ideal menos inversión de N.
 
Nivel  de Sesgo Ideal = 1/Ω - 1/N

Si dado un modelo omega, la magnitud de sujetos u opciones omega es representado por el símbolo omega, Ω, el conjunto o número de sujetos u opciones ideales que forman el subconjunto ideal dentro una muestra dada, si se diera el caso ideal que en un modelo omega todas las probabilidades empíricas de sujetos u opciones omega fuera igual a probabilidad ideal, y la probabilidad empírica de todos los sujetos no ideales fuera igual a cero, por ejemplo, que en una encuesta sobre actitudes ecológicas, sólo las opciones de respuesta de carácter ecológicas tengan una frecuencia distinta de cero, y las demás opciones de respuesta no ecológicas tuvieran cero frecuencia, entonces, el sumatorio de todos los Niveles de Sesgo de todos los sujetos u opciones no ideales sería igual al producto del número de sujetos u opciones ideales, omega, Ω, por el Nivel de Sesgo Ideal.  

( 1/Ω -  1/N) · Ω = sumatorio de Sesgos Ideales de cumplirse el ideal para todo sujeto u opción ideal

Y en tanto que por ley estadística, todo el sesgo positivo compensa al negativo y viceversa, el producto de omega, Ω, por el Nivel de Sesgo Ideal sería igual al producto del resto de sujetos u opciones no ideales, N menos omega, por el valor absoluto de inversión de N, que es el Máximo Sesgo Negativo Posible.


( 1/Ω - 1/N) · Ω =/ - 1/N / · ( N – Ω )  

La suma de ambos productos entre N sería igual a la Desviación Media Ideal.
 
 Desviación Media Ideal=
 
{ [ ( 1/Ω - 1/N) · Ω ] + [ 1/N  · ( N – Ω ) ] } : N

La cual se puede simplificar diciendo, Desviación Media Ideal igual al promedio del duplo del producto de omega por Nivel de Sesgo Ideal

 Desviación Media Ideal=
 
{ [ ( 1/Ω - 1/N) · Ω ] · 2} : N

Aunque también se podría escribir, Desviación Media Ideal igual al promedio del duplo del producto del valor absoluto de Máximo Sesgo Negativo Posible, inversión de N, por la diferencia de N menos uno.

 Desviación Media Ideal=
 
{  [ 1/N  · ( N – Ω ) ]· 2  } : N

Cualquiera de estas tres expresiones de Desviación Media Ideal es válida, si bien la que más se utiliza en Introducción a la Probabilidad Imposible es la segunda, Desviación Media Ideal igual al promedio del duplo del producto del Nivel de Sesgo Ideal por omega.

Desviación Media Ideal=
 
{ [ ( 1/Ω - 1/N) · Ω ] · 2} : N  

Evidentemente si podemos calcular la Desviación Media Ideal, en caso de que se cumplan los ideales, que sólo los sujetos u opciones ideales tengan probabilidades empíricas distintas de cero, y los demás tiendan o sean iguales a cero, entonces podemos calcular la Varianza Ideal .

 Varianza Ideal=
 
{ [ ( 1/Ω - 1/N) ² · Ω ] + [  1/N ² · ( N – Ω ) ] } : N  

Se recuerda que siempre que en Introducción a la Probabilidad Imposible se escribe “1/N²” simboliza que lo que se eleva al cuadrado es el resultado de la inversión de N. Y de la misma forma que se obtiene la Varianza Ideal, su raíz cuadrada igual a Desviación Típica Ideal. 

Desviación Típica Ideal=
 
√{ { [ ( 1/Ω - 1/N) ² · Ω ] + [  1/N ² · ( N – Ω ) ] } : N }

La  dispersión en modelos omega a diferencia de los modelos normales, no tenderán a la oscilación entre cero o máxima, por el sencillo motivo que la probabilidad ideal de los sujetos u opciones ideales tampoco tenderá a máxima o mínima, únicamente tenderá a parámetros de comportamiento ideal, según la magnitud de los ideales en función de los cuales su dispersión se ajustará al comportamiento ideal, si bien siempre los ideales dependerán de la política científica que determina los fines y objetivos  de la ciencia . 

Rubén García Pedraza, Madrid a 16 de junio del 2013 
 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/