Dado un conjunto N tendente a infinito es inevitable que absolutamente todo suceda, siempre que se disponga de tiempo suficiente o infinito , y he ahí donde está el verdadero problema irresoluble o quid de la cuestión de la existencia ¿quién nos garantiza que dispongamos del tiempo necesario para que ocurra lo que debe o deseamos que suceda?


domingo, 31 de agosto de 2014

La medición



La medición de la cualidad de un sujeto u opción es la transformación de una propiedad cualitativa en un factor de operaciones matemáticas, que se pueda convertir en un dato positivo, para la descripción, la inferencia, o predicción de los fenómenos estudiados en las ciencias.
 
La principal diferencia entre ciencias analíticas y sintéticas es que las analíticas se dedican a la formación y estudio de la forma del lenguaje, análisis formal, siendo la lógica y las matemáticas el paradigma de ciencia analítica. Las ciencias sintéticas son de carácter empírico, estudian los hechos empíricos que acontecen en la realidad, para lo cual utilizan métodos analíticos para el análisis de la realidad empírica, por lo que se denominan sintéticas, síntesis de elementos formales y factuales.

El método de estudio más objetivo en ciencias sintéticas es la utilización de métodos matemáticos, que reciben el nombre de cuantitativos, en oposición a las teorías que defienden los cualitativos.

Durante siglos en ciencias naturales hubo un debate sobre la necesidad de métodos cualitativos, Goethe fue uno de sus defensores en el siglo XIX, sin embargo, desde muy temprano estas corrientes han sido minoritarias, habiendo un consenso unánime, salvo escasas excepciones, sobre la necesidad de métodos cuantitativos, motivo por el cual las ciencias naturales han experimentado un gran progreso.

Dentro de las ciencias naturales los principales paradigmas han sido astronomía, física, y biología. Si bien en astronomía y la física el uso de métodos matemáticos fue temprano, se remonta a Eudoxo de Cnido, en biología será Mendel quien sistematiza el uso de estadística.

En ciencias sociales este debate todavía no se ha zanjado, y aunque desde temprano se entendió la necesidad de métodos matemáticos para el estudio de la economía, no ha sido así para el resto de ciencias sociales, si bien, debido al positivismo y la forma en que el materialismo moderno utiliza estadísticas y fórmulas para el estudio de las relaciones sociedad y economía, ha habido importantes núcleos  defensores  de este tipo de métodos, aunque no se ha alcanzado un consenso unánime.

La importancia de los métodos cuantitativos radica en su garantía de fiabilidad, que si bien nunca es absoluta, y dependen de la política científica, permiten mayor grado comparación y contrastabilidad, extrapolación e inferencia.

Para que un estudio sintético pueda ser cuantitativo requiere una serie de condiciones, la más importante que el objeto sea un hecho empírico. Si quisiéramos estudiar la naturaleza del espíritu humano debemos definir el concepto de forma empírica, y recoger muestras que lo evidencien, de no ser así rechazaríamos que el espíritu humano sea de naturaleza empírica, y su validez quedará limitada a aquellas actividades humanas no científicas, por ejemplo la poesía y la oratoria.

El concepto de espíritu humano aunque no sea científico aparece de forma metafórica o alegórica en muchos libros de ciencia, por las influencias del idealismo en el deductivismo. De igual modo en muchos libros de ciencias aparece la alusión a las denominadas fuerzas de la naturaleza, otro concepto metafísico, que en términos positivistas o empiricistas carece de significado, en todo caso podríamos hablar de fuerzas específicas, la fuerza de la gravedad, la fuerza de un campo magnético, la fuerza de un meteorito al impactar sobre la superficie, la fuerza del viento…. Sin embargo es a partir de este tipo de conceptos metafísicos, de los que en filosofía surgirán nuevas definiciones empíricas que faciliten a las ciencias naturales convertirse en sintéticas.

Aunque el espíritu humano no sea empírico y no forme parte de la ciencia, las ideas que sobre espíritu se fueron forjando en la historia de la filosofía desde la antigüedad clásica a la modernidad, fueron la piedra sobre la que se forma en el siglo XIX la psicología científica por Wundt, siendo hoy una ciencia empírica, aunque hay corrientes defensoras de métodos cualitativos.

El uso de métodos cuantitativos en psicología ha permitido importantes avances, desde psicología del aprendizaje a la psicología de la instrucción, habiendo no obstante importantes resistencias. Al igual que en medicina la utilización de métodos cuantitativos ha facilitado la descripción estadística de enfermedades, determinación de probabilidades de incidencia, y experimentación de tratamientos, que después se adaptan a los casos particulares, en psicología clínica el uso de métodos cuantitativos debería tener el mismo fin, descripción estadística de casos y elaboración de protocolos, cuya aplicación depende de las características particulares.

Debido a la política científica de algunas farmacéuticas destinadas al lucro, las ciencias de la salud, entre ellas medicina y psicología, han sufrido un importante descrédito, lo cual evidencia de nuevo la naturaleza política e ideológica dela ciencia. La investigación cuantitativa en medicina y psicología no necesariamente tiene porque ser farmacológica. Por ejemplo el estudio experimental de las propiedades de los alimentos, plantas medicinales, o actividades deportivas o hábitos de vida saludables en la prevención y cura de enfermedades.

En cualquier caso la medicina y la psicología moderna experimentarán un cambio radical gracias a la biotecnología, que hará de las ciencias de la salud ciencias cada vez más positivas y racionales.

De otro lado, supongamos que queremos estudiar el fenómeno extraterrestre. Hoy en día ya hay una agencia de investigación estadounidense, el SETI, para este fenómeno, habiendo sido reformulado previamente hacia parámetros más científicos dentro de la astrobiología, superando el origen metafísico y místico de la ufología.

El motivo por el cual no se puede estudiar científicamente ni el espíritu humano, o las fuerzas de la naturaleza en abstracto, ni la posibilidad de civilizaciones extraterrestres dentro de la definición dada por la ufología, es por la inexistencia de registros empíricos de dichos conceptos. En el caso del espíritu humano o las fuerzas de la naturaleza, debido a la tradición metafísica idealista que defendía la existencia del espíritu, Platón, o la tradición metafísica empirista que defendían la existencia de las fuerzas de la naturaleza, Aristóteles, este tipo de conceptos todavía aparecen en muchos libros de ciencia y filosofía, a modo de metáfora o alegoría sobre el comportamiento humano o natural. Las teorías de la ufología pertenecen directamente a la tradición de la ciencia ficción liderada por el novelista británico H. G. Wells autor del libro La guerras de los mundos.

La única razón por la que puede haber en ciencias sintéticas hipótesis teóricas de las que no haya correlatos empíricos y sin embargo formen parte de las ciencias empíricas, es porque sean hipótesis dentro de un sistema de hipótesis más amplio, teoría, dentro de la cual, todas las hipótesis que dan forma a esa teoría tengan correlatos empíricos menos aquella hipótesis de la que no se puedan disponer prueba alguna, ya sea por las limitaciones fisiológicas humanas, o las limitaciones tecnológicas de la época. Un ejemplo claro, la idea del infinito en determinadas cosmologías astrofísicas.

Siempre y cuando en el conjunto de hipótesis que forman una teoría, el número de hipótesis contrastables sea significativamente superior al de hipótesis no contrastables, serán estudiadas por la ciencia, integrándose dentro de la ciencia las hipótesis no contrastables siempre y cuando se definan las condiciones de posibilidad bajo las cuales dichas hipótesis podrían contrastarse, o las limitaciones fisiológicas o tecnológicas por las cuales hoyno se pueden contrastar.

Al igual que de la metafísica del espíritu humano o las fuerzas de la naturaleza surgió la psicología moderna o la física moderna, de las viejas creencias de la ufología ha surgido la moderna astrobiología, no toda creencia por no ser de origen científico tiene porque no ser científica nunca, siempre y cuando abandone el mayor número posibles de proposiciones no contrastables, se limite sólo a las contrastables, o dentro de las no contrastables modifique su definición empírica hacia definiciones más racionales.

Hoy en día la astrobiología ha cambiado la definición del objeto de estudio: dada una serie de condiciones de posibilidad empírica sería posible la vida, aunque sólo  fuese bacteriana, en otros satélites o planetas distintos a la tierra; dada esa definición empírica de la que si podemos estimar mediciones, probabilidad de vida bajo determinadas condiciones, si disponemos de hechos empíricos y mediciones sobre temperatura, masa, presión, atmosfera, geología, de una importante cantidad de satélites y planetas, que dadas unas condiciones cabría posibilidad que albergasen vida.

Muy posiblemente el espíritu humano como tal no pueda estudiarse, pero si definimos las cualidades que lo componen en términos empíricos: inteligencia racional, inteligencia emocional, capacidad psicomotriz; y elaboramos escalas de medición para dichas cualidades, entonces si podemos hacer un estudio cuantitativo de la inteligencia racional, la inteligencia emocional, o la capacidad psicomotriz.

El concepto de fuerzas de la naturaleza es vago y difuso, pero si definimos el concepto de fuerza en cada tipo específico de suceso natural, y elaboramos escalas de medida, entonces estamos en disposición de hacer una verdadera ciencia física y astrofísica matemática.

El primer requisito para que un estudio sea científico es la posibilidad de definición de los factores en forma de hechos empíricos susceptibles de medición. Si es un estudio descriptivo las variables no están sujetas a ninguna hipótesis, la definición depende del tipo de descripción que se busque del fenómeno. Si es un estudio inferencial, hipotético-deductivo, las variables a definirse primeramente son las incluidas en la hipótesis, pudiendo definir igualmente cualquier otra variable que afecte al modelo, ya sean sujetas a algún tipo de control estadístico o de laboratorio, o cualquier otro proceso supuesto que contemple el modelo científico.

Sin este prerrequisito previo no hay ciencia. Como mucho, dentro de una teoría, se podría admitir un número muy restringido de supuestos o hipótesis solo teóricas de las que no podamos obtener mediciones precisas, y sólo se aceptarían siempre y cuando se definan bajo qué condiciones se podrían obtener mediciones, o los motivos, fisiológicos o tecnológicos, de por qué de momento no podemos obtener una noción directa, por ejemplo el infinito. Y en cualquier caso el  número de hipótesis o supuestos no contrastables debe ser lo más reducido posible, lo suficiente como para que el resto de la teoría pueda demostrarse, siendo razón suficiente para aceptar provisionalmente todas las hipótesis de la teoría, incluidas las no contrastadas, siempre y cuando las hipótesis contrastables sean racionales.

En el momento que se define el objeto de estudio sobre un fenómeno del que existen pruebas empíricas en forma de hechos, aun admitiendo un reducido número de variables teóricas, entonces si es posible la actividad científica, para lo cual habrá que realizar mediciones a las variables.

La definición de un hecho empírico es la definición de un tipo determinado de fenómeno que ocurre en la realidad del que se puedan estudiar sucesos concretos u ocurrencias concretas. Por ejemplo, un hecho empírico es la lluvia, supongamos que queremos conocer el comportamiento empírico de la lluvia, deberíamos estudiar cada suceso de lluvia o cada vez que ocurre un fenómeno de lluvia. Una vez definido el hecho empírico, y se identifica el tipo de suceso u ocurrencia donde se manifiesta ese hecho, iniciamos el proceso de selección de muestras de sucesos y ocurrencias donde el hecho empírico se manifiesta, y sobre la muestra seleccionada el proceso de medición, el cual puede ser de dos formas, en forma del estudio de la magnitud de la lluvia, por ejemplo, metros cúbicos de agua registrados por cada minuto de lluvia, y estudiar las fluctuaciones de la intensidad de la lluvia, ya sea el estudio de la curva de fluctuaciones de la lluvia en cada episodio de lluvia, o la curva de fluctuación en la intensidad de lluvia sobre una serie de episodios de lluvia, o estudiar el número de veces en que se produce un episodio de lluvia, es decir, la frecuencia de la lluvia, o la síntesis de ambos, sobre una serie de categorías discretas de magnitud de lluvia la clasificación de cada suceso de lluvia registrado en cada una de las categorías.

El estudio de este fenómeno podría hacerse más complejo, intentando localizar correlaciones entre lluvia y determinadas condiciones atmosféricas o ambientales.

Las mediciones a las variables empíricas pueden ser de dos tipos: medición de la intensidad de magnitud de la cualidad en una escala de medida, o intensidad en la ocurrencia de la cualidad, o la síntesis de ambas, estudio de la frecuencia del suceso según categorías discretas de magnitud. En Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, a la medición en la escala de magnitud de un suceso dará como resultado lo que se denomina puntuación directa de ese suceso en la escala de medida, la medición del número de ocurrencias de un suceso dará igual a la frecuencia de ese suceso, y la medición del número de ocurrencias de un suceso dentro de una categoría discreta en una escala de magnitud dará lugar a la frecuencia de sucesos según categorías discretas en la escala de la magnitud.

Si queremos estudiar los terremotos en una determinada región, en primer lugar definimos el hecho empírico, el terremoto es un proceso sísmico ocasionado por los movimientos tectónicos que produce fuentes temblores de tierra. Una vez definido el hecho empírico, el estudio de cada suceso u ocurrencia natural que se ajuste a la definición del hecho empírico, y una vez localizados, efectuar la medición. La medición puede ser de dos formas, o la síntesis de ambas: la magnitud de los terremotos, la frecuencia de los terremotos, o frecuencia de los terremotos según grado de intensidad ordenados en categorías discretas.

Si estudiamos la magnitud de los terremotos sería necesario una escala para medir la intensidad de magnitud, y la medición particular de cada terremoto en dicha escala sería la puntuación directa de magnitud del terremoto en dicha escala. Si estudiamos la frecuencia de los terremotos, independientemente de su magnitud, la frecuencia de los terremotos en una zona sería igual al total de terremotos ocurridos en esa zona. Si estudiamos la frecuencia de terremotos según intensidad de magnitud, lo que haremos es un estudio en donde los terremotos se clasifiquen en una serie de categorías discretas de magnitud, el número de terremotos en cada categoría sería la frecuencia de dicha categoría.

En el primer caso propuesto, estudio de la magnitud de intensidad de cada terremoto, la puntuación directa de cada terremoto sería la intensidad que logre en la escala, la proporción empírica que guarda un determinado terremoto ocurrido bajo una intensidad dada es  lo que mediría en este caso la probabilidad empírica, cociente de la magnitud de  ese terremoto entre el sumatorio de todas las magnitudes de todos los terremotos registrados. Es importante remarcar el concepto proporción: si en una determinada zona, todos los terremotos que ocurren son de una misma magnitud, sea cual sea, mientras todas tengan la misma magnitud, el comportamiento de la probabilidad empírica será en tendencia a inversión de N, 1/N, independientemente de si la magnitud es muy elevada, o muy baja, o intensidad media. Mientras todos los terremotos sean próximos a una misma magnitud, la tendencia demostrada por su probabilidad empírica, será en tendencia a probabilidad teórica. Si en una zona los terremotos varían de intensidad de magnitud, la probabilidad empírica de la puntuación directa de cada terremoto en particular, manifestará la proporción de la magnitud de cada terremoto en relación a la suma de todas las puntuaciones directas. Este tipo de estudio sería un modelo estudio en un universo de sujetos u opciones infinitos.

El estudio de los terremotos según frecuencia sería un estudio de opciones limitadas, en donde la frecuencia de terremoto en cada zona sería igual al número total de terremotos ocurridos en cada zona. Dada una serie de zonas la probabilidad empírica de terremoto por zona sería igual al cociente del número de terremotos en esa zona entre número total de terremotos en todas las zonas del estudio.

Para los estudios de la frecuencia de los terremotos según categorías discretas de magnitud, la probabilidad empírica de terremotos de una determinada categoría discreta será igual a la frecuencia de los terremotos de esa categoría entre el total de la frecuencia de todas las categorías.

Es más, este estudio se hace más complejo a medida que introducimos más variables. Supongamos que queremos hacer un estudio de la frecuencia de terremotos según categorías discretas de magnitud según determinadas características de las zonas estudio, por ejemplo: frecuencia de terremotos en determinadas categorías discretas sobre la escala de magnitud en zonas localizadas sobre fallas volcánicas. O más complejo aun: la frecuencia de terremotos en determinadas categorías discretas en la escala de magnitud según determinadas características geológicas, por ejemplo, según el tipo de roca o minerales de la zona, o la existencia de reservas de petróleo o gas natural, u otras energías fósiles, carbón, o si en esas zonas hay una importante actividad industrial o humana. De modo que habría que hacer un estudio pormenorizado, en donde según se defina cada zona, por sus características geológicas, demográficas o económicas, se estudiaría la frecuencia de determinados seísmos en determinadas categorías discretas de magnitud en cada zona, según sus características geológicas, demográficas, o económicas.

Para aquellos estudios que únicamente se limiten a la medición de la intensidad de magnitud de cada terremoto particular, y la probabilidad empírica de la magnitud de cada terremoto sea igual a su puntuación directa entre la suma total de todas las puntuaciones directas, lo que se mide es la probabilidad empírica asociado a la magnitud de ese terremoto particular. Este tipo de estudios en Introducción a la Probabilidad Imposible estadística de la probabilidad o probabilidad estadística, se ubicarían dentro de los universos de sujetos u opciones infinitos, dentro de una escala de magnitud dada, por cada unidad de magnitud serían posibles infinitas subdivisiones de la unidad de magnitud ¿Cuántos tipos de terremotos de diferente escala de magnitud serían posibles? Infinitos.

En aquellos estudios en donde se investigue la frecuencia de terremotos dependiendo de las zonas, lo único que se estudia es qué zona es más propensa a actividad sísmica, frecuencia de terremotos en la zona entre el total de terremotos observados. En la teoría de Probabilidad Imposible pertenecería a un universo de opciones limitadas, limitándose las opciones donde puede suceder un terremoto sujeto de estudio, a los lugares seleccionados de estudio, todo terremoto en cualquier otro lugar no sujeto de estudio se descartaría, el estudio se limita a esas zonas de estudio y al estudio de los terremotos a dichas zonas, cualquier otro tipo de terremoto fuera de las zonas delimitadas estaría fuera del estudio.

Para los estudios de frecuencia de terremotos en determinadas categorías discretas de magnitud, en principio sería un universo de opciones limitadas a las categorías propuestas, ahora bien, en la medida que la unidad de medida es infinitamente subdivisible, luego son posibles infinitas subdivisiones en categorías discretas, conforme tienda a aumentar en tendencia a infinito el número de categorías discretas, dicho estudio pasaría de ser un estudio propio de un universo de opciones limitadas al estudio de un universo de sujetos u opciones infinitos.

Para que las ciencias sociales logren un progreso equiparable a las ciencias naturales es necesario un consenso unánime sobre la vigencia de los métodos cuantitativos, lo cual implica la necesidad de medición.

En ciencias naturales antes de que se llegara al consenso internacional sobre las escalas de medida relativas a distancias, pesos, volúmenes, etc… adoptándome internacionalmente el Sistema Métrico Decimal, en cada país y en cada lugar se utilizaban sistemas de medida tradicionales, y fue a partir de este consenso cuando se homogenizan los sistemas de medida, y se produce progreso exponencial.

Mientras las teorías de la postmodernidad afirman que hoy en día este tipo de postulados racionales, positivistas, y materialistas, han sido superados, nos encontramos ante una situación completamente diferente. Hoy en día en el terreno de las ciencias sociales cada vez surgen más instituciones y agencias, públicas o privadas, nacionales, transnacionales, o supranacionales, que se dedican al estudio de las sociedades desde parámetros cuantitativos, ya sea el famoso informe PISA de la OCDE, o los estudios cuantitativos de la Organización Mundial de la Salud, la Organización Internacional del Trabajo, la UNESCO, UNICEF, ACNUR, el Fondo Monetario Internacional, el Banco Mundial, o desde  organizaciones regionales, la Unión Europea, la Organización de Estados Americanos, o por Organizaciones No Gubernamentales de presencia internacional, Amnistía Internacional, Cruz Roja, Médicos Sin Fronteras, y otras muchas, además de los estudios cuantitativos internacionales que hoy en día se generan automáticamente por internet por el fenómeno Big Data por empresas privadas, las estadísticas mundiales que de forma diaria recopilan Amazon, Google, Mac, Facebook, twitter, Linkedin, sobre las tendencias mundiales a tiempo real sobre hábitos de consumo, de vida, modas, cambios en los patrones culturales y de relaciones sociales.

Estos fenómenos vinculados a la globalización evidencian la necesidad creciente de medición en las ciencias sociales, en todo tipo de actividades humanas, educativas, humanitarias, económicas, sociales, razón por la que cabe sospechar la tendencia en el uso de métodos cuantitativos en ciencias sociales, y llegado el momento en que maduren lo suficiente, el logro de consensos internacionales similares a los que hay en ciencias naturales.

El problema del estudio de los fenómenos sociales como entidades empíricas, y no metafísicas, no reside en la medición, la cual es necesaria, el problema de las ciencias sociales es la comprensión de que toda ciencia, aunque sea positiva, es política, y la dirección y gestión de la actividad científica profesional debe dirigirse desde políticas científicas que entiendan la dimensión social de la naturaleza humana, lo cual implica la necesidad que el objetivo y fin de las ciencias sociales no es el crecimiento económico privado, es el desarrollo  sostenible de las políticas de igualdad social y libertad positiva en armonía con el medio ambiente: la planificación científica para la promoción de la libertad en igualdad de condiciones sociales reales de manera sostenible.

Rubén García Pedraza, Madrid 31 agosto 2014
 





 

https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/                                     


sábado, 23 de agosto de 2014

La metodología



 La metodología es el estudio del método científico, ya se entienda la existencia de un método general para toda la ciencia, desarrollado en los métodos particulares de cada ciencia en concreto, o de rechazarse la idea de un método general y otros particulares, y se entiende que depende de las particularidades de cada investigación, o paradigma o modelo de referencia, sería el estudio de  los métodos científicos según grado de adaptación a las diferentes investigaciones, o estudio de los métodos de los diferentes paradigmas y modelos.

Si se entiende la existencia de un método científico general, la metodología es el estudio de dicho método, el cual se desarrollará posteriormente en los métodos específicos de cada ciencia. Por ejemplo, ya se entienda que el método científico es deductivo, según el idealismo o el racionalismo, o sea inductivo, para el empirismo, positivismo, y materialismo, en función de la filosofía de partida la metodología es el estudio de dicho método, deductivo o inductivo, y la forma en que se aplica a los métodos particulares de las diferentes ciencias, por ejemplo, además del estudio del método deductivo o inductivo, la metodología estudiaría su modo de aplicación al método experimental, el método comparado, el método histórico, y así sucesivamente en todos los métodos más específicos.

En caso de rechazarse la idea de un método general desarrollado en métodos particulares, se entiende que en ausencia de método general depende de las características de cada investigación, a la que el método se adapta, luego la metodología sería el estudio de los diferentes métodos, y los criterios de selección del método según tipología de la investigación, o bien, en caso que se entienda que dada la variedad de paradigmas y modelos científicos la elección del método depende del paradigma o modelo científico de referencia, la  metodología sería el estudio de los diferentes métodos asociados a la diversidad de paradigmas y modelos de referencia.

Ya se entienda la metodología como el estudio del método científico y su desarrollo en métodos particulares, o el estudio de los métodos científicos según características concretas de cada investigación , o el estudio de los métodos de los diferentes paradigmas y modelos científicos, el origen de la metodología se encuentra en la filosofía, dependiendo en gran medida de la teoría del conocimiento, gnoseología de partida, y de la cual depende la epistemología de referencia, disciplinas, gnoseología y epistemología, que tienen su origen y han sido desarrolladas  en la filosofía de la ciencia.

La metodología depende de la gnoseología, teoría del conocimiento, por cuanto según la teoría del conocimiento la metodología tendrá rasgos propios. Dentro de la teoría del conocimiento ya en la filosofía clásica Platón y Aristóteles sientan las bases de los paradigmas idealistas y empiristas, el primero se basa en su profundo escepticismo sobre los sentidos, la información sensorial es falsa, mientras el segundo defiende los sentidos como la única vía de conocimiento válido, la única información que disponemos del mundo es la información sensorial. Dichas teorías en la modernidad evolucionan a nuevos modelos, por un lado las nuevas versiones modernas del idealismo, que se concretan en el racionalismo, el autor más importante Descartes, claramente deductivista. En el campo del inductivismo en la modernidad el empirismo evoluciona al escepticismo empiricista de Hume. La síntesis entre ambos, Descartes y Hume, la elabora Kant en el racionalismo crítico, aunque desde una visión claramente deductiva. En el siglo XIX se termina de formalizar el positivismo de Comte, y en el siglo XX el neopositivismo, el Círculo de Viena, desde unos parámetros claramente inductivistas, especialmente en el Círculo de Viena .

Además durante el siglo XIX de la fusión de idealismo hegeliano y materialismo surgirá el materialismo moderno, Marx y Engels, teoría en la cual el conocimiento no tiene por origen ni las ideas ni los sentidos, el  conocimiento surge de la actividad práctica, praxis. Si para Kant la razón se dividía en razón pura, cognoscitiva, y razón práctica, moral, esta división se supera en la praxis, donde se produce una síntesis entre la dimensión ético moral y cognoscitiva.

La revolución en la teoría del conocimiento que se opera en la modernidad, donde se pasa del sujeto pasivo al sujeto activo, tiene mucho que ver con la incorporación del método experimental por Roger Bacon, S. XIII. El experimentalismo moderno será una síntesis entre empirismo clásico aristotélico y una nueva noción en el concepto de investigación,  ahora la investigación moderna, filosófica o científica, ya no es la investigación de la antigüedad clásica, cuando la investigación se limitaba a la contemplación pasiva de las ideas o la naturaleza reservado a aquellas personas que por su status social se permiten dedicar su tiempo de ocio al estudio del mundo. En la época moderna la investigación, filosófica o científica, es una actividad, introduciendo un cambio significativo en la definición de experiencia. Mientras para Aristóteles y los empiristas clásicos el conocimiento es dado por la experiencia sensorial pasiva, a partir de Roger Bacon se pasa a un nuevo modelo de experiencia activa, ahora experiencia significa experimentación.

Aunque en la antigüedad clásica ya hay filósofos y científicos que utilizan el método experimental para poner a prueba algunas de sus teorías, sin embargo no existe una sistematización sobre el método experimental, que sólo se hará a partir de la tradición experimental moderna que inaugura Roger Bacon, y será desarrollada por todos los nuevos científicos de la nueva ciencia, siendo especialmente importantes Galileo y Newton.

Este cambio que se opera en la modernidad, el reconocimiento de que el origen del conocimiento es la propia actividad, llevará al nepositivismo, especialmente Wittgenstein, al reconocimiento de que la filosofía es una actividad, superando la etapa donde la filosofía es sólo contemplación de las ideas, Platón, o contemplación de la naturaleza, Aristóteles. En  la época moderna hay una clara distinción entre los que siguen defendiendo que la filosofía es contemplación, ya sea desde el idealismo o el empirismo, defendiendo la necesidad de la metafísica contemporánea en tanto que procedimiento o resultado de la contemplación del mundo de las ideas o la naturaleza, según sean metafísicos idealistas o empiristas, frente quienes rechazan la contemplación y defienden que la filosofía y la ciencia son una actividad.   Dentro de los defensores de que la filosofía y la ciencia son una actividad hay diferentes corrientes, desde los defensores que la filosofía y la ciencia son una actividad e implica acción social, las teorías del cambio social, entre ellas el materialismo moderno, o aquellas otras corrientes que defienden que la filosofía es sólo un tipo determinado de actividad científica, entre ellas el neopositivismo.

Una de las características de la epistemología a partir del siglo XX es que ahora la investigación científica será una actividad profesional, desarrollada por Estados y grandes empresas privadas, las universidades, todo tipo de instituciones públicas o privadas de investigación científica, y agencias de investigación internacionales. Universidades, agencias e instituciones, públicas o privadas, que elaboran planes de investigación liderados por científicos de renombre que dirigirán importantes instituciones científicas. Este tipo de fenómenos que empezarán a ser frecuentes en el siglo XX eran hasta entonces prácticamente desconocidos. Entre las agencias de investigación más emblemáticas cabe destacar aquellas que durante la Primera Guerra Mundial y la Segunda Guerra Mundial fueron creadas para la investigación y desarrollo de nuevas armas, las agencias de investigación espacial o de investigación en energía nuclear que fueron creadas después de la Segunda Guerra Mundial, por ejemplo el CERN ubicado en Suiza, y muchos de los organismos internacionales que desarrollan verdaderos planes de investigación independientes, desde la UNESCO a la Organización Mundial de la Salud, o los equipos de investigación internacionales que crean las agencias líderes de la gobernanza global, desde el informe PISA de la OCDE, a los departamentos de investigación del Fondo Monetario Internacional o el Banco Mundial, o los departamentos de investigación de importantes Organizaciones No Gubernamentales. Además de la profesionalización que ha experimentado la labor científica en todo tipo de laboratorios de investigación y departamentos de investigación en la empresa privada, buen ejemplo de ello la popularización de los departamentos de Investigación Más Desarrollo en la empresa privada desde finales del siglo XX, especialmente en campo de la biotecnología, robótica, nuevas energías, y las tecnologías de la información, la comunicación, y el transporte, que han experimentado importantes revoluciones en las últimas décadas.

La metodología por tanto es una disciplina que depende en gran medida de la teoría del conocimiento, gnoseología, si bien la teoría del conocimiento abarca un campo mucho más amplio que la metodología, por cuanto la metodología sólo se limita al método por el cual se logra conocimiento científico, mientras la teoría del conocimiento abarca cualquier conocimiento en general, sobre la propia vida y nosotros mismos, y que en definitiva se orientan a la construcción de toda una filosofía, incluyendo el sentido de la vida, si la tiene, y de la propia naturaleza, incluida humana, siendo la teoría del conocimiento, gnoseología, una parte importante de la cosmología y la antropología, además de parte importante de la metodología.

De igual manera la metodología formaría parte de la epistemología pero sólo una parte, la epistemología abarcaría mucho más, en la medida que la epistemología desarrolla de forma global y holística el discurso y al construcción de la ciencia.

En relación al debate sobre la existencia de un método científico general, que después pueda desarrollarse en los demás métodos particulares de las ciencias, analíticas o sintéticas, Probabilidad Imposible defiende la tradición cartesiana de la existencia del método científico, el cual, tal como se explica a lo largo de Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, especialmente en el último apartado, continuando la filosofía cartesiana es el método deductivo, tanto para ciencias analíticas y ciencias sintéticas, sólo que en las ciencias sintéticas adopta la forma de hipotético deductivo.

Es a partir de la deducción el modo por el cual se producen las ideas objeto de análisis, y sólo serán aceptadas verdaderas provisionalmente una vez que hayan sido criticadas de forma racional, admitiendo en todo caso siempre un margen de duda proporcional al margen de error aceptado en la razón crítica.

La forma en que el método hipotético deductivo se pone en práctica en los métodos particulares de las ciencias concretas es a través de diferentes modelos de crítica racional adaptados a las propias características de los métodos de las diferentes ciencias, ya sea el método experimental, el método comparado, o el método histórico, en tanto que crítica racional si los datos manifiestan cambios significativos como para suponer tendencias racionales, en las variables experimentadas, los elementos que se comparan, y las tendencias históricas, o cualquier otro método particular.

En relación a si la metodología es el estudio del grado de compatibilidad entre método y tipo de investigación, sólo señalar que este debate es más propio de las ciencias sociales que en las ciencias naturales. Mientras durante la modernidad las ciencias naturales lograron el consenso unánime de que sólo se podrían llegar a descubrimientos sólidos utilizando métodos cuantitativos, para lo cual fueron importantes las contribuciones de la nueva ciencia desde Copérnico, y siendo esencial la introducción del método experimental por Roger Bacon, en ciencias sociales ha habido durante el siglo XX un debate profundo todavía no resuelto a principios del siglo XXI sobre si la metodología más adecuada para estas ciencias son metodologías cualitativas o cuantitativas.

Se podría decir que existen al menos dos razones de por qué las ciencias sociales no han logrado los mismos progresos que las ciencias naturales en el siglo XX, llevando a las ciencias sociales a principios del siglo XXI al cuestionamiento de casi los mismos interrogantes que durante el siglo XIX: la ausencia de consenso sobre la utilización de métodos cuantitativos, y la ausencia de consenso sobre el modo en que intervienen las variables ideológicas en la construcción de la ciencia.

Precisamente si una de las grandes luchas en ciencias naturales fue la liberación de las ciencias del predominio de la metafísica y la superstición, simbolizada por el triunfo del heliocentrismo sobre el geocentrismo, o el darwinismo sobre el creacionismo, las ciencias naturales han logrado progresar porque los científicos naturales fueron capaces de sintetizar métodos cuantitativos y la lucha contra el misticismo y el espiritualismo. Hoy en día ya nadie pone en duda los principales descubrimientos de las ciencias naturales modernas, si bien en un principio contaron con el rechazo de la Iglesia, los imperios y los Estados. Sin embargo, quizás porque las ciencias sociales surgieron muy a posterior de las ciencias naturales y todavía le queda mucho que madurar, este tipo de consenso que sí alcanzaron las ciencias naturales, la unión de métodos cuantitativos y la lucha contra los dogmas, todavía no se ha logrado en ciencias sociales.

De esta manera, si el debate en la metodología contemporánea es sobre cual es el método más conveniente según la tipología de la investigación, desde Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, se ha defendido siempre la necesidad de superar la dicotomía entre ciencias naturales y ciencias sociales, tratar a todas las ciencias sintéticas de misma forma, aplicando el método hipotético deductivo a todas las ciencias sintéticas, naturales o sociales, utilizando para tal fin métodos cuantitativos en el desarrollo del método hipotético deductivo en sus métodos particulares correspondientes, experimentales, comparados, históricos, u otros cuales sean, sintetizando en el método científico el uso de métodos cuantitativos y la comprensión de variables ideológicas y políticas, síntesis que se produce en la razón crítica, en función de la cual la política científica establece los criterios de aceptación de una hipótesis.

Sobre si el debate en la metodología es si se dedica al estudio de los métodos de los diferentes paradigmas o modelos científicos de referencia, en Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística lo que se defiende es una síntesis de los principales paradigmas de la historia de la filosofía y la ciencia motivo por el cual, en coherencia con el paradigma positivista y neopositivista, Probabilidad Imposible defiende la necesidad de la equiparación del método de investigación a todas las ciencias sintéticas, la aplicación a las ciencias sociales de los métodos que han permitido importantes progresos a las ciencias naturales. El estudio por tanto de todas las ciencias sintéticas, naturales o sociales, debe partir de hechos positivos, sobre los cuales realizar una crítica racional, desde una razón crítica que integre variables ideológicas y políticas, la política científica.

En la medida que parte de la necesidad de la crítica racional a los datos positivos, la teoría de Probabilidad Imposible ya asume la síntesis de positivismo y racionalismo crítico, y en la medida que en la razón crítica se integran aspectos éticos y morales, la ideología política de la política científica, se entiende que la crítica es un tipo de praxis, sintetizando de esta forma el materialismo moderno al positivismo y al racionalismo crítico. En síntesis, la teoría de Probabilidad Imposible es una teoría ecléctica que recoge los aspectos más positivos del positivismo, el racionalismo crítico y el materialismo moderno.

 

La forma en que dicha síntesis se opera es a través del reconocimiento universal del método deductivo para todas las ciencias, analíticas o sintéticas, y dentro de las sintéticas, naturales o sociales, en las cuales adopta la forma de método hipotético deductivo, para el cual el principal método de estudio sintético será la estadística de la probabilidad o probabilidad estadística, la cual a su vez, en tanto que entidad matemática es en sí misma analítica.

 

La estadística y la probabilidad en tanto que disciplinas matemáticas son analíticas, y en tanto que métodos de estudio aplicado son métodos sintéticos.

 

La investigación pura en el campo de la estadística y la probabilidad tiene por objeto el desarrollo de nuevas teorías y modelos matemáticos de probabilidad y estadística, luego cualquier progreso en el desarrollo de nuevas teorías y modelos de estadística y la probabilidad sólo puede hacerse deduciendo dichas teorías y modelos a partir del análisis matemático de la estadística y probabilidad.

 

La investigación aplicada de la estadística y la probabilidad son todas aquellas investigaciones en el campo de las ciencias sintéticas, sean ciencias naturales o sociales, que para el desarrollo de nuevas teorías y modelos sintéticos aplican el método matemático de la estadística y la probabilidad para la formación de nuevas proposiciones sintéticas. Dichas proposiciones sintéticas a partir del uso de la estadística y la probabilidad pueden ser proposiciones sintéticas de carácter descriptivo o inferencial.

 

Las proposiciones sintéticas descriptivas únicamente describen una realidad empírica a partir de los datos cuantitativos de esa realidad obtenidos por la aplicación de métodos cuantitativos, en primer lugar la medición y en segundo lugar un método matemático, entre los cuales destacan la estadística y la probabilidad, y dentro de ellas la estadística descriptiva que nos permite una descripción estadística de lo que ocurre.

 

Las proposiciones sintéticas inferenciales permiten la inferencia de una serie de casos o situaciones particulares a todo el posible universo de casos o situaciones que guarden semejanza o similitud frente los casos o situaciones estudiadas. La inferencia no es otra cosa que la extrapolación o generalización de una serie de casos o situaciones particulares a todo el posible universo de casos o situaciones.

Si esa inferencia es inductiva, lo único que hace es sobre la descripción de una serie de casos o situaciones, siempre que en todas ellas halla una constante, generalizar a todos los casos o situaciones posibles del universo dicha constante.

Si la inferencia es deductiva, se parte de una hipótesis previa, síntesis de ideas y teorías previas y las nuevas informaciones obtenidas de los casos o situaciones observados, y la inferencia lo que pretende es validar en la serie de casos o situaciones que la hipótesis es provisionalmente verdadera, para lo cual desarrolla modelos de contraste de hipótesis, un modelo de prueba estadística en que en Probabilidad Imposible se denomina crítica racional, y que puede hacerse utilizando la estadística de la probabilidad o probabilidad estadística.

De esta manera la estadística y la probabilidad son en sí mismas disciplinas analíticas dependientes de las matemáticas cuyo desarrollo dependen del análisis deductivo o deducción analítica. Y la estadística y la probabilidad en relación a las ciencias sintéticas son métodos científicos particulares desde los que desarrollarse el método científico general de las ciencias sintéticas, el método hipotético deductivo.

El método analítico para el desarrollo de la estadística de la probabilidad o probabilidad estadística, en tanto que campo de conocimiento que fusiona estadística y probabilidad, campo de conocimiento desarrollado por la teoría de Probabilidad Imposible, es el método analítico denominado el silogismo de la tendencia, que no es otra cosa que el análisis lógico de la tendencia. El motivo por el que se denominó el silogismo de la tendencia es porque formula deducciones analíticas en forma de silogismos observando los diferentes modelos de tendencia en estadística y probabilidad.

Sobre las deducciones lógicas en el análisis de la tendencia, Introducción a la Probabilidad Imposible, estadística de la probabilidad o probabilidad estadística, desarrolla un nuevo modelo matemático de estadística y probabilidad, que para su aplicación a las ciencias sintéticas genera una serie de métodos cuantitativos, el Segundo Método, el Impacto del Defecto, la Distribución Efectiva, y los estudios de ranking.

Los diferentes métodos aplicados que genera el estudio analítico de la estadística de la probabilidad o probabilidad estadística, utilizan de modo universal el método deductivo, que al aplicarse a las ciencias empíricas adoptan la forma de hipotético-deductivo, desde parámetros cuantitativos, adaptándose a los diferentes métodos particulares de las diferentes ciencias, ya sean las ciencias estocásticas, las ciencias experimentales, las ciencias comparadas, las ciencias históricas, o cualquier otro tipo de ciencia, natural o social.

Rubén García Pedraza, 23 agosto del 2014
 

 
https://books.google.es/books?id=lERWBgAAQBAJ&pg=PA51&dq=probabilidad+imposible&hl=es&sa=X&ei=KMnXVNiMFaXjsATZ6IHgAQ&ved=0CCIQ6AEwAA#v=onepage&q&f=false
 
 
 
http://probabilidadimposible.wordpress.com/