miércoles, 14 de noviembre de 2007

POPPER, KUHN, LAKATOS
Echeverría, Javier (1989): Introducción a la Metodología de la Ciencia. Barcelona: Barcanova. (Capítulos 3, 4 y 5, pp. 75-148)
3. EL FALSACIONISMO POPPERIANO
3.1. IntroducciónKarl R. Popper es uno de los filósofos de la ciencia más importantes del siglo xx. En su juventud estuvo en contacto con el Círculo de Viena, aunque sin adherirse a sus tesis fundamentales. Su crítica del inductivismo, su afirmación de que la observación siempre está impregnada de teoría y el establecimiento de un nuevo criterio de demarcación científica (la falsabilidad), le han llevado a ser uno de los primeros críticos influyentes del positivismo lógico en su primera versión, si bien compartió puntos básicos de la concepción heredada. Su influencia ha sido muy grande, y no sólo entre los epistemólogos, sino también entre numerosos científicos. Sin embargo, tardó en ejercerse. "Lógica de la investigación científica" (Logik der Forschung) fue publicada en 1934, cuando el Círculo de Viena estaba en pleno auge. Y aun sin pasar inadvertida, lo cierto es que sólo a partir de la edición inglesa de 1959 (The Logic of Scientific Discovery), completada con una serie de apéndices respecto de la edición original, comenzó a tener la enorme repercusión que la ha convertido en una de las obras clave en la filosofía de la ciencia de nuestro siglo. Previamente había escrito, entre 1930 y 1932, Die Beiden Grundprobleme der Erkenntnistheorie, que no fue publicada hasta 1979, por T. Eggers. Sus primeros títulos de gran impacto fueron "La miseria del historicismo" (en 1957, aunque en 1944-1945 ya había aparecido en la revista Económica) y "La sociedad abierta y sus enemigos" (1945). Otras obras célebres, y de mayor interés para la metodología científica, son Conjeturas y Refutaciones (1962) y Conocimiento Objetivo (1972), donde Popper expone con mayor detalle su teoría del conocimiento y sus discutidas tesis sobre el tercer mundo. Asimismo tiene gran importancia el Post Scriptum a la Lógica la investigación científica. En principio fue concebido para ser añadido a la edición inglesa de 1959 de dicha obra, para lo cual Popper trabajó intensamente desde 1951 a 1956. A la postre, algunos de dichos apéndices cobraron entidad propia, decidiendo Popper publicarlos en un volumen separado, que bajo el título Postcript: After Twenty Years llegó a estar en galeradas en 1956-1957. Pero una serie de problemas de salud le impidieron terminar la labor de corrección de pruebas, y la obra no se publicó hasta 1983. Está formado por tres volúmenes, que han sido editados separadamente, aunque su redacción fue conjunta, y en su inmensa mayoría está fechada en 1962. Los tres han sido traducidos al castellano, bajo los títulos de Realismo y objetivo de la ciencia, El universo abierto y Teoría cuántica y el cisma en física, al igual que otras obras de Popper, entre las cuales han de ser mencionadas Búsqueda sin término: una autobiografía intelectual y El yo y su cerebro, esta última en colaboración con John Eccles. Pese a esta tardía publicación de muchos de sus escritos, la influencia de los mismos fue grande a través de los alumnos y discípulos de Popper, quien es autor asimismo de numerosos artículos en revistas especializadas. Su pensamiento se difundió sobre todo en la década de los cincuenta y de los sesenta en los Estados Unidos, y a continuación en el resto del mundo, llegando a constituirse en referencial para la mayoría de los epistemólogos. Popper siempre ha mantenido esencialmente sus posturas iniciales, en las que consideraba que el punto de partida para la reflexión filosófica sobre la ciencia eran las teorías científicas, así como su contrastación negativa con la experiencia, por la vía de la falsación. Dichas teorías siempre son conjeturas sobre el mundo, y no instrumentos de análisis del mismo ni generalizaciones en base a datos empíricos. La actividad del científico debe ser crítica, tratando de refutar las teorías vigentes en cada momento y contribuyendo de esta manera al progreso científico, que tiene lugar por integración y mejora del conocimiento anterior. El propio Popper ha dado el nombre de realismo crítico al conjunto de sus tesis básicas y bajo dicha rúbrica se han agrupado numerosos autores que, sin constituirse propiamente en escuela, sí han experimentado a profunda influencia de Sir Karl R. Popper. Algunos de sus discípulos, como Lakatos, han acabado separándose de algunas de las ideas del maestro, en particular por lo que hace al carácter normativo y ahistoricista que debería tener la filosofía de la ciencia. La polémica de Popper con Kuhn (véase el capítulo 4) es clave en este sentido.En cualquier caso, y pese a la influencia retardada de muchos de sus escritos fundamentales, la figura de Popper resulta imprescindible para comprender el desarrollo de la epistemología en el siglo XX, incluidas las posturas de sus críticos.
3.2. Las teorías científicasLa principal novedad que introdujo Popper en la metodología científica estriba en la importancia atribuida a las teorías. Para Aristóteles la reflexión sobre la ciencia debía empezar por la búsqueda de los principios propios a cada ciencia, es decir, de los términos máximamente universales que eran objeto de dicha disciplina. Para el empirismo lógico el fundamento del saber científico eran las proposiciones protocolares, en la medida en que expresan hechos elementales. Popper se centrará en un tipo diferente de construcción, cuya estructura no es simple ni inmediata: las teorías científicas. "Las ciencias empíricas -afirma Popper- son sistemas de teorías; y la lógica del conocimiento científico, por tanto, puede describirse como una teoría de teorías." La filosofía de la ciencia, por tanto, queda planteada como una disciplina metateórica, o metacientífica (como se dirá posteriormente), cuyos objetos principales de reflexión son las teorías científicas, y no las ideas, ni los universales, ni los hechos más simples y elementales. Esta tesis popperiana, cuya influencia en las investigaciones posteriores ha sido muy grande, puede rastrearse en autores que le precedieron, como el convencionalista Duhem. Pero lo cierto es que, a partir de la Lógica de la investigación científica, dicha tesis ha pasado a ser patrimonio común de las distintas escuelas, por lo cual ha de ser considerada como propiamente popperiana.Popper utiliza asimismo una metáfora que ha hecho fortuna: Las teorías son redes que lanzamos para apresar aquello que llamamos "el mundo": para racionalizarlo, explicarlo y dominarlo. Y tratamos de que la malla sea cada vez más fina.La razón científica funciona pues a base de construir sistemas peculiares de conocimiento del mundo, al objeto de poder explicar los fenómenos (y no sólo describirlos), y lo que es más, con la meta final de dominar la naturaleza, lo cual equivale en muchos casos a transformarla. La ciencia no es un saber inerte o pasivo con respecto a su objeto. En la tarea del científico cabe rastrear una voluntad de dominar la naturaleza, particularmente clara en el caso de la tecnología que de la ciencia se deriva. Y el instrumento principal para llevar a cabo esa labor son las teorías, que por lo mismo han de ser el punto de partida de la reflexión metodológica sobre la ciencia. Popper, sin embargo, no es un instrumentalista, como veremos más adelante. Ya en 1934 criticó explícitamente el instrumentalismo de Mach, Wittgenstein y Schlick y, en el Post Scriptum, el de Berkeley.Hay cuatro modos de contrastar una teoría. Cabe, en primer lugar, estudiar la coherencia interna de la misma, investigando las diversas consecuencias que pueden derivarse de ella y viendo si son contradictorias o no. Asimismo puede estudiarse si una teoría es empírica o no, en virtud de su forma lógica: Popper, en la estela del Círculo de Viena en este punto, admite en Lógica de la investigación científica que puede haber teorías puramente tautológicas, que corresponderían a las ciencias no empíricas, como la lógica y las matemáticas. En tercer lugar, unas teorías pueden ser comparadas con otras, al objeto de averiguar si la nueva teoría comporta algún adelanto científico respecto de la anterior. Por último, una teoría se contrasta al aplicar empíricamente las consecuencias que se derivan de ella. La contrastación teoría/experiencia no es, por tanto, sino uno de los procedimientos metodológicos destinados a evaluar el interés de una teoría científica. Con Popper aparece ya uno de los temas que será más estudiado posteriormente: la evaluación de una teoría relativamente a otra. Sin embargo, él se centrará fundamentalmente en el cuarto tipo de contrastación, introduciendo el criterio de falsación de una teoría por medio de la experiencia.Otra aportación popperiana, retomada después por Hanson y otros muchos, estriba en la crítica a la que somete al concepto de experiencia directa e inmediata, que sin duda era una de las nociones básicas del atomismo lógico. Ya en 1935, Popper critica las teorías de la ciencia que suponen que ésta se construye a partir de experiencias que van siendo ordenadas y recopiladas. En 1972, al publicar su Objective Knowledge, su pensamiento al respecto resulta mucho más claro y tajante. Todo un parágrafo está consagrado a desarrollar la tesis de que "todo conocimiento -incluso las observaciones- está impregnado de teoría (Theory-lmpregnated). No hay tábula rasa alguna en el ser humano. Siempre se parte de algún conocimiento previo; en último término, Popper admite la existencia de disposiciones innatas en el conocimiento humano. Resulta interesante mencionar el aspecto genético que en Popper adquiere esta tesis clásica: Si no fuese absurdo hacer este tipo de estimaciones, diría que el 99,9% del conocimiento de un organismo es heredado o innato y sólo una décima parte consiste en modificaciones de dicho conocimiento innato.Estas disposiciones innatas, por consiguiente, están impregnadas de teoría, entendiendo el término "teoría" en un sentido amplio. Los órganos sensoriales, en particular, incorporan genéticamente teorías anticipatorias. No hay ningún tipo de percepción que sea inmediata o simple; todas están previamente influidas por esas teorías subyacentes.En realidad, y como ya hemos visto, este tipo de tesis ya habían sido defendidas por Hanson en su obra Patrones de descubrimiento de 1958, al afirmar que "la visión está cargada de teoría" y remitir dicha tesis a Pierre Duhem como precedente, así como a la psicología de la Gestalt y al Wittgenstein de las Investigaciones filosóficas. La tesis de la inconmensurabilidad entre teorías, defendida por Kuhn y por Feyerabend, ha acabado de centrar el debate filosófico en torno a esta cuestión. La relevancia otorgada por Popper a las teorías, frente a la concepción inicial del Círculo de Viena, que centraba su análisis en las proposiciones y en los términos, ha contribuido en gran medida a provocar este giro radical en la epistemología científica del siglo XX.Popper se mostró de acuerdo con la concepción heredada en que, de ser posible, las teorías deberían de estar axiomatizadas. Pero, a diferencia de los neopositivistas, siempre insistió en la universalidad de las leyes científicas, así como de muchos de sus enunciados y conceptos. Ello es una condición necesaria para que se puedan hacer predicciones, y asimismo para que la ciencia cumpla su función explicativa que, si ya no ha de serlo en base al principio esencialista de causalidad, sí lo puede ser por medio del principio metodológico de causalidad, que como ya hemos visto, Popper propugnó contra el neopositivismo y el instrumentalismo.Sin embargo, las teorías son conjeturas, hipótesis generales que permiten explicar los fenómenos. Nunca son verdaderas, pero sí pueden ser falsadas, lo cual debe llevar al científico a rechazarlas, como veremos a continuación.
3.3. El problema de la inducciónLa segunda gran divergencia entre Popper y el Círculo de Viena, y en concreto con Rudolf Carnap, con el que polemizó al respecto, así como con Reichenbach, se refiere al papel de la inducción dentro de la metodología científica. Ya en la Lógica de la investigación científica alude a ello, pero posteriormente ha vuelto varias veces sobre el tema. Nos limitaremos aquí a la exposición de los argumentos iniciales.Popper considera que una inferencia es inductiva cuando pasa de enunciados singulares (o particulares) a enunciados universales, tales como hipótesis, leyes o teorías. El problema de la inducción consiste en indagar si las inferencias inductivas están lógicamente justificadas, y bajo qué condiciones lo están. Para ello, afirma Popper, habría que formular alguna ley lógica que fundamentase dichas inferencias: el principio de inducción. Pero, a diferencia de otras leyes lógicas, Popper afirma que dicho principio de inducción no puede ser una ley lógica, en el sentido de la lógica formal del siglo XX, es decir, una tautología o un enunciado analítico. Habría de ser un enunciado sintético y, desde luego, un enunciado universal.Y aquí surge el problema: ¿cómo sabemos que dicho enunciado universal, fuese el que fuese, sería verdadero? Si intentamos afirmar que sabemos por experiencia que es verdadero, reaparecen de nuevo justamente los mismos problemas que motivaron su introducción: para justificarlo tenemos que utilizar inferencias inductivas; para justificar éstas hemos de suponer un principio de inducción de orden superior, y así sucesivamente. Por tanto, cae por su base el intento de fundamentar el principio de inducción en la experiencia, ya que lleva inevitablemente a una regresión infinita.Este círculo vicioso, que constituye la médula del problema de la inducción, ya había sido advertido por Hume en su Treatise of Human Nature. Numerosos autores se han ocupado de la cuestión tanto para aclararlo como para profundizar en él o tratar de solucionarlo. Muy resumidamente, y simplificando, podría ser expuesto así: Supongamos que queremos inferir, a partir de n observaciones según las cuales "el agua hierve a 100 grados centígrados" un enunciado universal al respecto, mediante el cual se asevera que también en el experimento n+l el agua hervirá a los 100 grados. Esa diferencia sólo es válida en el caso concreto del agua si admitimos un principio de inducción más general, que por ejemplo podría aseverar: efectuadas n observaciones de un fenómeno X, y habiendo advertido en todas ellas (para un n suficientemente grande) que se produce el acontecimiento Y, podemos concluir que X ® Y. Ahora bien: ¿cómo podemos estar seguros de que este principio más general es válido? Lo más que puede ocurrir es que hayamos observado que, en cierto número finito de ocasiones, ha resultado válido en todo tipo de acontecimientos empíricos. Mas de ello no podemos concluir que es universalmente válido, pues de hacerlo estaríamos presuponiendo ya la inferencia inductiva para fundamentar el propio principio de inducción, siendo así que dicho principio había sido formulado al objeto de justificar las inferencias inductivas.Kant trató de resolver el problema afirmando que el principio de inducción era válido a priori. Dicha solución no resulta satisfactoria para Popper, quien optará por una solución muy diferente:Yo seguiría afirmando que es superfluo todo principio de inducción y que lleva forzosamente a incoherencias lógicas.Para Popper, la metodología científica es esencialmente deductiva, y no inductiva. Dada una teoría T, deducimos consecuencias de la misma, c1, c2, ..., cn. Dichas consecuencias han de ser contrastables empíricamente, pero entendiendo dicha contrastación como posibilidad de refutación de la teoría T si los datos empíricos no coinciden con las predicciones ci emanadas de T: nunca como verificación de la teoría T. Vemos así que la afirmación popperiana de las teorías científicas como las auténticas unidades de partida de la metodología científica es coherente con su crítica del inductivismo, en la medida en que esta concepción metodológica haría depender a las teorías de los hechos observados, y no al revés. Popper se remite a Liebig y a Duhem como antecesores de estas tesis antiinductivistas. Pero en su caso dichas tesis van a complementarse con una nueva aportación metodológica, que será objeto del siguiente apartado.
3.4. La falsabilidad como criterio de demarcaciónEl problema de la demarcación entre ciencia y metafísica (Abgrenzungskriterium) es considerado por Popper, como por el Círculo de Viena, como una cuestión capital para la filosofía de la ciencia. Pese a esta común perspectiva, en la que se muestra la incidencia que sobre su pensamiento tuvieron los debates de los atomistas lógicos, la solución propuesta por Popper será muy diferente. Popper rechaza la inducción como criterio de demarcación precisamente porque no considera que sea un criterio satisfactorio. Y se remite a Kant como al autor en el que el problema de la demarcación adquirió una importancia prioritaria. La solución de los positivistas le parece naturalista, mientras que para Popper dicho problema no es exclusivo de las ciencias naturales. Si aceptásemos las propuestas de Wittgenstein o de los vieneses, afirma Popper, partes muy importantes de la ciencia (como las leyes científicas) habrían de ser consideradas como extracientíficas, al no proceder de observaciones repetidas que inductivamente han dado lugar a enunciados universales . De ahí que el criterio neopositivista de demarcación, basado en la verificación o en la confirmación, pero de hecho sustentado en el método inductivo como marca de la cientificidad, ha de ser radicalmente modificado.Para Popper la ciencia no es nunca un sistema de enunciados ciertos e irrevocablemente verdaderos, sino todo lo contrario. La ciencia nunca alcanza la verdad, sino que se aproxima a ella proponiendo sistemas hipotéticos complejos (las teorías científicas) que permiten explicar más o menos fenómenos empíricos, pero nunca todos los hechos que se pueden presentar en una disciplina determinada y en un momento histórico dado como base empírica de dicha ciencia. Los científicos deducen, a partir de dichos sistemas hipotéticos, consecuencias que coinciden en mayor o menor grado con la experiencia. Pero las teorías científicas nunca son categóricas, sino conjeturales. La función de la empiria consiste en refutarlas, o en el mejor de los casos en corroborarlas en un cierto grado, pero no en ratificar ni en confirmar las teorías.Surge así el nuevo criterio de demarcación entre ciencia y no ciencia: una teoría es científica si puede ser falsada por medio de la experiencia (en el caso de las teorías empíricas) o por medio de su contradictoriedad interna (en el caso de las teorías lógicas y matemáticas). Para Popper, "las teorías no son nunca verificables empíricamente", pero sí han de ser contrastables con ella. En lugar de elegir un criterio positivo de contrastación, hay que tomar uno negativo:No exigiré que un sistema científico pueda ser seleccionado, de una vez para siempre, en un sentido positivo; pero sí que sea susceptible de selección en un sentido negativo por medio de contrastes o pruebas empíricas: ha de ser posible refutar por la experiencia un sistema científico empírico.La posibilidad de mostrar la falsedad de una teoría científica mediante la experiencia, por ejemplo a través de las predicciones que deductivamente se derivan de ella, es el signo distintivo del saber científico frente a otro tipo de saberes. Esta falsabilidad es un criterio de demarcación, pero no de sentido. Aquello que no versa sobre la experiencia ni es falsable por ella puede perfectamente tener sentido, pero sin ser científico. Popper no reprocha a la metafísica clásica, ni en general a la religión, o a la poesía, o al arte su ausencia de sentido, como sí hicieran Carnap y el Círculo de Viena. Él afirma incluso que la metafísica puede tener valor para la ciencia empírica. Lo que ocurre es que, entre aquellos enunciados empíricos que tienen sentido (por ejemplo, "surgirá una bola de fuego del cielo" y "aparecerá el cometa Halley el año 1986) el primero no es falsable y el segundo sí; en esa medida, sólo el segundo es un enunciado científico.Popper propone la falsabilidad como criterio de demarcación basado en una asimetría lógica entre la verificabilidad y la falsabilidad. Un enunciado universal nunca es deductible a partir de los enunciados singulares, por muchos que éstos sean, como ya vimos en el análisis popperiano del problema de la inducción; pero, en cambio, un enunciado singular sí puede contradecir un enunciado universal, y por lo tanto refutarlo.En consecuencia, por medio de inferencias puramente deductivas (valiéndose del modus tollens de la lógica clásica) es posible argüir de la verdad de enunciados singulares la falsedad de enunciados universales. La relación metodológica adecuada entre teoría y experiencia es pues la tentativa de falsación. Un enunciado universal del tipo "todos los hombres son mortales" no puede nunca ser comprobado experimentalmente por muchos que fuesen los casos singulares en los que, en efecto, se certificase que también este individuo singular había muerto. En cambio, es muy fácil refutar dicho enunciado por la vía de la experiencia. Bastaría mostrar (incluso observacionalmente) que un determinado hombre no ha muerto -por ejemplo, tras varios siglos de existencia- para que el enunciado universal quedase, si no plenamente refutado, sí puesto seriamente en cuestión. En esa medida, dicho enunciado puede ser plenamente aceptable en una disciplina científica como la biología por su enorme contrastabilidad con la experiencia. Y otro tanto cabría decir de enunciados científicos más especializados, como los enunciados de leyes, que normalmente son proposiciones universales que se refieren a la experiencia, y que por consiguiente pueden ser falsados con facilidad con sólo un contraejemplo fáctico que se encuentre. Por el contrario, otro tipo de afirmaciones nunca podrían ser refutadas experimentalmente, o cuando menos sólo serian falsables con grandes dificultades y de forma dudosa. La facilidad para la falsación empírica caracteriza el saber científico, y por lo mismo cabe distinguir grados de contrastabilidad en unas u otras teorías.La regla lógica fundamental en las ciencias empíricas pasa a ser el modus tollens, cuya forma de expresión es la siguiente:[(p ® q) . ~ q] ® ~ pPara demostrar que una proposición p es falsa, basta demostrar deductivamente su contradictoria, ~p. Y, a su vez, para ello puede seguirse la vía indirecta (paralela desde el punto de vista deductivo a la clásica reductio ad absurdum) de examinar alguna de las consecuencias, q, que se derivan de la proposición p. Si conseguimos demostrar:por un lado p ® q
y por otro ~ q podemos concluir ~ pcon lo cual hemos logrado nuestro objetivo de refutar p: la hipótesis p ha de ser eliminada (quitada, tollere) porque si la admitimos, dado que de ella se deduce q y q es falsa (por ejemplo, porque comprobamos empíricamente que no ocurre q) llegamos a un absurdo; luego hemos de aceptar la falsedad de p, en virtud de que de lo verdadero nunca se deduce lo falso.Vemos pues que Popper conjuga su tesis de la estructura deductiva de las ciencias empíricas con la contrastación teoría/empiria en base a esta regla deductiva que es el modus tollendo tollens, y que sería de continua aplicación en el razonamiento experimental. Por el contrario, la verificación y el modus ponens no tienen aplicación en las ciencias experimentales en el caso de los enunciados universales. La asimetría entre enunciados universales y singulares, desde el punto de vista de las propiedades lógicas del condicional, es la tesis que sustenta el criterio popperiano de falsabilidad.Obsérvese que, como ya sucedió en el caso del Círculo de Viena, Popper no exige una falsación ya efectuada para atribuir carácter científico a una proposición, sino la falsabilidad en principio. Una teoría auténticamente científica es la que no sólo se limita a presentar sus hipótesis y sus consecuencias, sino que además delimita los distintos modos en los que dichas consecuencias podrían ser refutadas experimentalmente. La metafísica clásica no se ha preocupado nunca de este aspecto, limitándose a enunciar y a argumentar sus tesis, pero sin sugerir los medios concretos mediante los cuales dichas teorías podrían ser contrastadas con la experiencia. En cambio, la ciencia sí lo ha hecho, en mayor o menor medida, y por eso la falsabilidad es un criterio adecuado de demarcación.
3.5. Grados de corroboración de una teoríaEl talante del científico ha de ser crítico: su actitud epistémica debe ser la tentativa de refutar las conjeturas que van siendo presentadas para explicar los fenómenos empíricos. Si de una teoría se deriva un conjunto de consecuencias y, a su vez, somos capaces de formular una serie de enunciados contradictorios con dichas consecuencias, poseemos una serie de falsadores potenciales de dicha teoría. Para que una teoría sea falsable ha de prohibir, como mínimo, un acontecimiento empírico. Dicho acontecimiento puede ser descrito por medio de términos mediante diversos enunciados básicos singulares, que Popper llama homotípicos para subrayar que se refieren a un mismo evento empírico. Dichos enunciados son posibles falsadores de la teoría y el científico experimental ha de ingeniarse para elaborar experimentos que permitan dilucidar la verdad o la falsedad de dichos falsadores.Podríamos decir que si la clase de los posibles falsadores de una teoría es "mayor" que la correspondiente de otra, la primera teoría tendrá más ocasiones de ser refutada por la experiencia; por tanto, comparada con la segunda teoría podrá decirse que aquélla es "falsable en mayor grado". Lo cual significa asimismo que la primera teoría dice más acerca del mundo de la experiencia que la segunda, ya que excluye una clase mayor de enunciados básicos.Este pasaje de la Lógica de la investigación científica muestra la idea que subyace al tratamiento que Popper propone de la noción positivista de contenido de contenido empírico de una teoría. Es posible establecer gradaciones en el contenido empírico de las diversas teorías, y por tanto introducir cierto "índice de cientificidad", pero por vía negativa, en base a los falsadores de cada teoría. Si, dada una teoría T, los enunciados básicos prohibidos por ella van aumentando, en la medida en que cada vez hace más predicciones y sobre ámbitos de fenómenos más amplios, dicha teoría será progresivamente más fácil de falsar. Para Popper, el objetivo principal de la ciencia estriba en construir teorías de este tipo: fácilmente falsables, y por consiguiente con mayor contenido empírico. Las mallas de las teorías científicas, retomando la metáfora antes mencionada, han de ser cada vez más finas, en el sentido de que su grado de falsabilidad es cada vez mayor.Formalizar la noción de grado de falsabilidad de una teoría, sin embargo, presenta dificultades. En efecto, las clases de los posibles falsadores son infinitas, y por tanto ese "aumento" de los enunciados básicos incompatibles con una teoría ha de ser tratado cuidadosamente. En la Lógica de la investigación científica, Popper propone hasta tres soluciones a esta dificultad; el número cardinal de una clase, el concepto de dimensión y la relación de subclasificación. Finalmente opta por esta última posibilidad, formulándola de la manera siguiente para el caso más sencillo, que es el de los enunciados científicos:se dice que un enunciado x es "falsable en mayor grado" o "más contrastable" que el enunciado y -o, en símbolos, que Fsb(x) > Fsb(y) cuando y solamente cuando la clase de los posibles falsadores de x incluye a la clase de los posibles falsadores de y como una subclase propia suya. Así pues, la teoría de conjuntos, y en concreto la relación de inclusión, viene a ser el recurso utilizado para definir la noción de grado de contrastación. A partir de ello, Popper introduce la noción de probabilidad lógica, que es diferente de la probabilidad numérica que surgió de la teoría de juegos de azar y que se utiliza en estadística. La probabilidad lógica de un enunciado es complementaria con su grado de falsabilidad. Puesto que, basándonos en la relación de subclasificación, podemos comparar el grado de falsabilidad de dos enunciados, también podemos afirmar que uno es más probable lógicamente que el otro, cuando tiene un menor grado de falsabilidad. Una teoría que no es falsable de ninguna manera, porque no prohibe ningún acontecimiento empírico, tiene un grado de falsabilidad igual a 0 y, por tanto, su probabilidad lógica es 1; y viceversa, las teorías o los enunciados científicos más falsables son los menos probables lógicamente. Lo cual no quiere decir que este último tipo de enunciados o de teorías no sean científicos, sino todo lo contrario. Las teorías que tienen probabilidad lógica 1 no dan ninguna información sobre la empiria: las teorías empíricamente preferibles, en el sentido de que son plenamente científicas, son aquellas cuyo contenido empírico es muy alto, y por consiguiente su probabilidad lógica muy baja. El contenido empírico de una teoría equivale a su grado de falsabilidad, al menos desde el punto de vista de la comparación relativa de unas teorías con otras.En obras posteriores Popper ha vuelto sobre esta cuestión, que tiene gran importancia dentro de su teoría de la ciencia. En Lógica de la investigación científica Popper había usado el término Bewahrungsgrad, traducido por Carnap en su Testability and Meaning como grado de confirmación de una teoría. La caracterización lógica de dicha noción dio lugar a una amplia polémica, en la que intervinieron Tichy, Grunbaum, Kemeny, Miller y los propios Carnap y Popper. Por parte de este último, siempre se mantuvo la tesis de que el grado en que una teoría ha resistido a las contrastaciones no tiene por qué satisfacer las reglas del cálculo de probabilidades, tesis ésta que había sido implícitamente aceptada por numerosos epistemólogos. Por eso Popper introdujo en Conjeturas y Refutaciones (y también en el Post Scriptum) la nueva denominación de grado de corroboración, que tiene la ventaja de no poseer connotaciones verificacionistas. Intuitivamente, una teoría posee mayor grado de corroboración cuando ha resistido más críticas y contrastaciones más severas, y no cuando ha sido "más verificada". Para medir dicho grado hay que recurrir al contenido de la misma y para ello a su improbabilidad lógica: así, la teoría de Einstein implica más contrastaciones posibles que la de Newton, y por tanto posee mayor contenido y mayor poder explicativo. Al contrastar una teoría T, siempre poseemos una información básica previa e, con respecto a la cual se produce la contrastación. La actitud crítica o falsacionista tiende a maximizar dicha información, a diferencia de la actitud verificacionista. Cuanto mayor sea la improbabilidad del falsador potencial, tanto mayor será el apoyo que la teoría reciba, caso de que la teoría T resista dicha falsación, ya que su contenido empírico habrá aumentado considerablemente. Por el contrario, si se produce una constatación de algo plausible y probable el contenido empírico de la teoría no aumenta. Para Popper sólo han de contar las contrastaciones severas, es decir las más improbables con respecto a la información que poseemos. La predicción de Adams y de Leverrier, que llevó al descubrimiento del planeta Neptuno, era sumamente improbable; precisamente por ello supuso un fuerte apoyo a la teoría de Newton, que era la única que permitía la predicción de un hecho tan improbable estadísticamente. Este tipo de ejemplos representa para Popper el paradigma de la actitud crítica de los científicos y la medida del grado de corroboración.De ahí que, si la probabilidad de un suceso a es p(a), se defina el grado de contrastabilidad de a, Ct, (a) como:Ct(a) = 1 - p (a)Ct(a) mide así el contenido, el cual debe aumentar en cada contrastación que la teoría o la hipótesis supere. Si concebimos b como tentativa de refutar a, la severidad mayor o menor de la contrastación puede ser a su vez medida mediante la improbabilidad de b, que a su vez depende de Ct(b). Si llamamos, entonces, C(a, b) al grado de corroboración de a mediante b, hemos de exigir, por una parte, que C(a, b) sea menor o a lo sumo igual que Ct(a), y por otra que C(a, b) aumente con Ct(b). Popper propuso en un primer momento la definición siguiente de C(a, b):y en una segunda fase de su investigación, en la que añadió la información básica c de la que se dispone en el momento de la contrastación de a mediante b, definió el grado de corroboración de la manera siguiente:donde se usa la noción p(b, a), o verosimilitud de a con respecto a b, propuesta por Fisher.El estudio del grado de corroboración confluía así con las investigaciones popperianas en torno a la noción de verosimilitud, a las que nos referiremos en 3.8.Mas independientemente de los detalles técnicos ligados a este problema del grado de corroboración, así como a la polémica suscitada por el mismo, sí cabe señalar que, mediante esas contrastaciones severas, los científicos llevan a cabo un proceso racional de aproximación a la verdad, aumentando de forma progresiva el contenido empírico de las teorías. Para ello seleccionan una serie de problemas, proponen conjeturas para solucionarlos, someten dichas conjeturas a contrastaciones severas y aumentan así el grado de corroboración de las teorías. Lo cual no obsta para que cualquier teoría, por alto que sea su grado de contrastación y de corroboración siempre pueda ser refutada: el modus tollens pasa a ser un órgano de la crítica racional, y no del razonamiento categórico.Con respecto al progreso científico, Popper mantiene tesis evolucionistas llegando a defender incluso un cierto esquema neodarwinista según el cual son las mejores teorías las que van siendo seleccionadas a lo largo de la historia de la ciencia por medio de esta metodología falsacionista. Los experimentos cruciales desempeñan un papel fundamental al respecto. Esta noción del progreso científico ha sido muy criticada por autores como Nagel y Bunge, así como por otros muchos epistemólogos a cuyas críticas nos referiremos explícitamente en el capítulo 5.
3.6. La tesis del tercer mundoEn su obra Conocimiento objetivo, Popper propone la siguiente distinción:Sin tomar las palabras 'mundo' o 'universo' muy en serio, podemos distinguir los siguientes tres mundos o universos: primero, el mundo de los objetos físicos o de los estados físicos; segundo, el mundo de los estados de conciencia o de los estados mentales, o quizá de las disposiciones conductuales para actuar; y tercero, el mundo de los contenidos objetivos del pensamiento, especialmente del pensamiento científico y poético y de las obras de arte.Las leyes y teorías científicas, en particular, pertenecerían a este tercer mundo, que el propio Popper pone en relación con la teoría platónica de las ideas y con la teoría hegeliana del espíritu objetivo, si bien para diferenciarse netamente de ambos filósofos. Por el contrario, tanto Bolzano como Frege son aceptados como precedentes directos de esta tesis popperiana. Al afirmar la existencia objetiva de este tercer mundo, Popper se va a manifestar contrario a toda forma de convencionalismo, así como a las concepciones que consideran los conceptos, las leyes y las teorías científicas como entidades lingüísticas, como estados mentales subjetivos o como disposiciones para la acción.La metodología de la ciencia adquiere con ello una vertiente ontológica: ¿qué tipo de entidad poseen las construcciones creadas por los científicos a lo largo de la historia, y sobre las cuales reflexionan en este siglo los metodólogos y los filósofos de la ciencia? La tesis popperiana del tercer mundo tiene al menos el mérito de haber abierto esta discusión, devolviendo a la teoría de la ciencia toda su envergadura conceptual, que había salido bastante malparada tras las simplificaciones neopositivistas. Por otra parte, el debate abierto por Popper ha sido amplio y de gran interés, por lo cual conviene detenerse un momento en la presentación que Popper hace de su tesis.El punto de partida de la misma es la distinción entre teoría del conocimiento y epistemología. Para Popper, la teoría del conocimiento tradicional, y concretamente la tradición empirista de Locke, Berkeley, Hume y Russell, ha centrado su análisis en el conocimiento subjetivo, ligado al individuo. La epistemología, por el contrario, debe ocuparse del conocimiento científico, que él concibe sin sujeto. La tesis del tercer mundo, y por consiguiente de la existencia objetiva de las teorías científicas, va ligada a su propuesta de una epistemología sin sujeto. En lugar de centrarse en las creencias del científico o en la singularidad de sus invenciones, el epistemólogo debe investigar los problemas, las conjeturas, los libros, las revistas científicas, etc. La ilustración popperiana de dicho tercer mundo son las librerías y las bibliotecas, así como los laboratorios y los experimentos científicos que tienen lugar en ellos. La epistemología subjetivista es irrelevante, y además, así como una epistemología objetivista que estudie e investigue ese tercer mundo puede aportar muchísima luz al estudio del segundo, el de los estados mentales o de conciencia, la influencia recíproca no es cierta. Aunque nosotros actuemos continuamente sobre ese tercer mundo, modificándolo y corrigiéndolo, es sin embargo considerablemente autónomo. En apoyo de sus tesis Popper ofrece una argumentación biológica. No sólo hay que estudiar las conductas o los actos de producción de los seres animales, incluidos los hombres, sino que debemos investigar también las estructuras conforme a las cuales dichas acciones tienen lugar, incluidas las estructuras materiales del cuerpo animal. Y, lo que es más, debemos estudiar el efecto de retroacción (feedback relation) que las propiedades de las estructuras producen sobre la conducta de los animales. Lo que está en cuestión, por consiguiente, es la existencia independiente y objetiva de las estructuras mismas, por ejemplo neuronales o genéticas, que serían los objetos por excelencia de ese tercer mundo. Por supuesto, también en las acciones humanas, incluidas las obras de arte, cabe discernir ese tipo de entidades. Pero el tercer mundo no sólo surge de las acciones humanas. Un libro de logaritmos, dice Popper, puede haber sido escrito por un ordenador, y sin embargo expresa determinadas estructuras pertinentes en ese tercer mundo. En el caso de las matemáticas , es claro que Popper se aproxima a lo que tradicionalmente se ha llamado platonismo, por lo que se refiere a la existencia de los objetos matemáticos.Miguel Ángel Quintanilla , comentando estos pasajes de la obra de Popper, afirma:La teoría del tercer mundo no sólo supone una concepción formalista cuyo complemento habría de ser una ideología individualista, sino que el formalismo se presenta aquí como una auténtica metafísica idealista de estilo platónico.Pero las teorías popperianas sobre la ciencia también han sido adscritas, siguiendo en esto las afirmaciones del propio Popper, a una concepción realista. Así, Rivadulla habla del realismo conjetural de Popper y califica su epistemología asimismo como realista. También la escuela de Helsinki (Tuomela, Niiniluoto, etc.) ha revitalizado las tesis realistas de Popper, por lo cual habremos de detenernos en este punto, resumiendo lo esencial del debate.
3.7. El realismo críticoPopper siempre se ha manifestado en contra de la teoría subjetivista del conocimiento, cuya versión más radical era la solipsista del Aufbau de Carnap. Mas la objetividad de la ciencia no ha de estar fundamentada en un lenguaje fisicalista, o en una base empírica observacional. La ciencia es producto de acciones humanas, y como tal un objeto social:Podemos considerar el conocimiento objetivo -la ciencia- como una institución social, o un conjunto o estructura de instituciones sociales.Aunque el conocimiento y la investigación propia de los individuos tenga sin duda su importancia, lo cierto es que la ciencia surge a partir de la cooperación y de la competición institucionalizada de los científicos. El tercer mundo descrito en el apartado precedente sería el ámbito ontológico en donde se depositan las objetivaciones de la investigación científica, y muy en particular aquellas que han tenido una repercusión efectiva sobre la sociedad de la que surgieron. El mismo aprendizaje del conocimiento científico ha de ser visto desde esta perspectiva: no como una repetición de experiencias, que inductivamente proporcionarían a cada sujeto individual los enunciados y las leyes científicas generales, sino como un proceso de prueba y error que cada científico asimila en algunos ejemplos característicos, a partir de los cuales asume o no las teorías vigentes socialmente en su tiempo.Popper es, pues, un realista, pero sin que ello conlleve una reducción fisicalista de toda objetividad científica. Su oposición al empirismo de Bacon, Hume, Mill y Russell no radica en la confrontación de éstos con el idealismo, punto en el que Popper también coincide, sino en la epistemología subjetivista que, unida al empirismo, les llevaba a afirmar que "todo conocimiento se deriva de la experiencia de los sentidos". Por el contrario, para Popper el problema epistemológico básico no es el del origen de las ideas, sino el de la verdad de las teorías. Y para estudiarlo hay que partir de teorías ya constituidas, producidas por momentos anteriores en el desarrollo social, que a continuación son contrastadas con la experiencia. Ésta desempeña una función negativa y crítica; nunca engendra las teorías. Las observaciones siempre presuponen un conocimiento disposicional previo, que no sólo proviene de la estructura de nuestros órganos sensoriales, sino también del contexto teórico y de las informaciones básicas a partir de las cuales se despliega la investigación científica. La ciencia es sistemática porque siempre procede conforme a conjeturas y a problemas previamente enunciados, que para el sujeto individual son innatos y objetivos, porque como tales le vienen dados en su proceso de aprendizaje. Se aprende también de la experiencia, pero sobre todo cuando ésta es usada críticamente, como contrastación de las hipótesis y de las teorías vigentes.Surge así lo que Popper llama el realismo crítico. Frente al racionalismo clásico, desde Platón hasta Leibniz, pasando por Descartes, que caracterizaba a la ciencia por la posesión de un método que podía conducirnos al descubrimiento de la verdad, Popper afirma tajantemente:1) No existe método para descubrir una teoría científica.2) No existe método para cerciorarse de la verdad de una hipótesis científica, es decir, no existe método de verificación.3) No existe método para averiguar si una hipótesis es "probable" o probablemente verdadera.Sin embargo, ello no le impide definirse como un racionalista. Lo que ocurre es que, para él, la función de la razón es crítica y negativa. Las teorías científicas se distinguen de los mitos únicamente porque pueden criticarse, e incluso porque buena parte de los científicos se dedican a esa labor crítica recurriendo para ello a la experiencia, pero también a los esquemas lógicos de pensamiento que, como el modus tollens, posibilitan el ejercicio de ese tipo de razón. La epistemología no ha de ser justificacionista en el sentido tradicional del término. Nuestras creencias y nuestras teorías sobre la realidad no se pueden justificar positivamente, porque de una u otra forma sean verdaderas. Pero sí cabe dar razones de por qué preferimos una teoría a otras: porque constituye una aproximación más cercana a la verdad, e incluso porque podemos tener razones para conjeturar que sea verdadera, aunque sólo sea para poder investigarla más a fondo, procediendo a su falsación eventual. Nuestras preferencias científicas sólo se justifican críticamente, y en relación al estado actual de la cuestión. En el fondo, no se trata ni siquiera de justificar las teorías racionalmente, sino de elaborar una epistemología que permita definir el concepto de preferencia racional entre teorías y entre hipótesis:El problema epistemológico de Hurne -el problema de dar razones positivas, o el problema de la justificación- puede ser reemplazado por el problema totalmente distinto de explicar -dar razones críticas- por qué preferimos una teoría a otra (o a todas las demás que conocemos) y finalmente por el problema de la discusión crítica de las hipótesis para descubrir cuál de ellas es, comparativamente, la que hay que preferir.La verdad continúa siendo el objetivo de la ciencia, pero por la vía negativa: buscamos razones para rechazar lo que hasta ahora había sido considerado verdadero y sólo aceptamos las teorías que, pese a las más severas contrastaciones, todavía no han sido falsadas. Sólo se aprende y se incrementa el conocimiento por medio de la crítica racional.Esta metodología o epistemología popperiana se completa con una posición ontológica realista: pero su afirmación del realismo metafísico resulta mucho más prudente y matizada que sus tesis epistemológicas. Para Popper, hay razones a favor del realismo metafísico, pero también razones en contra. A su juicio priman las primeras, y por eso se ha considerado durante toda su vida un realista; pero ello no equivale a decir que sus tesis ontológicas sean afirmadas con la misma radicalidad y claridad que sus tesis epistemológicas.Para Popper, la teoría de que todo el mundo es un sueño mío (solipsismo extremo) o la teoría hegeliana de que todo el mundo es un despliegue de la idea son irrefutables; y por eso mismo han de ser rechazadas. "La irrefutabilidad no es una virtud, sino un vicio", afirma explícitamente. El realismo popperiano parte en cambio del hecho de que, desde un principio, nos movemos en el terreno de la intersubjetividad, lo cual es totalmente contrario al solipsismo y al subjetivismo científicos. Podría entonces pensarse que las teorías científicas, al ser productos sociales, son simples convenciones o instrumentos útiles. Pero Popper también va a someter al instrumentalismo a una aguda crítica. Él acepta, desde luego, que las teorías científicas son instrumentos útiles, pero no sólo eso: además son conjeturas sobre la realidad. La ciencia tiene un objetivo, que es la explicación. Se trata de buscar explicaciones satisfactorias de los explicanda, y para ello el explanans debe de cumplir una serie de condiciones:En primer lugar, debe entrañar lógicamente al explicandum. En segundo lugar, el explicans tiene que ser verdadero, aunque, en general, no se sabrá que es verdadero, en cualquier caso no debe saberse que es falso, ni siquiera después del examen más crítico... Para que el explicans no sea ad hoc tiene que ser más rico en contenido: debe de tener una variedad de consecuencias contrastables que sean diferentes del explicandum.La concepción popperiana de la explicación científica se inscribe en la tradición de la concepción heredada: una explicación es satisfactoria cuando se formula en términos de leyes universales y condiciones iniciales contrastables y falsables. Cuanto mayor sea el grado de corroboración de las leyes y de las hipótesis, tanto más satisfactoria resulta la explicación. Ello nos lleva a buscar teorías cuyo contenido sea cada vez más rico. Y aunque no existan, según Popper, explicaciones últimas, que son propias de concepciones esencialistas contra las cuales también está Popper, sí cabe defender un esencialismo modificado, basado en afirmar que toda explicación tendrá tarde o temprano una explicación mejor y más universal, en rechazar las preguntas del tipo "¿qué es?", y en dejar de caracterizar a cada individuo por el conjunto de sus notas o propiedades esenciales. La postura de Popper es más próxima en esto a la de Platón: las leyes de la naturaleza serían descripciones conjeturables de las propiedades estructurales ocultas en la naturaleza, y que se trata de descubrir. Las leyes o teorías deben ser, por lo mismo, universales; deben formular aserciones sobre todas las regiones espaciotemporales del mundo; y deben versar sobre propiedades estructurales relacionales del mundo.Popper es consciente de que esta postura realista también está sujeta a crítica, y él mismo proporciona argumentos en contra de la misma. Pero cabria decir que es la preferible entre las diversas metateorías existentes en torno al conocimiento científico (subjetivismo, empirismo, positivismo, idealismo, esencialismo, instrumentalismo, etc.).
3.8. La verosimilitudPreferimos una teoría a otra, en última instancia, porque es más verosímil: porque se aproxima más a la verdad, aunque nunca vayamos a poder demostrar de ninguna teoría que es verdadera. El aumento del contenido empírico de las teorías, y el hecho de que las nuevas teorías hayan de poder explicar también lo que las precedentes explicaban, llevan a Popper a concebir el progreso científico como una paulatina aproximación a la verdad:Podemos explicar el método científico y buena parte de la historia de la ciencia como el proceso racional de aproximación a la verdad.Sin embargo, Popper se va a encontrar con grandes dificultades a la hora de definir de manera precisa el concepto de verosimilitud, máxime teniendo en cuenta su rechazo del inductivismo. Su idea inicial es sencilla: la verosimilitud de una proposición depende de la cantidad de verdades y de falsedades que dicha proposición implica. Y otro tanto cabe decir respecto de las teorías. De ahí que tanto en Conjeturas y refutaciones como en Conocimtento objetivo proponga la siguiente caracterización de la mayor o menor verosimilitud entre dos teorías:Intuitivamente hablando, una teoría Tl tiene mayor verosimilitud que otra teoría T2 si y sólo si:1) sus contenidos de verdad o falsedad (o sus medidas) son comparables, y además2) o bien el contenido de verdad, pero no el de falsedad, de Tl es mayor que el de T2; o bien3) el contenido de verdad de T, no es mayor que el de T2, pero sí su contenido de falsedad.Esta definición ha sido criticada desde diversas perspectivas. En primer lugar, no sería válida para el caso en que hubiera teorías inconmensurables, como afirmarán Kuhn y Feyerabend. En segundo lugar, y como ha señalado Tichy, se presupone implícitamente que los respectivos contenidos de verdad y de falsedad de T2 están incluidos como subconjuntos en los de T1. Y, además, tal y como ha hecho ver Newton-Smith, la definición falla en el caso en que el cierre deductivo de una teoría (es decir, el conjunto de proposiciones que puedan derivarse de sus axiomas o postulados) sea infinito, ya que entonces estaríamos comparando dos conjuntos infinitos: lo cual sucede prácticamente en todas las teorías físicas interesantes, de las cuales puede suponerse que conllevan consecuencias (verdaderas o falsas) para todos y cada uno de los puntos del continuo espacio-temporal, y para las cuales, por tanto, el cierre deductivo es un conjunto infinito de proposiciones, independientemente de que dichas teorías sean verdaderas o falsas.Tichy, Miller y Grünbaum han profundizado más en sus críticas, mostrando que, de acuerdo con las concepciones popperianas, y partiendo de sus propias definiciones de la verosimilitud, ocurre que las teorías que poseen un elevado contenido de verdad también tienen un alto contenido de falsedad. Por lo cual la determinación cuantitativa de las verosimilitudes respectivas no resulta decisoria. Rivadulla, que ha estudiado ampliamente el debate, incluidas las sucesivas mejoras propuestas por Popper, concluye que "la comparación de la verosimilitud de dos teorías falsas no es viable".Sin embargo, para el realismo científico que acepte las tesis deductivistas de Popper, así como su criterio de demarcación falsacionista, proporcionar una adecuada definición de la noción de verosimilitud resulta imprescindible, si se quiere mantener la tesis central de que la investigación científica constituye un proceso de aproximación progresiva a la verdad. De ahí que tanto los autores recién mencionados como algunos de los principales epistemólogos de la escuela de Finlandia, agrupados en torno a la figura de Hintikka, se hayan ocupado ampliamente de esta cuestión.No vamos aquí a entrar en los detalles técnicos de sus propuestas, que excederían del nivel en el que se enmarca la presente obra. Nos limitaremos, por tanto, a describir brevemente el sentido de su tentativa. Para Niiniluoto, "deberíamos de encontrar alguna forma de relativizar la noción de verosimilitud al poder de expresión de las teorías". No se trata, pues, de definir la verosimilitud como la aproximación a una verdad general: ninguna teoría científica toma a la totalidad de la realidad como su ámbito de investigación por mucho que sus leyes y sus enunciados sean universales. De ahí que el propio Niiniluoto plantee el problema de la verosimilitud en términos muy distintos, tratando de definir en primer lugar la mayor o menor distancia a la verdad de determinados enunciados de un lenguaje L de primer orden. Se retoma así una propuesta de Tichy en 1974, que había sido criticada por Miller y por el propio Niiniluoto. En el caso de este último, se recurrirá a la teoría de Hintikka de las componentes o constituyentes de una teoría. Lo cierto es que las propuestas popperianas han dado origen a lo que se llama el problema lógico de la verosimilitud que ha pasado a ser uno de los más importantes en la filosofia de la ciencia de los últimos años. Ello implica ya un cambio considerable con respecto al verificacionismo del Círculo de Viena y de la concepción heredada. Laudan, defensor del concepto de programa de investigación, que centra el progreso científico en la resolución de problemas, y no en la paulatina aproximación a la verdad, había indicado en 1979 que "nadie ha sido capaz de decir ni siquiera qué debe entenderse por "más cerca de la verdad", por no hablar de ofrecer criterios para determinar cómo se podría medir esa proximidad". Esta deficiencia ha sido subsanada por los epistemólogos finlandeses, lo cual no equivale a decir que el problema haya sido resuelto. Sí es cierto que las concepciones realistas de Popper, así como su interés por la noción de verosimilitud en tanto que característica epistemológica de las teorías científicas, y del progreso como búsqueda de la verdad, han seguido suscitando investigaciones y estudios, a veces altamente complejos.Ocurre, sin embargo, que también en esos años comenzaron a aparecer historiadores y filósofos de la ciencia que aportaban nuevos problemas a la epistemología científica que desbordaban el marco del debate entre el falsacionismo popperiano y el verificacionismo positivista, e incluso la caracterización de las teorías como sistemas formales con sus vocabularios (teórico y observacional) y sus axiomas. Todo lo cual tiene su incidencia en el problema de la verosimilitud, ya que éste está concebido y ha sido tratado en términos de la previa reducción de las teorías a sistemas formales; y, desde luego, tomaba siempre como términos de comparación a teorías conmensurables entre sí . De ahí que antes de retomar la cuestión de la verosimilitud en el marco de los métodos inductivos y probabilitarios, convenga detenerse en estas nuevas aportaciones que van a suponer un giro radical en la problemática de la filosofía de la ciencia en el siglo XX.

4. PARADIGMAS Y REVOLUCIONES CIENTÍFICAS
4.1. IntroducciónAl igual que la Lógica de la investigación científica de Popper en 1935, la publicación en 1962 de la obra de Thomas S. Kuhn, La estructura de las revoluciones científicas, marca una nueva etapa en la filosofía de la ciencia del siglo XX. Como en el caso de Popper, la influencia de este libro no fue inmediata. En 1963 Popper publicó su segunda gran obra sobre metodología científica, Conjeturas y refutaciones, que marcó el auge principal de las concepciones popperianas, junto con la traducción inglesa en 1959 de su obra clásica de 1935. La célebre polémica Popper-Kuhn, mantenida en el Coloquio Internacional sobre Filosofía de la Ciencia celebrado en Londres en 1965, permaneció desconocida para el gran público hasta 1970, cuando Lakatos y Musgrave la dieron a conocer en una obra traducida en 1975 al castellano con el título La crítica y el desarrollo del conocimiento. La coincidencia básica entre las ideas de Lakatos y las de Kuhn, así como la revisión de la obra de Kuhn llevada a cabo por Stegmuller en l973, acercando sus aportaciones a las de la concepción estructural, supusieron la definitiva difusión de la obra kuhniana, que ya estaba siendo discutida ampliamente por los especialistas.Pese a este retraso en la imposición de La estructura de las revoluciones científicas como un clásico de la metodología científica, su influencia ha sido muy grande. Fue traducida al castellano en 1971, si bien la edición más aconsejable es la de 1975 (y posteriores), al incluir el Post scriptum de 1969, en el cual Kuhn responde a algunos de sus críticos.Asimismo es importante el escrito traducido al castellano con el título Segundos pensamientos sobre paradigmas, en el cual Kuhn matiza sus posiciones iniciales sobre los paradigmas, profundizando en las nociones de comunidad científica y de matriz disciplinar. Aparte las obras de Kuhn de carácter netamente histórico, imprescindibles para conocer con detalle sus estudios historiográficos sobre la ciencia, su obra de 1977, La tensión esencial, en la que se recopilan diversos artículos publicados en revistas especializadas, completa su reflexión metodológica.Kuhn ha introducido en la teoría de la ciencia diversos conceptos que son de común aplicación hoy en día: paradigmas, ciencia normal, anomalías, crisis, revoluciones científicas, comunidades científicas, etc., y sobre todo ha subrayado la enorme importancia de los estudios minuciosos sobre historia de la ciencia como algo previo y necesario para la elaboración de una concepción filosófica de la ciencia. Su reproche fundamental a Popper estribará en la visión continuista y acumulativa del progreso científico que éste defendió; por el contrario, para Kuhn la ciencia avanza a base de crisis y rupturas, que implican cambios radicales en la concepción del mundo, y a las cuales llamará revoluciones científicas. La tesis de la inconmensurabilidad de los paradigmas, posteriormente radicalizada por su discípulo Feyerabend, ha dado lugar a una importante discusión que todavía continúa. Independientemente del carácter un tanto impreciso de algunos de sus conceptos, y de su constante autorreivindicación como historiador de la ciencia, y no como filósofo de la ciencia (Kuhn es físico por su formación, interesado posteriormente en la historia de la física, y sólo más tarde en la metodología general de la ciencia), lo cierto es que sus aportaciones han supuesto un revulsivo para la teoría de la ciencia en este último tercio del siglo XX y que su influencia aún se mantiene viva.
4.2. Los paradigmas científicosEl término 'paradigma' ha sido utilizado por los gramáticos para designar los diversos tipos de declinación de una palabra o de conjugación de un verbo: dentro de un núcleo común, que es la raíz, existen en las lenguas diversas variantes que caracterizan un paradigma (por ejemplo, la primera declinación o conjugación del latín), y que se distinguen entre sí por los respectivos sufijos o flexiones.Dicho concepto fue utilizado en teoría de la ciencia por primera vez por Ch. Lichtenberg (1742-1799) y en nuestro siglo por Wittgenstein en sus Philosophische Untersuchungen. Kuhn lo presenta en el capítulo III de La estructura de las revoluciones científicas como "un modelo o patrón aceptado" por los científicos de una determinada época, que normalmente ha llegado a ser vigente tras imponerse a otros paradigmas rivales. Una determinada rama del saber pasa a ser una disciplina científica precisamente cuando surge y triunfa un paradigma. Ejemplos de paradigmas científicos serían el análisis aristotélico del movimiento de los cuerpos, el cálculo ptolomaico de las posiciones planetarias, la revolución copernicana, la mecánica de Newton, la teoría química de Lavoisier, la matematización maxwelliana del electromagnetismo, la teoría einsteiniana de la relatividad, y muchos otros, acaso menos famosos, pero cuya delimitación en la historia de la ciencia sería el objetivo principal, a fin de evitar estudios históricos basados exclusivamente en la acumulación de datos, hechos y descubrimientos. Los libros de texto utilizados para la formación de los nuevos científicos suelen constituir expresiones más o menos adecuadas de dichos paradigmas, sobre todo en los dos últimos siglos. En la etapa de sus estudios los científicos se han familiarizado con determinados lenguajes y técnicas cuya eficacia para resolver determinados problemas ha marcado profundamente su modo de considerar los fenómenos, adscribiéndoles al paradigma vigente en la comunidad científica de su época. Las tesis doctorales, con la profunda impronta que dejan en la formación de los investigadores, así como los primeros trabajos de experimentación, han tenido lugar en ese mismo ámbito teórico. Todo ello origina una serie de creencias y hábitos intelectuales comunes a numerosos científicos, que por ello mismo forman una comunidad. Puede haber, por supuesto, paradigmas y comunidades rivales, con las correspondientes pugnas por el poder académico y científico. La ciencia vigente en un momento dado implica la constitución y el afianzamiento de uno de esos paradigmas.La noción kuhniana de paradigma, tal y como es formulada en 1962, fue considerada como sugerente, pero también criticada por su vaguedad por autores como Shapere, Toulmin y Mastermann. Esta última distinguió hasta 21 sentidos diferentes en la utilización kuhniana del término, agrupables en tres grandes grupos:1) Aspecto filosófico (o metafísico) del paradigma, que daría la imagen del mundo y los elementos básicos de creencia de los científicos sobre lo que sea la realidad: sería el caso del atomismo del mecanicismo, de la matematización de la realidad, del fenomenalismo, etc.2) Aspecto sociológico del paradigma, ligado a la estructura y a las relaciones internas y externas de la comunidad de científicos que detentan un mismo paradigma: un paradigma conlleva un aspecto institucional, tanto nacional como internacionalmente (sociedades científicas, apoyo a determinadas líneas de investigación publicaciones periódicas, manuales utilizados en la docencia universitaria, congresos, academias, etc.) que permite discernirlo con respecto a otros paradigmas rivales.3) Aspecto propiamente científico del paradigma, ligado a los problemas ya resueltos y a los principales ejemplos que son explicados gracias a la utilización del paradigma. Mastermann califica este tercer aspecto como paradigmas construidos.La noción kuhniana de paradigma fue criticada también por su sociologismo, implícito en 1962 Y claramente afirmado a partir de los Segundos pensamientos de 1969-1970, cuando Kuhn responde a sus opositores precisando dicha noción:un paradigma es aquello que los miembros de una comunidad científica, y sólo ellos, comparten; y a la inversa, es la posesión de un paradigma común lo que constituye a un grupo de personas en una comunidad científica, grupo que de otro modo estaría formado por miembros inconexos.Según Kuhn, la sociología de la ciencia habría desarrollado métodos empíricos para identificar estas comunidades, y consiguientemente los paradigmas existentes en un momento histórico dado: los científicos adscritos a un mismo paradigma están ligados por elementos comunes durante su período de aprendizaje, se sienten responsables del logro de determinados objetivos en la investigación, colaboran en equipos, se comunican entre sí, han leído básicamente la misma literatura, reciben y escriben en las mismas revistas, asisten a determinados congresos, pertenecen a las mismas sociedades, se envían para consulta mutua previamente sus prepublicaciones, se citan los unos a los otros, etc. La polivocidad de la noción de paradigma puede ser corregida mediante esta delimitación precisa de las comunidades científicas a partir del momento en que paradigma y comunidad científica vienen a ser nociones que se definen mutuamente. Muchos filósofos de la ciencia, sin embargo, no están de acuerdo con esta reducción sociológica de un concepto que, en la filosofía kuhniana de la ciencia, seguiría siendo fundamental, y de ahí que la concepción estructural, aun partiendo de posiciones muy diferentes, como veremos, haya dado un nuevo impulso a las teorías kuhnianas. Tal y como el propio Kuhn reconoce, el formalismo propuesto por Sneed para la reconstrucción de las teorías científicas ofrece un nuevo instrumental de análisis de la ciencia, en el que los conceptos básicos de Kuhn tienen cabida.
4.3. Ciencia normal y revoluciones científicasEn la etapa precientífica, los hechos son recopilados de manera bastante fortuita, precisamente por carecer de un criterio que permita seleccionarlos. La observación y la experimentación casual, así como los datos provenientes de la artesanía, constituyen esa primera amalgama a la que todavía no se le puede llamar ciencia. Plinio y las historias naturales baconianas del siglo XVII son ejemplos citados por Kuhn de esta fase de la investigación. En ellas se yuxtaponen hechos que luego serán relevantes junto con algunos sin importancia, así como otros demasiado complejos para poder integrarlos en una teoría en esa etapa histórica. En esas recopilaciones se omiten, por supuesto, numerosos datos que posteriormente serán considerados como importantes.Con respecto a esos hechos van surgiendo interpretaciones diferentes, provenientes sea de la metafísica, de la religión o de otras ciencias. Lo sorprendente será la desaparición de todo ese cúmulo de creencias dispersas, precisamente en el momento de la constitución de un paradigma. Éste surge normalmente por el triunfo de una de las escuelas anteriores, la cual se centra en el estudio de una parte pequeña de los datos recopilados: Kuhn pone como ejemplo a los creadores de la teoría de la electricidad. Pero lo importante es que, tras la constitución de un paradigma, la investigación cambia radicalmente: sólo algunos experimentos y fenómenos son interesantes, pero éstos han de ser investigados sistemáticamente, y no al azar. La investigación comienza a ser dirigida (caso de Franklin), y paralelamente a ello los demás investigadores comienzan a interesarse progresivamente por dicha escuela, hasta el punto de que las demás decaen. "El nuevo paradigma -dice Kuhn- supone una definición nueva y más rígida del campo". Éste se desglosa de otros ámbitos de conocimiento, con los que pudo estar antes en contacto directo, y tiende a constituirse como disciplina especial y diferenciada. Surgen revistas, sociedades, cátedras y departamentos universitarios que cultivan esa nueva área de especialización. El paradigma se asienta progresivamente, comienza a obtener resultados que retroalimentan la investigación y acaba convirtiéndose en ciencia vigente.La etapa precientífica y la constitución de un paradigma dan origen a lo que Kuhn llama una etapa de ciencia normal. Al distinguir esta fase histórica Kuhn encontrará argumentos poderosos contra la metodología falsacionista de Popper, que incluso han sido aceptados parcialmente por éste. En efecto, durante la etapa de ciencia normal el científico no es crítico ni intenta refutar las teorías científicas vigentes. Kuhn define la etapa de ciencia normal de la manera siguiente:Ciencia normal significa investigación basada firmemente en una o más realizaciones científicas pasadas, realizaciones que alguna comunidad científica particular reconoce, durante cierto tiempo, como fundamento para su práctica posterior.Dichas realizaciones son relatadas en los libros de texto ad usum, o si no en obras clásicas como la Física de Aristóteles, los Elementos de Euclides, el Almagesto de Ptolomeo, los Principia y la Óptica de Newton, la Electricidçd de Franklin, el Tratado de química de Lavoisier o la Geología de Lyell, cada una de las cuales dio origen a una auténtica disciplina científica, normalmente por desglose respecto de un saber previo. Así explicitado el paradigma, la investigación tomará esas obras o manuales como base para las indagaciones ulteriores: se tratarán de resolver los problemas no solucionados todavía en esas obras clásicas, se generalizarán dichos problemas, se trasladarán a nuevos campos no previstos por los creadores del paradigma, etc. Las teorías contrapuestas al paradigma vigente quedarán arrumbadas como simples curiosidades históricas, o bien como errores a evitar. Hay muchos fenómenos y datos recopilados en la etapa precientífica que ni siquiera deben ser investigados:Las operaciones de limpieza son las que ocupan a la mayoría de los científicos durante todas sus carreras. Constituyen lo que aquí llamo ciencia normal. Examinada de cerca tanto históricamente como en el laboratorio contemporáneo, esa empresa parece ser un intento de obligar a la naturaleza a que encaje dentro de los límites preestablecidos y relativamente inflexibles que proporciona el paradigma.Durante esta fase los científicos no buscan nuevas teorías, y ni siquiera nuevos fenómenos. La ciencia normal investiga zonas muy pequeñas, pero con gran minuciosidad. La tarea principal estriba en articular y organizar cada vez mejor, en forma de teoría, los resultados que se han ido obteniendo. La comunidad científica correspondiente selecciona los hechos que le interesan, que Kuhn clasifica en tres grupos: los que el paradigma ya ha mostrado que son particularmente reveladores, las predicciones derivadas del paradigma que todavía no han sido ratificadas empíricamente y, por último, los experimentos que permiten articular mejor el paradigma e ir resolviendo sus dificultades residuales. La determinación precisa de constantes físicas (como la de la gravitación universal, el número de Avogadro o el coeficiente de Joule) es uno de los ejemplos más característicos de este tercer tipo de investigaciones empíricas en la fase de ciencia normal, que para Kuhn es el más importante de los tres y el que permite justificar la idea de progreso científico ligado al paradigma: enunciar leyes cuantitativas que precisen matemáticamente las leyes básicas puede ser otro ejemplo.Asimismo la ciencia normal consagra una buena parte de sus esfuerzos a la resolución de puzzles, es decir, problemas que podrían tener solución en principio, conforme a los criterios de cuestiones plausibles que siempre establece un paradigma. Estos enigmas o puzzles pueden no ser importantes. Las etapas de ciencia normal se caracterizan precisamente porque en ellas se puede dedicar muchísimo tiempo y esfuerzo a la tentativa de solucionar problemas de escasa relevancia, pero con mucho sentido dentro del paradigma.En cualquier caso, en toda etapa de ciencia normal existen numerosas anomalías, es decir hechos que de ninguna manera son explicables en el marco conceptual del paradigma y que incluso lo contradicen. Los ejemplos históricos que proporciona Kuhn al respecto son muchos:El estado de la astronomía de Ptolomeo era un escándalo, antes de la propuesta de Copérnico. La nueva teoría de Newton sobre la luz y el color tuvo su origen en el descubrimiento de que ninguna de las teorías existentes antes del paradigma explicaban la longitud del espectro, y la teoría de las ondas, que reemplazó a la de Newton, surgió del interés cada vez mayor por las anomalías en la relación de los efectos de difracción y polarización con la teoría de Newton.La existencia de anomalías puede ser conocida durante mucho tiempo sin que por ello el paradigma vigente se venga abajo. En ese sentido, Kuhn no puede estar de acuerdo con el falsacionismo popperiano, a la vista de los múltiples ejemplos en los que se muestra que hechos contradictorios con una determinada teoría no conllevan su refutación ni su falsación efectiva. Pero conforme dichas anomalías se van revelando cada vez más insalvables, y conforme se multiplican en número y en diversidad de ámbitos donde se producen, el paradigma va entrando en crisis. Se inaugura con ello una nueva etapa en el desarrollo histórico de un paradigma, que acabará dando lugar a una revolución científica que hará triunfar un nuevo paradigma.¿Cómo se producen estos procesos de cambio científico, según Kuhn? Nunca es una simple anomalía la que derriba un paradigma vigente. Confrontados a una dificultad irreductible, los científicos "inventarán numerosas articulaciones y modificaciones ad hoc de su teoría para eliminar cualquier conflicto aparente". Las leyes básicas de la teoría que caracteriza a un paradigma suelen convertirse, para sus defensores, en una especie de tautologías, no refutables por muchas observaciones que se hagan. El paradigma no podrá ser rechazado -afirma Kuhn- mientras no surja otro rival de él. Una vez que un ámbito de saber ha comenzado a funcionar científicamente, mediante paradigmas, ya no puede dejar de hacerlo. De ahí que los científicos en las épocas de crisis de un paradigma comiencen a hacer surgir nuevas hipótesis y nuevas teorías, entrándose con ello en la etapa llamada de proliferación de teorías. El paradigma en crisis engendra en su decadencia una multiplicidad de salidas posibles contrarias a algunos de sus postulados fundamentales:La transición de un paradigma en crisis a otro nuevo del que pueda surgir una nueva tradición de ciencia normal está lejos de ser un procedimiento de acumulación, al que se llegue por medio de una articulación o una ampliación del antiguo paradigma. Es más bien una reconstrucción del campo a partir de nuevos fundamentos, reconstrucción que cambia algunas de las generalizaciones teóricas más elementales del campo, así como también muchos de los métodos y aplicaciones del paradigma.La sustitución de un paradigma implica una revolución científica. Y lo que es clave en relación a la polémica Kuhn/Popper, el nuevo paradigma será incompatible en algunos aspectos fundamentales con el anterior.Las revoluciones científicas se inician con un sentimiento creciente, a menudo restringido a una estrecha subdivisión de la comunidad científica, de que un paradigma existente ha dejado de funcionar adecuadamente en la exploración de un aspecto de la naturaleza.Esto da lugar a la aparición de nuevas sociedades y publicaciones científicas, que entran en pugna institucional con los defensores del paradigma tradicional. El paralelismo con las revoluciones políticas es explícito en Kuhn, y por eso concibe los procesos de cambio científico como auténticas revoluciones en la disciplina correspondiente. Conforme, de entre las muchas teorías opositoras al paradigma anterior, se va decantando una que aglutina esa oposición y logra mejores resultados experimentales o institucionales en la lucha contra la ciencia vigente, el nuevo paradigma se va implantando progresivamente: los libros de texto anteriores son reemplazados por otros nuevos, los viejos instrumentos de laboratorio caen en desuso. La historia de la ciencia va recogiendo todos esos documentos resultantes de la pugna entre comunidades científicas por imponer un nuevo paradigma o derribar el anterior.Esta concepción kuhniana de la historia de la ciencia resulta ser cíclica. En efecto, el paradigma emergente reproduce en forma diferente el ciclo del anterior, entrándose al poco tiempo de la revolución científica en una nueva etapa de ciencia normal, con las mismas características generales antes vistas, si bien esta vez nucleada en torno a un nuevo paradigma.
4.4. Las Matrices DisciplinariasAntes de abordar las consecuencias derivadas de las propuestas kuhnianas para investigar la historia de la ciencia conviene que nos detengamos en los perfeccionamientos ulteriores que él mismo introdujo en sus teorías, y concretamente en la propia noción de paradigma, que va a ser reemplazada, por lo menos a nivel técnico, por la de matriz disciplinaria. Cierto es que ello no ha impedido que el término 'paradigma' siga siendo de común uso en la metodología científica.Una matriz disciplinaria posee tres tipos de componentes: generalizaciones simbólicas, modelos y ejemplares.Las generalizaciones simbólicas serían características distintivas del lenguaje usado por cada comunidad científica, y en particular por aquellas componentes formales o fácilmente formalizables de dicho lenguaje: las figuras de la geometría euclídea, las ecuaciones cartesianas, el lenguaje infinitesimal, el análisis matemático, el cálculo tensorial, la estadística o los símbolos de la tabla de los elementos químicos, por ejemplo. Cada paradigma posee, si se ha desarrollado como tal, su propio utillaje conceptual y operatorio.Los modelos poseen una vertiente ontológica y otra heurística. Interpretar, por ejemplo, los fenómenos térmicos desde el paradigma cinemático implica afirmar que el calor de un cuerpo es la energía cinética de sus partículas constituyentes; de ahí la vertiente ontológica inherente a la adscripción de un paradigma a un determinado modelo. Por otra parte, al interpretar un sistema físico (por ejemplo, un circuito eléctrico) desde un determinado paradigma (como el de un sistema hidrodinámico) se posibilitan nuevas hipótesis y líneas de investigación que caracterizan la heurística de un determinado paradigma. Estos ejemplos puestos por Kuhn en sus Segundos pensamientos sobre paradigmas ilustran al menos la segunda componente de una matriz disciplinaria, que retoma en buena medida los aspectos filosóficos u ontológicos ya distinguidos anteriormente en un paradigma. Por supuesto, al adscribir un fenómeno a un determinado modelo ontológico-científico o a otro, la heurística correspondiente se modifica radicalmente.En cuanto a los ejemplares, son soluciones de problemas concretos, a partir de las cuales (y por impacto de su efectividad) se puede explicar científicamente un fenómeno y convencer a los neófitos de la importancia del paradigma. Los ejercicios y los ejemplos propuestos a la teoría en los libros de textos se corresponden bastante bien con lo que Kuhn llama ejemplares de una matriz disciplinaria.Una matriz disciplinaria concreta puede contar con otras componentes, pero al menos ha de poseer objetivaciones de las tres anteriores. Entre los científicos adscritos a un mismo paradigma existe un compromiso de aceptación de las generalizaciones simbólicas, de los modelos y de los ejemplares correspondientes. Hablan el mismo lenguaje, utilizan los mismos instrumentos de laboratorio, interpretan los fenómenos en el mismo marco ontológico y, desde luego, han tenido y reproducen cara a sus alumnos y al público la misma formación en lo que respecta a la selección de los problemas más característicos resueltos por la teoría que ellos defienden.Esta redefinición de las teorías kuhnianas tampoco ha estado exenta de críticas, pero en general cabe señalar que la nueva terminología propuesta por Kuhn no ha llegado a imponerse ni a desplazar a la expuesta en La estructura de las revoluciones científicas. Dejando de lado, por lo tanto, las matizaciones ulteriores al pensamiento de Kuhn que se podrían introducir a partir de sus nuevas obras, podemos volver sobre su marco descriptivo de la historia de las teorías científicas, que al cabo ha sido el que ha producido un considerable impacto en la filosofía de la ciencia actual, en buena medida por su oposición al progreso científico por acumulación y falsación que propusiera Popper.
4.5. Inconmensurabilidad entre paradigmasHemos visto que Kuhn criticaba no sólo la concepción acumulativa del progreso científico, proponiendo una nueva visión discontinuista de la historia de la ciencia, sino también el falsacionismo popperiano. Una teoría científica nunca es refutada ni dejada de lado exclusivamente por haber sido falsada empíricamente:Una teoría científica se declara inválida sólo cuando se dispone de un candidato alternativo para que ocupe su lugar [...]. La decisión de rechazar un paradigma es siempre, simultáneamente, la decisión de aceptar otro, y el juicio que conduce a esta decisión involucra la comparación de ambos paradigmas con la naturaleza y la comparación entre ellos.El estudio de las revoluciones científicas implica, por consiguiente, no sólo centrarse en las anomalías que van surgiendo respecto del paradigma anterior, sino también en la emergencia del nuevo paradigma, en su relación con los datos empíricos, y sobre todo en su relación con el otro paradigma.En este punto Kuhn va a introducir una de las tesis que mayor debate ha suscitado de entre todas las propuestas por él en La estructura de las revoluciones científicas: la inconmensurabilidad entre los paradigmas rivales. Kuhn va a analizar el proceso de revolución científica por analogía con los cambios de visión. Según señala K. Bayertz, en Kuhn cabe distinguir tres tipos de diferencias entre un paradigma y su rival:1) Diferentes problemas por resolver e, incluso, diferentes concepciones y definiciones de la ciencia de la que se ocupan.2) Diferencias conceptuales entre ambos paradigmas, ligadas al diferente lenguaje teórico y a la distinta interpretación ontológica de los datos analizados.3) Diferente visión del mundo, en el sentido de que dos defensores de distintos paradigmas no perciben lo mismo.La importancia de estas tesis para la metodología científica es indudable, pues atacan el principal dogma del positivismo: la existencia de una base empírica (observacional, sensorial) común a todos los científicos. Kuhn, por el contrario, compara una revolución científica con un cambio en la visión del mundo. Los científicos que defienden el viejo y el nuevo paradigma poseen concepciones diferentes de lo que es la disciplina científica de la que se ocupan (o cuando menos de los problemas que debe afrontar), utilizan conceptos teóricos distintos, hasta el punto de que aunque los términos usados fuesen los mismos (por ejemplo, el término "masa" para un newtoniano y para un einsteiniano), ha habido un cambio de significado al insertarse dicho término en un o u otro paradigma; y, por último, y lo que es más importante, las propias percepciones que se tienen del mundo son distintas.En apoyo de estas tesis Kuhn proporciona numerosos ejemplos extraídos de la historia de la ciencia. El descubrimiento científico, por ejemplo en el caso del oxígeno por parte de Lavoisier, no tiene lugar en el momento en que (con Priestley) dicho gas es liberado en forma pura: Priestley aún percibía dicho gas como desflogistizado, y por tanto estaba inmerso en el paradigma del flogisto. El propio Lavoisier tardó en poseer una percepción de dicho gas conforme al nuevo paradigma. Kuhn concluye que un descubrimiento científico no es acontecimiento de un día, sino que, al menos en los casos de revoluciones científicas, puede ser muy bien reinterpretado como descubrimiento fundamental a posteriori, en el momento en que el nuevo paradigma permite reinterpretar qué hechos son importantes y significativos y cuáles no."Las diferencias entre paradigmas sucesivos son necesarias e irreconciliables", afirma Kuhn, y pueden ser tanto sustanciales (u ontológicas: la luz como corpúsculos o como ondas), como epistemológicas (concepciones respectivas de la ciencia, heurística, metodología), como perceptuales. La aceptación de un nuevo paradigma por parte de la comunidad científica frecuentemente modifica el concepto mismo de la ciencia correspondiente, y lo que es más, cuando cambian los paradigmas, el mundo mismo cambia con ellos, lo cual implica un cambio incluso en la percepción de los fenómenos: durante las revoluciones, los científicos ven cosas nuevas y diferentes al mirar con instrumentos conocidos y en lugares en los que ya habían buscado antes, por lo cual, en tiempos de revolución, cuando la tradición científica normal cambia, la percepción que el científico tiene de su medio ambiente debe ser reeducada; en algunas situaciones en las que se ha familiarizado debe aprender a ver una forma (Gestalt) nueva.Las teorías de Hanson sobre la percepción de los científicos, así como las investigaciones de la psicología de la Gestalt, son repetidamente invocadas por Kuhn en apoyo de sus tesis sobre las revoluciones científicas y la inconmensurabilidad de los paradigmas sucesivos, y ello tanto en La estructura de las revoluciones científicas como en sus Segundos pensamientos sobre paradigmas. Kuhn no cree en los datos sensoriales por su inmediatez para el conocimiento científico, ni mucho menos en su capacidad para dilucidar, en tanto que base empírica estable, entre dos paradigmas rivales. El problema principal de los procesos de cambio científico es el de la incompatibilidad entre las respectivas concepciones, así como la inexistencia de una experiencia neutra y objetiva que actuaría como juez de paz entre las teorías rivales, dando la razón a quien más la tuviese. Todo ello ha dado lugar a que sobre Kuhn hayan caído acusaciones de irracionalismo a la hora de explicar los procesos de cambio científico, abriéndose con ello un amplio debate entre los filósofos de la ciencia poskuhnianos.Dentro de dicha polémica Feyerabend, inicialmente discípulo de Kuhn, ha mantenido tesis muy radicales. Aportando en apoyo de las misma un amplio material procedente de sus estudios históricos, Feyerabend ha mantenido las tesis siguientes:1) Existen sistemas de pensamiento (acción, percepción) que son inconmensurables.2) El desarrollo de la percepción y del pensamiento en el individuo pasa por etapas que son inconmensurables entre sí.3) Existen teorías científicas que son mutuamente inconmensurables aunque en apariencia se ocupen del "mismo objeto". No todas las teorías rivales tienen esa propiedad y aquellas que tienen la propiedad sólo la tienen mientras sean interpretadas de una forma especial, por ejemplo, sin hacer referencia a un "lenguaje de observación independiente".Entre dos teorías hay cambios ontológicos, cambios conceptuales y cambios perceptivos. En particular, uno de los casos más sutiles es el del cambio de significado de un mismo término teórico, cuestión ésta que ha dado lugar a amplios debates sobre la paradoja del cambio de significado. No existe un lenguaje observacional estable y previamente existente; cada paradigma, o cada teoría, selecciona qué hechos son relevantes y cuáles ni siquiera son científicamente pertinentes. Puesto que las respectivas selecciones son heterogéneas en el caso de paradigmas opuestos, la experiencia no puede servir para resolver la contraposición entre teorías rivales. Con ello, Kuhn y sus discípulos asestaron un duro golpe al empirismo lógico.
4.6. Filosofía de la ciencia e historia de la cienciaUna de las principales aportaciones de Kuhn a la metodología científica estriba en su insistencia en la importancia de los estudios históricos minuciosos como etapa previa a la elaboración de teorías generales sobre la ciencia o sobre cada disciplina científica. Aunque dicha tesis pueda parecer trivial, lo cierto es que, salvo honrosas excepciones (entre las cuales Lovejoy y Koyré, como también Metzger, fueron muy importantes para el propio Kuhn), la historia de la ciencia ha sido una disciplina muy poco desarrollada hasta hace unos años. Antiguamente algunos grandes autores escribían artículos biográficos o proporcionaban referencias históricas para ilustrar sus propios trabajos; así ocurrió con Lagrange, Priestley y Delambre, al igual que con la célebre obra de Montucla. A finales del siglo XIX científicos como Kopp, en química, Poggendorff, en física, Sachs, en botánica, Zittel y Geikie, en geología, o Klein, en matemáticas, elaboraron estudios importantes, que hoy en día constituyen una referencia obligada. Esta primera tradición historiográfica, la de la historia escrita por científicos, suele limitarse sin embargo a ilustrar con ejemplos y antecedentes históricos la ciencia contemporánea a cada uno de ellos.Una segunda tradición historiográfica tenía objetivos más explícitamente filosóficos. Ya el propio Francis Bacon, como luego Condorcet y Comte, subrayaron el interés que tiene el conocimiento de la génesis y del aprendizaje de los conceptos científicos básicos. Pero la historia de la ciencia estaba más que nada al servicio de la ilustración de tesis filosóficas generales sobre la ciencia, como sucede explícitamente en el caso de Whewell, Mach o Duhem, con lo cual los resultados de la investigación histórica presentaban una serie de insuficiencias, quedándose a veces la tentativa a un nivel meramente programático.La nueva historiografía de la ciencia, que es la que le interesa a Kuhn, surge con autores como Alexandre Koyré, quien investiga épocas históricas anteriores profundizando en el modo de pensar de entonces, y tratando de comprender las investigaciones y los debates correspondientes en su propio contexto, y no por referencia a la ciencia actual. Ya no se trata de ilustrar ni de introducir los métodos científicos contemporáneos a base de una presentación de los mismos bajo la advocación de algunas ilustres figuras del pasado, sino de profundizar en la época estudiada independientemente de que muchas de sus figuras, ideas y resultados no tengan la menor relevancia para la ciencia actual.Basándose en este cambio conceptual en la historiografía de la ciencia, ésta ha comenzado a constituirse en distintos países como disciplina independiente, separada por una parte de la historia de la filosofía, pero también de las facultades de historia, en la medida en que dichos estudios requieren de un contacto estrecho con las facultades de ciencias. Este fenómeno le parece a Kuhn muy importante, hasta el punto de que él mismo ha trabajado durante varios años en un programa de historia y filosofía de la ciencia en la Universidad de Princeton, en el que colaboraban historiadores, científicos y filósofos, si bien desde perspectivas y programas netamente diferenciados. Kuhn es partidario de mantener esa estructura, de tal manera que los estudios históricos sean previos a la formación de los filósofos y metodólogos de la ciencia. Otra gran novedad del siglo XX, que mantiene la misma tendencia, consiste en las elaboraciones de historias generales de la ciencia, y no ya sólo de disciplinas concretas, como ocurrió hasta el siglo XIX. Ello da lugar a que los historiadores requieran de una formación especial, que ya no se restringe a una sola especialidad.La función metodológica de la historia de la ciencia queda perfectamente ilustrada en las criticas que el propio Kuhn hace a Popper. Frente a concepciones sistemáticas o puramente normativas de la ciencia, como por ejemplo el criterio de demarcación basado en la falsabilidad, Kuhn propone que se hagan estudios empíricos previos para ver cómo se ha producido el cambio científico a lo largo de la historia: basándose en ello afirmará que el progreso científico no es acumulativo, así como que una teoria no es dejada de lado por refutación empírica o por algún experimento crucial, sino únicamente cuando ha surgido frente a ella un nuevo paradigma que está en condiciones de sustituirla como nueva ciencia normal. En su polémica con Popper de 1965, Kuhn da por aceptadas por parte de Popper varias de sus tesis en La estructura de las revoluciones científicas: hay revoluciones científicas y la ciencia no progresa por acumulación, no hay observación científica sin teoria que la impregne, las teorías científicas son explicativas y versan sobre objetos reales, etc. La obra de Popper, Conjeturas y refutaciones, matizaba en efecto algunas de las posiciones demasiado rígidas de su obra de juventud, la Lógica de la investigación científica. Sin embargo, para Kuhn seguía privilegiando excesivamente los momentos de cambio y de revolución científica a la hora de insistir en el talante falsador o refutador propio de los científicos. La historia de la ciencia, en cambio, muestra que numerosísimos científicos en las más diversas disciplinas jamás han considerado sus teorías como conjeturas y mucho menos han intentado falsarlas experimentalmente. Las etapas de ciencia normal nos muestran a un tipo de científico muy diferente al científico crítico concebido por Popper; sin embargo, también esas etapas han de ser estudiadas por los historiadores, e incluidas en la reflexión de los metodólogos. Hacer una historia o una metodología de la ciencia basada sólo en los momentos estelares de la misma (las grandes revoluciones, las grandes teorías) supone perder de vista aspectos que sólo pueden ser claros para quienes investigan minuciosamente las diversas épocas históricas, desprovistos de perjuicios metodológicos previos.La historia de la ciencia se convierte así en un complemento imprescindible para la reflexión metodológica; y no cabe duda de que, al menos en este punto, las tesis de Kuhn han triunfado plenamente desde los años setenta. Surge, sin embargo, un nuevo problema: ¿qué es la observación de los datos históricos? ¿Acaso cabe recaer en la ingenuidad del empirismo lógico de Viena, pensando que los estudios de historia empírica pueden engendrar teorías explicativas, y no ya sólo descriptivas, de cada etapa histórica? Kuhn, ciertamente, no piensa así, pero sus tesis han dado a su vez pábulo a un cierto tipo de estudios históricos que acumulan una gran cantidad de datos, pero sin que en muchos casos lleguen a ser pertinentes para las fases ulteriores de la investigación histórica.Una última variable del problema, sobre la que volveremos también en capítulos ulteriores, estriba en la distinción entre historia interna y externa. La historia externa trataría de las actividades de los científicos en tanto grupo social dentro de una cultura determinada. En cambio, la historia interna se centraría exclusivamente en el desarrollo de las ideas, experimentos e investigaciones de los científicos prescindiendo de esas mediaciones exteriores, sobre la base de que lo importante en filosofía de la ciencia consiste en analizar el cambio científico, entendiendo por tal los cambios conceptuales, heurísticos, metodológicos y ontológicos. Para Kuhn, aun aceptando el interés de la historia externa, puede hacerse perfectamente una historia de la ciencia exclusivamente interna:Comparados con otros profesionales y con otras empresas creativas, los practicantes de una ciencia madura están aislados en realidad del medio cultural en el cual viven sus vidas profesionales.En cualquier caso, y pese a precisiones adicionales que podrían hacerse, la obra de Kuhn señala un viraje importante de la metodología de la ciencia: a partir de ella el papel de los estudios históricos adquiere gran relevancia.
5. LOS PROGRAMAS DE INVESTIGACIÓN CIENTÍFICA
5.1. IntroducciónImre Lakatos fue un filósofo húngaro muy influido en su juventud por Hegel, que, a partir de los 40 años de edad, dio un acentuado viraje que le llevó hacia posiciones popperianas. En 1970-1971 afirmó que "las ideas de Popper constituyen el desarrollo filosófico más importante del siglo XX", poniendo su figura al nivel de las de Hume, Kant y Whewell. Sin embargo, criticó las divulgaciones que se habían hecho de las ideas de Popper por parte de Ayer, Medawar, Nagel y otros, que para Lakatos suponen un falsacionismo dogmático que no existe en absoluto en el autor de la Lógica de la investigación científica. El falsacionismo de Popper es, por el contrario, metodológico, y Lakatos cree que todavía es mejorable por el falsacionismo metodológico refinado, que será su propuesta principal en filosofía de la ciencia. Una teoría nunca es refutada por la observación ni por un experimento crucial sino, como bien había señalado Kuhn, por otra teoría rival. Los científicos abandonan una teoría por otra en función del mayor contenido empírico de la segunda, caracterizado por el descubrimiento y la corroboración de algunos hechos nuevos y sorprendentes, pero asimismo en función de su mayor potencial heurístico. Ello da lugar a que las teorías hayan de ser evaluadas en la historia en función del programa de investigación en el que se insertan, y no aisladamente en confrontación con la experiencia.Lakatos aceptó varias de las tesis de Kuhn, como la existencia de anomalías para toda teoría científica y la importancia de la historia de la ciencia para la epistemología. Al respecto acuñó, por una parte, la distinción entre el centro firme de una teoría (no falsable empíricamente) y su cinturón protector, así como las nociones de historia interna y externa de una teoría. Muy interesado en la filosofía de las matemáticas, insistió en la importancia de la lógica del descubrimiento científico, más que la de la justificación ulterior de los resultados obtenidos. Al respecto, las conjeturas y las pruebas, sucesivamente modificadas, son indispensables para comprender el desarrollo de las matemáticas, en oposición a una filosofía formalista de las matemáticas, que las considera en función del método euclídeo, y no como ciencias cuasi-empíricas, como sostendrá Lakatos.Muerto prematuramente a los 51 años (el 2 de febrero de 1974), buena parte de sus escritos han sido publicados por sus discípulos, como John Worrall, Elie Zahar, Gregory Currie, etc. La mayor parte de ellos están traducidos al castellano, en particular en los tres volúmenes siguientes, publicados por Alianza Editorial: Pruebas y refutaciones, La metodología de los programas de investigación científica y Matemáticas, ciencia y epistemología, si bien también están disponibles otros volúmenes, como La crítica y el desarrollo del conocimiento (1970), de Lakatos y Musgrave (eds.) (que recoge las ponencias del Coloquio de Londres de 1965, con las críticas de Lakatos a Kuhn), editado por Grijalbo, su Historia de la ciencia y sus reconstrucciones racionales (Tecnos) (que incluye las réplicas de Feigl, Hall, Kortge y Kuhn a las propuestas de Lakatos), así como el artículo "La crítica y la metodología de programas científicos de investigación", editado por Cuadernos Teorema.
5.2. El falsacionismo metodológico refinadoYa en su artículo de 1968 (Teorema, 1982) Lakatos tomaba como punto de partida las críticas de Kuhn a Popper, señalando que el autor de La estructura de las revoluciones científicas había atacado sobre todo a un Popper que en realidad nunca existió en las obras de Popper, aunque sí en las de algunos de sus divulgadores e intérpretes. Como ejemplo prototípico de dicho falsacionismo dogmático cuya tesis básica estriba en que la ciencia no puede probar, pero sí refutar empíricamente una teoría, Lakatos cita la afirmación de Medawar: "La ciencia puede realizar con certeza lógica completa la recusación de lo que es falso".Por el contrario, Lakatos distingue el falsacionismo metodológico, en dos versiones distintas, a las que denomina Popper1 y Popper2. Aunque en sus propios escritos Lakatos ha oscilado un tanto sobre la atribución de una postura u otra a su maestro, cabe resumir sus tesis diciendo que el falsacionismo metodológico ingenuo (Popper1) sería la posición más característica de Sir Karl, sobre todo en La miseria del historicismo y en la Sociedad abierta. En otros escritos de Popper se encuentran ideas claves para el falsacionismo refinado, pero en realidad ésta es una propuesta que corresponde al propio Lakatos, siendo su aportación más propia al debate sobre metodología iniciado a partir de la obra de Kuhn.La versión estándar del popperianismo establecía que la ciencia avanza por medio de "conjeturas audaces depuradas por duras refutaciones". Dichas falsaciones se llevan a cabo por medio de enunciados observacionales, o proposiciones básicas, a las cuales Popper denominó falsadores potenciales de una teoría. Éstos vienen caracterizados sintácticamente, por su forma lógica, como enunciados existenciales espacio-temporalmente singulares, del tipo "hay un planeta en la región espacio-temporal k". Pero también son discernibles pragmáticamente: el valor de verdad de los falsadores potenciales ha de ser decidible por medio de algún procedimiento experimental posible y aceptado en el momento histórico en que tenga lugar la falsación. Si hay conflicto entre una teoría y una falsación empírica de este tipo, la teoría debe ser abandonada.Lakatos, en cambio, afirma que "no podemos probar las teorías y tampoco podemos refutarlas" por procedimientos exclusivamente empíricos, y ello basándose en dos motivos. Primero, porque como ya afirmara Hanson, "no hay demarcación natural (psicológica) entre las proposiciones observacionales y las proposiciones teóricas".ó Segundo, porque "ninguna proposición fáctica puede nunca ser probada mediante un experimento" debido a su vez a que toda prueba conlleva una deducción lógica, y las proposiciones sólo pueden derivarse a partir de otras proposiciones, y no de hechos. Ambos argumentos, el lógico y el psicológico, permiten a Lakatos desterrar definitivamente las tesis empiristas de la comprobación o de la refutación de teorías por medio de la experiencia.Consecuentemente con ello, Lakatos y sus discípulos también atacaron el concepto popperiano de refutación de una teoría por medio de un experimentum crucis, analizando detalladamente, entre otros, los clásicos ejemplos del experimento de MichelsonMorley, los experimentos Lummer-Pringsheim y la observación de Chadwick en 1914 de la decadencia de rayos beta. Lakatos concluye que "los experimentos cruciales no existen, al menos si nos referimos a experimentos que pueden destruir instantáneamente a un programa de investigación". Sí cabe, en cambio, que cuando una teoría ya ha sido sustituida por otra, retrospectivamente se le atribuya a algún experimento el haber refutado a la primera y corroborado a la segunda. Pero el abandono de la teoría "refutada" nunca depende exclusivamente de un solo experimento.Al objeto de introducir su falsacionismo retinado, Lakatos va a mantener una tesis aparentemente sorprendente para la tradición empirista: "Las teorías más admiradas no prohiben ningún acontecimiento observable". Parecería que estamos en las antípodas de los falsadores potenciales de Popper, pero lo que en realidad pretende Lakatos es proponer una distinción fundamental en sus tesis metodológicas: la de centro firme y cinturón protector de una teoría. Para ello expone un ejemplo imaginario de investigación científica, que merece la pena reproducir en su totalidad:La historia se refiere a un caso imaginario de conducta anómala de un planeta. Un físico de la era preeinsteiniana combina la mecánica de Newton y su ley de gravitación (N) con las condiciones iniciales aceptadas (I) y calcula mediante ellas la ruta de un pequeño planeta que acaba de descubrirse, p. Pero el planeta se desvía de la ruta prevista. ¿Considera nuestro físico que la desviación estaba prohibida por la teoría de Newton y que, por ello, una vez confirmada tal ruta, queda refutada la teoría N? No. Sugiere que debe existir un planeta hasta ahora desconocido, p', que perturba la ruta de p. Calcula la masa, órbita, etc., de ese planeta hipotético y pide a un astrónomo experimental que contraste su hipótesis. El planeta p' es tan pequeño que ni los mayores telescopios existentes podrían observarlo: el astrónomo experimental solicita una ayuda a la investigación para construir uno aún mayor. Tres años después el nuevo telescopio ya está disponible. Si se descubriera el planeta desconocido p', ello sería proclamado como una nueva victoria de la ciencia newtoniana. Pero no sucede así. ¿Abandona nuestro científico la teoría de Newton y sus ideas sobre el planeta perturbador? No. Sugiere que una nube de polvo cósmico nos oculta el planeta. Calcula la situación y propiedades de la nube y solicita una ayuda a la investigación para enviar un satélite con objeto de contrastar sus cálculos. Si los instrumentos del satélite (probablemente nuevos, fundamentados en una teoría poco contrastada) registraran la existencia de la nube conjeturada, el resultado sería pregonado como una gran victoria de la ciencia newtoniana. Pero no se descubre la nube. ¿Abandona nuestro científico la teoría de Newton junto con la idea del planeta perturbador y la de la nube que lo oculta? No. Sugiere que existe un campo magnético en esa región del universo que inutilizó los instrumentos del satélite. Se envía un nuevo satélite. Si se encontrara el campo magnético los newtonianos celebrarían una victoria sensacional. Pero ello no sucede. ¿Se considera este hecho una refutación de la ciencia newtoniana? No. O bien se propone otra ingeniosa hipótesis auxiliar o bien... Toda la historia queda enterrada en los polvorientos volúmenes de las revistas y nunca vuelve a ser mencionada.Una teoría, por sí misma, jamás prohibe ningún acontecimiento empírico, porque siempre hay otros factores que pueden tener influencia sobre él: basta proponer la correspondiente hipótesis ad hoc, según la cual ese tercer factor hace fallar a la teoría, para que ésta quede preservada de la refutación por medio de datos observacionales. Las estratagemas convencionalistas, como las llamó Popper, salvan a la teoría de la falsación por vía experimental.Esto conecta con el debate en torno a lo que se ha llamado tesis Duhem-Quine, la cual es enunciada por Quine en los términos siguientes: "Se puede mantener la verdad de cualquier enunciado, suceda lo que suceda, si realizamos ajustes lo bastante drásticos en otras partes del sistema... Y al contrario, por las mismas razones ningún enunciado es inmune a la revisión". Los medios para ello son múltiples: se puede introducir un nuevo concepto, o una sutil distinción; se pueden modificar las definiciones de los términos involucrados en la proposición a salvar; se pueden proponer hipótesis auxiliares; se pueden cambiar las condiciones iniciales del problema... Lakatos analiza en varias de sus obras esta amplia variedad de recursos, que finalmente confluirán en la noción de cinturón protector de una teoría, y precisamente por ello defiende el criterio ligado al falsacionismo refinado: cualquier parte del conjunto de la ciencia puede, efectivamente, ser modificada y reemplazada, pero con la condición de que dicho cambio suponga un progreso científico, es decir que conduzca al descubrimiento de hechos nuevos. Las estratagemas que sólo sirven para salvar las teorías aceptadas, sin que el usarlas dé lugar a nuevos conocimientos factuales, no son aceptables para el falsacionismo de Lakatos.La tesis central de dicho falsacionismo estriba en que una teoría nunca puede ser falsada por la observación ni por experimento alguno, pero sí por otra teoría: "ningún experimento, informe experimental, enunciado observacional o hipótesis falsadora de bajo nivel bien corroborada puede originar por sí mismo la falsación. No hay falsación sin la emergencia de una teoría mejor". Conforme había señalado Kuhn al hablar de dos paradigmas rivales como paso previo a toda revolución científica, Lakatos va a intentar sintetizar el falsacionismo popperiano con dicha aportación kuhniana al afirmar que sí puede haber falsación de una teoría, pero sólo por medio de una estructura teórica compleja interesante, que previamente ha de estar constituida en sus partes principales. Para explicar los procesos de cambio científico, el problema metodológico que hay que resolver no es la contraposición teoría/ experiencia, sino los criterios de evaluación entre teorías rivales, huyendo del psicologismo, del sociologismo o del irracionalismo que apuntaban en Kuhn, para proponer un criterio racional de elección por parte de los científicos, y general para todas las ciencias y comunidades científicas.Y al respecto Lakatos tiene una propuesta clara, mediante la cual va a precisar definitivamente la diferencia entre los dos tipos de falsacionismo: el de Popper y el que el propio Lakatos, inspirándose en Popper y mejorándolo, va a defender en el resto de sus obras:El falsacionismo refinado difiere del ingenuo tanto en sus reglas de aceptación (o criterio de demarcación) como en sus reglas de falsación o eliminación.Para el falsacionista ingenuo cualquier teoría que pueda interpretarse como experimentalmente falsable es "aceptable" o "científica". Para el falsacionismo refinado una teoría es "aceptable" o "científica" sólo si tiene un exceso de contenido empírico corroborado con relación a su predecesora (o rival). Esta condición puede descomponerse en dos apartados: que la nueva teoría tenga exceso de contenido empírico (aceptabilidad1) y que una parte de ese exceso de contenido resulte verificado (aceptabilidad2). El primer requisito puede confirmarse inmediatamente mediante un análisis lógico a priori; el segundo sólo puede contrastarse empíricamente y ello puede requerir un tiempo indefinido.Para el falsacionista ingenuo una teoría es falsada por un enunciado observacional ("reforzado") que entra en conflicto con ella (o que decide interpretar como si entrara en conflicto con ella). Para el falsacionismo refinado, una teoria cientifica T queda falsada si y sólo si otra teoría T' ha sido propuesta y tiene las siguientes características:1) T' tiene un exceso de contenido empírico con relación a T; esto es, predice hechos nuevos, improbables o incluso excluidos por T.2) T' explica el éxito previo de T; esto es, todo el contenido no refutado de T está incluido (dentro de los límites del error observacional) en el contenido de T'.3) Una parte del exceso de contenido de T' resulta corroborado.Lakatos, por consiguiente, se mantiene dentro de la tradición del empirismo, si bien en su criterio de demarcación, que supone una postura radicalmente nueva en la filosofía de la ciencia del siglo XX, apunta una posibilidad para comparar entre sí teorías rivales no empíricas: por ejemplo lógicas, o matemáticas. Pero la experiencia ni prueba ni refuta las teorías. Una teoría, en tanto conjetura que es, siempre acabará siendo sustituida por otra; pero no por cualquiera de entre todas las que proliferaron en la fase de crisis del paradigma, por decirlo en términos de Kuhn; sino por aquella que, en primer lugar, incluya lo fundamental de la anterior, pero que además la supere, entendiendo por tal el establecimiento de nuevas predicciones empíricas que puedan resultar incluso sorprendentes para los defensores de la teoría anterior, pero que luego se ven confirmadas experimentalmente. Lo factual sigue desempeñando una función primordial como criterio de demarcación: sólo es científico aquello que predice hechos nuevos, hasta entonces desconocidos. Pero por sí mismo no refuta a una teoría: simplemente orienta la elección de los científicos en favor de una u otra teoría, siempre bajo el supuesto de que ya había dos, como mínimo, en contraposición.Con lo cual Lakatos se pronuncia, con cierta impronta hegeliana, sobre dos temas esenciales en la filosofía de la ciencia en el siglo XX: la demarcación entre ciencia y no ciencia y el cambio científico, manteniendo la componente pragmática (elección racional de una teoría u otra), pero a la vez un criterio puramente epistemológico de cientificidad: la predicción de hechos nuevos.
5.3. Los programas de investigación científicaLa utilización de las hipótesis ad hoc, con las cuales los científicos conseguían salvar sus teorías de las refutaciones mediante la experiencia, ha sido conocida y criticada desde hace siglos. Moliere, en ejemplo citado por Lakatos, ridiculizó en su Malade imaginaire a los médicos que explicaban que el opio produce sueño a causa de una supuesta virtus dormitiva en dicha sustancia. Se trata, tanto para el convencionalista Duhem como para el falsacionista Popper, de proporcionar reglas metodológicas generales para impedir ese tipo de ardides antifalsacionistas. Pero no todo este tipo de ajustes de las teorías para que no sean contradichas por la empiria son ilegítimos. Hay algunos que producen nuevos descubrimientos, y que, por consiguiente, han de ser considerados como admisibles. Los científicos que defienden una teoría siempre tratan de preservar al centro firme de la misma de la refutación, construyendo en torno al mismo un cinturón protector de hipótesis auxiliares, cambios de significado de los términos, etc. Esta actitud, que en algunos casos puede ser perfectamente racional, permite explicar asimismo la existencia de anomalías, subrayada por Kuhn, que pese a contradecir la teoría no dan lugar a que sus preconizadores la abandonen.Pero entonces, concluye Lakatos, una teoría no puede ser evaluada independientemente de los resultados que este tipo de recursos contra la falsación ocasionen:Cualquier teoría científica debe ser evaluada en conjunción con sus hipótesis auxiliares, condiciones iniciales, etc., y especialmente en unión de sus predecesoras, de forma que se pueda apreciar la clase de cambio que la originó. Por tanto, lo que evaluamos es una serie de teorías, y no las teorías aisladas.Esto trae consigo una consecuencia fundamental para la teoría de la ciencia. Las unidades básicas para el análisis epistemológico ya no son las teorías, ni mucho menos su confrontación con la experiencia, sino las sucesiones de teorías, es decir los programas de investigación científica. Cada teoría conlleva un desarrollo, un despliegue, suscitado como mínimo por las tentativas de salvarla de la refutación; con lo cual lo que debe ser valorado es toda esa evolución, que a veces puede llevar consigo profundos cambios en la propia teoría o, si se prefiere, la aparición de teorías nuevas que, procediendo genéticamente de las anteriores, las mejoran o las modifican, de manera sustancial, por lo que llegan a diferenciarse netamente de sus predecesoras. El falsacionismo metodológico refinado, precisamente por afirmar que la contraposición tiene lugar entre dos teorías, entre las cuales los científicos adoptan la que posee un mayor contenido empírico, lleva forzosamente a la noción de programa de investigación, que es definida por Lakatos en los términos siguientes:Tenemos una serie de teorías, Tl, T2, T3... en la que cada teoría se obtiene añadiendo cláusulas auxiliares, o mediante representaciones semánticas de la teoría previa con objeto de acomodar alguna anomalía, y de forma que cada teoría tenga, al menos, tanto contenido como el contenido no refutado de sus predecesoras. Digamos que una serie tal de teorías es teóricamente progresiva (o que constituye un cambio de la problemática teóricamente progresivo) si cada nueva teoría tiene algún exceso de contenido empírico con respecto a su predecesora; esto es, si predice algún hecho nuevo e inesperado hasta entonces. Digamos que una serie de teoría teóricamente progresiva es también empíricamente progresiva (o que constituye un cambio de la problemática empíricamente progresivo) si una parte de ese exceso de contenido empírico resulta, además, corroborado; esto es, si cada nueva teoría induce el descubrimiento real de algún hecho nuevo. Por fin, llamaremos progresivo a un cambio de la problemática si es progresivo teórica y empíricamente, y regresivo si no lo es. "Aceptamos" los cambios de problemáticas como científicos sólo si, por lo menos son teóricamente progresivos; si no lo son, los rechazamos como pseudocientíficos.Hay que estudiar la historia de la ciencia en función de estos nuevos criterios, localizando en cada momento los programas de investigación progresivos, que engendran nuevos conocimientos, y distinguiéndolos de los regresivos. Por supuesto que un mismo programa puede ser progresivo durante una primera etapa histórica y luego estancarse: incluso es lo que tarde o temprano les sucede a todos ellos. Conforme afirmara Popper en este sentido, pero también Kuhn, para Lakatos toda teoría científica y todo programa de investigación están destinados a ser abandonados y sustituidos por concepciones opuestas a ellos, que predicen hechos insospechables para el programa antiguo. Los conceptos de ciencia normal (pero nunca como algo estático, sino en continuo progreso), de crisis del paradigma (cuando las hipótesis auxiliares o las propuestas semánticas dejan de producir nuevos descubrimientos) y de revolución científica quedan englobados en el marco epistemológico del falsacionismo refinado. Y en este sentido, Lakatos puede pretender haber intentado una síntesis entre Kuhn y Popper, con cierto ribete hegeliano.Pero la nueva noción de programa de investigación engendra a su vez dos importantes consecuencias para la filosofía de la ciencia. La primera consiste en la íntima relación que se establece entre las nociones de ciencia y progreso. Si la preferencia racional de los científicos por una teoría u otra, o por un programa y otro rival, depende del mayor contenido empírico, entonces la elección entre dos teorías rivales siempre debe orientarse en favor de aquella que suponga un mayor progreso para la ciencia: "El carácter empírico (o científico) y el progreso teórico están inseparablemente relacionados". Lakatos menciona explícitamente a Leibniz como el predecesor de esta tesis que, según él, fue aceptada por la generalidad de los científicos. La demarcación entre ciencia y no ciencia no depende tanto de la falsación, experimental de las hipótesis, ni por supuesto de su confirmación, cuanto, exclusivamente, de lo que engendran desde el punto de vista de las novedades empíricas. Mientras un programa de investigación vaya dando lugar a nuevos descubrimientos, por muchas anomalías que le afecten, siempre será aceptado por los científicos. Únicamente cuando se anquilosa y se estanca comenzarán los investigadores a fijarse con mayor insistencia en dichas anomalías.En segundo lugar, la predicción y ulterior corroboración de algunos hechos nuevos pasa a ser el objetivo principal de las ciencias empíricas. Las teorías y los programas de investigación deben ser evaluadas en función de su contenido fáctico, pero entendiendo éste como producción de novedades, y en particular de predicciones que sean prácticamente imposibles de hacer desde el programa de investigación rival. La inconmensurabilidad kuhniana adquiere aquí una nueva versión. El descubrimiento y la predicción de hechos nuevos y sorprendentes para los científicos anteriores es la marca principal de una revolución científica, de la sustitución de un programa de investigación por otro rival. Aunque no en los términos de Lakatos concepciones parecidas pueden encontrarse en Claude Bernard, él célebre médico francés autor de la Introduction a l'étude de la médécine expérimentale (1865), al que Lakatos no menciona. En dicha obra puede leerse:Las teorías no son más que hipótesis verificadas mediante un número más o menos considerable de hechos. Aquellas que han sido verificadas por el mayor número de hechos son las mejores; mas no por ello son las definitivas, sino que nunca hay que creer en ellas de una manera absoluta.Y si bien para Lakatos las posturas de Bernard serían las de un falsacionista ingenuo, que continuamente insiste en que si un hecho está en contradicción con una teoría hay que abandonar la teoría, la insistencia en la función del descubrimiento de hechos nuevos como criterio de racionalidad científica puede encontrarse en Bernard, igual que en Leibniz o en otros teóricos de la ciencia anteriores al siglo XX.
5.4. Heurística positiva y negativaUn programa de investigación científica no sólo va a estar caracterizado por el contenido empírico que posea en un momento dado, sino también por su potencial heurístico, noción que en buena medida fue propuesta a Lakatos por sus discípulos (Zahar, Worrall), y que ha pasado a convertirse en una de las más características concepciones lakatosianas, al par que una de las más criticadas por sus adversarios. La heurística de un programa de investigación, en principio, consiste en un conjunto de técnicas para la solución de problemas científicos. Si mencionamos el ejemplo de la mecánica de Nevvton, que Lakatos ha escogido para explicar muchas veces su metodología, resulta que el centro firme del programa newtoniano estaría formado por las tres leyes del movimiento, y como tal no puede ser falsado, porque los newtonianos habían elaborado un gran cinturón de hipótesis auxiliares para protegerlo: la óptica geométrica, la teoría de la refracción atmosférica, etc., que en cualquier caso permitían descartar las anomalías que se hubiesen obtenido por observación. La heurística del programa, en cambio, está caracterizada básicamente -según Lakatos- por el cálculo diferencial, la teoría de la convergencia y las ecuaciones diferenciales e integrales. El programa newtoniano no sólo está definido por la mecánica o por la óptica, sino también por el utillaje matemático utilizado, el cual por sí mismo proporciona una serie de cuestiones para resolver dentro del propio programa de investigación, y como rasgo distintivo del mismo, que no se encuentra en los programas rivales.Pero desde un punto de vista más general, la heurística se constituye por medio de una serie de reglas metodológicas, algunas de las cuales pueden ser muy generales, e incluso estrictamente filosóficas, como en el caso del mecanicismo cartesiano, Lakatos distingue dos tipos de reglas: unas positivas y otras negativas. La heurística negativa nos dice qué tipo de rutas de investigación deben evitarse. La heurística positiva, en cambio, cuáles deben seguirse. La primera impide que se le aplique el modus tollens al centro firme del programa, aconsejando prescindir de las anomalías en las investigaciones. La heurística positiva impide que el científico se pierda en el océano de anomalías dándole una serie de tareas a resolver que suponen -o pueden suponer, si la investigación tiene éxito- otras tantas ampliaciones y desarrollos del programa.Veamos ambos tipos de heurística en el ejemplo del programa newtoniano. Cuando emergió ase encontraba inmerso en un océano de anomalías y en contradicción con las teorías observacionales que apoyaban a tales anomalías"; pero ello no afectó para nada al centro irrefutable del programa, por decisión metodológica de sus defensores. Bastaba con trabajar en el cinturón protector, modificando las hipótesis auxiliares que subyacían a las observaciones o contraejemplos, o cambiando las condiciones iniciales, para que el programa siguiese adelante sin preocuparse por la aprueba empírica" que sus adversarios argüían en su contra. La historia imaginaria del comportamiento de un científico newtoniano, referida en 5.2, muestra bien de qué manera se pueden construir ingeniosas hipótesis al objeto de que el núcleo del programa no sea afectado. Los newtonianos, incluso, tuvieron la habilidad de ir destruyendo las propias teorías observacionales que subyacían a los "contraejemplos", transformando cada dificultad en una nueva victoria de su programa, como señaló el mismo Laplace. Pero en general ello no es necesario. La heurística negativa de un programa de investigación no sólo puede estar caracterizada por la construcción de ese cinturón protector o escudo contra las anomalías, sino incluso por prescindir pura y simplemente de ellas. Son fenómenos que no merece la pena estudiar, o al menos que todavía no se está en condiciones de investigar: pero por muy corroborados que estén observacionalmente, las teorías no se ven afectadas en lo esencial por ellos.Esto está relacionado con la existencia de una heurística positiva en el programa de investigación, como subraya Lakatos:Pocos científicos teóricos implicados en un programa de investigación se ocupan excesivamente de las "refutaciones". Mantienen una política de investigación a largo plazo que anticipa esas refutaciones. Esta política de investigación, u orden de investigación, queda establecida, con mayor o menor detalle, en la heurística positiva del programa de investigación.Esto puede hacerse, por ejemplo, enumerando una secuencia de modelos crecientemente complicados y que simulan la realidad, los cuales han de ser investigados uno por uno en orden creciente, pero sin pasar al siguiente, ni mucho menos a la contrastación empírica, antes de que los problemas teóricos no hayan quedado básicamente resueltos en los modelos más simplificados. La heurística positiva hace concentrarse al científico en dichos ámbitos de investigación, ignorando los contraejemplos "reales" o los "datos" disponibles. Veámoslo de nuevo en el caso de Newton:En principio, Newton elaboró su programa para un sistema planetario con un punto fijo que representaba el Sol y un único punto que representaba a un planeta. A partir de este modelo derivó su ley del inverso del cuadrado para la elipse de Kepler. Pero este modelo contradecía la tercera ley de la dinámica de Newton y por ello tuvo que ser sustituido por otro en que tanto el Sol como el planeta giraban alrededor de su centro de gravedad común. Este cambio no fue motivado por ninguna observación (en este caso los datos no sugerían "anomalía") sino por una dificultad teórica para desarrollar el programa. Posteriormente elaboró el programa para un número mayor de planetas y como si sólo existiesen fuerzas heliocéntricas y no interplanetarias. Después, trabajó en el supuesto de que los planetas y el Sol eran bolas de masa y no puntos. De nuevo, este cambio no se debió a la observación de una anomalía. La densidad infinita quedaba excluida por una teoría venerable (no sistematizada). Por esta razón los planetas tenían que ser expandidos. Este cambio implicó dificultades matemáticas importantes, absorbió el trabajo de Newton y retrasó la publicación de los Principia durante más de una década. Tras haber solucionado este rompecabezas, comenzó a trabajar en las "bolas giratorias y sus oscilaciones". Después admitió las fuerzas interplanetarias y comenzó a trabajar sobre las perturbaciones. Llegado a este punto empezó a interesarse con más intensidad por los hechos. Muchos de ellos quedaban perfectamente explicados (cualitativamente) por el modelo, pero sucedía lo contrario con muchos otros. Fue entonces cuando comenzó a trabajar sobre planetas combados y no redondos, etc.Como puede observarse, la heurística positiva posee una fuerte componente teórica, y puede prescindir ampliamente de la contrastación con la experiencia en tanto el programa de resolución de cuestiones teóricas no haya sido ejecutado, o al menos mientras no haya producido progresos teóricos claros. Lejos de procederse mediante el esquema simple de hipótesis y comprobación (o refutación empírica), un programa de investigación posee su propia dinámica, como dirán los estructuralistas, y ello independientemente de cuestiones subjetivas o colectivas ligadas a los creadores y defensores de dicho programa o a sus adversarios. Cabe incluso cierto grado de programación previa de los pasos que caracterizan a dicha heurística positiva, según Lakatos. Punto éste que le ha sido muy criticado, entre otros por Newton-Smith, que considera esta hipótesis de una heurística positiva precisa como algo incompatible con las posturas realistas que, por otra parte, Lakatos también defiende.La heurística va a desempeñar un papel muy importante para le evaluación entre dos teorías rivales, en particular cuando éstas son observacionalmente equivalentes. Puesto que Elie Zahar ha dedicado especial atención a este tema, en lo que sigue nos atendremos al ejemplo por él estudiado, referente a la contraposición a principios de este siglo entre los programas de investigación de Einstein y de Lorentz.Para Elie Zahar, tanto Lorentz como Einstein desarrollaron auténticos programas de investigación que, siendo diferentes, tenían también núcleos comunes, contrariamente a lo afirmado por Feyerabend, quien ha polemizado con Zahar sobre este punto. El centro firme del programa de Lorentz estaba constituido por las ecuaciones de Maxwell para campos electromagnéticos, por las leyes newtonianas del movimiento y por la transformación de Galileo, más la ecuación que suele ser denominada fuerza de Lorentz. La heurística del programa estaría constituida por el principio metafísico de que todos los fenómenos físicos están gobernados por acciones que se transmiten a través del éter. En el desarrollo de dicho programa pueden distinguirse hasta tres teorías sucesivas, cada una de las cuales supone un progreso respecto de la teoría precedente; entre ellas la teoría de las fuerzas moleculares y la teoría de correspondencia de estados. Pues bien, según Zahar, en 1905 esta teoría era observacionalmente equivalente a la teoría de la relatividad einsteiniana en dicha fecha: es decir, que una y otra podían explicar los mismos fenómenos empíricos, aunque fuesen contradictorias entre si No había mayor contenido empírico en ninguna de las dos, y no lo hubo hasta 1915, año en que Einstein explicó por medio de su teoría la precesión del perihelio de Mercurio, que era imposible de explicar en términos newtoniano-lorentzianos. Y sin embargo, varios científicos relevantes prefirieron ya desde 1905 la teoría de Einstein a la de Lorentz: así Planck, Klein y Minkowski, entre otros. El propio Lorentz acepta ya públicamente la teoría de la relatividad en 1914, y privadamente a partir de 1908, prácticamente. ¿Por qué dichas preferencias por una y otra, siendo así que eran observacionalmente equivalentes, y por tanto ninguna excedía a la otra por el contenido empírico?En función de sus heurísticas respectivas -dirá Zahar- y en concreto por las distintas concepciones ontológicas de ambos con respecto a la física. Lorentz afirmaba la existencia de un éter infinito e inmóvil en el que la carga electromagnética está distribuida de manera continua. Los electrones serían regiones esféricas del éter en las que la carga no es nula. La carga total, al igual que la cantidad de movimiento de Descartes, permanece constante, pero el movimiento de los electrones crea un campo luminoso que atraviesa el espacio a la velocidad constante c. Lorentz llegó incluso a afirmar que el electrón no tiene masa material, sino electromagnética. En resumen: Lorentz proponía dicha teoría del electrón como algo intermedio entre éter y materia, con lo cual lograba explicar electromagnéticamente la interacción existente entre éter y partículas, definida precisamente por la ecuación de la fuerza de Lorentz. Pero toda su construcción se basaba en la existencia del éter, cuyas propiedades analizaba por medio de las ecuaciones de Maxwell.Einstein, en cambio, rompe con las ideas del éter y del espacio y tiempo absolutos: cada acontecimiento puede ser referido mediante cuatro coordenadas (t, x, y, z) a cualquier sistema de referencia inercial, y no ya a uno privilegiado que permaneciese inmóvil con respecto al éter, como en el caso de Lorentz (y de Newton). Y esta concepción ontológica diferente del espacio y del tiempo, que Einstein había adoptado ya desde su juventud por influencia de su maestro Ostwald, va a dar lugar a una heurística muy diferente. Según Zahar, habría dos reglas heurísticas fundamentales para Einstein:1) Las teorías deben de satisfacer el requisito de coherencia interna, y por lo tanto la ciencia debe presentarse como una representación coherente, unificada, armónica, simple y organizadamente compacta del mundo. El aparato matemático usado por una teoría encarna estas características de simplicidad y de complejidad, y por tanto constituye un criterio para preferir una teoría a otra. Si se quiere, en último término hay motivos estéticos importantes en la heurística einsteiniana, caracterizados por la exigencia de no barroquismo: hay que usar un número mínimo de conceptos y relaciones primitivas.2) La segunda regla heurística einsteiniana tiene que ver con su convicción de que Dios no juega a los dados, y que por lo mismo no hay accidentes en la naturaleza. En concreto, los fenómenos naturales en los que se muestra algún tipo de simetría responden siempre a algún principio de simetría más profundo y de mayor envergadura conceptual, que debe mostrarse en las teorías. Por ejemplo: la simetría entre los movimientos de una magneto hacia el conductor, y del conductor hacia la magneto, ha de ser explicada por la teoría en base a un mismo aparato matemático (con la simetría correspondiente, en su caso), cosa que no sucedía en las teorías de Lorentz. Tras un estudio muy detallado de este episodio histórico, Zahar concluye que los científicos de la época prefirieron el programa de Einstein al de Lorentz porque, pese a ser observacionalmente equivalente, era heurísticamente superior, en el sentido de que la aplicación de las reglas básicas de su heurística positiva conseguía formular problemas nuevos, que en el marco de las teorías de Lorentz no tenían sentido. Y aunque dichas conjeturas (muchas de ellas sorprendentes e inesperadas) sólo encontraron alguna corroboración experimental varios años después, el mayor potencial heurístico de las teorías de Einstein inclinó la balanza a favor de su programa de investigación. Aunque no la comunidad científica alemana en su conjunto, sí figuras de enorme prestigio e influencia prefirieron por motivos heurísticos un programa a otro, pese a que no poseyera un mayor contenido empírico. Y para Zahar esta elección fue perfectamente racional, no tanto por los resultados ulteriores, cuanto porque la heurística es una componente esencial de todo programa de investigación, junto con su contenido empírico. Este ejemplo, así como otros posteriormente desarrollados por los discípulos de Lakatos, ilustra bastante bien la noción de potencial heurístico de un programa de investigación, que en muchos casos ha resultado decisiva en la historia para que los científicos optaran por una u otra teoría, entre dos contrapuestas.
5.5. Historia interna e historia externaDesde el punto de vista de las relaciones entre la filosofía de la ciencia y la historia de la ciencia, Lakatos continúa la obra de Kuhn, destacando la importancia de los estudios históricos minuciosos y llevándolos efectivamente a cabo junto con sus discípulos. Parafraseando a Kant, Lakatos afirma que "la filosofía de la ciencia sin la historia de la ciencia es vacía; la historia de la ciencia sin la filosofía de la ciencia es ciega". La metodología científica puede proporcionar a los historiadores criterios normativos y definitorios sobre lo que es una teoría, sobre su estructuración interna y acerca de las reglas para la evaluación de las teorías, de tal manera que la investigación en los archivos y documentos esté orientada teóricamente y no sea puramente empírica y descriptiva; pero a su vez el normativismo y los criterios epistemológicos propuestos por los filósofos de la ciencia deben de ser confrontados con los datos históricos ofrecidos por los historiadores. De alguna manera, la historia de la ciencia es la base o el contenido empírico de la filosofía de la ciencia.Para Lakatos la historia de la ciencia, al objeto de hacerla inteligible y no simplemente descriptiva, ha de ser reconstruida racionalmente Aparte de los factores sociales, psicológicos, etc., que ciertamente influyen en la ciencia (a lo cual Lakatos da el nombre de historia externa), el epistemólogo ha de preocuparse también de la reconstrucción racional de la historia de la ciencia, estudiando las teorías en su evolución y en sus modificaciones y contraposiciones en función de factores internos a las propias teorías. Surge así la historia interna de la ciencia, sobre la cual puede haber, a su vez, concepciones contrapuestas. La interrelación entre historia y filosofía de la ciencia culmina con la elaboración de dicha historia interna, que debe ser complementada con la historia externa, en la que se puede insistir más en los factores ajenos a la propia comunidad científica: condiciones económicas y sociales, situación política, características individuales de los científicos, etc. En general, Lakatos atribuye un mayor peso a las concepciones internalistas que autores como Bernal, partidarios de explicar la evolución de la ciencia en función de los cambios económicos, sociales y tecnológicos habidos en las distintas etapas históricas. Pero incluso en relación a la historia interna las posiciones pueden ser muy distintas. Lakatos las sintetiza en cuatro: inductivistas, convencionalistas, falsacionistas y, por último, su propia metodología de los programas de investigación. Estas cuatro concepciones son normativas, y permiten reconstruir la historia interna conforme a criterios diversos. Todas ellas han de ser, en cualquier caso, complementadas con teorías externas empíricas para explicar los factores residuales no racionales. Ninguna de las cuatro agota, por consiguiente, el trabajo de la historia de la ciencia: La historia de la ciencia es siempre más rica que su reconstrucción racional, Pero la reconstrucción racional o historia interna es primaria, la historia externa sólo secundaria, ya que los problemas más importantes de la historia externa son definidos por la historia interna.Según los inductivistas, la historia interna se basaría en una serie de descubrimientos de hechos firmes, así como en las posteriores generalizaciones inductivas. Para los convencionalistas habría también descubrimientos factuales, completados luego por sistemas de organización de los mismos en torno a unas u otras nociones, definiciones y axiomas (sistemas de casillas, dice Lakatos), cuyas modificaciones también han de se r estudiadas en dicha historia interna. La historia interna de los falsacionistas está articulada, en cambio, en torno a una serie de conjeturas audaces, que van aumentando en contenido empírico las unas sobre las otras, y sobre todo en torno a los sucesivos experimentos cruciales que han ido refutando una tras otra a dichas conjeturas generales, o teorías "La metodología de programas de investigación, por último, enfatiza la rivalidad prolongada, teórica y empírica, de programas mayores de investigación, problemáticas estancadas y progresivas, y la victoria, lentamente conseguida, de un programa sobre otro." La historia interna, se quiera o no, depende por lo tanto de las diferentes filosofías, que siempre subyacen al trabajo del historiador. No es lo mismo buscar en los documentos y archivos una serie de experimentos cruciales, los cambios de las axiomatizaciones y presentaciones de las teorías al objeto de lograr mayor simplicidad en su presentación, o los programas de investigación rivales, con sus correspondientes heurísticas. El historiador siempre es selectivo. Para que, además, logre una reconstrucción racional de los hechos históricos, ha de llegar a proponer una versión radicalmente modificada de los mismos. Eso sí, con el apoyo documental oportuno, que Lakatos acostumbra poner en notas a pie de página, mientras la historia de la ciencia propiamente dicha sería la versión reconstruida de dichos documentos. El inductivismo es utópico y el convencionalismo y el falsacionismo simple son insuficientes. En cualquier caso, "una historia sin ningún 'sesgo' teórico es imposible". De ahí que una historiografía de la ciencia que haga abstracción de los debates teóricos habidos en la filosofía de la ciencia en el siglo XX sea, a juicio de Lakatos, inadecuada. Historiadores y filósofos de la ciencia han de trabajar conjuntamente, aunque sus cometidos sean diversos.