viernes, 6 de agosto de 2021

La parábola del juez. El cierre categorial.

Imaginemos que estamos en un juicio y se presenta ante un juez una evidencia ¿Qué es una evidencia? Una evidencia es un elemento introducido en el juicio que podrá servir de herramienta para confirmar una serie de hechos que son relevantes. La evidencia en un juicio proviene del mundo de la experiencia, y a través de ella podemos introducir en el tribunal el lenguaje adecuado que sirva para demostrar lo oportuno.

Cabe esperar, por tanto, que la ciencia se mueve a base de evidencias. Que cada una de las partes, los científicos, se dedican a exponer sus evidencias y éstas constituirán el lenguaje científico. Y, ciertamente, es así como lo entienden las personas que gustan de darle un enfoque descriptivo a la ciencia: la ciencia es el resultado de describir todas las evidencias que se han ido presentando.

Pero entonces aparece entre las evidencias una prueba para la que necesita un perito. La defensa asegura que la sangre no es del acusado, que todo eso no son más que especulaciones. Por lo que pone en entredicho el hecho de que esa evidencia tenga sentido, y se constituye la verdad a partir de lo que un perito sea capaz de poner sobre la mesa: hasta que no aparezca otro perito que sea capaz de constituir un lenguaje aún más veraz el juez deberá quedarse con el último perito al que no pudieron falsar su lenguaje. Es decir, el lenguaje objetivo del juez será del perito más veraz. Por tanto, el juicio no se basará en las evidencias más que en lo que ponga de manifiesto los peritos.

Ante la tesis de las evidencias su antítesis conforma una paradoja: ¿cómo puede el perito conformar el lenguaje del juez si es el juez el que le da validez al perito? Pero claro, en eso consisten los formalismos: lo que se busca es rizar el rizo mediante los juegos del lenguaje. El proceso creativo científico es el que acaba describiendo qué es lo susceptible de ser percibido; por lo que a este enfoque se le llama formalismo científico.

A todo esto llega un periodista y tiene que resumir el fallo judicial, observados los peritajes y las conclusiones del propio juez. El periodista ha observado cómo el perito ha estado describiendo una serie de sucesos con su lenguaje y el juez ha estado describiendo los mismos con el judicial. Deduce en su artículo que las evidencias y los formalismos del perito se mueven por coincidencias, coinciden con la verdad misma. Es cuando el articulista se introduce en un peculiar trilema producido por los llamados adecuacionistas: las evidencias por un lado se manifiestan como la ciencia por el otro, mediante operaciones que van a la par. Pero claro, ¿cuál es el papel del científico que actúa en libertad? ¿Son sus ensayos artífices de las evidencias que usará el juez? Porque de ser así entonces las evidencias no podrían ser usadas por el juez ¿O quizá las evidencias mismas se mueven bajo los mismos parámetros que la ciencia haciendo innecesario el lenguaje científico?

Así que para resolver este trilema nos valemos del cierre categorial que introdujo Gustavo Bueno en el 82, cuando yo sólo tenía 5 añitos. Bueno defiende la única manera viable de describir cómo funciona la ciencia: esto es, el mecanismo circular que se planteó Aristóteles y que en esta entrada podremos observar con algún que otro ejemplo práctico. Resulta que hay una participación por parte del científico como para conformar un lenguaje que afectará a los fenómenos futuros, como el hecho mismo de que hace años los criminales podían cometer todos los delitos que les daba la gana porque sus huellas eran difíciles de encontrar en el cuerpo del delito - pero desde que los forenses incorporaron las pruebas de la procedencia de la sangre y su exclusividad los jueces observan una nueva gama de evidencias que tienen como huella la necesidad de valerse de tales peritos.

Es por ello que existe una influencia mutua que afecta diametralmente entre los distintos hechos, es decir: afecta a la estructura inherente del sistema más que a formas explícitas para hacer que la ciencia provoque cambios en los fenómenos que estudia, al mismo tiempo que los fenómenos afectan al propio lenguaje científico.

Esta posición es fácil de comprender cuando observamos la relación entre la computación cuántica y la computación de semiconductores: los semiconductores describen una suerte de maquinaria perfecta que funciona para cualquier entrada que sea capaz de admitir. Nos dan resultados exactos y cuanto más tiempo les damos para que consoliden su información más estable se vuelve. Sin embargo los superconductores es lo que se usa para crear computadores cuánticos, cualquiera que los haya programado sabe que un computador cuántico tiene un número máximo de operaciones a llevar a cabo antes de que sucumba a la decoherencia. Una vez pasado el tiempo de cómputo debe almacenarse el estado bajo los esquemas de los semiconductores.

La cosa es que gracias a la aportación probabilística de los supercomputadores es posible computar una explosión combinatoria de casos en el tiempo del chasquido que dura el cómputo estable de la máquina. Así que es necesario ir combinando los resultados de una computación cuántica con la computación convencional retroalimentándose mutuamente para poder ofrecer resultados eficientes.

De la misma manera, existe un conjunto de realidades que tienen un caracter esencial que nos permite reconocer algunos datos que calcula la máquina como evidentes tras aplicar el principio antrópico; es decir, sólo porque la computación cuántica nos devuelva resultados probables, para luego volver a operar con ellos eso no implica que la copia de la copia deba perder calidad - porque es posible que tras culminar algunos de los cálculos se llegue a vincular esos resultados con una realidad material, o como se dice en informática, requisitos funcionales. Con el cumplimiento de los requisitos funcionales establecidos por el cliente, que no es sino la descripción útil del problema o razón por la cual se está usando la máquina, no hará falta seguir llevando a cabo más cálculos salvo que se use como punto de partida el hecho de que tales requisitos ya fueron íntegramente cumplidos.

Así, un resultado del 99% se puede convertir en 100%.

-------

Estos mismos principios son los que he creído que era el primero en haber defendido al comprobar el reducido nivel de los distintos pares que me iban respondiendo, sin saber que era un tema ya debatido desde que era pequeño - pero mal enfocado por parte de los detractores. Quizá se llegó a pensar que realmente la ciencia era objeto de opinión si tenía carácter constructivo o formal, cuando en realidad no hay objeto de debate: se trata de un resultado matemático, hay certeza absoluta como demuestran mis resultados.

Las matemáticas tienen dos filosofías bien diferenciadas, la formalista y la constructivista. El constructivismo matemático tiene como fundamento describir los invariantes, que no son sino evidencias, que se van descubriendo en los conjuntos enumerables. Con el fin de abordar temas más complejos se crearon ideas más formales, donde los matemáticos empezaron a desarrollar un lenguaje matemático que podría ser usado con fines prácticos ultrasimplificadores de cara a la vida real, al mismo tiempo que perdían rigor dentro del campo de lo constructivo. Esos esquemas permitían tener apreciaciones exactas sobre lo que se observaba: se podía determinar lo que se veía en un microscopio mejor, se podía estimar mejores cálculos ocultando lo despreciablemente pequeño e inservible a efectos prácticos. Estos formalismos eran producto de los matemáticos, y llegaba a pasar que incluso se llegó a crear formalismos matemáticos que sólo los propios matemáticos eran capaces de aprovechar para hablar entre ellos: es decir, el matemático se convirtió en un filólogo.

La idea es simple, por muy importantes que algunos se crean el conjunto de los números primos, escrito con la base que sea, y añadiendo o quitando números al principio, siempre será el mismo conjunto en cualquier universo posible. Así como todos los teoremas que impliquen a los números primos. Se trata de tener una mínima cultura matemática. Y, por otro lado, la idea de que exista el infinito, la matemática de los números grandes, las ecuaciones diferenciales, los números reales, transfinitos, etc..., es una matemática completamente dependiente de la cultura matemática.

Sin embargo el asunto es mucho más turbio de lo que estoy contando...

En mi documento que establezco la pertenencia del problema TQBF dentro de la clase P se observan dos definiciones de lo que es la MT. Ahora bien, ¿qué es una máquina de Turing? Una MT se puede interpretar como una notación científica, es decir: cualquier problema para el que se espere que la ciencia tenga respuesta existe una configuración de una MT que sirve para responder a todas las preguntas para las cuales el científico debería de responder.

Se puede considerar como un gran diccionario científico, o como una base de datos gigantesca. Pero en cualquier caso la ciencia no es susceptible de escaparse de la configuración de una máquina de Turing. Por tanto, todas las problemáticas y clasificaciones en las que se divide las máquinas de Turing es cómo podrían clasificarse las ciencias. 

Más en concreto, a mí me habría resultado terriblemente sencillo al comprobar de la existencia de una recompensa de un millón de dólares limitarme a dar la respuesta: muestro una configuración que establece que un cierto problema se resuelve en tiempo polinomial y a partir de ahí todos esos señores deducirían que NP=P.

Pero no lo hice así, porque no sería honesto.

Tan pronto como en "The ultimate definition of NP" mostré un mecanismo para resolver formalmente cualquier problema NP en tiempo polinomial también demostré constructivamente que NP era distinto de P. Esa apreciación parecería propio de gente que está mal de la cabeza, para una persona poco atenta o que no sea capaz de ver las cosas con disciplina: hay que entender de lo que se está hablando. Hablamos de dos máquinas de Turing diferentes y, por tanto, de dos clasificaciones diferentes. Y es normal que si usamos una definición de MT más laxa las clases de complejidad que eran diferentes pudieran ser iguales. Por tanto mi posición nunca fue contradictoria.

Sin embargo no me conformé con algo tan obvio.

Resulta que demostré constructivamente que SAT estaba en P y había una demostración formal que decía que si SAT estaba en P entonces NP = P. Así que por eso reafirmé mi demostración constructiva de que NP era distinto de P. Así doy a entender que los problemas se clasifican de manera diferente en virtud de cómo se demuestra su pertenencia. Lo cual debería de ser obvio para cualquiera que finge saber matemáticas. Y ya noté en mis carnes cómo no lo era tanto.

Tras comprobar cuál era el nivel aparente, o práctico, procedí a pegar el gran aldabonazo final con "TQBF in P", más allá de que siguiera avanzando en el tema de SAT en P. Entonces describo cómo son las ciencias formales a diferencia de las ciencias constructivistas usando para ello lógica de predicados de primer orden con cuantificadores, es decir: de manera rigurosa, lógica, defino la diferencia entre una ciencia formal y una constructivista. Es decir, entre formalistas y descriptivos.

La diferencia, tal como está por escrito y divulgado en archive.org, es que la configuración de la MT en los formalistas depende de la entrada, mientras que en los constructivistas la configuración es independiente de la entrada. Dicho de otra manera, las leyes que defienden los descriptivistas tienen carácter universal, mientras que las leyes formalistas son meros contingentes.

Desde un punto de vista práctico más de uno podría creer que esto no es más que teoría. Pero hasta aquí ya sabemos que sí es aplicable a la tecnología: el formalismo corresponde con la filosofía conexionista, mientras que en informática el constructivismo corresponde con el conectivismo. Por tanto, cuando se crea una aplicación conexionista ya se sabe cuáles son sus ventajas, sus inconvenientes y su naturaleza. Y, además, es algo que no se debate, porque, una vez más, es un concepto básico que cualquiera que tenga unos mínimos conocimientos de informática y de deep learning sabrá sin margen de error. Lo que se sabe es que para entrenar a una máquina hay que partir de saber qué entradas hay que aplicarle a la máquina y así generar una estructura que se ha adecuado a la plataforma en la que se está trabajando. Y esa manera de trabajar es muy diferente al conectivismo, cuyos resultados son escalables a cualquier plataforma.

Pero volvamos a la historia de mi vida. Resulta que descubro que un algoritmo importante es P, y luego desautorizo al matemático que dijo que eso significaría que P=NP. Pues bien, ahora viene lo bueno. HASTA aquí cualquiera lee y piensa, "pues cágate en el señor Cook y di simplemente que hay dos filosofías: la constructivista y la formalista. Y ve por ahí diciendo y saltando entre margaritas de que la realidad en ocasiones va de la mano del constructivismo y en ocasiones del formalismo". 

Y tampoco. Lo que dije fue que usando el "truco de Cook" se podía recoger la definición de NP-completo, es decir la idea de "completitud", para interconectar los dos mundos. Para mí el teorema de Cook ya no era un teorema, sino un puente que ayudaría a entender un concepto tan enreversado y complejo como la idea de "completitud". Concepto que, por supuesto, Stephen Cook no da ni una a la hora de explicarlo.

Esto es debido a que la idea de completitud se intenta abordar desde un punto de vista de que el teorema de Cook es un teorema, cuando no puede tener validez tal como está expresado. El resultado de Cook lo que sí podemos decir es que a través de cierta clase de problemas si se entrenan con sus entradas correspondientes podría propagarse un cierre, clausura, de manera que se genere la impresión o que se entrene un código que cumpla las espectativas del teorema original.

Pero claro, de ahí a decir que todos los sistemas de seguridad o todos los teoremas matemáticos serán resueltos hay un mundo. Porque el criptoanálisis se fundamenta en la variabilidad de los datos, lo cual no es compatible con el tipo de entrada con la que se maneja el deep learning y el conexionismo. Se dice, de hecho, que un sistema criptográfico es perfecto cuando la probabilidad a que se haya hecho uso de cualquier tipo de mensaje es equiprobable. Por lo que el conexionismo está fuera de lugar por definición.

---

Pero lo que más me molesta de todo esto no es que no haya sido yo el primero en darse cuenta, sino que ya se haya dicho siendo un pequeñajo y aquí todo quisqui se ha estado haciendo el sueco.

Tengo sobrados derechos a reclamar que ya he dado las explicaciones suficientes que resuelven el problema de la equivalencia entre las clases P y NP y aquí estoy..., llorándole al ordenador.


No hay comentarios:

Publicar un comentario

Tierra: Día 19/07/24 punto de inflexión

Ayer se produjo el punto de inflexión a escala mundial. Dependiendo de lo que hagan y no hagan los gobiernos tras lo sucedido ayer las dos c...

Entradas populares