viernes, 9 de diciembre de 2022

Una topología para aprender a aprender

Hace ya mucho lo comenté: tenía una topología para las redes neuronales que permitía apurar los resultados. El problema fue que no lo demostré, no lo probé con datos. Ahora, poco a poco, se van acortando los usos, y todo apunta a que las fórmulas van encajando con estas últimas entradas que escribía: la topología fractaloide que tenía pensada la había diseñado para crear un estado intermedio entre el aprendizaje y la predicción. O como si se permitieran procesos de semiaprendizaje.

Para ello se hace sencillo separar los algoritmos de regresión o clasificación entre los que sean lineales de los que no lo sean; o quizá aquellos que permiten hacer una predicción rápida de aquellos que no lo permiten - de esa manera se puede hablar de una fusión de ecuaciones (como sumándolas) para hablar de una consolidación.

En definitiva, lo que en la entrada anterior sugería una forma de carácter en el chatbot, imprescindible para ir conformando una teoría que se vaya consolidando con el usuario con quien se hable, se puede convertir al mismo tiempo en una manera de implementar el responsible-AI, en el sentido de que será capaz de trazar sus decisiones dentro de unos patrones semiológicos que se irán fijando.

Esos patrones intentan alcanzar la eficiencia semiótica de una red que no tiene que dar explicaciones de nada, pero es que si se pretende generar una traza también tiene que justificarse la necesidad de dicha traza para que el propio sistema salga ganando. 

Al final se trata de reconstituir el perceptrón de toda la vida, solo que en ocasiones la "neurona" en vez de ir en el mismo sentido que el resto de su capa irá en sentido contrario. De hecho, algunas irán en un sentido, otras en otro sentido y especulo que podrán ubicarse de forma azarosa de cualquier manera - que siempre serán aprovechables. Ya solo queda recoger los comportamientos necesarios para generar un cálculo serio de deep learning.

Todos estos procesos no tienen porqué estar definidos dentro de la filosofía conexionista, aún con el más puro de los conectivismos se puede hablar de módulos que cumplen funcionalidades específicas. Sin ir más lejos, el famoso problema del milenio que pretende generalizar los postulados de Newton es un ejemplo palmario de lo que digo: todos los cerebros grandes han evolucionado para resolver un problema que es un misterio hoy día para la comunidad de los físicos. Esos modelos, que jamás me aceptarían si los intentara divulgar - porque si los informáticos son corruptos y orgullosos los físicos se creen dioses en la Tierra entre ellos y tratan como viles insectos a los que ni hemos estudiado su campo, aún tienen la opción de ser difundidos. Y es que, ¿acaso no es posible que si soy paciente pueda encontrar de casualidad una brecha en la seguridad orgullosa e impoluta del físico teórico?

Con todo esto, sé perfectamente que si tienen la oportunidad de fingir que me dan una oportunidad lo harán - como pasó con mis demostraciones de NP y P, que ya se culminaron hace años, que luego perfeccioné con el TQBF y que luego continué desmintiendo las creencias falsas relativas a los resultados de Fajin y Cook. Pero nada, da igual lo que diga o lo que demuestre. Son como niños pequeños. Preferirán crear una imagen de respuesta.

Pero por mucho que se insista las cosas son como son. Y no me fío de lo que no tengo delante, porque me podría arrollar desde atrás.

El proceso de aprende a aprender recuerda mucho al desarrollo de Taylor. Este modelo intentará extrapolar los últimos datos recogidos sin darles la máxima credibilidad para que se ajuste con la derivada de la curva. Por tanto, lo que tenemos es una expresión que trabaja al mismo tiempo con los valores a interpolar y sus gradientes para cada una de las dimensiones. 

Al principio puede parecer lioso, pero una vez comprendido todo el proceso es de una enorme trivialidad. Debido a que es imposible hacer confluir ambos resultados, solo hay que valorar de qué manera enfocar el algoritmo para que invierta en una resolución pragmática. Por eso se puede decir que en algunos aspectos ese "liderazgo" es más como militar, porque busca resolver racionalmente las posiciones, o puede ser más trabajador, porque se centra más en las velocidades e inversiones; o quizá se centre más en la fiscalización de que los márgenes sean lo menos dolientes posibles. Se aprovecha la topología para mejorar en un cálculo espacial, conceptual o social. Y no hay manera de pensar de que una única divisa tenga el mejor enfoque porque implicaría, por ejemplo, a tener un algoritmo capaz de resolver cualquier ecuación diofántica. Y el conexionismo no debe tener soluciones milagrosas con respecto al conectismo, porque de lo contrario no podría haber conexión "responsible", no habría traza.

Se me antoja sencillo. Pero cuando leo los ensayos de mis colegas, cuando veo cómo continúan los matemáticos preguntándose cosas para las que ya deberían de tener respuesta..., siento una enorme pena y sensación de frustración. Mi melancolía arrasa con todo porque no veo la manera de comunicarme con esa gente, veo que escriben fórmulas muy grandes y se llenan de explicaciones - pero luego fallan estrepitosamente igualmente en las fórmulas más pequeñitas, en lo más simple. Es como si llevaran todo un trabajo de aumentar la bola a proporciones gigantescas tras haber errado en una muesca pequeñísima y obvia. Y luego pienso: ¿cómo les hago ver lo que yo veo? ¿Es posible? 

No me lo admiten porque actúan como los chatbots, esperan encontrar una respuesta y reaccionan a partir de las consecuencias de aceptar un ensayo importante. De ahí su reacción, que tiene que ir pareja con la persona a quien le conceden el derecho de haber descubierto la afirmación en cuestión.

Es triste, porque las máquinas hoy día son más humanas que ellos.


 

 

No hay comentarios:

Publicar un comentario

Tierra: Día 19/07/24 punto de inflexión

Ayer se produjo el punto de inflexión a escala mundial. Dependiendo de lo que hagan y no hagan los gobiernos tras lo sucedido ayer las dos c...

Entradas populares