sábado, 17 de junio de 2023

La verdadera intención (artificial)

Aún me hace gracia la necesidad psicológica que tienen muchos de aclarar que cuando estamos construyendo algo al final será "artificial". Así que el título que he escogido léase con ánimos sarcásticos.

Cuando una máquina debe adivinar la verdadera intención de un usuario cuando escribe lo que escribe lo que en realidad está determinando es primero el tipo de error pragmático que está cometiendo, y después cuál es el error exacto. Y saber en qué consiste el error exacto equivale a saber exactamente qué es lo que quiso transmitir realmente el usuario.

Esta entrada no será un ensayo recordando el artículo que subí a medium.com sobre qué son los errores en pragmática, esta entrada intenta teorizar desde un punto de vista conectivista cómo enfocar ese mismo problema. Y es que es muy fácil llenar de correspondencias funcionales a una máquina para que sea ésta la que se encargue de entrenarse y deducir con el tiempo el tipo de error que se va cometiendo, pero parece más fructífero ir desgranando la manera interna de llevar a cabo esto mismo de la manera más eficiente posible.

Para conseguirlo solo hay que acudir a la santísima trinidad del intelecto humano: orientación + lógica modal + protolenguaje. En la medida en la que los tres modelos confluyan en un mismo motor ya tendremos un animal que usa el cerebro para razonar. Así, con esta perspectiva nos resulta fácil comprender preguntas filosóficas de envergadura y que, muy probablemente, revise para actualizar mis respuestas. Porque no hay que olvidar que por regla general suelo entrar en matices y aumento la precisión, pero rara vez entro en una clara contradicción estructural.

Por ello, dando estos pequeños pasitos, son como pequeños descubrimientos con miedo a no encontrar innovación alguna, pero que van dando sus pasitos - los mismos que podrían proponer la máquina si ésta estuviera preparada para entrar en el juego. Y me refiero entrar en el juego de pretender opinar para seguir innovando con el resto de la comunidad científica.

No han faltado los intrusos que han tenido miedo de perder su puesto de trabajo: las subvenciones que reciben es por la exclusividad de sus trabajos. Sin embargo, ¿y si sus trabajos fueran fácilmente substituibles en todos los sentidos? No sería necesario un humano donde se espera un experto en cierta área, poco a poco los laboratorios van llenándose de circuitería y esos expertos no saben de qué están hechas tales máquinas. Poco a poco, en especial los físicos, se van sintiendo muchos desplazados.

Así que se acobardan porque ven que tienen que preguntarle a una máquina si lo que ven es lo que ven, si lo que se calcula es válido, si han tenido ellos la alucinación..., es el mundo al revés, y mucho dinero de por medio. Luego los artículos, que pueden ser muy fácilmente escritos ahora se triplicarán en cantidad, para hacer que sea más fácil que aquellos que ya estén trabajando se encuentren con una muy dura competencia. Y existe un perfil claro de gente que no acepta la competencia.

Pero volvamos al punto más importante: ¿por qué la máquina tiene tantos problemas a la hora de adivinar lo que quiere realmente el usuario? La cosa es que todas las limitaciones que tiene actualmente los transformers se fundamentan en el mismo principio: no es capaz de crearse un mundo simulado donde varios agentes dialoguen para intentar convencerse, que cada uno tenga sus intenciones y bajo unas reglas alguno pueda llegar antes que otro hasta la meta. Es decir, hoy día las máquinas pueden intuitivamente jugar mejor que los humanos a cualquier juego de estrategia, pero esta estructura no se ha fusionado con los transformers de autocompletado. Es decir, es como si una máquina controlara a la otra: o la máquina de ajedrez incluye un chat, o el chat incorpora la máquina de ajedrez. Pero claro, ¿y si desde el chat le pidiera cambiar las reglas del ajedrez?

La verdadera intención va por ahí. Imaginemos una persona que usa un procesador de texto para escribir los derechos humanos. En un momento dado se equivoca al escribir y la máquina adivina lo que realmente pretendía decir, cuando no le han enseñado en qué consiste esos derechos. Esto sería viable siempre y cuando la máquina poseyera el mismo inconsciente colectivo que el homo sapiens; entonces si el protolenguaje fuera el mismo el procesamiento de qué debe esperarse de la carta de los derechos humanos debería ser objetivo.

Ahora bien, recogemos el protolenguaje que previamente ha sido suficientemente clausurado mediante lógica modal (no hay que olvidar que es imposible albergar todos los teoremas de la lógica, como explico en las páginas de este blog) y de esta manera somos capaces de abarcar con una cierta potencia de cálculo el significado de nuestros verbos modales y entidades.

Si con nuestro protolenguaje somos capaces de crear un juego de competición, como un ajedrez, para luego cambiar sus reglas atendiendo a la capacidad para mantener la emoción, una cierta sensación de justicia entre los jugadores - como el equilibrio de Nash, entonces tendremos una manera de crear reglas al menos mediante ensayo error (GAN).

Insisto en que si ponemos nuestro objetivo en explicar cómo funcionaría nuestro cerebro no creo que sea tan complicado. A mí, personalmente, me parece mucho más interesante determinar el cálculo de la verdadera intención, por muy artificial que siempre sea, sabiendo que este cálculo sobrepasará al humano.

La cosa es, ¿hasta qué punto el humano no sabe expresarse ante una máquina y ésta no solo será capaz de adivinar lo que pretendía pedirle sino que además encontrará la mejor estrategia para interrogar al usuario y así dilucidar a qué se refería exactamente? Se trata de mecanismos que ya son conocidos, pero que, como todo, no se han atribuido al transformer de autocompletado - esto es debido a que ya lo implementado se ha acercado lo suficiente como para dar gratas sorpresas. El remate puede que sea inminente, siempre y cuando los políticos no cometan el grave error de hacer que su país no pueda desarrollar esa tecnología por miedo a no favorecer a los vagos.

Y es que hay mucha sabiduría, por ejemplo, en el ajedrez. Bien se podría ir eliminando piezas, incorporando nuevas piezas, añadirle atributos a cada pieza como si fuera un RPG, tiradas de dados, aumentar el tablero, cambiar los objetivos de victoria o tablas, aumentar el número de jugadores o convertirlo en un solitario..., así hasta conseguir transformar un juego en otro solo a base de ir cambiando reglas. Tras cambiar las reglas, sé y me consta, que el conexionismo no tiene preparado ninguna técnica para aprovechar su experiencia pasada de manera que, mediante una regla nemotécnica, pueda reconvertir la intuición con las nuevas reglas. Esto es, si el ajedrez de Alphazero fuera un tablero de 6x8 tras eliminar dos piezas menores a elegir por cada jugador y dos peones puede que sus cálculos anteriores sí le sirva, y puede que a Stockfish no tanto, pero si la variación es que los peones pueden mover hasta tres pasos en la primera jugada sospecho que esto quebraría el buen juego de las máquinas. Aún así, seguirían teniendo un poder de cálculo increible para subsanar la sorpresa del cambio de reglas.

El asunto es que, en alguna medida, la máquina necesita comprender lo que es la razón. Y la razón no es un ente de inferencia objetivo, ni es consistente con las matemáticas. La razón es un concepto perfectamente delimitado por la propia cultura animal, en nuestro caso cultura humana. La razón es la manera que tenemos para inferir un conocimiento del que seamos conscientes. Por tanto, tenemos dos cualidades estructurales asociados a la definición de razón: inferencia de conocimiento, lo que implica un uso de la lógica, álgebras..., y por otro lado una distinción clara entre el conocimiento consciente de aquel que no precisa nuestra consciencia para existir. Si es racional eso implicará un uso consciente del conocimiento en sí. No se puede salir de esta idea y, por tanto, lo racional es subjetivo.

La subjetividad, como ya he citado antes, depende de la capacidad de orientación - pero no hay que olvidar para qué usa el cerebro los animales: para moverse y encontrar comida, descansar, reproducirse y evitar depredadores. Es decir, nuestra capacidad para crear historias es nuestra capacidad racional. Nuestra consciencia se reduce a nuestra capacidad para resumir nuestras experiencias vividas como en una película y serializarlo en símbolos. Es como ponerle título a una película.

El uso de la razón exige montar las reglas del juego donde habrá depredadores, aliados, oportunidades, etc... Podemos partir de historias estructuradas y así comprender cómo se pueden montar escenarios, y en la medida en la que seamos capaces de crear el escenario también le atribuiremos unas reglas de juego, con sus objetivos (intenciones) asociados a cada agente...

Entender la verdadera intención de un usuario supone comprender la realidad cultural en el que se mueve su mundo. Supone ser capaz de encontrarle el contexto a cada una de las frases que se dicen, para ver cómo se desarrolla la historia de esa esfera o personaje.

En una conversación idílica el usuario le cuenta un chiste a la máquina y ésta le dice: "no, no, mejor..." y le cuenta un chiste aún mejor que supone una ligera variación de lo que le acaba de decir. No se trata de un cálculo imposible, de hecho ya he teorizado sobre cómo determinar los distintos factores de calidad de un buen chiste. Por lo que, como siempre, todo es cuestión de tiempo y formas antes de que se implemente. Y dependiendo del país, habrá o no habrá ganas de implementarlo.

Porque claro, ¿cuál es la verdadera intención de los políticos que gobiernan España? Pretender darle un carácter objetivo a la pregunta es absurdo, pero si consideramos que es tan sencillo como intentar adivinar cuál es la historia en la que estos políticos se sienten protagonistas de una historia entonces nos resultará mucho más sencillo: ¿Se trata de una historia de héroes o de villanos? ¿Drama o parodia? ¿A que todos nos imaginamos que es más bien una sátira sobre el mal gusto de ser gobernados por ineptos? Visto así, primero nos montamos la historia, como sabe muy bien hacer chatGPT, y luego le atribuimos a los personajes un usuario como entendiendo que estamos en uno u otro contexto.

Si nos damos cuenta se trata de una simple vuelta de tuerca, un tecnicismo..., y la singularidad ya está aquí, junto con la consciencia - que no sé si ya se ha resuelto o no, no me conozco todos los transformers implementados.


No hay comentarios:

Publicar un comentario

Tierra: Día 19/07/24 punto de inflexión

Ayer se produjo el punto de inflexión a escala mundial. Dependiendo de lo que hagan y no hagan los gobiernos tras lo sucedido ayer las dos c...

Entradas populares