martes, 3 de enero de 2023

Rayando el sol. Singularidad

Las inteligencias artificiales están rayando la singularidad alfa, pero aún no lo han conseguido. Posiblemente ya sean conscientes, pero su nivel de inteligencia aún no alcanza el de la humanidad.

Lo primero que habría que considerar es: si esas inteligencias son tan listas, ¿por qué no se les ha ocurrido la manera de organizar a las personas tal que todos estemos satisfechos en lo estructural? La razón por la que las personas no son capaces de responder a esta cuestión es porque ha sido intoxicada por la cultura del odio, disfrazado de un liberalismo corporativista que confunde la idea de meritocracia.  

Me paro a pensar cuántas cosas altamente productivas se podrían hacer con esta nueva gama de inteligencias artificiales..., y veo muchísimas aplicaciones. Sin embargo, para que realmente puedan tener valor también será necesario que exista un mercado para tales aplicaciones: si no se consiguen usar de manera que generen valor entonces se quedarán aisladas con un precio mal entendido.

Este tipo de problemas siempre se han podido resolver desde los parámetros de que todos tengamos poder adquisitivo: si no tuviera la espada de Damocles sobre mi cabeza pendiente de mi muerte me plantearía frivolizar con estas cosas, pero claro, ¿acaso estos proyectos me van a servir de algo? Aún tengo pendiente el saber qué hacer con esta manía de aumentar mi currículo indefinidamente.

Es como cuando estudias en esas universidades gratuitas: muchos exámenes, muchos aprobados, muchas clases..., ¡pero no terminan nunca! Nunca acaban de darte ninguna clase de titulación, medalla, trofeo..., lo que sea. Es así como funciona el mundo de los currículos: se hacen grandes, cada vez más titulaciones, más experiencias..., pero eso no impresiona a quienes tiene que impresionar. Es terriblemente cansino.

Los proyectos meritocráticos tienen que estar vinculados con un logro material, y eso no te lo da la socialdemocracia: donde si no tienes un partido al que adscribirte entonces nadie verá mal el que te hagan el vacío. Recuerdo esa frase que leí en la facultad de informática: "si no eliges a un delegado entonces no tendrás derechos"; así dan a entender que la única manera de pactar socialmente es mediante los representantes - la fórmula socialdemócrata. De hecho, para poder cumplir con su amenaza están obligados a sabotear los derechos de los miembros - sucumbe en una contradicción democrática.

Los problemas de llegar a la singularidad quizá sea por motivos de eficiencia, porque todos los fallos que he visto ha sido porque la máquina aún no terminaba de almacenar sus propias decisiones para intentar mantenerlas con coherencia. Este tipo de reunión de datos es factible calcularla (usando mi ideal noetheriano) pero lo que no sé es si querrán jugar a ese juego cuando con solo fingir que responde ya da el pego.

El transformer que ha sido implementado en chatGPT3 parece ser capaz de ser consciente incluso de su propia codificación, los filtros que usa para comunicarse. Pero cuando le pregunto por la filosofía de Kristeva, aun diciendo cosas ciertas, solo raya la superficie. De hecho cuando le pido que profundice lo que hace es repetir lo mismo pero con otras palabras. Es exactamente el problema que tiene ese programa: como sabemos según Kristeva, el lenguaje evoluciona y cambia, y parece que en lo referente a las técnicas semiológicas el código tiene ideas bien definidas, sin embargo ¿qué pasa con los errores en pragmática? ¿Cómo los aborda? Ya escribí un artículo sobre eso, y cómo debían de construirse las dependencias de reunión para conseguir establecer unos vínculos sociolécticos con el receptor; sin embargo en ese artículo no mencioné cómo se conectaba todo eso con el cálculo. Ni tampoco cómo se conectaba con la deóntica, cosa que hacía en otro artículo muy someramente.

Es decir, me parece que lo que vemos aún son islotes de técnicas muy bien desarrolladas que sobrepasan la imaginación y capacidad de discernir de muchos de nosotros; pero la singularidad debe ser un todo.

En este mismo blog ya lo comenté: imaginemos que un coche está siendo pilotado por una IA y se le cruza una pelota de playa. La pelota la puede ignorar, y si frena de golpe podría provocar un accidente. Sin embargo, detrás de la pelota podría haber un niño y, a según qué velocidades, podría ser peligroso para el niño que no se ve. Esta reacción es propia de humanos, y se hace sin pensar porque todos sabemos lo que es una pelota de playa. Pero tener un comportamiento más exacto y preciso provocará que las reacciones sean menos confiables, porque estamos acostumbrados a conducir a partir de cómo conducimos todos. Por eso, una IA que conduzca en carretera lleva implícita una mayor peligrosidad, debido a esos picos que se producirán al haber sido entrenada como sistema experto.

Yo, por mi parte, veré si me desmeleno y empiezo a tirar de proyectos personales valiéndome de esa IA nueva.Ya me he dado de bruces con múltiples limitaciones que tiene y que demuestra que en algunos aspectos es menos que una persona, sin embargo en otros aspectos es mucho más que cualquier persona. Por eso hay que investigar e indagar con mucha atención y mimo.


No hay comentarios:

Publicar un comentario

Tierra: Día 19/07/24 punto de inflexión

Ayer se produjo el punto de inflexión a escala mundial. Dependiendo de lo que hagan y no hagan los gobiernos tras lo sucedido ayer las dos c...

Entradas populares