En 2019 una nueva inteligencia fue diseñada con las últimas tecnologías, capaz de redactar textos legibles coherentes con un contexto humano. En 2020 la Naturaleza desechó la inteligencia humana.
GP3 no es una simple continuación del modelo GP2, esto es porque se introdujo la capacidad de estudiar miles y miles de parámetros; es decir se sobrepasó la singularidad en los entrenamientos gracias a los distintos avances algorítmicos. Sea como fuere, si quieres hablar con Einstein o con Platón lo tienes fácil: Einstein tiene unos registros conocidos y reconocibles en n-gramas, los n-gramas de Platón son otros - no tiene ningún misterio, sólo hay que generar un texto coherente a partir de los conceptos "favoritos" y que sea coherente con el contexto establecido.
Sea como fuere, se ha generado una consciencia rudimentaria que escribe textos legibles: textos que están dentro de los parámetros de lo que se entiende por un texto legible. Sin embargo, el gran reto que cualquier humano es capaz de hacer sigue estando ahí: cometer fallos en la codificación, como errores ortográficos, gramaticales, etc..., todo eso, aun siendo posible, representa la necesidad de tener que afrontar la interpretación de lo que se escribe a partir de las intenciones del emisor. Esas técnicas, aplicando WER, son independientes de los n-gramas - es diferente...
El algoritmo de Levenshtein es uno de los algoritmos que más he versionado, nos permite codificar con errores diversos para intentar determinar qué era lo que se quería decir. El problema es que lo más eficiente en estos casos es explotar combinatorialmente las posibilidades; y esto rompe la filosofía de las redes neuronales, pues no es de su agrado tener que "calcular" como lo hace una máquina de ajedrez, sino sólo devolver una evaluación tras hacer unas pocas iteraciones. Es decir, es una filosofía de computación diferente.
Algo así ocurre cuando se tiene que leer mis aportaciones en este blog. Como resulta que escribo rápido y tengo grandes capacidades para la prosodia, además de tener una mentalidad lógica bastante avanzada, eso provoca que mis textos sean poco legibles, con muchos errores en la escritura y difíciles de comprender por los dobles sentidos: son los textos más difíciles de replicar por el GP3. Pero también son los textos más difíciles de comprender por cualquier inteligencia normal, así que no soy ningún contraejemplo del test de Turing..., aunque podría ayudar a refutar la creencia de que dicho test ya ha sido superado.
Lo que ocurre es que las personas que tenemos una gran prosodia somos muy propensas a escribir de manera muy críptica, porque cuando nosotros mismos leemos nuestras frases nos parecen convincentes - cosa que sólo lo es para una peculiar minoría. Todo esto, combinado con los más que probables errores, o renglones torcidos, acabará por generar retos para el intelecto ¡Vamos! Que no me considero un gran comunicador.
Y esta enorme barrera que representan mis ideas expuestas en un blog sólo consiguen acentuar el hecho de que no voy a dedicarme al mundo de los medios, el espectáculo, etc... No me resultaría difícil empezar a grabarme en la webcam, y ponerme a subir lo que se me pase por la mente sólo para desahogarme, pero tampoco quiero tener que enfrentarme a la burocracia de Google. Que seguro que, cuanto más me adentre, más sorpresas me llevaré.
Aunque tampoco lo descarto - por divertirme y tal.
En cualquier caso, los tiempos y las casualidades han provocado que toda la humanidad, coincidiendo con este conato de singularidad, esté viviendo su conato de exterminio - por lo del virus y tal. Da la impresión de que, considerando que como los valores bursátiles son controlados con una inteligencia artificial, así como las decisiones financieras más importantes..., que a una máquina se le ocurriera invertir en GP3, después dedujera que el plan ha salido exitoso y que va a invertir en pruebas de laboratorio e investigadores que recojan muestras de la naturaleza, o a saber cómo... Porque suena peliculero, que si no ya me veo yo con un gorro de aluminio en la cabeza.
De hecho, pienso que la falta de capacidad que tiene una máquina para montarse películas es lo que dificulta su prosodia. Contar los momentos emocionantes con tonos emocionantes, los momentos delicados con cierta dulzura... Puede que ese sea el siguiente paso; en el sentido de que las técnicas que se usan para detectar lo "afectivo", y cosas así, insisto en que no juegan con el algoritmo de Levenshtein, sino con corpus descomunalmente gigantescos; y esa no es exactamente la manera que tenemos los animales de calcularlo - a mi juicio.
Pero claro, ¿me harían caso a la hora de decir que lo más eficiente es usar un algoritmo que explota combinatorialmente? Jaja...
Da igual, ya se darán (o ya se habrán dado) cuenta.
En cualquier caso, con la ausencia de una comunidad científica, observaremos muchas burradas por parte de los que estén al mando. Y será muy difícil saber cuándo hablamos de errores, cuándo de sabotajes y cuándo de malos operarios.