Me acaba de llegar un correo de ACM ofertándome subir un artículo; la verdad es que estoy llevando muy mal el que me rechacen todo sin dar explicaciones ni medianamente convincentes, como riéndose de los autores. Por eso he rehusado de hacer demasiado caso. Ahoa la idea era hablar sobre trustworthy AI, y recuerdo cuando me rechazaron el artículo sobre "moral y maquinaria"..., si al menos las razones del rechazo hubieran sido esclarecedoras...
En una sociedad que cada vez está más superpoblada las empresas empiezan a tener más y más ofertas para poder suplir unos puestos de cartón-piedra diseñados por psicólogos. Existirán empresas que no sucumbirán a la postmodernidad, y preferirán seleccionar a los más aptos para el puesto más allá de apariencias y normalidades - como centrándose en el contenido, en lo que tienen detrás los candidatos - pero al final el corporativismo es el que gana siempre.
Se trata de un principio básico: cada vez más gente se oferta, por lo que cada vez es más probable que te rechacen un mismo trabajo que años antes habría sido más que aceptable - y no porque se haya innovado, sino porque el dinero se está estancando cada vez más en menos personas y, por tanto, la capacidad para hacer fluir el mercado es cada vez más difícil y eso provoca que conseguir un trabajo sea cada vez más complicado, así como mantener una empresa.
Es decir, el valor que se preferirá mantener, como ya he dicho antes, será el que constituya como valor el carácter corporativista del sujeto: la capacidad que tiene el sujeto como para agachar la cabeza y someterse a los designios de sus superiores. Para eso está el sistema académico tal como lo conocemos, en especial el modelo universitario.
¿Es posible que una persona "de la calle" tenga la literatura necesaria como para defender un proyecto? Da igual lo que demuestre, lo que referencie, lo que se le exija..., en realidad no se lo van a aceptar. Por eso hace años que no respondo a los correos de ACM. Cada cual tiene una posición, y esa gente que ha escrito sobre moralidad en la tecnología no son conscientes de que esas normas son una extensión del código deóntico informático. Es decir, estoy tratando con auténticos imbéciles.
Imbécil es un término que viene del latín, no lo uso como insulto, sino como apelativo. Hace referencia a los que se mueven sin un báculo, sin ningún criterio. Dicen que estudian la moral y se valen de la literatura norteamericana de la filosofía de la ciencia, pero se les olvida que ya hay una literatura extensa ya sea en los documentos de Gustavo Bueno, o más antiguo en el propio Aristóteles.
Sin embargo la manera que yo tuve de desarrollar esos temas fue a partir de mi experiencia como asesor de empresas en lo relativo de la LOPD; extendiendo el tema a través de los DDHH. Era un enfoque diferente y, al mismo tiempo, NECESARIO. Es decir, al negarme el publicar ese documento en realidad implícitamente estaban negando la evolución del Trustworthy AI, porque si alguien pretendiera desarrollarlo de la ÚNICA manera que es posible entonces debería de "plagiar" parte del ensayo que publiqué en la plataforma Medium tras la negativa que recibí.
Más de uno podría pensar que no tiene porqué ser así: mi artículo comprendía varias partes. Una era la conexión entre moral y ética..., ok, evitémoslo. Otra era la catalogación de los distintos grados de peligrosidad de una máquina asociado a su incapacidad para "aceptar" la realidad ética que no ha terminado de "aprender" en su deep learning (por ejemplo)..., ok, y me hace gracia que lo quieran evitar, ellos mismos. Ahora bien, ¿cómo van a evitar la citación correspondiente a la carta de los derechos humanos? Es de sentido común que a quien se le ocurra la idea de comparar un hombre con una máquina acabará por citar esa carta porque esa es LA ÚNICA LITERATURA que define al hombre y que se ha aceptado internacionalmente. Es de cajón.
Es decir, mi ensayo era de obligada publicación - si bien podría tener que..., en fin, pulirse, pues que se pula. Pero era de obligada publicación.
Lo mismo me pasó cuando expuse mi último artículo a Nature, sobre los "errores" que habían cometido los matemáticos cuando se metían en temas de complejidad de clases. Bien es cierto que eran errores de lógica, pero el hecho de que tantos lo hayan mantenido tanto tiempo, sabiendo que no hay tecnología asociada a esos resultados, da mucho que pensar. Mi artículo, de hecho, era otro de tantos que eran necesarios: volvía a ser un artículo que no podía ser ignorado. Pulido, claro..., ok, pero no ignorado.
Ahora volvemos a lo de siempre: sin aclaraciones, sin intención de romper la estructura corporativista, haciendo prevalecer la propaganda por encima de la modernidad, del progreso..., la maquinaria hace chispas, falta engrase... Poco a poco nos acercamos a la siguiente crisis, y puede que no sean los mejores los que estén dirigiendo el vehículo que evite el inminente choque.
La mayoría de las empresas que podrían darle valor a mi trabajo tienen como responsable a una persona que solo pondría como senior a alguien con experiencia en empresas o, que de no tener experiencia, tenga un título. Es decir, no importa las innovaciones que tenga por detrás, PRIMA el corporativismo: mi capacidad para convertir mi puesto en una extensión de la imagen de la empresa. Y ese papel lo podemos llamar el papel de la normalidad.
- ¿Sabes qué significa ser normal?
- Si me haces esa pregunta es porque supuestamente no lo sé.
- Que la gente no te mire con desprecio.
- Ah ¿Y sabes qué significa trascendental?
- Dímelo tú.
- Que no seas substituible por una máquina.
¿Cuál es el papel de un experto en recursos humanos cuyo único cometido consiste en normalizar a los trabajadores? Cualquier máquina podría ocupar su lugar y, mediante GPT3, podría resolver conflictos entre trabajadores. De hecho, mi propuesta es terriblemente más barata que contratar a ese perfil de psicólogos. Y ofrecerá resultados mucho más fiables (demostrable).
En otro artículo llegué a comentar cómo el ser humano le tiene miedo a esos robots con forma humana. Sin embargo la verdad es que los algoritmos que invierten en bolsa son los que mueven la financiación y el futuro de la economía mundial. Si hay crisis esas máquinas lo habrán calculado, y no hay que ser ningún experto en matemáticas para saber que ahí el Trustworthy no entrará jamás debido a las barreras de las matemáticas (no hay conexión entre ética y moral dentro del enfoque conexionista cuando el objeto es que la red neuronal determine correlaciones, se puede demostrar), ideológicas (ya me gustaría que se planificara y se regulara la bolsa, pero va a ser que el que lo proponga lo tendrá que hacer con un arma en la mano) o intelectuales (para entender lo anterior antes te tiene que interesar, ser un experto, etc). Así que el ordenador que comanda sobre los seres humanos ya existe: y como expuse en mi artículo, esa máquina excreta, por ejemplo, coches nuevos que nunca se venderán; y los humanos rebuscarán entre la basura de humanos para reciclar y así hacer más sostenible el hambre de los cálculos de esa máquina... Un mundo hermoso.
Lo dicho antes ya se viene dando desde hace dos décadas, por lo menos, y la mayoría de los responsables en filtrar a los expertos en tecnología ni se imaginan ni de lejos de qué estoy hablando. Así que en cuanto hablemos de la crisis del coltán..., me va a dar la risa.
Sin embargo, hay unas pocas empresas (como es lógico, debe haber excepciones) donde parece que la selección se hace en torno a los contenidos, que su filosofía es la modernidad, que sí pretenden buscar ese Trustworthy en todo lo que hacen..., si ya eran pocas las que ofrecen trabajo, menos todavía serán las que ofrecerán un puesto envidiable..., y cada vez que me rechazan mi cabeza me dice que es lógico, pero una vez más, otro rechazo...
Superpoblación y cada vez más desigualdad, un currículo como el mío sin una carrera (lo cual es una ventaja porque podría haber acabado en una de esas empresas postmodernas donde los capullos se dan codazos los unos a los otros y se sabotean los trabajos), y sin experiencia definida para un framework de moda (veré si esto segundo lo arreglo).
En cualquier caso, ¿serán tan idiotas como para desarrollar el Trustworthy AI como en su tiempo se hizo con el Explanable AI? Algo me dice que los documentos solo podrán aspirar tecnológicamente a hacer algo por el estilo; lo gracioso sería que me adelantara y les dijera qué es lo único que podrían hacer y así ya sería radicalmente imposible que pudieran publicar nada... Idiocracia, pura idiocracia.
Para cuando el hombre rehuse de los contenidos más trascendentales por hacer el trabajo de la máquina, será la máquina la que se ocupe de pensar trascendentalmente y la humanidad conformará su propia esclavitud. Sobretodo por parte de las élites ricas, que se verán incapaces de no cumplir con las exigencias de sus contables.
No hay comentarios:
Publicar un comentario