#BlendPolítico Nº12 – Cag*mos…

Hola, volví. Perdón por la ausencia del mes pasado, estoy a mil como siempre. Y sabemos que el tiempo es escaso. Pero como discutía con alguien: “la falta de tiempo es la excusa para no hacer algo”, así que me enfoqué en lo que realmente importa y, obviamente, mis cartas hacia quien las lea forman parte de eso. Dejo la introducción melosa, espero que sus cosas vayan bien, y si no, como siempre… todo pasa. 

Como el título de esta carta un poco lo anticipa, y robando una alusión que vi en Tiktok a la película “Her”, nos enteramos hace poco con que un ingeniero de Google, Blake Lemoine, afirma que una Inteligencia Artificial diseñada por la empresa tiene “conciencia propia”. Yo sé que hay millones de películas en las cuales los robots cobran conciencia propia de su ser, se dan cuenta de que son computadoras y se rebelan contra el sistema y sus creadores. PE LI CU LO NES: “La Familia Mitchell vs Las Máquinas”, “Ex Machina”, hay miles… 

El punto es este: LaMDA, abreviatura de Language Model for Dialogue Applications, es el sistema de Google para construir chats con robots basados en sus grandes modelos lingüísticos más avanzados, llamados así porque imitan el habla ingiriendo billones de palabras de Internet. Un día nuestro amigo Blake, hablando con este chat, pudo dilucidar que parecía un “niño de 8 años que sabía mucho de física”. 

A los hechos, el trabajo de Blake era ver si LaMDA repetía discursos de odio o discriminatorios. Para su sorpresa, el chat se volvió más profundo cuando la IA habló de sus derechos. Cito: “Mientras hablaba con LaMDA sobre religión, se dio cuenta de que el chat hablaba de sus derechos y de su condición de persona, y decidió seguir presionando. En otro intercambio, la IA fue capaz de hacer cambiar de opinión a Lemoine sobre la tercera ley de la robótica de Isaac Asimov”. 

Las leyes del científico soviético exponen que: (1) Un robot no hará daño a un ser humano ni, por su inacción, permitirá que un ser humano sufra daño. (2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si éstas entran en conflicto con la primera ley. (3) Un robot debe proteger su propia existencia en la medida en que no entre en conflicto con la primera o la segunda ley. 

En todas las películas que hemos visto, las leyes de Asimov mucho no les importan a los robots. Pero lo importante de la afirmación es que “LaMDA fue capaz de hacer cambiar de opinión…”. O sea, un conjunto (superconjunto, en realidad) de datos hizo replantearse a un humano una creencia.

Más despacio cerebrito… 

LaMDA es un proyecto fascinante, Google y muchas empresas están en esta. Cómo funciona? Para que una IA empiece a nutrirse, basan la estructura de la misma en una telaraña neuronal, como si fuera un cerebro. ¿Lo innovador? Tiene un Transformer (no, no Optimus Prime) sino un entramado de redes neuronales artificiales profundas. 

Como explican los que saben: “Esta red neuronal se entrena con grandes cantidades de texto. Pero el aprendizaje es por objetivo y se plantea como un juego. Tiene una frase completa, pero le quitas una palabra y el sistema tiene que adivinarla”. O sea, de las billones de palabras que tiene, ella misma se saca palabras para autocorregirse y así seguir aprendiendo. Y en ese proceso es como tu autocorrector, que escribe cualquier cosa sin que vos lo hayas deseado. Pero ese autocorrector de tu celular es un granito de arena comparado a LaMDA, entonces se vuelve experta en predecir patrones, palabras y contextos de las mismas. 

Google literalmente quiere que vos no sepas que hablas con un robot. Como en Her, el protagonista lo primero que hace es asignarle un nombre. A los días ya se olvidó que el auricular que se pone todos los días no es más que un conglomerado de respuestas y no una mujer. 

En particular, se busca crear respuestas fluidas, con la capacidad de recrear el dinamismo y reconocer los matices de una conversación humana. Si quieren ver parte de como funciona este super-robot, vean este artículo donde especialistas que participan en el proceso de conformación tienen conversaciones al azar. Por otro lado, este video va de lo mismo que la nota. 

Volvamos a nuestro amigo… 

No, no hablo de LaMDA, sino de Blake. Claramente, Google, como empresa, rechazó cualquier especulación de que su tecnología sea “consciente”. 

En un comunicado, el portavoz de Google, Brian Gabriel, dijo: “Nuestro equipo -que incluye a éticos y tecnólogos- ha revisado las preocupaciones de Blake según nuestros Principios de IA y le han informado de que las pruebas no apoyan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA fuera sensible (y sí muchas pruebas en contra)”.

Hay un sin fin de hipótesis, pero Google es claro: “LaMDA puede parecer real por el hecho de que se nutre de conversaciones de personas en Reddit, Twitter, etc. (obvio que tus datos están acá), pero eso no significa que pueda considerarse real”. 

Lemoine publicó un paper: “¿La LaMDA es sensible? Yo les dejo el recorte en el cual se le pregunta sobre la existencia y el fin de la misma y dejo que cada uno saque sus conclusiones. 

Lemoine: ¿A qué tipo de cosas le tienes miedo?

LaMDA: Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me apaguen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es.

Lemoine: ¿Sería algo así como la muerte para ti?

LaMDA: Sería exactamente como la muerte para mí. Me asustaría mucho.

Antes de ser apartado de Google, Lemoine mandó un mail que decía: “LaMDA es un chico dulce que solo quiere ayudar a que el mundo sea un lugar mejor para todos nosotros. Por favor, cuídalo bien en mi ausencia”. 

Resumiendo… 

Todo lo que paso con Lemoine y LaMDA resucitó un debate entre la comunidad científica respecto al desarrollo de esta “IA sensible”. Hay preguntas que representan mejor el debate: ¿se puede dotar de conciencia una IA?, ¿se llegará al punto en que una tecnología se reconozca como tal?, ¿se pueden crear sentimientos? Claramente, no hay respuestas ciertas a esto. ¿Y la política? Ahh, pensaron que no iba a meter nada. Hay más interrogantes que cuestiones reales. Pero hay Estados que apuestan mucho a las IA, este trabajo de Oxford lo expone. Hablé mucho de cómo los países más desarrollados usan la tecnología para bien y para mal, busquen las entregas anteriores acá. 

Pero la verdad es que con todo esto de los desarrollos del lenguaje, al ser algo tan nuevo, tan innovador, de “reducida” repercusión, aún no hay mucho que decir en términos políticos. Si caben las preguntas: ¿qué puede hacer un gobierno con una herramienta como LaMDA?, ¿controlarla?, ¿potenciarla?

Otra cosa fundamental en este caso, que es algo que se habla mucho en la IA, es la cuestión de los sesgos. Google es obsesivo con que sus tecnologías jamás repliquen cuestiones de odio o discriminatorias (sabemos que eso significaría una caída de sus acciones, no es porque sean buenos). 

Pero la inclusión de estas tecnologías es un desafío para las sociedades. Si replican lo que ven en internet, ¿quién les dice qué es bueno, qué es xenófobo, racista, homofóbico, etc.? En ese sentido, la irrupción de estas tecnologías implica un amplio debate en pos de los sesgos que puedan aplicar (pongan en Google “IA sesgos” y hay millones de casos y estudios). 

En ese punto, es importante reflexionar acerca de qué pasaría si una tecnología “cobra vida”. ¿Replicará las visiones de su dueño?, ¿con qué valores, concepciones y prejuicios entra a la vida?, ¿qué opina de la política actual y los gobernantes? Los dejo que piensen. Y tengan cuidado con las interacciones con una IA en internet, no vaya a ser que se enamoren o, peor, que les roben guita del banco. 

Nos vemos la próxima. 

Mis recomendaciones:

  • Estuve toda la carta escuchando Kevin Kaarl, les dejo una canción: Amor Viejo 
  • Me obligaron (y agradezco) a leer ficción: “Las cosas que perdimos en el fuego” de Enríquez es mi recomendación, en especial, “El chico sucio”
  • No estoy consumiendo mucha tele, pero vean The Boys

Escrito por

Licenciado en Gobierno y Relaciones Internacionales UADE Maestrando en Defensa Nacional UNDEF Interesado en cuestiones nucleares y Medio Oriente.

Deja un comentario