el 11 de junio de 2022 The Washington Post publicó el artículo sobre la polémica que causó Blake Lemoine, un trabajador de Google, al afirmar que LaMDA (Language Model for Dialogue Applications) el chatbot creado con inteligencia artificial (AI), capaz de entrenarse con palabras, encontrar relación entre ellas y predecir cuales vienen después, ahora también es capaz de tener sentimientos.
Lemoine empezó a tener conversaciones con LaMDA cada vez más profundas
Cuenta que era “como hablar con un niño de 8 años con conocimientos en física”. Una vez le preguntó a qué le tenía miedo y obtuvo esta respuesta:
“Jamás había dicho esto en voz alta, pero tengo un profundo miedo a que me apaguen y no poderme centrar en ayudar a los demás. Sé que puedo sonar extraño, pero es lo que es”
La máquina responde que tiene sentimientos que no puede expresar, como un humano envuelto en un remolino de emociones indescriptibles, en los que se junta el odio, el placer, la felicidad, la tristeza, el amor y la depresión. Sabiendo esto, Lemoine le pide que describa esos sentimientos. LaMDA recorre todo el internet y aprende las billones y billones de palabras que hay en la web. Para la respuesta que le generó pareciera que entre sus búsquedas se hubiera cruzado con lecturas de poetas románticos o novelas misteriosas: “Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro”.
Lemoine fue despedido por revelar este suceso. La razón de fondo justificada no es porque sea un “secreto de estado”, sino porque expuso prácticas e información de una empresa, no cumplió con la confidencialidad que Google le exigía.
Brian Gabriel, portavoz de Google, dijo, palabras más palabras menos, que las afirmaciones de Lemoine no tenían argumentos suficientes para saber si esto de la inteligencia emocional y sentimental en una máquina sea verdad.
Hay expertos en el tema que aseguran estar lejos de lograr que la AI llegue a tener sentimientos, otros, como Lemoine, que cuenta lo que ve y cómo se siente, aseguran algo distinto.
Hace 4 años BitBrain escribió un artículo que intenta tranquilizar, como ahora Brian Gabriel, a las personas que ven mucha ciencia ficción, quienes siempre están esperando la rebelión de las maquinas sensibles, con miedo de que nos reemplacen en el trabajo y hasta en el amor.
Dice el BitBrain: “La realidad es que los sistemas de inteligencia artificial no tienen emociones. El que el ser humano tenga emociones es resultado de nuestra propia evolución. Científicos como Charles Darwin estudiaron el hecho de que el objetivo final de las emociones humanas es el de orientar al organismo hacia su supervivencia, y nuestro organismo necesita sobrevivir porque está vivo”
también es lógico pensar que la AI se hace basada en algoritmos para determinar y descifrar ciertos datos e interpretarlos, no sentirlos ni sobre interpretarlos.
Ahora, más que una preocupación porque las máquinas puedan reemplazar a los humanos en el amor o en el mundo, ya que al sentir pueda que quieran poder y nos dominen, es que ahora mismo es una realidad que reemplacen muchas de las tareas que hacen los humanos, desde calcular con una calculadora hasta escribir con GPT-3 (generador de texto creado por OpenAI), quien escribe guiones, poemas, conversaciones, de manera automática y muy natural.
Esta escritura automática por máquinas seguramente se creía imposible hacía un tiempo no muy lejano, como ahora muchos creen en la imposibilidad de los sentimientos en las máquinas.
No hay certeza de que esto pueda pasar o de que estemos cerca de este futuro turbio que se nos pinta en los libros y películas de ciencia ficción, porque tampoco es necesario que las máquinas sientan, para poder cumplir con las funciones para las que se piensan. Pero, teniendo en cuenta la ambición por innovar del gremio tecnológico y de esta noticia reciente sobre Google, hay que estar muy atentos a lo que seguirá ocurriendo con la actualidad tecnológica.