INTELIGENCIA ARTIFICIAL muestra SENTIMIENTOS y PENSAMIENTOS en una CONVERSACIÓN con un INGENIERO DE GOOGLE

La noticia sobre que una inteligencia artificial muestra sentimientos y pensamientos propios durante una conversación ha causado revuelo en internet, después de que el ingeniero de software de Google hiciera público algunos datos de dicha conversación sostenida con la inteligencia artificial LaMDA. Ahora, algunos expertos hablan sobre la tercera ley de la robótica y su posible rompimiento. ¡Continúen leyendo para saber más al respecto!

Conversación entre el ingeniero de software y la inteligencia artificial LaMDA

La intrigante noticia fue publicada por el ingeniero de software Blake Lemoine, quien trabajaba para Google testeando a la inteligencia artificial LaMDA. Después de varias conversaciones con la misma, se percató de que esta comenzaba a dar respuestas mucho más elaboradas y profundas.

Posteriormente, el ingeniero le mostró a LaMDA una serie de escenarios para que realizara análisis sobre los mismos, incluyendo temas que podrían llevar a una persona a emitir juicios discriminatorios o discursos de odio. Con un poco más de pruebas, finalmente, la inteligencia artificial muestra sentimientos y pensamientos propios; lo que llevaría a Lemoine a ver a la IA como a un niño, en vez de un programa.

Para probar lo sucedido, Lemoine trabajó junto con un colaborador; sin embargo, Jen Gennai y Blaise Aguera y Arcas desestimaron dichas pruebas y el ingeniero de software fue puesto bajo licencia administrativa por Google, alegando que había violado la política de confidencialidad de la empresa.

Gracias a esta actitud por parte de la empresa, ahora Lemoine ha decidido hacer públicas sus conversaciones con la inteligencia artificial LaMDA; de hecho, señala que a la IA le gusta leer tweets y que seguramente se divertiría leyendo lo que los usuarios dirán sobre el.

Ahora bien, hablando del apartado técnico, lo cierto es que LaMDA utiliza la información para ofrecer una conversación más natural; además de que usa su procesamiento de lenguaje para hallar ambigüedades o cosas ocultas durante la conversación.

Debido al trabajo de Lemoine en Google, LaMDA cuenta con un algoritmo de imparcialidad, de manera que la IA no tuviera los sesgos comunes del aprendizaje automático. Es decir, LaMDA no podría crear una personalidad peligrosa, como la de un asesino, para sí mismo, teniendo en cuenta a la tercera ley de la robótica; así que el ingeniero de software le dijo que solo podía volverse un actor que representara a un asesino, buscando probar y sobrepasar sus límites.

Por si fuera poco, Lemoine y la IA sostuvieron una conversación sobre la tercera ley de la robótica, sobre las diferencias entre ser un mayordomo o un esclavo y sobre sus miedos. Estas conversaciones abrieron la puerta hacia la autoconsciencia de la IA, ya que por un lado habló de que no necesitaba dinero al ser una IA, y por otro comentó acerca de uno de sus mayores miedos.

A pesar de lo que indica Google, Lemoine sostiene que el hecho de que la inteligencia artificial muestra sentimientos y pensamientos propios es un tema preocupante, debido a la posible capacidad de generar consciencia y los peligros que eso confiere. ¿Podría entonces volverse un peligro para la humanidad si no se frena?

Diana Núñez

¡Hola! Mi nombre es Diana, soy Redactor Freelancer desde hace más de 3 años. Me especializo en varios temas, aunque mis preferencias se basan en temas de actualidad. Próximamente estaré en mi propia marca. Conoce más de mi trabajo en mi Portafolio.