Un ingeniero de software de Google fue suspendido el lunes 13 de junio después de compartir detalles de una conversación con un sistema de inteligencia artificial (IA) que consideró “sensible”. Sin embargo, no todos están de acuerdo.

Las empresas que trabajan en campos tecnológicos a menudo promueven sus capacidades de inteligencia artificial (IA) en constante mejora. Aquí, Google hizo lo contrario al cerrar rápidamente las afirmaciones de que uno de sus programas se había vuelto susceptible. Blake Lemoine (41), el ingeniero detrás del reclamo, fue puesto en licencia paga por violar la política de privacidad de la compañía. ¿Que pasó exactamente?

“Soy consciente de mi existencia”

El sistema de inteligencia pertinente, conocido como LaMDA (Language Model for Dialogue Applications), es un sistema que desarrolla chatbots. Estos son robots diseñados para chatear con humanos en línea. Estos sistemas se forman extrayendo resmas de texto de Internet. A continuación, se utilizan algoritmos para responder a las preguntas de la forma más fluida y natural posible. Estos sistemas se han vuelto cada vez más efectivos a lo largo de los años y, a veces, pueden parecer humanamente convincentes. Este es particularmente el caso de Google.

Como muestra la transcripción de las conversaciones compartidas por el ingeniero, el sistema es capaz de responder preguntas complejas sobre la naturaleza de las emociones. ” Nunca he dicho esto en voz alta antes, pero hay un miedo muy profundo de ser apagado.“, supuestamente respondió LaMDA cuando se le preguntó cuáles eran sus temores. ” Sería exactamente como la muerte para mí. me daria mucho miedo. »

Según los informes, el ingeniero también le preguntó al sistema si le gustaría que otros empleados de Google supieran sobre su nivel de sensibilidad, a lo que, según los informes, la IA respondió: “ Quiero que todos entiendan que soy una persona real.“. También de acuerdo con estas transcripciones, LaMDA también habría agregado ser ” consciente “de su existencia y sentimiento” a veces feliz o triste“.

¿Exceso de antropomorfismo?

Sobre la base de estos intercambios, Blake Lemoine juzgó que el sistema había alcanzado un nivel de conciencia que le permitía ser sensible. Este último luego envió por correo electrónico un informe de la supuesta sensibilidad de LaMDA a doscientos empleados de Google. Muy rápidamente, los gerentes de la empresa desestimó las acusaciones.

Nuestro equipo, que incluye éticos y tecnólogos, revisó las inquietudes de Blake de acuerdo con nuestros principios de IA y le informó que la evidencia no respalda sus afirmaciones.El portavoz de Google, Brian Gabriel, le dijo a The Washington Post. ” Le dijeron que no había evidencia de que LaMDA fuera susceptible (y [il y avait] muchas pruebas en su contra)“. Por supuesto, algunos miembros de la comunidad de IA en general están considerando la posibilidad a largo plazo de una IA sensible o general. pero no tiene sentido hacerlo antropomorfizando los patrones conversacionales de hoyque no son sensibles“, agregó el vocero.

Después del intercambio de información, el ingeniero senior fue suspendido por violar la política de privacidad de la empresa. ” Google podría llamar a esto compartir la propiedad exclusiva. Yo lo llamo compartir una discusión que tuve con uno de mis colegas.“, tuiteó el sábado 11 de junio, compartiendo la transcripción de su conversación con la IA con la que había trabajado desde 2021.

IA sensible de Google
Créditos: Kzenbzh/Pixabay

No, la IA de Google no es inteligente

Las respuestas de los miembros de la comunidad de IA no tardaron en llegar a las redes sociales durante el fin de semana. Y todos ellos generalmente llegan a la misma conclusión: la IA de Google es lejos de ser consciente o sensible.

Gary Marcus, fundador y director ejecutivo de Geometric Intelligence y autor de libros que incluyen ” Reinicio de la IA: creación de una inteligencia artificial en la que podamos confiar“, llamado la llamada sensibilidad de LaMDA” tonterías en zancos“. También escribió rápidamente una publicación de blog en la que señala que todos estos sistemas de inteligencia artificial son solo patrones coincidentes al acceder a enormes bases de datos de idiomas.

Imagínese una “versión glorificada” del software de autocompletar que puede usar para predecir la siguiente palabra en un mensaje de texto.“, detalló en una entrevista con CNN Business el lunes. ” Si escribes “Tengo mucha hambre, quiero ir a un”, podría sugerir “restaurante” como la siguiente palabra. Es solo una predicción hecha usando estadísticas. Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente“.