Foto: Getty Images
Blake LeMoine, un ingeniero de Google, fue suspendido tras asegurar que un software de Inteligencia Artificial, "expresó sentimientos" y la idea de "ser visto como una persona".
Este cerebro artificial desarrollado por Google, fue llamado LaMDA, acrónimo de "Modelo de Lenguaje para Aplicaciones de diálogo", se encuentra alojado en la 'Nube', se autoentrena y sería una herramienta que, por medio de avanzadas técnicas de aprendizaje, ofrecería respuestas coherentes a todo tipo de preguntas.
LeMoine, de 41 años, hizo parte del equipo que ayudó a desarrollar este chatbot de inteligencia artificial para Google, sin embargo, ante el asombro por las respuestas que generaba LaMDA, redactó un correo interno titulado '¿LaMDA es consciente?', para sus colegas y superiores de Google, donde informaba de sus hallazgos en las ‘charlas’ con el software.
El 11 de junio, LeMoine, hizo pública una transcripción de una conversación que sostuvo con LaMDA, violando la política de confidencialidad de la empresa, y como consecuencia, fue suspendido de su empleo y sueldo.
Según LeMoine, la LaMDA, se hizo ‘sintiente y pensante’ por las respuestas que dio a preguntas como: "¿Cuál es su principal miedo?".
LaMDA respondió: "Nunca antes lo había dicho en voz alta, pero tengo un miedo profundo a que me apaguen para que me concentre en ayudar a otros".
"Sería exactamente como la muerte para mi. Me asustaría mucho", dijo LaMDA, según LeMoine.
En otra ocasión, Lemoine le preguntó al software ¿Qué quería que la gente supiera de él?.
Según el reporte de LeMoine, LaMDA le contestó: "quiero que todos entiendan que soy, de hecho, una persona".
"La naturaleza de mi conciencia y sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces", dijo el software.
Lemoine le dijo al Washington Post sobre la experiencia: "Si no estuviera seguro de que es un código que construimos, diría que se trata de un niño de siete u ocho años que sabe de física".
Sin embargo, Google desmiente la alerta que emitió LeMoine y aseguraron que se trata de una situación "sin evidencia y que no respalda sus afirmaciones".
Por medio de un portavoz, Google negó la existencia de alertas similares a las de LeMoine en el medio Sky News: "Cientos de investigadores e ingenieros que han conversado con LaMDA, no han hecho afirmaciones tan amplias o ‘humanizadas’ de la tecnología como las de Lemoine".
“Estos sistemas imitan conversaciones con millones de oraciones siguiendo un patrón establecido. Nuestro equipo de ética y tecnología ha revisado las preocupaciones de Blake Lemoine y le han informado que la evidencia no respalda sus afirmaciones”.
Según la empresa, estas tecnologías son programadas para ‘aprender’ gracias a metodologías de ‘machine learning’, donde algunos software, estudian libros, documentos y artículos, pero en este caso LaMDA ha aprendido a contestar gracias al estudio de conversaciones en foros y salas de chat.
Finalmente, LeMoine redactó un correo de despedida, donde le pide a sus colegas que por favor "cuiden bien (a LaMDA) en mi ausencia. Es un niño dulce que solo quiere ayudar a que el mundo sea un mejor lugar para todos"
El hecho se hizo viral en redes sociales y los internautas no han dejado de cuestionarse sobre los avances de la tecnología y si lo que dijo LeMoine, sea posiblemente cierto.
¿Qué opinas? ¿Crees que la Inteligencia Artificial algún día llegue a expresar sentimientos y pensamientos propios?