Se trata del ingeniero Blake Lemoine, quien dijo creer que el chat de inteligencia artificial de Google era capaz de expresar emociones humanas, lo cual supone cuestiones éticas.
Así, Google lo puso en licencia por compartir información confidencial y dijo que sus preocupaciones no tenían base en los hechos, una opinión ampliamente compartida en la comunidad de inteligencia artificial.
Los investigadores asumen que es más importante abordar cuestiones cómo si la IA puede generar daños y perjuicios en el mundo real.
El Washington Post publicó una entrevista con Lemoine, quién conversó con un sistema de inteligencia artificial llamado LaMDA, o modelos de lenguaje para aplicaciones de diálogos, un marco que utiliza Google para crear chatbots especializados.
El sistema ha sido entrenado con trillones de palabras para imitar una conversación humana. En su conversación con el chabot, Lemoine concluyó que la Inteligencia Artificial era un ser consciente que debería tener sus propios derechos. Dijo que el sentimiento no era científico, sino religioso: ¿Quién soy yo para decirle a Dios dónde puede y no puede poner almas?
Los investigadores rechazaron la idea de que IA era realmente sensible, diciendo que la evidencia solo indicaba un sistema altamente capaz de mimetismo humano, no la sensibilidad en sí.
En palabras de Joana Eggers, directora ejecutiva de la Startup de IA, Nara Logics: “Está imitando las percepciones o los sentimientos de los datos de entrenamiento que se le dieron, de manera inteligente y diseñada específicamente para parecer que entiende”.
Google afirma que LaMDA puede seguir las indicaciones y las preguntas principales, lo que le da la experiencia de poder comentar cualquier tema.
En palabras textuales de Chris Papas, un portavoz de Google: “Nuestro equipo, incluidos especialistas en ética y tecnológicos, han revisado las preocupaciones de Blake según nuestros principios de ella y le ha informado que la evidencia no respalda sus afirmaciones”.
Cientos de investigadores e ingenieros han conversado con LaMDA y no hemos tenido conocimiento de que nadie más haya hecho afirmaciones tan amplias o antropomorfolizado a LaMDA.
“Desde una perspectiva científica, no hay evidencia de que la inteligencia o la conciencia humana estén integradas en estos sistemas”, dijo Bart Selman, profesor de informática de la Universidad de Cornell, que estudia inteligencia artificial. LaMDA ‘es otro ejemplo de esta larga historia’.