Este año 2020, Google de Alphabet Inc se movió para reforzar el control sobre los artículos de sus científicos al lanzar una revisión de “temas sensibles”, y en al menos tres casos solicitó a los autores que se abstuvieran de proyectar su tecnología en una luz negativa, según comunicaciones internas y entrevistas con los investigadores involucrados. en el trabajo.
El nuevo procedimiento de revisión de Google solicita a los investigadores que consulten con los equipos legales, de políticas y de relaciones públicas antes de abordar temas como el análisis de rostros y sentimientos y las categorizaciones de raza, género o afiliación política, según las páginas web internas que explican la política.
“Los avances en tecnología y la creciente complejidad de nuestro entorno externo están conduciendo cada vez más a situaciones en las que proyectos aparentemente inofensivos plantean problemas éticos, de reputación, regulatorios o legales”, afirmó una de las páginas para el personal de investigación. Reuters no pudo determinar la fecha de la publicación, aunque tres empleados actuales dijeron que la política comenzó en junio.
Google se negó a comentar sobre esta historia.
El proceso de “temas sensibles” agrega una ronda de escrutinio a la revisión estándar de documentos de Google en busca de escollos como la divulgación de secretos comerciales, dijeron ocho empleados actuales y anteriores.
Para algunos proyectos, los funcionarios de Google han intervenido en etapas posteriores. Un gerente senior de Google que revisó un estudio sobre tecnología de recomendación de contenido poco antes de su publicación este verano dijo a los autores que “tengan mucho cuidado de lograr un tono positivo”, según la correspondencia interna leída a Reuters.
El gerente agregó: “Esto no significa que debamos escondernos de los desafíos reales” que plantea el software.
La correspondencia posterior de un investigador a los revisores muestra a los autores “actualizados para eliminar todas las referencias a los productos de Google”. Un borrador visto por Reuters mencionaba a YouTube, propiedad de Google.
Cuatro investigadores del personal, incluida la científica senior Margaret Mitchell, dijeron que creen que Google está comenzando a interferir con estudios cruciales sobre posibles daños tecnológicos.
“Si estamos investigando lo apropiado dada nuestra experiencia, y no se nos permite publicar eso por motivos que no están en línea con la revisión por pares de alta calidad, entonces nos estamos metiendo en un serio problema de censura”, dijo Mitchell.
Google afirma en su sitio web público que sus científicos tienen una libertad “sustancial”.
Las tensiones entre Google y parte de su personal surgieron este mes después de la abrupta salida del científico Timnit Gebru, quien dirigió un equipo de 12 personas con Mitchell centrado en la ética en el software de inteligencia artificial (IA).
Gebru dice que Google la despidió después de que cuestionara una orden de no publicar una investigación que afirmaba que la inteligencia artificial que imita el habla podría perjudicar a las poblaciones marginadas. Google dijo que aceptó y aceleró su renuncia. No se pudo determinar si el artículo de Gebru se sometió a una revisión de “temas sensibles”.
El vicepresidente senior de Google, Jeff Dean, dijo en un comunicado este mes que el artículo de Gebru se detuvo en los daños potenciales sin discutir los esfuerzos que se están realizando para abordarlos.
Dean agregó que Google apoya la erudición sobre ética de la IA y está “trabajando activamente para mejorar nuestros procesos de revisión de documentos, porque sabemos que demasiados controles y contrapesos pueden volverse engorrosos”.
“TEMAS SENSIBLES”
La explosión en la investigación y el desarrollo de la inteligencia artificial en la industria de la tecnología ha llevado a las autoridades de Estados Unidos y otros lugares a proponer reglas para su uso. Algunos han citado estudios científicos que muestran que el software de análisis facial y otra inteligencia artificial pueden perpetuar los prejuicios o erosionar la privacidad.
Google en los últimos años incorporó IA en todos sus servicios, utilizando la tecnología para interpretar consultas de búsqueda complejas, decidir recomendaciones en YouTube y autocompletar oraciones en Gmail. Sus investigadores publicaron más de 200 artículos en el último año sobre el desarrollo responsable de IA, entre más de 1,000 proyectos en total, dijo Dean.
El estudio de los sesgos de los servicios de Google se encuentra entre los “temas sensibles” de la nueva política de la compañía, según una página web interna. Entre docenas de otros “temas sensibles” enumerados se encuentran la industria petrolera, China, Irán, Israel, COVID-19, seguridad del hogar, seguros, datos de ubicación, religión, vehículos autónomos, telecomunicaciones y sistemas que recomiendan o personalizan contenido web.
El documento de Google para el que se les pidió a los autores que adoptaran un tono positivo analiza la IA de recomendación, que servicios como YouTube emplean para personalizar los feeds de contenido de los usuarios. Un borrador revisado por Reuters incluía “preocupaciones” de que esta tecnología pueda promover “desinformación, resultados discriminatorios o injustos” y “diversidad insuficiente de contenido”, así como llevar a una “polarización política”.
En cambio, la publicación final dice que los sistemas pueden promover “información precisa, equidad y diversidad de contenido”. La versión publicada, titulada “¿Para qué está optimizando? Alineando los sistemas de recomendación con los valores humanos”, omitió el crédito para los investigadores de Google. Reuters no pudo determinar por qué.
Un documento de este mes sobre la inteligencia artificial para comprender un idioma extranjero suavizó una referencia a cómo el producto Google Translate estaba cometiendo errores luego de una solicitud de los revisores de la empresa, dijo una fuente. La versión publicada dice que los autores usaron Google Translate, y una oración separada dice que parte del método de investigación fue “revisar y corregir traducciones inexactas”.
Para un artículo publicado la semana pasada, un empleado de Google describió el proceso como un “largo recorrido”, que involucra más de 100 intercambios de correo electrónico entre investigadores y revisores, según la correspondencia interna.
Los investigadores descubrieron que la inteligencia artificial puede arrojar datos personales y material con derechos de autor, incluida una página de una novela de “Harry Potter”, que se había extraído de Internet para desarrollar el sistema.
Un borrador describía cómo tales divulgaciones podrían infringir los derechos de autor o violar la ley de privacidad europea, dijo una persona familiarizada con el asunto. Tras las revisiones de la empresa, los autores eliminaron los riesgos legales y Google publicó el documento.
Fuente: cio.economictimes.indiatimes.com