El presidente de Estados Unidos, Joe Biden, se reunió con los directores ejecutivos de las principales empresas de inteligencia artificial, incluidas Microsoft y Google, y dejó en claro que deben asegurarse de que sus productos sean seguros antes de implementarlos.
La inteligencia artificial generativa se ha convertido en una palabra de moda este año, con aplicaciones como ChatGPT captando la atención del público, provocando una carrera entre las empresas para lanzar productos similares que creen que cambiarán la naturaleza del trabajo.
Millones de usuarios han comenzado a probar dichas herramientas, que según sus partidarios pueden hacer diagnósticos médicos, escribir guiones, crear informes legales y depurar software, lo que genera una creciente preocupación sobre cómo la tecnología podría conducir a violaciones de privacidad, decisiones de empleo sesgadas y estafas.
Biden, que usó ChatGPT y experimentó con él, les dijo a los funcionarios que deben mitigar los riesgos actuales y potenciales que la Inteligencia Artificial representa para las personas, la sociedad y la seguridad nacional, dijo la Casa Blanca.
La reunión incluyó una “discusión franca y constructiva” sobre la necesidad de que las empresas sean más transparentes con los legisladores sobre sus sistemas de Inteligencia Artificial; la importancia de evaluar la seguridad de dichos productos; y la necesidad de protegerlos de ataques maliciosos, agregó la Casa Blanca.
La reunión de dos horas incluyó a Sundar Pichai de Google, Satya Nadella de Microsoft, Sam Altman de OpenAI y Dario Amodei de Anthropic, junto con la vicepresidenta Kamala Harris y funcionarios de la administración, incluido el jefe de personal de Biden. Jeff Zients, el Asesor de Seguridad Nacional Jake Sullivan, el Director del Consejo Económico Nacional Lael Brainard y la Secretaria de Comercio Gina Raimondo.
Harris dijo en un comunicado que la tecnología tiene el potencial de mejorar vidas, pero podría plantear problemas de seguridad, privacidad y derechos civiles. Ella les dijo a los directores ejecutivos que tienen la “responsabilidad legal” de garantizar la seguridad de sus productos de inteligencia artificial y que la administración está abierta a promover nuevas regulaciones y apoyar una nueva legislación sobre inteligencia artificial.
En respuesta a una pregunta sobre si las empresas están en sintonía con las regulaciones, Altman dijo a los periodistas después de la reunión que “sorprendentemente estamos en sintonía sobre lo que debe suceder”.
La administración también anunció una inversión de $ 140 millones de la Fundación Nacional de Ciencias para lanzar siete nuevos institutos de investigación de Inteligencia Artificial y dijo que la Oficina de Administración y Presupuesto de la Casa Blanca publicaría una guía de políticas sobre el uso de IA por parte del gobierno federal.
Los principales desarrolladores de IA, incluidos Anthropic, Google, Hugging Face, NVIDIA, OpenAI y Stability AI, participarán en una evaluación pública de sus sistemas de Inteligencia Artificial.
Poco después de que Biden anunciara su candidatura a la reelección, el Comité Nacional Republicano produjo un video que presenta un futuro distópico durante un segundo mandato de Biden, que se construyó completamente con imágenes de IA.
Se espera que estos anuncios políticos se vuelvan más comunes a medida que prolifere la tecnología de Inteligencia Artificial.
Los reguladores de los Estados Unidos no han alcanzado el enfoque estricto que los gobiernos europeos han adoptado en la regulación tecnológica y en la elaboración de reglas estrictas sobre las falsificaciones profundas y la desinformación.
“No vemos esto como una carrera”, dijo un alto funcionario de la administración, y agregó que la administración está trabajando en estrecha colaboración con el Consejo de Comercio y Tecnología de EE. UU. y la UE sobre el tema.
En febrero, Biden firmó una orden ejecutiva que ordena a las agencias federales que eliminen el sesgo en el uso de la IA. La administración Biden también ha publicado una Declaración de derechos de IA y un marco de gestión de riesgos.
La semana pasada, la Comisión Federal de Comercio y la División de Derechos Civiles del Departamento de Justicia también dijeron que usarían sus autoridades legales para combatir los daños relacionados con la IA.