Microsoft estima que sus herramientas de inteligencia artificial están preparadas para remodelar profesiones, con pocos riesgos legales y éticos.
El concepto AI generativa describe tecnología artificialmente inteligente que puede generar arte, texto o código, dirigido por indicaciones de un usuario.
El concepto se hizo famoso este año gracias a Dall-E, un programa capaz de crear una fantástica variedad de imágenes artísticas a pedido.
Ahora, un nuevo programa de Microsoft, GitHub Copilot, busca transformar esta tecnología en algo ampliamente útil. A principios del año, GitHub, propiedad de Microsoft, lanzó ampliamente la herramienta de inteligencia artificial para trabajar junto con programadores.
A medida que escriben, Copilot sugiere fragmentos de códigos que podrían aparecer a continuación en el programa, como un bot de autocompletado entrenado para hablar en Python o JavaScript. Es útil para el equivalente de programación del trabajo manual: completar fragmentos de código que sean necesarios, pero particularmente complicados o creativos.
La herramienta la utilizan desarrolladores de software que confían en ella para generar hasta el 40% del código que escriben en aproximadamente una docena de los lenguajes más populares.
GitHub cree que los desarrolladores podrían usar Copilot para escribir hasta el 80% de su código en cinco años. Esto es solo el comienzo de la ambición de las empresas.
Los ejecutivos de Microsoft dijeron que la compañía tiene planes de desarrollar la tecnología Copilot para usarla en programas similares para otras categorías laborales, como trabajos de oficina, diseño de videojuegos, arquitectura y seguridad informática.
La empresa construirá algunas de estas herramientas, por sí misma y otras provendrán de socios, clientes y rivales.
Cassidy Williams, directora de tecnología de la startup de inteligencia artificial Contenda, es fanática de GitHub CoPilot y lo ha estado usando desde su lanzamiento beta con un éxito creciente.
La experiencia de Williams ilustra la promesa y el peligro de la IA generativa. Además de ofrecer ayuda para la codificación, su salida a veces puede sorprender o horrorizar. La categoría de herramientas de IA utilizadas para Copilot se denominan modelos de lenguaje extenso y aprenden de la escritura humana.
Por lo general, el producto es tan bueno como los datos que contiene, un problema que plantea una maraña de nuevos dilemas éticos.
Los desarrolladores de software se han quejado de que Copilot ocasionalmente copia al por mayor sus programas, lo que genera preocupaciones sobre la propiedad y las protecciones de derechos de autor.
El programa es capaz de aprender de un código inseguro, lo que significa que tiene el potencial de reproducir fallas de seguridad que dejan entrar a los piratas informáticos.
Microsoft es consciente de los riesgos y realizó una revisión de seguridad del programa antes de su lanzamiento.
La compañía creó una capa de software que filtra el contenido dañino de sus servicios de inteligencia artificial en la nube y ha tratado de entrenar este tipo de programas para que se comporten de manera adecuada.
Sara Bird, quien dirige la inteligencia artificial responsable de Azure AI de Microsoft, el equipo que crea la capa ética para Copilot, dijo que este tipo de problemas son decisivos para la nueva clase de productos. ‘Realmente no puedes usar estas tecnologías en la práctica, si no entiendes bien la parte responsable de la IA de la historia’, comentó.
El programa brilla cuando los desarrolladores necesitan completar una codificación simple: el tipo de problemas que podrían resolver al buscar en el archivo de código abierto de GitHub.
En una demostración, Ryan Salva, vicepresidente de productos de GitHub, mostró cómo un programador puede seleccionar un lenguaje de programación y comenzar a escribir un código que indique que desea un sistema para almacenar direcciones. Cuando presiona regresar, aparecen alrededor de una docena de líneas de texto gris en cursiva. Eso es Copilot, que ofrece un programa de libreta de direcciones simple.