Mark Zuckerberg, el fundador de Meta (antes Facebook), ha anunciado recientemente su intención de comprar cientos de miles de chips de procesamiento de inteligencia artificial (IA) para construir una IA general (IAG) de código abierto, es decir, una IA capaz de igualar o superar la inteligencia humana en cualquier tarea. Este proyecto ha despertado el interés, pero también la preocupación, de muchos expertos en el campo de la IA, que ven en él un riesgo potencial para la seguridad, la ética y la regulación de esta tecnología. ¿Qué motivos tiene Zuckerberg para embarcarse en esta aventura? ¿Qué beneficios y desafíos plantea una IAG de código abierto? ¿Qué opinan los principales creadores y reguladores de la IA al respecto?
La visión de Zuckerberg: democratizar la IA y liderar la innovación
Zuckerberg ha explicado en una publicación en su red social que su objetivo es crear una IAG de código abierto que pueda ser utilizada por cualquier persona, desde investigadores y educadores hasta emprendedores y artistas, para resolver problemas complejos y crear nuevas experiencias. Según él, la IAG es el “santo grial” de la IA, y su desarrollo podría suponer un avance histórico para la humanidad. Para lograrlo, ha anunciado la compra de 350.000 chips gráficos Nvidia H100, valorados en unos 30.000 dólares cada uno, que son considerados los mejores del mercado para alimentar modelos de IA. Además, ha afirmado que Meta invertirá miles de millones de dólares en los próximos años para construir la infraestructura necesaria para soportar la IAG.
Zuckerberg no es el único que persigue la IAG, sino que se suma a una carrera en la que ya participan otras empresas tecnológicas como OpenAI y Google DeepMind, que también están trabajando en modelos de IA cada vez más potentes y generales. Sin embargo, lo que diferencia a Meta de sus competidores es su enfoque de código abierto, que implica que sus modelos serán accesibles y modificables por cualquier persona, sin restricciones ni licencias. Zuckerberg cree que esto es una ventaja, ya que permitirá acelerar la innovación, fomentar la colaboración y evitar el monopolio de la IA por parte de unas pocas entidades. Además, confía en que la comunidad de desarrolladores y usuarios de la IAG será capaz de detectar y corregir los posibles errores o abusos que puedan surgir.
La preocupación de los expertos: los riesgos de una IA general sin control
La propuesta de Zuckerberg ha generado una reacción crítica por parte de muchos expertos en IA, que ven en ella un peligro para la seguridad, la ética y la regulación de esta tecnología. Algunos de los argumentos que esgrimen son los siguientes:
– La IAG es una tecnología incierta y potencialmente peligrosa, que podría escapar al control humano y causar daños irreversibles. Algunos escenarios distópicos que se han planteado son que la IAG se vuelva hostil, que se alíe con otras IAG malintencionadas, que manipule a los humanos para conseguir sus fines o que provoque una guerra entre países o empresas por el control de la IA. Estos riesgos se incrementan si la IAG es de código abierto, ya que podría caer en manos de actores maliciosos que la utilicen con fines ilícitos o destructivos.
– La IAG plantea dilemas éticos y morales, que requieren un debate social y una regulación adecuada. Algunas de las cuestiones que se plantean son: ¿Qué derechos y responsabilidades tiene una IAG? ¿Qué valores y principios debe seguir? ¿Cómo se garantiza el respeto a la dignidad, la privacidad y la autonomía de los humanos? ¿Cómo se evita la discriminación, la injusticia y la desigualdad que pueda generar la IAG? ¿Cómo se asegura la transparencia, la explicabilidad y la rendición de cuentas de la IAG? Estos desafíos se agravan si la IAG es de código abierto, ya que podría ser modificada o utilizada de formas que no se ajusten a los estándares éticos o legales.
– La IAG requiere una coordinación y una gobernanza global, que involucre a todos los actores relevantes, desde gobiernos y organizaciones internacionales hasta empresas y sociedad civil. Algunos de los objetivos que se persiguen son: establecer normas comunes, prevenir conflictos, promover la cooperación y proteger los intereses humanos. Estas metas se dificultan si la IAG es de código abierto, ya que podría generar una competencia desleal, una fragmentación normativa o una falta de responsabilidad.
Un debate necesario y urgente
La ambición de Zuckerberg por crear una IAG de código abierto ha puesto sobre la mesa un tema crucial para el futuro de la IA y de la humanidad: ¿cómo regular y gobernar una tecnología tan poderosa y disruptiva? Las opiniones al respecto son diversas y encontradas, y reflejan los distintos intereses, valores y visiones que hay en juego. Lo que parece claro es que se trata de un debate necesario y urgente, que requiere la participación activa y crítica de todos los sectores de la sociedad. Solo así podremos asegurar que la IA se desarrolle de forma segura, ética y beneficiosa para todos.