El temor de una super IA: un ex empleado de OpenAI advierte sobre los peligros de la Inteligencia Artificial General
Carroll Wainwright, un ex empleado de OpenAI, esta semana ha firmado una carta en conjunto con otros empleados de la empresa creadora de ChatGPT. En la carta, advierten sobre los posibles riesgos inherentes a la evolución de la inteligencia artificial (IA). El mayor temor es la creación de una super IA, también conocida como Inteligencia Artificial General (IAG), que podría llegar a ser tan o incluso más inteligente que los humanos.
Wainwright, que hasta hace poco formaba parte del equipo de alineamiento práctico y superalineamiento de OpenAI, se centraba en garantizar que los modelos más potentes de inteligencia artificial de la empresa fueran seguros y estuvieran en consonancia con los valores humanos. Cuando se lanzó ChatGPT, trabajó en un equipo de superalineamiento, donde estudiaron las intervenciones técnicas necesarias para mantener el control sobre los modelos de IA a medida que estos se volvían más inteligentes.
La IAG es un tipo de inteligencia artificial que va un paso más allá de la IA generativa. No solo sería capaz de replicar acciones humanas, como escribir o dibujar, que es lo que hace la IA generativa, sino que también comprendería la complejidad y el contexto de sus acciones. Aunque esta tecnología aún no existe, algunos expertos, como Elon Musk, predicen que podría crearse en unos dos años. Por otro lado, Robin Li, director ejecutivo de Baid, una de las mayores tecnológicas de China, cree que se necesitará una década.
Mientras tanto, Wainwright estima que la IAG podría verse en unos cinco años. Sin embargo, aclara que esta es solo una posibilidad, y que también es posible que tome mucho más tiempo. “Pero si hay algo que potencialmente puede cambiar el mundo, deberíamos tomárnoslo muy, muy en serio”, afirma.
Wainwright se apresura a aclarar que su renuncia y la posterior firma de la carta no se debieron a algún descubrimiento “aterrador” en OpenAI, ya que la empresa solo está investigando la posibilidad de crear esta tecnología. Su principal motivo fue el cambio en la visión de la compañía, que pasó de ser un laboratorio de investigación sin fines de lucro a buscar obtener ganancias tras el éxito de ChatGPT en 2022.
Wainwright destaca tres riesgos principales de la IAG: el desplazamiento de los trabajadores, especialmente en trabajos cualificados; el impacto social y mental, ya que las personas podrían llegar a tener un asistente personal de IA; y el control de la tecnología. En este último punto, señala el riesgo de que un modelo de IA más inteligente que los humanos pueda tener su propio objetivo y no hacer lo que se le ordena.
A pesar de estos riesgos, Wainwright cree que las grandes empresas de IA seguirán las regulaciones. El problema es que aún no se han implementado, por lo que los empleados del sector están pidiendo que se establezca un sistema en el que puedan alertar a una entidad independiente sobre los peligros que ven en sus empresas.
Según Wainwright, el problema de las grandes empresas de IA, como OpenAI y Google, no radica en la falta de seguridad, sino en la rapidez con que avanzan debido a la competencia entre ellas. “El hecho de que nadie quiera que ocurra un desastre no significa que vayan a tomarse el tiempo para asegurarse de que no suceda. Ya que existe el incentivo de competir y vencer a todos los demás”, advierte.
En marzo, el Parlamento Europeo ratificó la ley de IA de la Unión Europea (UE), la primera que regula esta tecnología en el mundo. Sin embargo, no entrará en vigor hasta 2026. Además, se anunció recientemente que los reguladores de Estados Unidos abrirán investigaciones antimonopolio contra Microsoft, OpenAI y Nvidia para analizar su influencia en el sector.