×

Así es el proyecto secreto Q* de OpenAI, la superinteligencia artificial que puede ser «un riesgo para la humanidad»

Así es el proyecto secreto Q* de OpenAI que está generando controversia y preocupaciones. ¡Un giro que podría definir el futuro de la IA y la humanidad!

proyecto Q* qué es

Así es el proyecto Q*, liderado por la compañía OpenIA, que está generando controversia y preocupaciones. La superinteligencia artificial que puede ser «un riesgo para la humanidad»

OpenAI, la compañía detrás de ChatGPT, ha estado recientemente en el centro de una tormenta tras el abrupto despido y posterior reinstauración de Sam Altman como CEO.

Esta decisión, que provocó una gran agitación entre los inversores y empleados de la empresa; ha levantado preguntas sobre los conflictos internos y la dirección del proyecto secreto conocido como Q*, pronunciado Q star.

Según una reciente filtración a Reuters, antes del inesperado cambio en la junta directiva, varios investigadores de OpenAI expresaron su preocupación en una carta.

Advertían de un “poderoso descubrimiento de la inteligencia artificial” con Q*, un proyecto que, según ellos, podría representar una amenaza para la humanidad.

La carta destacaba la preocupación por una prematura comercialización de esta tecnología sin comprender completamente sus consecuencias.

¿Qué es el proyecto secreto Q*?

Q*, según se cree dentro de OpenAI, podría ser un avance significativo hacia la inteligencia artificial general (AGI), un objetivo clave para la startup.

AGI se refiere a sistemas autónomos capaces de superar a los humanos en la mayoría de las tareas económicamente valiosas.

Alcanzar este nivel en el desarrollo tecnológico no debería sorprender, dado que la creación de la Inteligencia Artificial General (AGI) constituye el propósito fundamental de OpenAI, tal como lo indica su misión declarada.

Sin embargo, el conflicto aparentemente surgió debido a que la junta directiva consideraba que Altman estaba precipitando la introducción de nuevos productos de IA al mercado, sin otorgar el tiempo necesario para que los equipos de seguridad implementaran las medidas de protección adecuadas.

Ilya Sutskever, el científico jefe de OpenAI y uno de los principales actores en el despido temporal de Altman; ha destacado que alcanzar AGI implica desarrollar un sistema capaz de aprender cualquier tarea que un ser humano pueda aprender.

Aunque OpenAI tiene una visión más amplia de AGI, lo cierto es que Q* parece tener capacidades limitadas; como resolver problemas matemáticos a nivel de escuela primaria, según fuentes de Reuters.

El futuro de Q* y las implicaciones éticas

La situación en torno a Q* y la dirección de OpenAI plantea preguntas críticas sobre la ética y la seguridad en el desarrollo de tecnologías de inteligencia artificial avanzadas.

Mientras el mundo observa de cerca, el debate sobre cómo y cuándo implementar estas tecnologías sigue siendo un tema central, especialmente cuando proyectos como Q* tienen el potencial de cambiar radicalmente el panorama de la IA y sus impactos en la sociedad.


Contacto:

Lea También