Durante su participación en el Foro Económico Mundial de Davos, Yoshua Bengio, uno de los principales referentes en inteligencia artificial y galardonado con el Premio Turing en 2018, emitió una fuerte advertencia sobre el peligro de desarrollar sistemas de IA con capacidad autónoma. Según el experto, estos agentes podrían representar una amenaza significativa si no se controlan adecuadamente.
En una entrevista con Business Insider, Bengio destacó que los principales riesgos de la inteligencia general artificial (AGI) o de una superinteligencia surgen cuando los sistemas tienen la capacidad de actuar con objetivos propios. “Todos los escenarios catastróficos ocurren si tenemos agentes”, afirmó, subrayando la importancia de evitar el desarrollo de este tipo de tecnología sin una regulación adecuada.
Entre los peligros potenciales, mencionó el uso de agentes autónomos en sistemas de armamento y su impacto en la difusión de desinformación, lo que podría socavar valores democráticos. “Las empresas y los gobiernos continuarán avanzando en esta tecnología por miedo a quedarse atrás, lo que incrementa los riesgos”, advirtió.
Bengio también propuso una solución para mitigar estos peligros: el desarrollo de sistemas de IA no basados en agentes, es decir, sin capacidad de acción autónoma ni objetivos propios. Estos modelos podrían aplicarse en áreas como la medicina o el análisis de datos sin representar un riesgo para la seguridad global.
El científico canadiense enfatizó la necesidad de regulaciones estrictas para evitar que las empresas desarrollen modelos sin un control riguroso. Apoyó iniciativas como la legislación SB 1047 en California, que busca imponer evaluaciones de riesgo para modelos avanzados de IA, y abogó por medidas como la formación ética de desarrolladores y la supervisión gubernamental para monitorear usos peligrosos de la tecnología.
Bengio visualiza un futuro donde la IA esté al servicio de la humanidad sin convertirse en una amenaza.