Expertos advierten que la inteligencia artificial supone un riesgo de «extinción» para la humanidad
«Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear», advierte el texto firmado por Sam Altman, el creador de OpenAi y personalidades de relevancia similar.