Un grupo de líderes de la industria advirtió el martes que la tecnología de inteligencia artificial (IA) que están desarrollando algún día podría ser una amenaza existencial para la humanidad y debería considerarse un riesgo social al mismo nivel que las pandemias y las guerras nucleares.
“Mitigar el riesgo de extinción de la inteligencia artificial debería ser una prioridad mundial junto a otros riesgos a escala social, como las pandemias y las guerras nucleares”, dice la declaración, que consta de una sola frase, publicada por el Centro para la Seguridad de la IA, una organización sin fines de lucro. La carta abierta está firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en inteligencia artificial.
Entre los firmantes figuran altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei, director ejecutivo de Anthropic.