Los principales creadores de la IA alertan sobre el “peligro de extinción” que supone esta tecnología para la humanidad.
Una carta abierta firmada por los líderes de OpenAI, Google DeepMind y Anthropic compara esta tecnología con la pandemia o una guerra nuclear.
La inteligencia artificial (IA) supone un “riesgo de extinción” para la humanidad.
La inteligencia artificial (IA) supone un “riesgo de extinción” para la humanidad, al igual que catástrofes como una guerra nuclear o una pandemia. Esas son las conclusiones de un grupo de 350 ejecutivos, investigadores e ingenieros expertos en esta tecnología en una carta abierta de tan solo 22 palabras publicada este martes por el Centro para la Seguridad de la IA, una organización sin fines de lucro. “Mitigar el riesgo de extinción [para la humanidad] de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, cita el enunciado que ha sido firmado, entre otros, por los altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman (presidente ejecutivo de OpenAI), Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic). Entre los firmantes también se encuentran los investigadores Geoffrey Hinton y Yoshua Bengio, a quienes menudo se les considera padrinos del movimiento moderno de IA. Hinton dejó hace unas semanas Google, donde ocupaba una vicepresidencia, porque cree que esta tecnología puede llevarnos al fin de la civilización en cuestión de años, según confesaba a EL PAÍS.
48 Me gusta