António Guterres alerta sobre los riesgos de una inteligencia artificial sin regulación y pide control humano sobre armas, reglas globales y equidad tecnológica
António Guterres alerta sobre los riesgos de una inteligencia artificial sin regulación y pide control humano sobre armas, reglas globales y equidad tecnológica

La inteligencia artificial (IA) tiene un enorme potencial, pero representa graves riesgos si no se regula, advirtió el Secretario General de la Organización de las Naciones Unidas (ONU), António Guterres, al Consejo de Seguridad este miércoles, en el marco de la semana de alto nivel de la 80.ª sesión de la Asamblea General.
“La IA ya no es un horizonte lejano: está aquí, transformando la vida diaria, el espacio informativo y la economía global a una velocidad vertiginosa”, dijo Guterres durante el debate de alto nivel del Consejo sobre las implicaciones de seguridad de esta tecnología en la transformación de la guerra.
La reunión fue convocada por la República de Corea (presidenta del Consejo durante el mes de septiembre) y contó con la participación de jefes de Estado y de Gobierno, entre ellos Lee Jae Myung, Presidente de la República de Corea, quien presidió la reunión.
“La pregunta no es si la IA influirá en la paz y seguridad internacionales, sino cómo daremos forma a esa influencia”, indicó el jefe de la ONU y consideró que, usada de manera responsable, la IA puede ayudar a anticipar la inseguridad alimentaria, apoyar las operaciones de desminado y detectar brotes de violencia antes de que se salgan de control.
“Pero sin salvaguardias, también puede ser militarizada,” advirtió, señalando el uso de la IA para dirigir ataques en conflictos recientes, ciberataques contra infraestructuras críticas y el uso de deepfakes capaces de alimentar la polarización o descarrilar la diplomacia.
Guterres subrayó que “la capacidad de fabricar y manipular audio y video amenaza la integridad de la información, alimenta la polarización y puede desencadenar crisis diplomáticas” y que el destino de la humanidad no puede quedar en manos de un algoritmo.”
Guterres estableció cuatro prioridades para los gobiernos: mantener el control humano sobre el uso de la fuerza, crear marcos normativos globales coherentes, proteger la integridad de la información y cerrar lo que denominó la “brecha de capacidad en materia de IA” entre los países ricos y los pobres.
“Reitero mi llamado a prohibir los sistemas de armas autónomas letales que operan sin control humano, con miras a concluir un instrumento jurídicamente vinculante para el próximo año,” afirmó.
También insistió en que las decisiones sobre armas nucleares “deben quedar en manos de los seres humanos, no de las máquinas.”
El Secretario General destacó medidas ya en marcha, como la creación de un panel científico independiente sobre IA y un nuevo diálogo global sobre gobernanza de la IA, que se llevará a cabo en Nueva York el jueves.
“Estas iniciativas buscan conectar la ciencia, las políticas y la práctica; ofrecer a cada país un lugar en la mesa; y reducir la fragmentación,” explicó.
Yejin Choi, investigadora senior en el Instituto de Inteligencia Artificial Centrada en el Ser Humano de la Universidad de Stanford, dijo al Consejo de Seguridad que el avance actual en IA está demasiado concentrado en pocas empresas y países.
“Cuando solo unos pocos tienen los recursos para desarrollar y beneficiarse de la IA, dejamos al resto del mundo esperando en la puerta,” señaló y agregó: “Expandamos lo que puede ser la inteligencia, y permitamos que todos y en todas partes tengan un papel en su construcción.”
Guterres concluyó advirtiendo que la ventana de oportunidad para una regulación efectiva se está cerrando rápidamente.
“Desde el control de armas nucleares hasta la seguridad aérea, la comunidad internacional ha sabido responder ante tecnologías que podrían desestabilizar nuestras sociedades: estableciendo reglas, construyendo instituciones y defendiendo la dignidad humana,” afirmó.
“La ventana para moldear la IA —por la paz, la justicia y la humanidad— se está cerrando. Debemos actuar sin demora.”
Pedro Alberto Kreder, de 79 años, y Juana Inés Morales, de 69, desaparecieron hace 11 días en los Cañadones de Visser, Chubut, tras quedar varados con su camioneta. La Policía investiga una denuncia anónima que sugiere un posible ataque y el avistaje de dos hombres en el vehículo.
Un estudio de la Universidad de California identificó cómo recuperar la visión deteriorada con la edad mediante la reactivación de ácidos grasos esenciales para la retina. Este avance desafía la creencia de que el daño visual en adultos mayores es irreversible.
El conductor de “Por el Mundo” se sometió a una cirugía de cataratas con un implante multifocal lioplegable que duró siete minutos. Compartió en sus redes imágenes del procedimiento y la recuperación, mostrando optimismo.
La exfuncionaria fue atendida en varias oportunidades, pero no le detectaron la apendicitis. Murió días después. Tres médicos fueron imputados por mala praxis tras la denuncia de la familia.
Un estudio español identificó dos ácidos grasos que predicen la diabetes tipo 2 años antes del diagnóstico y abren camino a una prevención más personalizada.
La Policía de la Ciudad encontró a Lourdes Fernández en el departamento de su pareja en Palermo y detuvo a Leandro Esteban García Gómez tras orden judicial por denuncias de violencia de género.
Nicolás Varrone fue confirmado como piloto titular de Van Amersfoort Racing para la temporada 2026 de Fórmula 2, la categoría que impulsa a los pilotos hacia la Fórmula 1. El corredor bonaerense, de 24 años, sumará experiencia en la antesala de la máxima división del automovilismo mundial.
La vuelta se jugará en el estadio Néstor Díaz Pérez el próximo jueves 30 de octubre.