banner
Centro de Noticias
Servicio al cliente excepcional

La comunidad internacional debe enfrentar urgentemente la nueva realidad de la inteligencia artificial generativa, subrayan los oradores mientras el Consejo de Seguridad debate riesgos y recompensas

Jul 19, 2023

La comunidad internacional debe enfrentar urgentemente la nueva realidad de la inteligencia generativa y otras inteligencias artificiales (IA), dijeron hoy los oradores al Consejo de Seguridad en su primera reunión formal sobre el tema, mientras el debate que siguió puso de relieve la dualidad de riesgo y recompensa inherente a esta tecnología emergente. .

António Guterres, Secretario General de las Naciones Unidas, señaló que la IA ha sido comparada con la imprenta y observó que, si bien se necesitaron más de 50 años para que los libros impresos estuvieran ampliamente disponibles en toda Europa, “ChatGPT alcanzó los 100 millones de usuarios en solo dos meses". A pesar de su potencial para impulsar el desarrollo global y hacer realidad los derechos humanos, la IA puede amplificar los prejuicios, reforzar la discriminación y permitir nuevos niveles de vigilancia autoritaria.

La llegada de la IA generativa “podría ser un momento decisivo para la desinformación y el discurso de odio”, observó y, si bien las cuestiones de gobernanza serán complejas por varias razones, la comunidad internacional ya tiene puntos de entrada. El mejor enfoque sería abordar los desafíos existentes y al mismo tiempo crear capacidad para responder a riesgos futuros, dijo, y subrayó la necesidad de “trabajar juntos para lograr una IA que supere las brechas sociales, digitales y económicas, no una que nos separe aún más”.

Jack Clark, cofundador de Anthropic, señaló que, si bien la IA puede aportar enormes beneficios, también plantea amenazas a la paz, la seguridad y la estabilidad global debido a su potencial de uso indebido y su imprevisibilidad, dos cualidades esenciales de los sistemas de IA. Por ejemplo, si bien un sistema de IA puede mejorar la comprensión de la biología, también puede utilizarse para construir armas biológicas. Además, una vez desarrollados e implementados, las personas identifican usos nuevos e imprevistos para dichos sistemas.

“No podemos dejar el desarrollo de la inteligencia artificial únicamente en manos de actores del sector privado”, subrayó, afirmando que los gobiernos pueden hacer que las empresas rindan cuentas (y las empresas pueden ganarse la confianza del mundo) desarrollando sistemas de evaluación sólidos y confiables. Sin esa inversión, la comunidad internacional corre el riesgo de entregar el futuro a un conjunto reducido de actores del sector privado, advirtió.

Yi Zeng, del Instituto de Automatización de la Academia de Ciencias de China, también informó al Consejo y señaló que la IA actual son herramientas de procesamiento de información que, aunque aparentemente inteligentes, carecen de una comprensión real. “Por eso, por supuesto, no se puede confiar en ellos como agentes responsables que pueden ayudar a los humanos a tomar decisiones”, enfatizó. Tanto a corto como a largo plazo la IA conllevará un riesgo de extinción humana simplemente porque "no hemos encontrado una manera de protegernos de la utilización de la debilidad humana por parte de la IA", afirmó.

En el debate que siguió, los miembros del Consejo destacaron alternativamente las oportunidades transformadoras que ofrece la IA para abordar los desafíos globales y los riesgos que plantea, incluido su potencial para intensificar los conflictos mediante la difusión de información errónea y operaciones cibernéticas maliciosas. Muchos, reconociendo las aplicaciones militares de la tecnología, subrayaron el imperativo de conservar el elemento de toma de decisiones humana en los sistemas de armas autónomos. Los miembros también destacaron la necesidad de establecer un marco ético y responsable para la gobernanza internacional de la IA.

Al respecto, Omran Sharaf, Ministro Adjunto de Ciencias y Tecnología Avanzadas de los Emiratos Árabes Unidos, afirmó que existe una breve ventana de oportunidad, disponible ahora, en la que las partes interesadas clave están dispuestas a unirse y considerar las barreras de seguridad para esta tecnología. Los Estados miembros deberían establecer normas acordadas de común acuerdo “antes de que sea demasiado tarde”, subrayó, y pidió mecanismos para evitar que las herramientas de IA promuevan el odio, la desinformación y la desinformación que pueden alimentar el extremismo y exacerbar el conflicto.

El representante de Ghana añadió además que la comunidad internacional debe "limitar los excesos de las ambiciones nacionales individuales de dominio combativo". Al instar al desarrollo de marcos que regirían la IA con fines pacíficos, destacó el despliegue de esa tecnología por parte de la Misión de Apoyo de las Naciones Unidas en Libia (UNSMIL). Utilizado para determinar la reacción del pueblo libio a las políticas, facilitó mejoras en el Índice de Paz Global 2022 de ese país, señaló, al tiempo que advirtió contra la integración de la IA en los sistemas de armas autónomos.

El portavoz de Ecuador también rechazó la militarización de la IA y reiteró el riesgo que representan las armas letales autónomas. “La robotización del conflicto es un gran desafío para nuestros esfuerzos de desarme y un desafío existencial que este Consejo ignora bajo su propio riesgo”, advirtió. Añadiendo que la IA puede contribuir o socavar los esfuerzos de paz, enfatizó que “nuestra responsabilidad es promover y aprovechar al máximo el desarrollo tecnológico como facilitador de la paz”.

El representante de China, tras señalar que la IA es un arma de doble filo, dijo que si es buena o mala depende de cómo la use y regule la humanidad, y de cómo se logre el equilibrio entre el desarrollo científico y la seguridad. El desarrollo de la IA debe garantizar la seguridad, la conciencia de los riesgos, la equidad y la inclusión, subrayó, y pidió a la comunidad internacional que anteponga la ética y garantice que la tecnología siempre beneficie a la humanidad.

James Cleverly, Secretario de Estado de Asuntos Exteriores, Commonwealth y Desarrollo del Reino Unido, Presidente del Consejo en julio, habló a título nacional para señalar que la IA podría mejorar o perturbar la estabilidad estratégica global, cuestionar supuestos fundamentales sobre defensa y disuasión, y plantean cuestiones morales sobre la responsabilidad por decisiones letales en el campo de batalla. Pero a la comunidad internacional le esperan oportunidades trascendentales, añadió, observando: “Hay una marea en los asuntos de los hombres que, tomada en la corriente, conduce a la fortuna”.

Sesiones informativas

ANTÓNIO GUTERRES, Secretario General de las Naciones Unidas, recordó que dijo a la Asamblea General en 2017 que la inteligencia artificial (IA) “tendría un impacto dramático en el desarrollo sostenible, el mundo del trabajo y el tejido social”. Tras señalar que esta tecnología ha sido comparada con la imprenta, observó que, si bien se necesitaron más de 50 años para que los libros impresos estuvieran ampliamente disponibles en toda Europa, “ChatGPT alcanzó los 100 millones de usuarios en sólo dos meses”. La industria financiera estima que la IA podría aportar hasta 15 billones de dólares a la economía mundial para 2030, y casi todos los gobiernos, grandes empresas y organizaciones del mundo están trabajando en una estrategia de IA. La IA tiene el potencial de impulsar el desarrollo global (desde el seguimiento de la crisis climática hasta los avances en la investigación médica) y ofrece un nuevo potencial para hacer realidad los derechos humanos, particularmente en las áreas de salud y educación.

Sin embargo, señaló que el Alto Comisionado para los Derechos Humanos ha expresado alarma por la evidencia de que la IA puede amplificar los prejuicios, reforzar la discriminación y permitir nuevos niveles de vigilancia autoritaria. Instando al Consejo a abordar esta tecnología con un sentido de urgencia, una perspectiva global y una mentalidad de aprendiz, observó: “Nunca más la innovación tecnológica avanzará tan lentamente como hoy”. Si bien las herramientas de IA se utilizan cada vez más (incluidas las Naciones Unidas) para identificar patrones de violencia, monitorear los ceses del fuego y ayudar a fortalecer el mantenimiento de la paz, la mediación y los esfuerzos humanitarios, los modelos de IA pueden ayudar a las personas a dañarse a sí mismas y a otros a escala masiva. Sobre esto, dijo que los ciberataques basados ​​en IA ya están dirigidos a infraestructuras críticas y operaciones de mantenimiento de la paz y que la llegada de la IA generativa “podría ser un momento decisivo para la desinformación y el discurso de odio”. Al describir otras posibles consecuencias, expresó su preocupación por el mal funcionamiento de los sistemas de IA y la interacción entre la IA y las armas nucleares, la biotecnología, la neurotecnología y la robótica.

"Si no se toman medidas para abordar estos riesgos, no cumplimos con nuestras responsabilidades para con las generaciones presentes y futuras", subrayó. Las cuestiones de gobernanza serán complejas por varias razones: ya hay potentes modelos de IA ampliamente disponibles; Las herramientas de IA se pueden mover por todo el mundo dejando muy poco rastro; y el papel de liderazgo del sector privado en la IA tiene pocos paralelos con otras tecnologías estratégicas. Sin embargo, la comunidad internacional ya tiene puntos de entrada, incluidos los principios rectores de 2018-2019 sobre sistemas de armas letales autónomas; las recomendaciones de 2021 sobre la ética de la IA acordadas a través de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO); recomendaciones de la Oficina de las Naciones Unidas contra el Terrorismo; y las cumbres “AI for Good” organizadas por la Unión Internacional de Telecomunicaciones (UIT).

El mejor enfoque, continuó diciendo, sería abordar los desafíos existentes y al mismo tiempo crear la capacidad para monitorear y responder a riesgos futuros. La necesidad de estándares y enfoques globales hace de las Naciones Unidas el lugar ideal para que esto suceda y, por lo tanto, acogió con agrado los llamados de algunos Estados Miembros para crear una nueva entidad de las Naciones Unidas para apoyar los esfuerzos colectivos para gobernar esta tecnología. Una entidad de este tipo reuniría conocimientos especializados y los pondría a disposición de la comunidad internacional y podría apoyar la colaboración en la investigación y el desarrollo de herramientas de IA para acelerar el desarrollo sostenible. Instando al Consejo a mostrar el camino hacia medidas comunes para la transparencia, la rendición de cuentas y la supervisión de los sistemas de IA, subrayó la necesidad de “trabajar juntos para lograr una IA que supere las brechas sociales, digitales y económicas, no una que nos separe aún más”.

JACK CLARK, cofundador de Anthropic, dijo: “No podemos dejar el desarrollo de la inteligencia artificial únicamente en manos de actores del sector privado. Los gobiernos del mundo deben unirse, desarrollar la capacidad de los Estados y hacer del desarrollo de potentes sistemas de IA un esfuerzo compartido entre todos los sectores de la sociedad, en lugar de uno dictado únicamente por un pequeño número de empresas que compiten entre sí en el mercado”. Recordó que hace una década la empresa DeepMind, con sede en Inglaterra, publicó una investigación que muestra cómo enseñar a un sistema de inteligencia artificial a jugar juegos de computadora antiguos como Space Invaders. Las mismas técnicas utilizadas en esa investigación se están utilizando ahora para crear sistemas de inteligencia artificial que pueden vencer a los pilotos militares en estimulación de combate aéreo e incluso diseñar los componentes de semiconductores de próxima generación.

Tras señalar que los modelos de IA, como OpenAI, ChatGPT, Google Bard y su propia empresa, Anthropic's Claude, son desarrollados por intereses corporativos, dijo que, como los actores del sector privado son los que tienen computadoras sofisticadas y grandes cantidades de datos y recursos de capital para construir estos sistemas, parece probable que sigan definiendo su desarrollo. Sin embargo, si bien eso traerá enormes beneficios, también plantea amenazas potenciales a la paz, la seguridad y la estabilidad global, que emanan del potencial de uso indebido de la IA y su imprevisibilidad, dos cualidades esenciales de los sistemas de IA. Por ejemplo, sobre el uso indebido, dijo que un sistema de inteligencia artificial que pueda ayudar a comprender mejor la biología también podría usarse para construir armas biológicas. En cuanto a la imprevisibilidad, señaló que una vez que se desarrollan y despliegan los sistemas de IA, las personas identifican nuevos usos para ellos que no fueron previstos por sus desarrolladores o que el sistema mismo podría luego exhibir un comportamiento caótico o impredecible.

"Por lo tanto, deberíamos pensar muy cuidadosamente cómo garantizar que los desarrolladores de estos sistemas sean responsables, de modo que construyan e implementen sistemas seguros y confiables que no comprometan la seguridad global", instó. La IA como forma de trabajo humano ofrece una inmensa influencia y poder político, señaló, planteando preguntas sobre cómo los gobiernos deberían regular este poder o quiénes deberían ser los actores que puedan vender a los llamados expertos. La comunidad internacional debe trabajar en el desarrollo de formas de probar las capacidades, los usos indebidos y los posibles fallos de seguridad de los sistemas. Por esta razón, ha sido alentador ver que muchos países enfatizan la importancia de las pruebas y evaluaciones de seguridad en sus diversas propuestas de políticas de IA, dijo, nombrando las de la Unión Europea, China y Estados Unidos.

Al señalar la ausencia de estándares o mejores prácticas sobre cómo probar estos sistemas para detectar aspectos como discriminación, mal uso o seguridad, dijo que los gobiernos pueden hacer que las empresas rindan cuentas y las empresas pueden ganarse la confianza del mundo desarrollando sistemas de evaluación sólidos y confiables. Sin esa inversión, la comunidad internacional corre el riesgo de entregar el futuro a un conjunto reducido de actores del sector privado, advirtió. "Sin embargo, si podemos estar a la altura del desafío, podremos cosechar los beneficios de la IA como comunidad global y garantizar que exista un equilibrio de poder entre los desarrolladores de la IA y los ciudadanos del mundo", afirmó.

YI ZENG, Instituto de Automatización de la Academia de Ciencias de China, dijo que no hay duda de que la IA es una tecnología poderosa y que permite impulsar el desarrollo sostenible global. Desde la perspectiva de la paz y la seguridad, los esfuerzos deberían centrarse en utilizarlo para identificar la desinformación y los malentendidos entre países y organismos políticos. La IA debería utilizarse para la defensa de la red, no para los ataques. "La IA debería utilizarse para conectar personas y culturas, no para desconectarlas", añadió. La IA actual, incluida la IA generativa reciente, son herramientas de procesamiento de información que parecen ser inteligentes, aunque carecen de conocimientos reales y, por tanto, no son verdaderamente inteligentes.

“Por eso, por supuesto, no se puede confiar en ellos como agentes responsables que pueden ayudar a los humanos a tomar decisiones”, enfatizó. La IA no debería utilizarse para automatizar tareas diplomáticas, especialmente negociaciones exteriores entre diferentes países, ya que puede utilizar y ampliar las limitaciones y debilidades humanas para crear riesgos mayores o incluso catastróficos. “La IA nunca debería pretender ser humana”, afirmó, destacando la necesidad de garantizar un control humano suficiente, eficaz y responsable de todos los sistemas de armas compatibles con la IA. Tanto a corto como a largo plazo la IA incluirá el riesgo de extinciones humanas simplemente porque "no hemos encontrado una manera de protegernos de la utilización de la debilidad humana por parte de la IA". La IA no “sabe lo que entendemos por humanos: [por] muerte y vida”.

"A largo plazo, no hemos dado a la superinteligencia ninguna razón práctica por la que deba proteger a los humanos", continuó. Al proponer que el Consejo considere la posibilidad de crear un grupo de trabajo sobre IA para la paz y la seguridad, alentó a los miembros a desempeñar un papel cada vez más importante en esta importante cuestión. "Los seres humanos siempre deben mantener y ser responsables de la toma de decisiones finales sobre el uso de armas nucleares", enfatizó. Las Naciones Unidas deben desempeñar un papel central para establecer un marco sobre el desarrollo y la gobernanza de la IA, para garantizar la paz y la seguridad globales.

Declaraciones

JAMES CLEVERLY, Secretario de Estado de Asuntos Exteriores, Commonwealth y Desarrollo del Reino Unido, Presidente del Consejo en julio, habló a título nacional para señalar que la IA puede ayudar al mundo a adaptarse al cambio climático, combatir la corrupción, revolucionar la educación y lograr la sostenibilidad. Objetivos de Desarrollo Sostenible y reducir los conflictos violentos. "Pero estamos aquí hoy porque la IA afectará el trabajo del Consejo", observó, señalando que la tecnología podría mejorar o perturbar la estabilidad estratégica global, cuestionar supuestos fundamentales sobre defensa y disuasión y plantear cuestiones morales sobre la responsabilidad por decisiones letales en el campo de batalla. Además, la IA cambia la velocidad, la escala y la difusión de la desinformación (con consecuencias enormemente perjudiciales para la democracia y la estabilidad) y podría contribuir a la búsqueda imprudente de armas de destrucción masiva por parte de actores estatales y no estatales.

"Por eso necesitamos urgentemente configurar la gobernanza global de las tecnologías transformadoras", subrayó. Para el Reino Unido, AI debería: apoyar la libertad y la democracia; ser coherente con el Estado de derecho y los derechos humanos; ser seguro y predecible por diseño; y ser confiable para el público. Tras señalar que su país es el hogar de muchos de los desarrolladores de IA pioneros del mundo y de los principales investigadores de seguridad de la IA, dijo que el Reino Unido reunirá a los líderes mundiales para la primera gran cumbre mundial sobre seguridad de la IA en otoño. La comunidad internacional tiene ante sí oportunidades trascendentales, añadió, observando: “Hay una marea en los asuntos de los hombres que, tomada en la corriente, conduce a la fortuna”.

TAKEI SHUNSUKE, Ministro de Estado de Asuntos Exteriores de Japón, subrayó la importancia de una IA confiable y centrada en el ser humano, y señaló que el desarrollo de la IA debe ser coherente con los valores democráticos y los derechos humanos fundamentales. “La IA no debería ser una herramienta para los gobernantes, sino que debería estar sujeta al Estado de derecho”, dijo, y enfatizó que el uso militar de la IA debe ser responsable, transparente y basado en el derecho internacional. La IA puede volverse más confiable al incluir a una amplia gama de partes interesadas en el proceso, dijo, y señaló que el poder de convocatoria de las Naciones Unidas puede reunir sabiduría de todo el mundo. En junio, su país organizó un evento paralelo en las Naciones Unidas con la Oficina de Lucha contra el Terrorismo y el Instituto Interregional de las Naciones Unidas para Investigaciones sobre la Delincuencia y la Justicia y dirigió debates sobre el uso indebido de la IA por parte de terroristas. También lanzó este año el Proceso de IA de Hiroshima del Grupo de los Siete (G7) para contribuir al debate global sobre la IA generativa, añadió.

MANUEL GONÇALVES, Viceministro de Relaciones Exteriores de Mozambique, dijo que, con total revelación, su declaración fue compuesta únicamente por humanos y no por herramientas de inteligencia artificial generativa como ChatGPT. "Nos acercamos a un punto en el que las máquinas digitales ahora pueden completar una tarea que durante la mayor parte de la existencia humana estaba exclusivamente dentro del ámbito de la inteligencia humana", continuó. Si bien los avances en IA presentan inmensas oportunidades, también plantean riesgos, incluido el potencial de resultados catastróficos. "Debemos tomar precauciones", instó, advirtiendo que la IA imita cada vez más a los humanos para difundir información errónea y conspiraciones y lleva a cabo muchas otras actividades nefastas.

En cuanto al impacto positivo de la IA, dijo que las tecnologías de IA tienen el potencial de transformar la sociedad, ayudando a erradicar enfermedades, combatir el cambio climático, mejorar las capacidades de alerta temprana y personalizar los esfuerzos de mediación. La IA también se puede utilizar para mejorar los datos en beneficio de la humanidad. Mozambique reconoce la importancia de adoptar un enfoque equilibrado hacia la IA, dijo, al tiempo que destacó la “evidencia creíble” que indica que la IA plantea un riesgo real. Por lo tanto, es crucial desarrollar un acuerdo intergubernamental que pueda regular y monitorear el uso de la IA. Es importante garantizar que todos los actores relevantes, incluidos los gobiernos y el sector privado, reciban las herramientas tecnológicas que puedan garantizar el desarrollo y uso ético de la IA, subrayó.

OMRAN SHARAF, Ministro Adjunto de Ciencias y Tecnología Avanzadas de los Emiratos Árabes Unidos, subrayó la necesidad de establecer reglas para la IA y afirmó que ahora hay una breve ventana de oportunidad disponible en la que las partes interesadas clave están dispuestas a unirse y considerar las barreras de seguridad para esta tecnología. . Los Estados miembros deberían establecer normas comúnmente acordadas “antes de que sea demasiado tarde”, subrayó, que deberían incluir mecanismos para evitar que las herramientas de IA promuevan el odio, la desinformación y la desinformación que pueden alimentar el extremismo y exacerbar el conflicto. Al igual que con otras cibertecnologías, el uso de la IA debe estar firmemente guiado por el derecho internacional, que sigue aplicándose en el ciberespacio. También enfatizó que la IA debería convertirse en una herramienta para promover la consolidación de la paz y la reducción de los conflictos, no en un multiplicador de amenazas, y que “la IA no debería replicar los prejuicios del mundo real”. Añadiendo que se necesita una regulación flexible y ágil, instó a evitar reglas demasiado rígidas que puedan obstaculizar la evolución de esta tecnología.

ZHANG JUN (China), señalando que la IA es un arma de doble filo, dijo que si es buena o mala depende de cómo la humanidad la utilice y la regule y equilibre el desarrollo científico con la seguridad. La comunidad internacional debe adherirse a poner la ética en primer lugar y garantizar que la tecnología siempre beneficie a la humanidad. El desarrollo de la IA debe garantizar la seguridad, la conciencia de los riesgos, la justicia y la inclusión, subrayó. Las empresas tecnológicas líderes deben aclarar quién es el responsable y evitar desarrollar tecnología riesgosa que pueda plantear graves consecuencias negativas. Mientras tanto, los países en desarrollo deben disfrutar de igualdad de acceso y uso de la tecnología, los productos y los servicios de IA. Su país ha explorado activamente el desarrollo y la gobernanza de la IA en todos los campos, dijo, y señaló que en 2017 el Gobierno emitió el Plan de Desarrollo de la Inteligencia Artificial de Nueva Generación. En los últimos años, ha mejorado continuamente las leyes y regulaciones relevantes, las normas éticas, los estándares de propiedad intelectual y las medidas de monitoreo y evaluación de seguridad para garantizar el desarrollo saludable y ordenado de la IA.

JEFFREY DELAURENTIS (Estados Unidos) dijo que la IA ofrece una promesa increíble para abordar los desafíos globales. Los sistemas automatizados ya están ayudando a cultivar alimentos de manera más eficiente, predecir la trayectoria de las tormentas e identificar enfermedades en los pacientes. Sin embargo, la IA también tiene el potencial de intensificar los conflictos, incluso mediante la difusión de información errónea y la realización de operaciones cibernéticas maliciosas. Estados Unidos está comprometido a trabajar con una variedad de actores, incluidos Estados miembros, empresas de tecnología y actores de la sociedad civil, dijo. El 4 de mayo, el presidente Joseph R. Biden se reunió con empresas líderes en inteligencia artificial para subrayar la responsabilidad de garantizar que los sistemas de inteligencia artificial sean seguros y confiables. Estados Unidos también está identificando principios para guiar el diseño, uso y despliegue de sistemas automatizados. El uso militar de la IA debe ser ético y responsable. A principios de este año, Estados Unidos propuso una declaración política sobre el uso militar responsable de la IA, dijo, y alentó a todos los Estados miembros a respaldar esta declaración.

SÉRGIO FRANÇA DANESE (Brasil) dijo que la inteligencia artificial se está desarrollando tan rápido que ni siquiera los mejores investigadores pueden evaluar la escala total de los desafíos y beneficios que estas nuevas tecnologías pueden ofrecer. "Lo que sabemos con certeza es que la inteligencia artificial no es inteligencia humana", dijo, y agregó que la supervisión humana es esencial para evitar sesgos y errores. Aunque se ha desarrollado principalmente como una aplicación civil, se puede predecir con certeza que las aplicaciones de IA se extenderán al ámbito militar y tendrán un impacto relevante en la paz y la seguridad. Recordando el concepto de “control humano significativo”, subrayó que los seres humanos deben seguir siendo responsables de las decisiones sobre el uso de sistemas de armas. Un elemento humano en cualquier sistema autónomo es esencial para el establecimiento de normas éticas y para el pleno cumplimiento del derecho internacional humanitario. "No hay sustituto para el juicio y la responsabilidad humanos", afirmó.

PASCALE CHRISTINE BAERISWYL (Suiza) se hizo eco de las palabras del robot “Ameca”, hablando con un periodista en la conferencia “AI for Good” en Ginebra: “Creo que es sólo cuestión de tiempo antes de que veamos miles de robots como yo por ahí hacer una diferencia." Si bien representa un desafío debido a su velocidad y aparente omnisciencia, la IA puede y debe servir a la paz. "Está en nuestras manos garantizar que la IA marque la diferencia en beneficio y no en detrimento de la humanidad", enfatizó, y añadió: "aprovechemos la oportunidad para sentar las bases de la IA para siempre, trabajando estrechamente con la ciencia de vanguardia". . En este sentido, el Instituto Federal Suizo de Tecnología de Zurich está desarrollando un prototipo de herramienta de análisis asistida por IA para el Centro de Crisis y Operaciones de las Naciones Unidas que podría explorar el potencial de la IA para el mantenimiento de la paz, en particular para la protección de civiles y fuerzas de paz. Además, Suiza lanzó recientemente la “Iniciativa Suiza de Llamado a la Confianza y la Transparencia”, donde la academia, el sector privado y la diplomacia buscan conjuntamente soluciones prácticas y rápidas a los riesgos relacionados con la IA.

HAROLD ADLAI AGYEMAN (Ghana) subrayó que la comunidad internacional debe “limitar los excesos de las ambiciones nacionales individuales de dominio combativo”, e instó al desarrollo de marcos que regirían la IA con fines pacíficos. Para Ghana, la oportunidad reside en desarrollar y aplicar esa tecnología para identificar señales tempranas de alerta de conflicto y definir respuestas que tengan una mayor tasa de éxito. La IA también se puede aplicar a los esfuerzos de mediación y negociación de paz, dijo, y señaló que el despliegue de esa tecnología por parte de la Misión de Apoyo de las Naciones Unidas en Libia (UNSMIL) para determinar la reacción del pueblo libio a las políticas facilitó mejoras en el Índice de Paz Global 2022 de ese país. . La IA también presenta riesgos –incluida su integración en sistemas de armas autónomos– y, al respecto, observó: “La historia de nuestra experiencia con el dominio de la humanidad en la manipulación atómica muestra que, si tales deseos persisten, sólo generan, en igual medida, esfuerzos por otros Estados para anular la ventaja que dicha disuasión pretende crear”.

NICOLAS DE RIVIÈRE (Francia) dijo que la IA debe ser una herramienta para la paz, y señaló que estas tecnologías pueden contribuir a la seguridad de los cascos azules, mejorar la protección de los civiles y facilitar la entrega de asistencia humanitaria. Sin embargo, también incluye riesgos, señaló, y señaló que la IA puede aumentar las ciberamenazas y ayudar a los actores maliciosos a realizar ciberataques. A nivel militar, la IA debe modificarse para reflejar la naturaleza del conflicto, dijo, subrayando la necesidad de desarrollar un marco aplicable para las armas letales autónomas. Un marco de este tipo puede ayudar a garantizar que los conflictos futuros se lleven a cabo de manera que se respete el derecho internacional humanitario, añadió. Al afirmar el compromiso de su país de promover un enfoque ético y responsable para la IA, dijo que ese era el objetivo de la asociación global que lanzó en 2020, con la Unión Europea y el Consejo de Europa, y que ha estado trabajando en reglas para regular y apoyar la IA. desarrollo.

HERNÁN PÉREZ LOOSE (Ecuador) dijo que la IA ya se ha desarrollado a “una velocidad vertiginosa” y seguirá haciéndolo. La IA puede contribuir al mantenimiento de la paz y a los esfuerzos de paz, o puede socavarlos; prevenir conflictos y moderar diálogos en situaciones complejas como fue el caso durante el pico de la pandemia de COVID-19. La IA puede mejorar la seguridad de los campamentos y convoyes de mantenimiento de la paz al monitorear la situación de manera más efectiva. “Nuestra responsabilidad es promover y aprovechar al máximo el desarrollo tecnológico como facilitador de la paz”, afirmó. Esto sólo puede lograrse respetando estrictamente el derecho internacional de los derechos humanos y el derecho internacional humanitario. Ecuador rechaza categóricamente la militarización de la IA y reitera el riesgo que representan las armas letales autónomas. "La robotización del conflicto es un gran desafío para nuestros esfuerzos de desarme y un desafío existencial que este Consejo ignora bajo su propio riesgo", dijo.

VANESSA FRAZIER (Malta) dijo que, dado que las prácticas de gobernanza y control de la IA deben desarrollarse a un ritmo comparable para salvaguardar la paz y la seguridad internacionales, el Consejo debe impulsar una gobernanza sólida de la IA y garantizar su despliegue inclusivo, seguro y responsable mediante el intercambio de experiencias y marcos gubernamentales. Desde 2019, su país ha estado desarrollando un Marco Ético de IA, alineado con las Directrices Éticas Europeas para una IA confiable, dijo, describiendo con más detalle los esfuerzos de Malta en este campo. Expresó su preocupación por el uso de sistemas de inteligencia artificial en operaciones militares y enfatizó que las máquinas no pueden tomar decisiones similares a las humanas que involucren los principios legales de distinción, proporcionalidad y precaución. Además, los sistemas de armas letales autónomas que actualmente explotan la IA deberían prohibirse y sólo deberían regularse aquellos sistemas de armas que respeten plenamente el derecho internacional humanitario y el derecho de los derechos humanos, añadió.

LILLY STELLA NGYEMA NDONG (Gabón) dijo que la IA está aumentando la capacidad analítica de los sistemas de alerta temprana, facilitando así la detección de amenazas emergentes mediante el análisis muy rápido de grandes cantidades de datos de diversas fuentes. Esto ha permitido que las misiones de mantenimiento de la paz de las Naciones Unidas tengan un mejor desempeño, particularmente en el ámbito de la protección de civiles. AI también ha contribuido a los esfuerzos de reconstrucción posconflicto de los Estados, además de fomentar la implementación de proyectos de impacto rápido, oportunidades de empleo para los jóvenes y la reintegración de excombatientes. Sin embargo, subrayó que las comunidades locales deben apropiarse y absorber estas nuevas tecnologías “para perpetuar sus efectos beneficiosos después de la retirada de las fuerzas internacionales”, para que esos beneficios no desaparezcan y las crisis resurjan. También destacó la necesidad de reforzar la transparencia, la gobernanza internacional y la rendición de cuentas con respecto a la IA y pidió a las Naciones Unidas ampliar la cooperación internacional para desarrollar un marco regulatorio con mecanismos de control apropiados y sistemas de seguridad sólidos.

FERIT HOXHA (Albania) dijo que la IA es muy prometedora para transformar el mundo como nunca antes, pero también plantea riesgos potenciales que podrían afectar la seguridad, la privacidad, la economía y la protección de las personas. Algunos países intentan continuamente engañar deliberadamente a la gente, distorsionar los hechos e interferir en los procesos democráticos de otros mediante el uso indebido de las tecnologías digitales, dijo, subrayando la urgencia de establecer las necesarias salvaguardias y marcos de gobernanza de la IA a nivel nacional e internacional. También se necesitan líneas claras de responsabilidad y autoridad para garantizar que los sistemas de IA se utilicen de manera adecuada, segura y responsable para el bien de todos. Además, los sistemas de IA no deben infringir los derechos humanos y la libertad ni socavar la paz y la seguridad. La comunidad internacional debe promover estándares para el comportamiento responsable de los Estados y la aplicabilidad del derecho internacional en el uso de la IA y sus tecnologías, así como en el monitoreo y evaluación de riesgos e implicaciones, dijo, destacando el papel del Consejo en ese sentido.

DMITRY A. POLYANSKIY (Federación de Rusia) dijo que el desarrollo de sistemas de armas autónomos puede plantear riesgos para la seguridad porque esos sistemas pueden tomar decisiones sobre el uso de la fuerza. La IA también se puede utilizar para crear y difundir desinformación y “noticias falsas”, que socavan la confianza y provocan tensiones. Respecto a los sistemas autónomos letales, dijo que el tema se discute en la Asamblea General y que la duplicación de esfuerzos es contraproducente. "Occidente no tiene escrúpulos éticos en permitir conscientemente que la IA genere declaraciones misantrópicas en las redes sociales", continuó. En cuanto a la desigualdad digital, dijo que en Europa aproximadamente el 89 por ciento de la población disfruta del acceso a Internet. En los países de bajos ingresos, sólo una cuarta parte de la población disfruta de esos beneficios. Históricamente, las tecnologías digitales se desarrollaron a nivel privado y los gobiernos tardaron en regularlas. "Es necesario revertir esta tendencia", subrayó.

En Nigeria, el Fondo de las Naciones Unidas para la Infancia (UNICEF) está intensificando sus esfuerzos para contrarrestar un creciente brote de difteria que ha afectado a niños en 27 estados. Hasta el mes pasado, se notificaron 3.850 casos sospechosos y 1.387 se confirmaron como difteria.