Mundo

Costa Rica acoge conferencia sobre deshumanización digital y armas autónomas

Activistas de todo el mundo se han reunido en Costa Rica para la 4ta Reunión Global sobre Deshumanización Digital de la Coalición Stop Killer Robots.

Una coalición internacional de 160 organizaciones de la sociedad civil de todo el mundo pide la implementación de un instrumento legal vinculante para prohibir los sistemas de armas totalmente autónomos.

La reunión de activistas se abrió con una serie de paneles que discutieron el estado actual de las armas autónomas y las posibles acciones para iniciar un proceso efectivo hacia un tratado de armas autónomas.

Luego de dos días de discusión y conclusiones, los días 23 y 24 de febrero comenzará la “Conferencia Regional sobre el Impacto Social y Humanitario de las Armas Autónomas” auspiciada por el gobierno de Costa Rica.

Según el Ministerio de Relaciones Exteriores del país centroamericano, la iniciativa es la primera de su tipo en la región y atraerá a expertos gubernamentales de América Latina y el Caribe, así como a países observadores, representantes del Comité Internacional de la Cruz Roja, la Naciones Unidas, investigadores y líderes de la sociedad civil.

Este intercambio servirá de base para un diálogo regional sobre los impactos humanitarios y sociales de las armas autónomas y los desafíos que este tipo de armas plantean para la paz, la seguridad y el derecho humanitario.

Deshumanización digital

La deshumanización digital es el proceso de reducir a las personas a datos, que luego se utilizan para tomar decisiones y/o acciones que afectan negativamente nuestras vidas.

La digitalización de la información de las personas y el uso de tecnología de toma de decisiones automatizada basada en esta información digitalizada no siempre es problemático. Sin embargo, conlleva el riesgo adicional de volverse inhumano y causar daño automático.

READ  El Volcán Poás de Costa Rica es un sitio del patrimonio geológico mundial:

Este proceso despoja a las personas de su valor, degrada la humanidad de las personas y elimina o reemplaza la participación o responsabilidad humana mediante el uso de la toma de decisiones automatizada en la tecnología. El daño automático ocurre cuando estas decisiones nos afectan negativamente.

Esto es consecuencia del uso de procesos de «inteligencia artificial» en el desarrollo de armas.

Discusiones en las Naciones Unidas

Durante más de nueve años, los sistemas de armas autónomos han sido objeto de discusión internacional en varios foros, como el Consejo de Derechos Humanos de la ONU, el Primer Comité de Desarme y Seguridad Internacional de la Asamblea General de la ONU y el Grupo de Expertos Gubernamentales sobre Nuevos Tecnologías. La Convención sobre Ciertas Armas Convencionales (CCW) área de sistemas letales de armas autónomas (GGE es LAWS).

En estas discusiones, los estados, las agencias de la ONU, las organizaciones internacionales y las organizaciones no gubernamentales han destacado una variedad de serias implicaciones éticas, morales, humanitarias y legales de la inteligencia artificial (IA) y los sistemas de armas autónomos. A pesar de que la mayoría de los estados apoyaron la negociación de un instrumento legal, la Sexta Conferencia de Revisión de CCW en diciembre de 2021 no logró acordar un mandato para trabajar hacia ningún tipo de regulación.

Informe sobre inteligencia artificial y decisiones automatizadas

Iniciado por la campaña Stop KillerRobots, el equipo de Investigación de Decisiones Automatizadas publicó un informe en septiembre de 2022 que resume la situación actual y los desafíos comunes que se deben enfrentar tanto en el ámbito civil como en el militar frente al riesgo. un desarrollo reciente pero rápido.

READ  La Final de la Copa Oro de la CONCACAF está programada para el 1 de agosto en Las Vegas - WHIO TV 7 y WHIO Radio

En el resumen del informe, los investigadores resumen los mensajes clave de la siguiente manera:

En primer lugar, establece que «el grado en que muchos Estados y organismos internacionales reconocen los graves riesgos y desafíos que plantea el uso de la inteligencia artificial y la tecnología de toma de decisiones automatizada en el espacio civil debe verse como una validación de las preocupaciones paralelas y relacionadas de la espacio militar».

En segundo lugar, establece que «dada la naturaleza y la magnitud de los daños del procesamiento automatizado en el contexto de objetivos militares y las dificultades de aplicar mecanismos de supervisión civil en el espacio militar, los desafíos asociados con los sistemas de armas autónomos son particularmente agudos».

Establece que «El desarrollo de respuestas centradas en los derechos humanos a la inteligencia artificial y la toma de decisiones automatizada en el espacio civil debe llevar a los estados a prestar atención a los derechos de las víctimas como un punto de partida fundamental para establecer las normas necesarias en el espacio militar».

Finalmente, establece que “la importancia de la rendición de cuentas y la responsabilidad en el uso de sistemas de armas autónomos afecta cómo se deben desarrollar ciertas reglas para evitar la erosión de la rendición de cuentas y garantizar la protección y el cumplimiento del derecho internacional humanitario y las normas fundamentales de derechos humanos. «

Ernesto Cabanas

Pionero de las redes sociales. Defensor de Internet. Gurú de los zombis. Aficionado al café. Especialista en la web. Practicante de alimentos. Ninja musical de por vida

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar