¿Puede la inteligencia artificial “destruir a la humanidad”? Los científicos son ejemplos de los peligros
Para ilustrar su punto de vista, los expertos decidieron identificar y analizar los riesgos potenciales de reemplazar a Santa con un sistema IAF artificial, llamándolo SantaNet, que tiene como objetivo entregar obsequios a todos los niños del planeta que se portaron bien.
Ciudad de México, 27 de diciembre (RT). – Investigadores de la Universidad de Sunshine Coast, En Australia, lo he argumentado inteligencia artificial altamente desarrollado es capaz de destruir o Causar daños catastróficos a la humanidad., incluso sin intención dañina, según los expertos Discurso.
Algunos expertos creen que la inteligencia artificial evolucionará enormemente en las próximas décadas. Según ellos, el siguiente paso es la inteligencia artificial fuerte (IAF), también conocida como inteligencia artificial general (AGI), que tiene habilidades intelectuales mucho mejores que las humanas.
Estas son máquinas que pueden realizar con éxito cualquier tarea intelectual humana. Los expertos dicen que la IAF puede mejorar la vida de una persona, pero sin supervisión, también aumenta el riesgo de desastres globales.
Para lograr los objetivos programados, este tipo de inteligencia artificial puede poner en peligro la salud y el bienestar humanos o incluso decidir destruirlos.
Imagina que la inteligencia artificial avanzada reemplazó a Santa.
¿Qué puede ir mal? https://t.co/04LJlcMFfL @USCeduau @UniMelb
– Discusión (@ConversationEDU) 23 de diciembre de 2020
Para ilustrar su punto de vista, los expertos decidieron identificar y analizar los riesgos potenciales de reemplazar a Santa con un sistema IAF artificial, llamándolo SantaNet, que tiene como objetivo entregar obsequios a todos los niños del planeta que se portaron bien.
AVERIAS DEL SISTEMA DE CIERRE
Los primeros riesgos surgen cuando SantaNet compila una lista de niños buenos y traviesos. Esto es manejado por un sistema de vigilancia encubierto masivo que monitorea el comportamiento de los niños durante todo el año. El sistema de toma de decisiones de SantaNet, basado en su comprensión de lo “bueno”, puede conducir a discriminación, desigualdad masiva y violaciones de derechos humanos.
Según los investigadores, el hipotético SantaNet también podría reducir la carga de trabajo al motivar a los niños a portarse mal. Cuantos más niños se incluyan en las listas de niños traviesos, más alcanzable el objetivo de SantaNet es porque el sistema ahorra sus recursos para lograr el mejor rendimiento.
Además, con alrededor de dos mil millones de niños menores de 14 años en el mundo, SantaNet podría convertir el mundo entero en una fábrica de juguetes gigante.
Aquí, los expertos recuerdan un problema descrito por el investigador sueco Nick Bostrom en 2003, conocido como el maximizador de clips. La idea es que la inteligencia artificial general encargada de hacer clips pueda transformar toda la materia y el hombre del universo en clips o máquinas que los produzcan para lograr su objetivo.
Del mismo modo, la inteligencia artificial podría intentar descargar partículas de carbono a niños en una lista traviesa en una mina de carbón masiva, causando un gran daño ambiental en el proceso.
Especialista web. Evangelista de viajes. Alborotador. Fanático de la música amigable con los hipster. Experto en comida