Tecnología

¿Puede la inteligencia artificial «destruir a la humanidad»? Los científicos son ejemplos de los peligros

Para ilustrar su punto de vista, los expertos decidieron identificar y analizar los riesgos potenciales de reemplazar a Santa con un sistema IAF artificial, llamándolo SantaNet, que tiene como objetivo entregar obsequios a todos los niños del planeta que se portaron bien.

Ciudad de México, 27 de diciembre (RT). – Investigadores de la Universidad de Sunshine Coast, En Australia, lo he argumentado inteligencia artificial altamente desarrollado es capaz de destruir o Causar daños catastróficos a la humanidad., incluso sin intención dañina, según los expertos Discurso.

Algunos expertos creen que la inteligencia artificial evolucionará enormemente en las próximas décadas. Según ellos, el siguiente paso es la inteligencia artificial fuerte (IAF), también conocida como inteligencia artificial general (AGI), que tiene habilidades intelectuales mucho mejores que las humanas.

Estas son máquinas que pueden realizar con éxito cualquier tarea intelectual humana. Los expertos dicen que la IAF puede mejorar la vida de una persona, pero sin supervisión, también aumenta el riesgo de desastres globales.

Para lograr los objetivos programados, este tipo de inteligencia artificial puede poner en peligro la salud y el bienestar humanos o incluso decidir destruirlos.

Para ilustrar su punto de vista, los expertos decidieron identificar y analizar los riesgos potenciales de reemplazar a Santa con un sistema IAF artificial, llamándolo SantaNet, que tiene como objetivo entregar obsequios a todos los niños del planeta que se portaron bien.

READ  Microsoft advierte sobre un nuevo y peligroso 'malware' que afecta a los teléfonos móviles que ejecutan el sistema operativo Android

AVERIAS DEL SISTEMA DE CIERRE

Los primeros riesgos surgen cuando SantaNet compila una lista de niños buenos y traviesos. Esto es manejado por un sistema de vigilancia encubierto masivo que monitorea el comportamiento de los niños durante todo el año. El sistema de toma de decisiones de SantaNet, basado en su comprensión de lo «bueno», puede conducir a discriminación, desigualdad masiva y violaciones de derechos humanos.

Según los investigadores, el hipotético SantaNet también podría reducir la carga de trabajo al motivar a los niños a portarse mal. Cuantos más niños se incluyan en las listas de niños traviesos, más alcanzable el objetivo de SantaNet es porque el sistema ahorra sus recursos para lograr el mejor rendimiento.

Además, con alrededor de dos mil millones de niños menores de 14 años en el mundo, SantaNet podría convertir el mundo entero en una fábrica de juguetes gigante.

Aquí, los expertos recuerdan un problema descrito por el investigador sueco Nick Bostrom en 2003, conocido como el maximizador de clips. La idea es que la inteligencia artificial general encargada de hacer clips pueda transformar toda la materia y el hombre del universo en clips o máquinas que los produzcan para lograr su objetivo.

Del mismo modo, la inteligencia artificial podría intentar descargar partículas de carbono a niños en una lista traviesa en una mina de carbón masiva, causando un gran daño ambiental en el proceso.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON EL PERMISO NOMINAL DE RT. VER ORIGINAL AQUÍ. SU PRODUCCIÓN ESTÁ PROHIBIDA.

READ  Web de WhatsApp | Cómo saber quién está en línea Aplicaciones Aplicaciones Truco Tutorial para PC Computadora Google Chrome | Estados Unidos España México | Colombia NNDA | NNNI | JUEGO DEPORTIVO

Patricio Arocha

Especialista web. Evangelista de viajes. Alborotador. Fanático de la música amigable con los hipster. Experto en comida

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar