Paramount

A Stephen Hawking, Elon Musk y Steve Wozniak les asusta la posibilidad de un Terminator y no nos referimos a una película.

En una carta publicada este 27 de julio, este peculiar grupo junto con otro centenar de científicos y académicos, hicieron un llamado a prohibir cualquier armamento robótico, que no esté controlado por un ser humano.

“Si alguna potencia militar desarrolla armas con Inteligencia Artificial será inevitable una carrera armamentista a nivel mundial y el punto final es obvio: las armas autónomas serán las Kalashnikovs del futuro”, dice el documento.

La carta explica que a diferencia de una bomba atómica, las armas autónomas no requieren de material costoso ni difícil de encontrar por lo que sería cuestión de tiempo para que empiecen a circular en el mercado negro y terminen en manos de terroristas, dictadores o campañas de limpieza étnica.

Anuncio

En resumen, dice la carta del Instituto Future of Life, “creemos que la Inteligencia Artificial tiene el gran potencial de beneficiar a la humanidad de muchas maneras y ese debe ser el objetivo. Iniciar una carrera de armamento autónomo es una mala idea y debe evitarse con la prohibición de cualquier arma autónoma de defensa que esté más allá del control humano”

El Instituto Future of Life es una organización que busca identificar los riesgos que implica el desarrollo de Inteligencia Artificial además de apoyar iniciativas para salvaguardar la vida a través de nuevas tecnologías.

Foto: Paramount