INICIO  //  Noticias  //  Stephen Hawking pide prohibir “robots” de guerra
/  

Stephen Hawking pide prohibir “robots” de guerra

Martes 28 de julio, 2015.
12:30 pm
79 lecturas | 0 comentarios

COMPARTIR

Oaxaca, México.-En una carta indicaron que “la tecnología ha llegado a un punto en el que el despliegue de este tipo de armas sería posible en unos cuantos años, no en décadas, y que los riesgos son altos” Un grupo de expertos, liderados por el astrofísico Stephen Hawking; el cofundador de Apple, Steve Wozniak, y el fundador de Tesla y SpaceX, Elon Musk, publicaron una carta en la que advierten sobre los peligros para la humanidad de armas autónomas y con inteligencia artificial. En una carta del instituto Future of Life, que fue difundida ayer en la Conferencia Internacional de Inteligencia Artificial que se desarrolla en Buenos Aires, los expertos indicaron que “la tecnología ha llegado a un punto en el que el despliegue de este tipo de armas sería posible en unos cuantos años, no en décadas, y que los riesgos son altos”. terminatorEl grupo sostiene que si una nación comienza a desarrollar armas autónomas, una carrera bélica de ese tipo de armamento será “inevitable” y que terminarán transformándose en las “Kalashnikovs del mañana”, en referencia a la facilidad y bajos costos con que esos rifles de asalto son producidos y que no “llevará mucho tiempo para que estas nuevas armas estén disponibles en el mercado negro y en manos de terroristas, dictadores con ansias de mayor control sobre sus ciudadanos, señores de la guerra que quieran perpetrar limpiezas étnicas, etc.” “Armas autónomas son ideales para tareas como asesinatos, desestabilización de naciones, subordinar poblaciones y asesinatos selectivos de grupos étnicos específicos. Hay muchas maneras en las cuales la IA puede hacer los campos de batalla más seguros para los humanos, especialmente civiles, sin crear nuevas herramientas para matar personas”, sostiene la misiva. El grupo de expertos agrega que “creemos que la IA tiene un gran potencial para beneficiar a la humanidad en muchas maneras, y que el objetivo de este campo debería ser ese. Comenzar una carrera militar de Inteligencia Artificial es una mala idea, y debería ser evitarse con una prohibición de armas ofensivas autónomas que estén más allá de un control humano significativo”. Fuente: Diario Financiero

Te podría interesar...

29/12/2015 | 10:12 am | shinji_nerv
21/12/2015 | 01:35 pm | shinji_nerv
18/12/2015 | 07:00 pm | snakeeater

ÚLTIMAS NOTICIAS

Violenci feminicida
Publicidad
Banner02
Banner03
Banner04
Banner05
Banner06
Banner07
Banner08
!

Esta conversación es moderada acorde a las reglas de la comunidad “Ciudadanía Express” . Por favor lee las reglas antes de unirte a ella.
Para revisar las reglas da clic aquí

-
Todos los comentarios (0)

Publica tu comentario

Nombre

E-mail, no será publicado.

Sexo

Comentario * 200 caracteres