lunes, 21 de agosto de 2017

Elon Musk lidera un grupo de 116 expertos que piden a la ONU frenar el avance de los robots asesinos

Los avances en Inteligencia Artificial han creado dos corrientes contrapuestas. A un lado, están los que observan una gran aportación a las economía y sociedades, pero otro sector lleva tiempo criticando los posibles efectos perniciosos en caso de la aparición de armamento autónomo. Un grupo formado por 116 empresas y expertos de 26 países, liderado por el multimillonario Elon Musk, ha firmado una carta dirigida a la ONU en la advierten de los peligros de los llamados «robots asesinos». Ejemplos de ellos pueden ser drones militares capaces de matar a distancia sin los riesgos de una ofensiva militar convencional o armas que disparan en base a unos parámetros programados con antelación. De esta forma, las mismas empresas que desarrollan algunas de las tecnologías de Inteligencia Artficial y robótica, han levantado la voz al considerar que algunos de sus avances pueden ser reutilizados para «desarrollar armas autónomas». Los expertos se sienten «especialmente responsables», por lo que temen que la existencia de armas autónomas (que operan sin un militar a bordo) llevar a los conflictos armados a una «escala nunca antes vista». A su juicio, «las armas autónomas amenazan con convertirse en la tercera revolución en la guerra» y na vez desarrolladas «permitirán que el conflicto armado se libre a «una escala mayor» y a «intervalos de tiempo más rápidos de lo que los humanos pueden comprender ». Tres españoles Entre los firmantes del manifiesto se encuentra Elon Musk, máximo responsable del fabricante de vehículos Tesla, una de las más punteras en conducción autónoma, o de la compañía espacial SpaceX, así como Mustafa Suleyman, de la compañía británica DeepMind, propiedad de Google, y especializada en Inteligencia Artificial. También aparecen tres firmas españolas, Ro-Botics, Aisoy Robotics y Macco Robotics. «No tenemos mucho tiempo para actuar. Una vez que se abra la caja de Pandora será difícil para cerrarla. Es por eso que anhelamos encontrar una manera de protegernos de estos peligros»La carta se ha presentado de manera oficial durante la Conferencia Internacional sobre Inteligencia Artificial (IJCAI), que se celebra en Melbourne (Australia) esta semana. «El desarrollo de la Inteligencia Artificial y la robótica podría ser mal utilizado para crear armas autónomas», temen los expertos en esta misiva. Parte del miedo es que sus progresos en esta materia, diseñados gran parte de ellos para facilitar la vida de las personas y automatizar procesos industriales, caigan en manos de desalmados que los apliquen para la guerra. Sugieren, de hecho, que ejércitos, grupos terroristas y potencias totalitarias pueden llegar a «hackear» o aplicar sus avances en el campo militar porque, en su opinión, están a disposición de fabricar «aterradoras armas» para utlizarlas contra «poblaciones inocentes». «No tenemos mucho tiempo para actuar. Una vez que se abra la caja de Pandora será difícil para cerrarla. Es por eso que anhelamos encontrar una manera de protegernos de estos peligros», sostienen. Desde 2013, la ONU ha estado advirtiendo acerca de la existencia de este tipo de armamento. En 2015, un grupo de científicos también se sumaron a esa causa pidiendo incluso la prohibición de «armas ofensivas autónomas». De hecho, Elon Musk o el astrofísico Stephen Hawking llevan tiempo criticando periodicamente los posibles peligros de la Inteligencia Artificial aplicada en el campo militar.

via Tecnología http://ift.tt/2v7bhTp

No hay comentarios:

Publicar un comentario