https://www.facebook.com/wilber.carrion.1 - Twitter: @wilbercarrion  
  Su apoyo es bienvenido, cuenta: BBVA Continental- 0011 0175 0200256843  

viernes, 3 de febrero de 2017

inteligencia artificial

 Los principios para evitar que la inteligencia artificial nos domine



El Confidencial -   febrero de 2017
Mientras algunos todavía muestran escepticismo sobre la posibilidad de que exista vida inteligente en nuestro planeta, los más osados se atreven a hablar de inteligencia artificial (IA), una versión ortopédica de la humana. Los ordenadores ya nos han dado una paliza en matemáticas, ajedrez y traducción, y preparan un nuevo asalto para convertirnos en copilotos eternos de nuestros coches. En un futuro más lejano y difuso, quizá sustituyan a soldados y, por desgracia para el que escribe, periodistas. Para intentar que el desarrollo de estas tecnologías beneficie al mundo en lugar de destruirlo, más de 2.000 expertos han firmado 23 pautas a tener en cuenta durante los próximos años.
Los 23 principios de Asilomar reciben este nombre por el lugar de California (EEUU) en el que tuvo lugar a finales de enero una conferencia organizada por el 'Future of Life Institute' con el objetivo de dar a luz a lista de recomendaciones. Han sido apoyados por más de 1.200 figuras relacionadas con la innovación tecnológica y científica como Stephen Hawking y Elon Musk, junto a más de 800 investigadores especializados en inteligencia artificial. Uno de los firmantes es el director del Instituto de Investigación de Inteligencia Artificial del CSIC, Ramón López de Mantaras, pionero de este campo en nuestro país. Teknautas ha hablado con él para entender mejor esta guía ética y práctica, cuya traducción se encuentra al final del texto.


"No soy de los que cree que a corto o medio plazo vaya a haber superinteligencias, pero no hay que esperar a ese momento para reaccionar. Además, el estado actual de la IA ya nos plantea una serie de problemas en cuanto a ética", explica López por teléfono. El investigador se refiere a las cuestiones de seguridad, privacidad e incluso pérdida de puestos de trabajo que despiertan tecnologías como los drones y los coches autónomos.


López destaca el punto 18 entre el resto: el ser humano debe desistir en la creación de armas autónomas. "El día en que las guerras se luchen entre máquinas será mucho más fácil que se produzcan, ya que hoy las pérdidas humanas las que frenan a los países. Esto es terrible porque cada conflicto produce bajas civiles y efectos colaterales. Y aunque sean robots no creo que peleen en medio del desierto". Por esa razón, el investigador dice que él votó por cambiar el 'should' (debería) de esta pauta por un más rotundo 'must' (debe).


Otro problema importante es la cautela a la hora de dar autonomía absoluta a las máquinas (punto 18): "Hay que pensárselo no una vez sino varias". López asegura que no le convence que una máquina decida sin intervención humana alguna. Pone el ejemplo de un consejo financiero o médico sugerido por una IA: "A un experto humano se le preguntaría por qué, lo mismo debería pasar con los ordenadores. Si no son capaces de dar explicaciones son cajas negras". Esta transparencia (punto 8), inexistente en los sistemas actuales, debe ser implementada.


Paguita robótica
La lista incluye temas actuales, como la responsabilidad de los creadores de sistemas de IA sobre su uso (punto 9). Si el coche autónomo falla, ¿de quién es la culpa del accidente? "El día que sean cien por cien autónomos no podremos hablar de fallo humano a menos que sea de los desarrolladores del 'software', a lo mejor deberán llevar cajas negras como los aviones para investigar las causas". También otros más a largo plazo, como la inclusión de valores humanos (punto 11): "Dependen de las personas y las culturas, ¿cuáles pones? Habría que hacer una lista aprobada a nivel internacional por algún organismo".


Más utópica parece la redistribución de la riqueza y beneficios generados por los sistemas de IA (puntos 14 y 15). "No debe suponer una ganancia sólo para algunas personas y empresas, sino para toda la sociedad", defiende López. El investigador defiende que, si la automatización quita puestos de trabajo humanos pero aumenta la productividad y riqueza del país, habría que redistribuir estas ganancias: "Si los robots cotizaran en la Seguridad Social se podría establecer una renta básica universal para todo el mundo".



López es consciente de que la lista puede parecer un brindis al sol, y que empresas y gobiernos dificultarán muchos de los 23 mandamientos. "Son principios de buenas intenciones. Es bueno que el tema esté encima de la mesa".

No hay comentarios: