Ruta hacia una Inteligencia
Artificial Ciudadana
FORBES – 12 de mayo de 2018
A medida que la inteligencia
artificial crece en capacidades e impacto en las vidas de las personas, las
empresas deben trabajar para que sus IA actúen como miembros responsables de la
sociedad.
Cuando se piensa en sistemas de
inteligencia artificial (IA) que ayuden a hacer diagnósticos médicos, respalden
las decisiones de pago de seguros o utilicen conocimientos basados en datos
para mejorar el desarrollo de software. Todas estas cosas y más están
sucediendo ahora.
El reporte Technology Vision
2018, realizado por Accenture señala que los sistemas de IA y las decisiones
basadas en estas tecnologías tienen cada vez un mayor impacto en la vida de las
personas. El concepto de Ciudadanía IA explica como la inteligencia artificial
evoluciona de una herramienta tecnológica a un socio entre las personas que
coordina y colabora con los humanos en la fuerza de trabajo y la sociedad.
La Inteligencia Artificial ya es
la cara pública de muchas empresas, ya que puede ayudar en distintas áreas de
la operación, desde las interacciones iniciales con el cliente a través del
chat, la voz y el correo electrónico, hasta completar roles vitales de servicio
al cliente. Con una mayor autonomía y capacidades sofisticadas en el
aprendizaje automático, el futuro de la IA a menudo tendrá tanta influencia
como las personas que lo utilizan. Para las empresas, esto significa cambiar la
forma en que ven la IA, desde sistemas que están programados, hasta sistemas
que aprenden.
Esto significa que las empresas
necesitan enseñar a sus sistemas de Inteligencia Artificial a “actuar” de
manera responsable, explicar decisiones o trabajar bien con los demás. Esto
requerirá la aplicación de algunos de los mismos principios utilizados en la
educación humana: enseñar a las máquinas cómo aprender, cómo explicar sus
pensamientos y acciones, y cómo aceptar la responsabilidad de sus decisiones.
Sin embargo, el entrenamiento
exitoso de IA no se trata sólo de acceder a una variedad y profundidad de las
fuentes de datos; también se trata de minimizar activamente el sesgo en los
datos. Esto incluye el seguimiento de la procedencia de los datos para
garantizar que las fuentes de datos originales sean confiables y precisas.
Además, las compañías necesitan
elevar sus sistemas de Inteligencia Artificial para reflejar las normas
comerciales y sociales de responsabilidad, equidad y transparencia. Esto
comienza con descartar la toma de decisiones de “caja negra”. Dado que un
sistema de IA está diseñado fundamentalmente para colaborar con las personas,
las empresas deben construir y entrenar sus IA para proporcionar explicaciones
claras de las acciones que los sistemas de Inteligencia Artificial deciden
tomar, en un formato que la gente entienda.
Independientemente del papel
exacto que una IA termine desempeñando en la sociedad, representa una compañía
en cada acción que lleva a cabo. ¿Qué sucede si un prestamista hipotecario
impulsado por Inteligencia Artificial niega un préstamo a un posible comprador
calificado, o si un robot alimentado con AI recibe a un trabajador en un
almacén? Las compañías que usan la tecnología deben pensar cuidadosamente sobre
la distribución de la responsabilidad y responsabilidad por las acciones de un
sistema de inteligencia artificial.
Los líderes asumirán el desafío
de criar a la IA de una manera que reconozca sus nuevos roles e impacto en la
sociedad. Al hacerlo, establecerán los estándares para lo que significa crear
un sistema de IA responsable y profundizar significativamente la confianza con
los clientes y empleados.
No hay comentarios:
Publicar un comentario