A debate lineamientos éticos en
el uso de la IA
FORBES- 18 de enero de 2019
Diversos organismos advierten que
los gobiernos y las empresas deben colaborar para adaptar la educación y
capacitación que combine la Inteligencia Artificial con otras disciplinas.
La inteligencia artificial (IA)
es la teoría y el desarrollo de tecnologías de la información capaces de
realizar tareas que normalmente requieren cierto grado de inteligencia humana,
como la percepción visual, el reconocimiento de voz, la toma de decisiones y la
traducción entre idiomas.
Uno de los beneficios de la IA es
que puede replicar decisiones y acciones de los humanos, pero sin sus defectos,
como la fatiga, la emoción y el tiempo limitado. Por ejemplo, de acuerdo con la
empresa LawGeex su plataforma de IA puede revisar cinco contratos de
confidencialidad en 26 segundos mientras que la misma tarea les llevó cuatro
horas a cinco abogados experimentados tomando 12 tazas de café.
Otro de los ejemplos emblemáticos
de IA es el usado por la plataforma de IBM llamada Watson para el diagnóstico y
tratamiento del cáncer. Watson Oncología es una solución que utiliza
información histórica, mejores prácticas y hallazgos en revistas y libros de
texto médicos. La solución evalúa la información del registro médico de un
paciente, así como la evidencia médica, la cual muestra las posibles opciones
de tratamiento clasificadas por nivel de confianza. El oncólogo puede aplicar
su propia experiencia para identificar las opciones de tratamiento más
adecuadas.
No obstante, los beneficios y
aplicaciones que se pueden encontrar en cada rama de la economía se empiezan a
escuchar muchas voces de especialistas y académicos advirtiendo de riesgos en
la IA.
La principal preocupación viene
del campo laboral. La IA probablemente automatizará tareas en actividades
predecibles y físicas. Lo que requerirá capacitar a las personas con nuevas
habilidades para asumir futuras formas de trabajo. En este sentido diversos
organismos advierten que los gobiernos y las empresas deben colaborar para
adaptar la educación y capacitación que combine la IA con otras disciplinas. La
ciencia, la tecnología, la ingeniería y las matemáticas (también conocidas como
habilidades “STEM”) deben promoverse ya que son una buena base para trabajos
relacionados con la IA. Muchos de los materiales de capacitación de IA ya están
ampliamente disponibles a través de populares cursos masivos abiertos en línea
(MOOC), con contenido gratuito y acceso instantáneo.
Otra preocupación es en
competencia económica. De acuerdo con un estudio de dos investigadores de la
Universidad de Berkley y Standford, la IA puede ayudar a una empresa a
segmentar mucho mejor su base de clientes en grupos que pueden ser mejor
atendidos, esta segmentación de clientes más refinada y personalizada plantea
preocupaciones sobre la discriminación de precios – “Por ejemplo, en 2012 el
Wall Street Journal informó que “Orbitz Worldwide Inc. encontró que las
personas que usan … las computadoras MAC gastan 30% más por noche en hoteles,
por lo que la agencia de viajes en línea está empezando a mostrarles opciones
de viaje diferentes, y a veces más costosas, que las que ven los visitantes de
Windows” – dice el estudio .
La OCDE ha publicado un estudio
sobre IA y posibles escenarios de colusión. La preocupación radica en dos
mecanismos principales a través de los cuales se pueden desafiar a los
investigadores antimonopolios. En primer lugar, los algoritmos que usan las
empresas generan una alta transparencia de precios y una cantidad muy alta de
transacciones que puede permitir a las mismas reaccionar de manera muy rápida y
agresiva. Estos cambios en los mercados digitales, llevados al límite, pueden
generar estrategias colusivas en prácticamente cualquier tipo de mercado (todos
los agentes pueden llegar a fijar los mismos precios por servicios similares).
En segundo lugar, los algoritmos podrían permitir a empresas con poderosas
plataformas automatizadas para monitorear precios, implementar políticas
comunes, enviar señales de mercado u optimizar ganancias conjuntas generando
los mismos resultados que los tradicionales cárteles mediante la colusión
tácita.
Finalmente existen preocupaciones
sobre temas éticos relacionados con la IA. Ejemplo de esto son sistemas de IA
que participan en la toma de decisiones o recomendaciones automatizadas que
pueden resultar directamente en la denegación de servicios o asistencia
(préstamos, seguros, inscripción en educación, reclutamiento, asistencia
médica, etc.); o que puedan crear un riesgo significativo de daño físico o
emocional (el propio caso de Watson para diagnosticar cáncer ha tenido a sus detractores);
o que creen restricciones a la libertad personal o la privacidad (en la
aplicación de la ley o el actuar de la policía).
Debido a todo lo anterior,
diferentes reguladores empiezan a pensar en cómo controlar estos fenómenos. La
Unión Europea acaba de publicar una consulta pública sobre lineamientos éticos
en el uso de la IA. El propio IFT emitió un documento para opinión pública
donde propone promover un marco de buenas prácticas y recomendaciones del uso y
explotación de datos mediante la identificación de tendencias y casos de uso,
que establezcan claramente los principios que deben cumplirse para el uso
adecuado de los datos por parte de los regulados.
Existe un consenso de todos los
actores que el desarrollo de IA debe centrarse en las personas teniendo en
cuenta consideraciones éticas. Los diferentes actores (gobierno, empresas,
sociedad civil) deben colaborar estrechamente para responder a los problemas de
transparencia, ética, rendición de cuentas y otros aspectos del desarrollo de
la IA. En este sentido, generar y compartir buenas prácticas e iniciativas de
auto-regulación entre empresas sería un buen inicio en México.
No hay comentarios:
Publicar un comentario