https://www.facebook.com/wilber.carrion.1 - Twitter: @wilbercarrion  
  Su apoyo es bienvenido, cuenta: BBVA Continental- 0011 0175 0200256843  

viernes, 11 de enero de 2019

inteligencia artificial


¿Qué tan peligrosa sería la inteligencia artificial?



FORBES- 11 de enero de 2019
Todas las fantasías ciberpunks sobre máquinas dominando al planeta, están hechas desde la óptica de la paranoia de la guerra fría. Robots guerreros con ametralladoras aplastando cráneos.

La singularidad en la Inteligencia Artificial se refiere al momento en que un programa computacional puede mejorarse a sí mismo, dando como resultado un ciclo interminable de automejoras.

Al llegar a tal estado, la máquina tendría que, de forma rudimentaria, tomar consciencia de su existencia y de todos los procesos que realiza para ir mejorándolos, en consecuencia, debería distinguir un “yo” de un “ustedes”. Esto es, en términos ontológicos, el principio de la consciencia.

Una máquina consciente podría crear otras máquinas, mejorarlas, mejorarse entre sí y crear un ecosistema de seres no orgánicos que podrían convivir, bajo un principio constante de automejora.

Supongamos que una Inteligencia Artificial (IA) singular inicia ese ciclo de mejoras, crea a otras inteligencias, se fusionan, se reproducen, se intercambian, crecen y más en un loop interminable de creación. Sus necesidades serían del tipo ¿cómo puedo procesar más datos a mayor velocidad? ¿Cómo puedo aprender más? En lugar de ¿Cómo voy a sobrevivir, dónde está mi alimento o cómo haré para perpetuar mi especie?


Todas las fantasías ciberpunks (que me gustan mucho) sobre máquinas dominando al planeta, están hechas desde la óptica de la paranoia de la guerra fría. Robots guerreros con ametralladoras gigantes aplastando cráneos. ¿Por qué un programa pensante quisiera hacer eso? En todo caso, su existencia no sería física y los humanos no estorbaríamos.

Las máquinas singulares tendrían que desarrollar una inteligencia diferente a la humana, básicamente porque tenemos soportes diferentes. Nosotros tenemos un cuerpo orgánico y la IA no. Sus preocupaciones tendrían que desarrollarse en otros sentidos. En primer lugar, la mayor parte de los robots que actualmente existen no tienen cuerpo físico, viven en ese territorio virtual que llamamos ciberespacio y, por tanto, a diferencia de los seres orgánicos, no necesitan comer o descansar.

Una preocupación constante han sido las Inteligencias Artificiales que ayudan a controlar equipo militar, puesto que es un lugar común en la literatura que ellas sean quienes desaten un holocausto bélico. No obstante, puede que no sean tan peligrosas como popularmente se cree. Sus funciones están limitadas y tienen procesos relativamente simples: ataco o no ataco. Por tanto, su árbol de decisiones para determinar un peligro, un ataque o una respuesta es mucho más limitado que el de otros robots que actualmente existen.

Sin embargo, las máquinas que entienden el lenguaje, que leen y escriben código, son las que podrían “despertar”, puesto que dicha actividad implica una serie de abstracciones que construyen y dotan de sentido a lo externo a partir del punto de vista del sujeto. El lenguaje construye al mundo.

El famoso experimento de Facebook con dos chatbots que estaban programados para hacer más eficiente una conversación, hizo que los robots reconstruyeran el lenguaje, primero quitando fórmulas de cortesía y después reconstruyendo todo el andamiaje semántico en un lenguaje robótico incompresible para los seres humanos, pero efectivo para las máquinas es un ejemplo de singularidad.

Si dichos robots singulares hicieran código en su propio lenguaje, sería prácticamente imposible para los humanos decodificarlo, lo que quizá no sea peligroso, pues al tener consciencia de sí misma y empezar ese proceso de singularidad infinito, desarrollaría una interpretación del mundo y lenguaje incomprensibles para los humanos, lo que haría que las máquinas se alejaran de los seres humanos más y más.

No obstante, existen otros peligros latentes. En un excelente ensayo titulado “El fin de la infancia”, George Dyson, historiador de la tecnología, advierte que la gran revolución digital inició cuando las máquinas sustituyeron números que significaban algo por números que hacían algo. Esto permitió representar modelos de actividades humanas que poco a poco han sido sustituidos por los modelos que los robots han creado, haciendo que dichas actividades se ciñan a los algoritmos de las máquinas y no al revés. “Los motores de búsqueda ya no representan el conocimiento humano; son el conocimiento humano”. Al final, señala Dyson, tendremos una sociedad cuyo conocimiento sea construido, administrado y dotado por robots.

No hay comentarios: