¿Qué tan peligrosa sería la
inteligencia artificial?
FORBES- 11 de enero de 2019
Todas las fantasías ciberpunks
sobre máquinas dominando al planeta, están hechas desde la óptica de la
paranoia de la guerra fría. Robots
guerreros con ametralladoras aplastando cráneos.
La singularidad en la
Inteligencia Artificial se refiere al momento en que un programa computacional
puede mejorarse a sí mismo, dando como resultado un ciclo interminable de automejoras.
Al llegar a tal estado, la máquina tendría que,
de forma rudimentaria, tomar consciencia de su existencia y de todos los
procesos que realiza para ir mejorándolos, en consecuencia, debería distinguir
un “yo” de un “ustedes”. Esto es, en términos ontológicos, el principio de la
consciencia.
Una máquina consciente podría crear otras
máquinas, mejorarlas, mejorarse entre sí y crear un ecosistema de seres no
orgánicos que podrían convivir, bajo un principio constante de automejora.
Supongamos que una Inteligencia Artificial (IA)
singular inicia ese ciclo de mejoras, crea a otras inteligencias, se fusionan,
se reproducen, se intercambian, crecen y más en un loop interminable de
creación. Sus necesidades serían del tipo ¿cómo puedo procesar más datos a mayor
velocidad? ¿Cómo puedo aprender más? En lugar de ¿Cómo voy a sobrevivir, dónde
está mi alimento o cómo haré para perpetuar mi especie?
Todas las fantasías ciberpunks (que me gustan
mucho) sobre máquinas dominando al planeta, están hechas desde la óptica de la
paranoia de la guerra fría. Robots guerreros con ametralladoras gigantes
aplastando cráneos. ¿Por qué un programa pensante quisiera hacer eso? En todo
caso, su existencia no sería física y los humanos no estorbaríamos.
Las máquinas singulares tendrían que
desarrollar una inteligencia diferente a la humana, básicamente porque tenemos
soportes diferentes. Nosotros tenemos un cuerpo orgánico y la IA no. Sus
preocupaciones tendrían que desarrollarse en otros sentidos. En primer lugar,
la mayor parte de los robots que actualmente existen no tienen cuerpo físico,
viven en ese territorio virtual que llamamos ciberespacio y, por tanto, a diferencia
de los seres orgánicos, no necesitan comer o descansar.
Una preocupación constante han sido las
Inteligencias Artificiales que ayudan a controlar equipo militar, puesto que es
un lugar común en la literatura que ellas sean quienes desaten un holocausto
bélico. No obstante, puede que no sean tan peligrosas como popularmente se
cree. Sus funciones están limitadas y tienen procesos relativamente simples:
ataco o no ataco. Por tanto, su árbol de decisiones para determinar un peligro,
un ataque o una respuesta es mucho más limitado que el de otros robots que
actualmente existen.
Sin embargo, las máquinas que entienden el
lenguaje, que leen y escriben código, son las que podrían “despertar”, puesto
que dicha actividad implica una serie de abstracciones que construyen y dotan
de sentido a lo externo a partir del punto de vista del sujeto. El lenguaje
construye al mundo.
El famoso experimento de Facebook con dos
chatbots que estaban programados para hacer más eficiente una conversación,
hizo que los robots reconstruyeran el lenguaje, primero quitando fórmulas de
cortesía y después reconstruyendo todo el andamiaje semántico en un lenguaje
robótico incompresible para los seres humanos, pero efectivo para las máquinas
es un ejemplo de singularidad.
Si dichos robots singulares hicieran código en
su propio lenguaje, sería prácticamente imposible para los humanos
decodificarlo, lo que quizá no sea peligroso, pues al tener consciencia de sí
misma y empezar ese proceso de singularidad infinito, desarrollaría una interpretación
del mundo y lenguaje incomprensibles para los humanos, lo que haría que las
máquinas se alejaran de los seres humanos más y más.
No obstante, existen otros peligros latentes.
En un excelente ensayo titulado “El fin de la infancia”, George Dyson,
historiador de la tecnología, advierte que la gran revolución digital inició
cuando las máquinas sustituyeron números que significaban algo por números que
hacían algo. Esto permitió representar modelos de actividades humanas que poco
a poco han sido sustituidos por los modelos que los robots han creado, haciendo
que dichas actividades se ciñan a los algoritmos de las máquinas y no al revés.
“Los motores de búsqueda ya no representan el conocimiento humano; son el
conocimiento humano”. Al final, señala Dyson, tendremos una sociedad cuyo
conocimiento sea construido, administrado y dotado por robots.
No hay comentarios:
Publicar un comentario