Que nadie se asuste (todavía), en realidad la Inteligencia Artificial (IA) sólo es buena actualmente para hacer cosas muy concretas y en un ámbito limitado (en el que le programaron). Pero esto no quiere decir que no estemos o nos encaminemos hacia un horizonte en que el Machine Learning y la IA nos superen. Y si esto es previsible, puesto que se les considerarán más precisas que las mentes humanas, puede ser que no lleguemos a entender muy bien el porqué.
No es difícil encontrar titulares sobre los últimos avances de la Inteligencia Artificial. Algunos de ellos, porqué no decirlo, un poco apocalípticos. Pero hay que reconocer que en ocasiones, estos mismos titulares son divertidos. Como el caso de Microsoft con su Inteligencia Artificial conectada a Twitter en forma de chatbot (de nombre Tay) que interactuaba con aquellos que querían hablar con ella. Aquella IA artificial descubrió, es posible de la forma más calamitosa posible, que el ser humano tiende a extremos y que hay que entender el contexto y con quién estás tratando. Lo que le sucedió es que los usuarios de Twitter comenzaron a trolearla y al final gracias a su aprendizaje se convirtió en un usuario racista y de extrema derecha mientras los usuarios seguían jaleándola para que se comportase de esa manera. El bochorno de Microsoft pudo ser mayúsculo, ya que descubrió que su experimento se le había ido de las manos hacia el extremo, la IA tuvo que ser retirada. Sin embargo, no debemos olvidar que la Investigación y Desarrollo se fundamenta precisamente en eso, en experimentar aunque las cosas no salgan como uno esperase en un primer moemnto.
Pero Microsoft no es la única que ha experimentado con IA y sus experimentos han salido un tanto bizarros. Facebook diseñó y programó dos IAs que tenían que negociar intercambios a través de objetos un tanto banales. Pero pronto, en la búsqueda de la eficiencia, las IAs comenzaron a negociar en un lenguaje que se tornaba inteligible para los humanos y llegado cierto punto tuvieron que detener el experimento puesto que los técnicos de Facebook no tenían forma de entender cómo se estaba desarrollando el experimento. Las dos IAs habían compuesto un lenguaje propio y los investigadores de Facebook tuvieron que apagar el experimento.
En ocasiones no es culpa de los algoritmos el alcanzar decisiones o tener comportamientos equivocados. El sistema de inteligencia artificial COMPAS que usan los jueces en EE UU como asesor tiene un sesgo y tiende a desaconsejar la libertad a los negros más a menudo que a los blancos. Sin embargo, este sesgo está heredado ya que las bases de datos que usan los algoritmos para la toma de decisiones proviene de la policía estadounidense y si esos datos ya se encuentran influenciados por decisiones tomadas previamente por los humanos, los algoritmos también acaban estándolo.
Amazon también ha sufrido en sus carnes la falta de atino en sus algoritmos. De hecho, tuvo que dejar de utilizar un programa de selección de personal puesto que tenía una preferencia hacia el sexo masculino, descartando a las candidatas que se presentaban a ciertos puestos, especialmente en aquellos trabajos que tuviesen un perfil técnico.
Las razones de esto, de nuevo, se encontraba en los datos que se había utilizado para entrenar al sistema. Diez años de perfiles en la compañía con antiguos candidatos en los que se demostraba el predominio en el sector de los hombres. El algoritmo entendió que los hombres eran mejores que las mujeres para ciertos puestos y comenzó a penalizarlas.
Pero no sólo las IAs producen situaciones catastróficas. También son un éxito, pero lo son tanto que no sabemos porqué lo son. Uno de estos ejemplos la utilización de DeepMind de Google para la detección de enfermedades a través de un escáner del ojo de los pacientes. Utilizando técnicas de Machine Learning, el sistema se ha convertido en tan efectivo que los desarrolladores no saben cómo el sistema ha llegado a esas conclusiones. Es decir, se ha convertido en una caja negra (black box) de la que es un misterio cómo ha llegado a ese punto. Esto es bastante interesante puesto que un sistema artificial ha generado un conocimiento del que, de momento, no podemos extraer ninguna conclusión puesto que no sabemos cómo se ha generado.