¿Por qué la «nueva» Inteligencia Artificial suele ser ciencia de datos aplicada?

La Inteligencia Artificial es una disciplina que tiene como objetivo replicar aspectos del pensamiento humano mediante hardware y software. Por ejemplo, hay programas informáticos que “saben” jugar al ajedrez muy bien. ¿Significa esto que son inteligentes? Ciertamente no: solamente significa que “saben” jugar al ajedrez muy bien. Y nada más que eso. En realidad, no “saben” jugar al ajedrez: un programa de ajedrez recibe unas entradas y produce unas salidas. El significado de “partida de ajedrez” a una secuencia de dichas entradas/salidas se lo otorgamos los espectadores.

En cualquier caso, este es un ejemplo de una Inteligencia Artificial específica; en este caso, específica del ajedrez.

La Inteligencia Artificial es un campo que está avanzando deprisa, y cada vez hay más cosas que parecían exclusivas de la especie humana y que pueden ser hechas muy bien por programas informáticos, esto es, por inteligencias artificiales específicas.

Incluso también puede suceder que algunos paquetes de software sean mejores que los humanos en algunas de esas tareas que parecían exclusivamente humanas. Esto de ninguna manera significa que los ordenadores (o robots) son más inteligentes que las personas: sólo significa que “saben” hacer muy bien esa tarea específica hasta el punto de que consiguen mejores resultados que los humanos. Pero únicamente en esa tarea específica, y en ninguna otra cosa más.

La «nueva» Inteligencia Artificial

En estos momentos, y gracias al aumento en la capacidad de cálculo, se están utilizando mucho, y con gran éxito, las redes neuronales. Las llamadas «redes neuronales» básicamente consisten en “enseñar” a un software una cantidad suficiente de datos etiquetados que consiga que ese software sea capaz de “etiquetar” correctamente y de manera autónoma un dato nuevo con un índice de acierto razonablemente alto. Cuanto mayor sea el índice de acierto, mayor será la fiabilidad de esa red neuronal para la tarea encomendada.

A este acercamiento también suele conocérsele como “aprendizaje supervisado”, porque se produce al aportar información de cierta manera a la máquina. Las redes neuronales, en realidad, están basadas en un procedimiento matemático que se parece bastante a cómo la ciencia de los datos encuentra patrones y modelos. Lo explicamos en nuestro artículo sobre «de qué hablamos cuando hablamos de big data en educación?», la semana pasada.

El hecho de que se haya llamado «redes neuronales» a este acercamiento ha generado bastante confusión en muchas personas, que piensan por ello que los ordenadores alcanzan cierto nivel de inteligencia parecida a la humana. En realidad lo que hacen los ordenadores es realizar cálculos y nada más. Pero sigamos con la explicación.

¿Cómo puede una inteligencia artificial específica alcanzar un grado de “conocimiento” interesante sobre un problema determinado? Muchos creen que esto es posible gracias a la sucesiva incorporación de un número muy elevado de capas superpuestas al análisis (Deep Learning) que necesitan, en consecuencia, un número muy elevado de datos para poder operar (Big Data). Con esto, se conseguiría que la máquina haya virtualmente “aprendido” (Machine Learning). Aprendizaje automático.

Aprendizaje supervisado y el valor de los datos

Para aplicar esta metodología de Machine Learning hace falta un proceso de cálculo muy grande. Y una gran cantidad de datos etiquetados de forma correcta. Por eso se dice mucho actualmente que los datos son “el oro del futuro”. En realidad, los datos no son valiosos en sí mismos: lo son en todo caso si y sólo si están etiquetados correctamente, y ese etiquetado tiene un valor. De lo contrario, los datos no son más que ruido. Muchas empresas que contratan los servicios de especialistas en Big Data para obtener supuesto conocimiento no podrán conseguirlo nunca porque la materia prima que quieren utilizar no son datos etiquetados con etiquetas valiosas, sino simplemente montañas de ruido.

Uno de los problemas que tiene este procedimiento es que es “ciego”: el patrón que ha utilizado el sistema para aprender resulta una caja negra. No podemos saber “cómo” es que una máquina “sabe” algo. Lo único que podemos hacer es validar ese “conocimiento”. La validación inicialmente será para dar por bueno el “aprendizaje” de la máquina y, posteriormente, será para confirmar que después de un uso elevado, el criterio desconocido que utiliza la máquina sigue siendo válido. Cada cierto nivel de uso nuevo, deberíamos volver a evaluar el conocimiento de la máquina, como en un calibrado.

Frente a la pura caja negra, se está trabajando últimamente en técnicas que permiten bucear entre los cálculos efectuados como para permitir extraer una serie de datos que pudieran ser interpretados como una posible «explicación» de lo aprendido. Pero, de momento, este es un campo de futuro dentro de la Inteligencia Artificial, aunque se están produciendo avances continuamente.

Aprendizaje no supervisado

Hay otra estrategia para el aprendizaje automático distinta del aprendizaje supervisado, y es la del aprendizaje NO supervisado. Al aprendizaje no supervisado también se le llama muchas veces “reinforcement learning”, aunque no son exactamente lo mismo porque hay técnicas de aprendizaje no supervisado que no se encuadran dentro del reinforcement learning. En el caso del aprendizaje no supervisado, no hay un conocimiento a priori, y por eso este aprendizaje no puede ser “calibrado” sino solamente en función de su utilidad y validez en pruebas para resolver problemas de la vida real bajo ciertas circunstancias.

En el aprendizaje no supervisado, el sistema recibe como input una serie de reglas, con las que puede activar variables aleatorias de forma sistemática y repetida, hasta conseguir optimizar las acciones con una finalidad concreta.

Un buen ejemplo para distinguir el aprendizaje supervisado y el no supervisado es el que se ha seguido para “enseñar” a los ordenadores a “jugar al ajedrez”:

  • Con el aprendizaje supervisado, la estrategia que se sigue es aportar al sistema un número muy elevado de partidas jugadas, así como su desarrollo y desenlace. Gracias a esa información, un software puede identificar dentro de una partida cuáles son los movimientos mejores, esto es, cuáles son los movimientos que le acercarían a la victoria en el juego.
  • En el caso del aprendizaje no supervisado (reinforcement learning), la estrategia es darle al sistema las reglas del ajedrez, así como información sobre cuándo se produce la victoria, y dejar al sistema que, por sí solo, y sin información adicional de ningún tipo, “juegue” muchísimas partidas distintas y, de esa manera, sea capaz de inferir en cada momento la mejor jugada posible.

En el caso concreto de juegos como el ajedrez o el Go, se ha demostrado la superioridad de resultados del aprendizaje no supervisado frente al aprendizaje supervisado. El problema que tiene esta estrategia es que puede darse únicamente en situaciones donde las “reglas del juego” son conocidas en su totalidad. Y esto es algo que no sucede habitualmente en la realidad.

La magia en el caso de la victoria de Deep Mind de Google en el juego Go, que tuvo tanta repercusión, está fundamentalmente en la técnica de reinforcement learning utilizada, pero también en los detalles de su aplicación: ¿cómo se predice cuál es la posición del oponente más probable?, ¿cómo se asigna una puntuación a las posibles posiciones del juego para guiar el proceso?

De todas formas, y viendo siempre la aplicación práctica, lo interesante de Deep Mind de Google es que están extrayendo parte de la lógica del programa que utilizaron para vencer en el Go, y lo están aplicando a otros problemas, como por ejemplo el ahorro de energía en sus centros de servidores, que es un problema económico enorme para ellos, o dar solución al problema de predecir el plegamiento de las proteínas, un hito científico impresionante alcanzado recientemente por esta empresa con su software AlphaFold y Alpha Fold 2.

Y es que los avances están siendo realmente tremendos. Y están revolucionando muchos campos. Por eso es necesario comprender bien cómo funcionan estos sistemas, para responder a las preguntas importantes: ¿Es posible portar este tipo de planteamiento a otros problemas? Esta es la cuestión realmente interesante. Y ¿a qué tipo de problemas?

En nuestro caso, ¿tiene sentido utilizar esta «nueva» Inteligencia Artificial a la educación y el aprendizaje humano? Lo iremos viendo en nuevas entregas. Permanezcan atentos…

Julián Alberto Martín

La tecnología, ¿mejora la educación?

Sobre el autor

Todas las columnas del autor

Julián Martín
Author: Julián Martín

Dejar respuesta

Please enter your comment!
Please enter your name here