El ciclo de Kuhn y la Inteligencia artificial
La inteligencia artificial es el ejemplo por excelencia del ciclo de khun, cada avance ha supuesto un avance explosivo seguido de un periodo estático, empezando por el perceptrón hasta llegar a las transformadas.
La inteligencia artificial como la conocemos empezó en 1958, con el diseño del perceptrón, una pequeña función matemática que dependiendo de unos valores y unos pesos nos daba una respuesta binaria, de forma que al introducir unos datos el perceptrón podía darnos como respuesta 1 o 0. Los pesos que asignaba a cada valor podían modificarse en base al resultado dado, lo que permitía al perceptrón aprender, creando así la primera neurona artificial.
Pero tras el desarrollo de este no se produzco un avance en la inteligencia artificial hasta 1986. Los perceptrones eran sistemas simples que sólo podían resolver problemas lineales, modificar los pesos que componían un perceptrón requería de una revisión computacionalmente elevada, imposible para los ordenadores limitados de la década de los 60. Esto provoco que durante 20 años no se produjese ningún avance.
Fue en los 80, cuando la capacidad de computación había avanzado bastante y la informática había empezado a popularizarse,que los investigadores volver a interesarse por la IA, hasta que en 1986 se desarrollo el algortimo de backpropagación, un algoritmo que permitía modificar los pesos del perceptrón de una forma más eficiente, esto, junto con el aumento de la capacidad computacional, llevó al desarrollo del perceptrón multicapa, la primera inteligencia artificial capaz de resolver problemas no lineales.
El siguiente avance se consiguió en los 90, con el desarrollo del algoritmo de las Máquinas de Soporte Vectorial (SVM). Estas nuevas técnicas permitieron mejorar la clasificación de datos mediante el uso de hiperplanos en espacios de mayor dimensión, lo que resolvía problemas más complejos que las redes neuronales multicapa de los 80. Esto volvió a dejar de lado a las neuronas artificiales durante años.
No obstante, las SVM tenían muchas limitaciones, y a final de los 2000s la ciencia volvió a hacer otro gran avance: el desarrollo de las redes convolucionales. Estas redes eran capaces de llevar a cabo el reconocimiento y clasificación de imágenes con una gran precisión.
La siguiente gran innovación llegó en la década de 2010 con la aparición de las Redes Recurrentes (RNN) y, más específicamente, las LSTM (Long Short-Term Memory). Estas redes fueron diseñadas para procesar secuencias de datos y abordar problemas de dependencia a largo plazo en tareas como la traducción automática y el reconocimiento de voz. A pesar de su eficacia, las RNN y LSTM tenían problemas para escalar y procesar grandes volúmenes de texto debido a su naturaleza secuencial.
El punto de inflexión definitivo llegó en 2017 con la publicación del artículo "Attention is All You Need", en el que se presentó la arquitectura Transformer. Este modelo revolucionó el procesamiento del lenguaje natural al introducir el mecanismo de self-attention, que permite analizar todas las palabras de una secuencia al mismo tiempo, eliminando las limitaciones de las RNN y LSTM. Y lo que nos ha permitido generar los LLM, que son la base de la IA más popular, aunque en mi opinión no la más importante: chatGTP.
La inteligencia artificial es un campo relativamente joven y sus avances no son progresivos, sino explosivos, se desarrolla una nueva tecnología que se lleva al límite y posteriormente, a veces con diferencia de décadas, otras de años, se crea un nuevo avance que revoluciona el campo. La IA es un ejemplo perfecto del ciclo de Kuhn
No tengo claro qué son avances normales y cuales son suficientemente revolucionarios (en términos de Kuhn) como para asumir un cambio de paradigma. En todo caso es una buena reflexión sobre la evolución de la disciplina, que es lo importante.
ResponderEliminar