Páginas

lunes, 18 de noviembre de 2024

El camino a la inteligencia artificial (IA)


Hay un hecho que debemos conocer con claridad: la llamada Inteligencia Artificial (IA) no nos va a quitar el trabajo, pero si nos va a quitar el trabajo otra persona como nosotros pero que sí usa la IA en su vida diaria. Por eso, nos guste más o menos ahora, debemos incorporar la IA en nuestras vida, como ya lo hicimos con los ordenadores o con internet. 

No es fácil entender la IA y utilizar bien las herramientas en aspectos como la docencia o la investigación, cual es mi caso. Estoy realizando cursos y talleres sobre herramientas de IA para esas funciones y no es un camino de rosas. Pero el esfuerzo vale la pena… 

Y por ello vale la pena conocerlo. Y hoy quiero compartir algunas fechas y nombres importantes que han hecho posible este hito. Porque la IA no nació con el ChatGPT, aunque esta herramienta la haya popularizado. Su historia se remonta a la mitad del siglos XIX y ha sido un camino largo y sinuoso, aunque muy acelerado en la última década. Veamos algunas fechas y nombres clave. 

Se dice que fue en 1843 cuando la británica Ada Lovelace, matemática y escritora, escribió el primer programa informático y teorizó sobre lo que podrían hacer los ordenadores, asegurando que no podrían pensar. Ella conoció a otro matemático, Charles Babbage, quien estaba trabajando en una calculadora avanzada a la que llamó como “máquina diferencial”, pero luego se puso a trabajar en una “máquina analítica” que se podía reprogramar.  

Tuvo que pasar un siglo para que otro genio británico, Alan Turing, quien creía que los ordenadores podrían pensar, diseñase en 1950 el Test de Turing para comprobarlo (lo llamó “the imitation game” y constaba de dos personas y una máquina) y que tardó más de siete décadas en superarse (con ChatGPT y otros). Su vida se ha llevado a la literatura y al cine, con Descifrando Enigma (The Imitation Game, Morten Tyldum, 2014) como más significativa. Para llegar allí cabe citar su artículo de 1936 “On Computable Numbers” para comenzar a hablar de la arquitectura de los ordenadores binarios que funcionan hasta el día de hoy, y que se le llamó la Máquina de Turing.  

En 1956 es la primera vez que se usa el término Inteligencia Artificial, y se debe al pionero informático estadounidense John McCarthy en un conferencia en el Darmouth College a sus colegas. Además creó el lenguaje LISP (familia de lenguajes de programación de computadora de tipo multiparadigma) para desarrollar IA e impulsó su desarrollo. Y, por todo ello, fue reconocido con el Premio Turing en 1971 y tiempo después funda el Departamento de IA de la Universidad de Standford.  

Aquí comenzó la primera carrera por la IA. Y en 1958, el psicólogo estadounidense Frank Rosenblatt creó la primera neurona artificial (computadora conocida como perceptrón), el cual es un modelo matemático que recrea el funcionamiento de una neurona biológica. En ese mismo año, Alex Bernstein creó el primer programa de ordenador capaz de jugar al ajedrez (pero en la demo, tras la primera jugada del humano el ordenador dijo “me rindo”, lo que hablaba de que había mucho que mejorar). Y en 1966, el profesor de informática de origen alemán Joseph Weizenbaum creó el primer chatbot de la historia llamado ELIZA y que se comportaba como un terapeuta psicólogo. Pero no era IA, sino una lista de parámetros para responder.   

Luego llegan las décadas de los 70 y 80 que vienen a definirse como el “invierno de la IA”, pues después de un inicio eufórico, la IA se detuvo y e incluso aparecieron opositores. Las promesas eran muchas, el coste elevado, así que los gobiernos cerraron el presupuesto en este campo y ello con el Informe Lighthill del año 1973. En ese espacio Geoffrey Hinton define el concepto de redes neuronales profundas (o multicapa) en 1986, de manera que cada capa resuelve una tarea específica y, al juntarlas, podían resolver tareas complejas. 

Hay un despunte en 1997 con Deep Blus, la primera computadora (de IBM) que derrotó a un campeón del mundo de ajedrez como Gary Kasparov (aunque no era totalmente IA y realmente había una persona detrás que apoyaba a la máquina). Pero lo cierto es que entre 1986 y 2006 llega el "segundo invierno de la IA", pues atenazaba el problea del "desvanecimiento de gradicente" y hubo d esperar dos dácadas para resolverse. 

En 2006 resurge la IA cuando Geoffrey Hinton y su equipo ese "desvanecimiento de gradiente" y es así que saltamos al 2011, cuando aparece Watson, otra supercomputadora creada por IBM que fue capaz de vencer en el juego Jeopardy, y eso implicaba entender dobles sentidos y juegos de palabras.  Y todo esto nos lleva al boom de la IA. Y que comienza con Siri en 2011, el primer asistente con IA con voz que Apple lanza dentro de los iPhone y que enciende la alarma de sus competidores, por lo que en 2012 sale Google Now y en 2014 Alexa. Pero la IA de estos asistentes de voz era muy básico. Tras ese pistoletazo de salida, Google (que tiene Android) entró en pánico y como respuesta en 2014 hace su inversión más importante en IA y compra Deepmind (que se suma al Google Brain que ya tenían) para posicionarse como líder mundial de la IA. 

En 2015, el magnate sudafricano Elon Musk (ahora ya en el nuevo gobierno de Donald Trump) y el programador y bloguero estadounidense Sam Altman fundan OpenAI como respuesta a Google. En realidad es un laboratorio de investigación de inteligencia artificial que lo crean con la intención de entregar la IA al beneficio de la humanidad y sin fines de lucro. Y aquí comienzan a reclutar a los mejores, que habitualmente estaban en Google, para lo que Musk tuvo que desembolsar mucho dinero para traerse a genios como el informático israelí-canadiense, nacido en Rusia, Ilya Sustkever. Pero lo cierto es que los avances no fueron inicialmente los deseados…    

Fue en 2017 cuando ingenieros de Google publican el artículo “Attention is all you need”, que viene a decir que lo que necesitan mejorar los científicos de IA no es la memoria, sino la atención, por lo que se introduce la arquitectura Transformer, algo revolucionario y gracias a la cual tenemos la IA generativa. Y es cuando los de OpenAI aprovechan la enseñanza del artículo y crean GPT (Generative Pre-trained Transformer) en su primera versión (GPT-1). Ahí es cuando Elon Musk vio margen de negocio y quisó fusionar OpenAI con Tesla, pero aquello acabó como el rosario de la aurora con Sam Altman. Así que Musk se fue y se llevó el dinero, pero Altman recurre entonces a Miscrosoft, quien invierte 1000 millones de dólares luego de que Musk les dejara sin fondos, y crearon GPT-2 y GPT-3.  

Ya en el año 2021 es cuando Google presenta LaMDA (Language Model for Dialogue Applications), un modelo de lenguaje que puede conversar e inventar historias, por lo que el ingeniero Blake Leomine llegó a decir que tenía vida y conciencia. Pero nunca lo sacó al público. Y de aquí llegamos al punto crítico, ese 30 de noviembre de 2022 (se van a cumplir ahora solo dos años) en el que OpenAI lanza un chatbot experimental basado en GPT 3.5 sin estar seguros de qué pasaría. Y lo que pasó es que el mundo cambió para siempre con ChatGPT…y el test de Alan Turing había sido superado con creces y para siempre. Decir que ya se había desarrolla antes el chatbol Claude, pero no se lanzó en su momento como ChatGPT, que no esperó a su versión 4 y lanzó la 3.5. 

Y lo que ha pasado en estos dos años ya lo conocemos mejor, con esa lucha de posicionamiento entre Google (Gemini), Facebook (MetaAI) y Apple (Apple Intelligence), donde todos dicen superar a los demás. Y ahí se anda en la carrera a la AGI (Artificial General Intelligence) y sus intereses comerciales. 

Destacar que el Premio de Física 2024 se ha concedido al físico estadounidense John Hopfield y al científico computacional británico Geoffrey Hinton por poner las bases de la inteligencia artificial, “padrinos” del aprendizaje de máquinas con redes neuronales artificiales. Un premio que desató la polémica entre los científicos, pues para muchos la IA no es física, más bien una cuestión matemática o  de ingeniería. Pero esa es otra batalla… 

No hay comentarios:

Publicar un comentario