
La velocidad del desarrollo de la inteligencia artificial en los últimos tres años ha superado largamente a la de los principales descubrimientos de la humanidad desde la revolución industrial en la segunda mitad del siglo XVIII, hasta la creación de la World Wide Web (internet) en la última década del siglo XX.
El 24 de octubre de 2011, a los 84 años, murió John McCarthy, doctor en Matemáticas por la Universidad de Princeton, y el primer académico que definió conceptualmente a la inteligencia artificial en el marco de la Conferencia de Dartmouth, celebrada en el año 1956 en New Hampshire.
Durante ese encuentro, en el que también participaron Marvin Minsky, Nathaniel Rochester y Claude Shannon, se estableció el marco científico para la creación de programas que pudieran simular procesos cognitivos humanos, incluyendo el razonamiento, el lenguaje y el aprendizaje. Esto es, el big bang de la inteligencia artificial tal como hoy la conocemos.
En el texto original de la conferencia, McCarthy sintetizó el núcleo de la IA afirmando que “cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede ser descrita con tanta precisión que se puede hacer una máquina para simularlo”. La propuesta científica apuntaba centralmente a la creación de máquinas que: utilicen el lenguaje; formen abstracciones y conceptos; resuelvan clases de problemas reservados para seres humanos y (last but not least), que puedan mejorar por sí mismas.
En 1962, McCarthy se traslada del Instituto de Tecnología de Massachusetts (MIT) a la Universidad de Stanford en California, y tres años después, gracias al financiamiento del Departamento de Defensa, desarrolla las computadoras para la creación del laboratorio de IA de Stanford (SAIL), siendo su director hasta 1980.
Previamente en 1971 había sido galardonado con el Premio Alan Turing, y en 1990 el presidente republicano George H. Bush le otorgó la Medalla Nacional de Ciencias.

A principios de 1960 un grupo de estudiantes dirigidos por McCarthy diseñaron una computadora de IBM para jugar al ajedrez. El programa llegó a analizar 1100 posiciones por segundo. Un año antes de su muerte ocurrida en junio de 1954, Alan Turing había publicado su ensayo “Ajedrez”, sobre el ajedrez informático, el cual representa su último trabajo relacionado con la IA.
En 1965, científicos de la Unión Soviética diseñaron un programa de ajedrez desarrollado en el Instituto de Física Teórica y Experimental (ITEP) de Moscú. Y un año después, el programa de ajedrez de la URSS llevó adelante una partida por correspondencia con el programa ideado por McCarthy y sus estudiantes del MIT. La partida que duró nueve meses fue ganada por la computadora soviética, con 3 victorias y 1 derrota.
Ese mismo año Herbert Simon, amante del ajedrez como su amigo McCarthy, afirmó “las máquinas serán capaces, dentro de veinte años, de realizar cualquier trabajo que un hombre pueda hacer”. Doctor en Ciencia Política por la Universidad de Chicago, Simon obtuvo en 1978 el Premio Nobel de Economía “por su investigación pionera en el proceso de toma de decisiones dentro de las organizaciones económicas”.
Su gran legado fue el desarrollo de la teoría de la toma de decisiones y el estudio de la racionalidad limitada, aportando un marco interdisciplinario entre economía, psicología y ciencias de la computación. Profundizó, además, sus investigaciones sobre cognición emocional en las máquinas, defendiendo que la inteligencia artificial puede también abarcar aspectos emocionales y no solo razonamientos lógicos racionales.
En el mes de enero de 1971 Herbert Simon visitó Buenos Aires y mantuvo un largo diálogo con Jorge Luis Borges, a quien admiraba por el perfil filosófico de sus cuentos. La conversación fue reproducida en la revista Primera Plana, entonces dirigida por Jacobo Timerman. Borges le pregunta a Simon que le “explique algo sobre el llamado conductismo (behaviorismo). ¿Cuál es el fundamento? ¿Se habla de libre albedrío o más bien de predestinación”?
El académico estadounidense así le contestó: “Bueno, yo siempre tengo que hablar de computadoras. Estoy enamorado de las computadoras. Lo podríamos plantear de la siguiente manera. Frente a determinado problema la computadora se comporta, también, de determinada manera. Y nos preguntamos si tuvo libre albedrío en ese comportamiento. Decimos que tuvo libre albedrío en el siguiente sentido. Si se le hubiera colocado otro programa hubiera actuado en distinta forma, hubiera tenido otro comportamiento”.
El azar quiso que en el mes de octubre del año 2011 fallecieran John McCarthy y Steve Jobs, cofundador de Apple. Dos de las mentes más brillantes de nuestro tiempo que forjaron, cada uno en su campo, los cimientos para la revolución tecnológica que está alimentando el imparable desarrollo de la inteligencia artificial.
Últimas Noticias
Por qué los bares analógicos están viviendo un nuevo auge
Se trata de un fenómeno que no es exclusivo de una generación. De hecho, los jóvenes de veinte años, los de la llamada generación Z, son quienes más lo impulsan

El legado es aún más importante que el éxito del presente
Logros como la alianza estratégica con los Estados Unidos hasta el acuerdo comercial con China. Los desafíos futuros del presidente Javier Milei luego de la victoria del oficialismo en las elecciones legislativas nacionales
Dorsal de Nasca: claridad jurídica frente al alarmismo y la desinformación
Es la primera reserva totalmente marina que protege ecosistemas profundos en un espacio tridimensional, permitiendo con el debido sustento técnico la pesca en sus distintas categorías, sin afectar sus objetivos de conservación

Internet necesita conectar emocionalmente con la gente
La web3 enfrenta ese desafío ante los usuarios para consolidar su crecimiento global

Una ley clave, al fin con el timón en Capital Humano
Miles de personas en Argentina siguen sin acceder al DNI, lo que las excluye del sistema educativo y laboral



