Organizadores de la conferencia
Prominente informático que realizó
importantes contribuciones en el campo de la Inteligencia Artificial, siendo
el primero en introducir este término en la informática.
Inventó el Lenguaje de
programación LISP.
· McCarthy
inventó el Lenguaje de
programación LISP y publicó su diseño en Comunicaciones del ACM en 1960.
· Ayudó
a motivar la creación del Proyecto
MAC en el MIT, pero en 1962 se
marchó del MIT y se fue a la Universidad de [Stanford], donde se dedicó a
instalar el Laboratorio de IA de Stanford, que durante
muchos años fue un rival amistoso del Proyecto MAC.
· En 1961, fue el primero en sugerir
públicamente (en un discurso dado para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que
el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas
como un servicio (como el agua o la electricidad).
· McCarthy
recibió su B.S. en Matemáticas del Instituto de Tecnología de California en 1948 y su Ph.D. en Matemáticas de la
Universidad de Princeton en 1951. Tras cortas estancias en
Princeton, Stanford, Dartmouth, y
el MIT, pasó a ser profesor a tiempo completo en Stanford en 1962, donde permaneció hasta su retiro
a finales del 2000. Ahora es
Profesor Emérito.
Además del Premio Turing, McCarthy recibió otras
varias distinciones, fue miembro de distintas academias. En 2010 ingresó
en el llamado IEEE Intelligent
Systems Hall of Fame donde se
detallan sus reconocimientos públicos.
Marvin Minsky
Marvin Lee Minsky (Nueva York, 9 de agosto de 1927) es un científico estadounidense. Es considerado uno de los padres de las ciencias de la computación y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts o MIT.
Catedrático de Ingeniería Eléctrica y Ciencias de la Computación y
titular de la Catedra Toshiba of Media Arts and Sciences en el MIT, Minsky fue
uno de los fundadores en la década de los 50 del campo de la inteligencia
artificial, con el objetivo de transformar los ordenadores de entonces,
máquinas de calcular, a máquinas inteligentes, capaces de imitar la mente
humana.
De hecho, basándose en la idea de que el cerebro es una máquina que se
puede replicar, abordó el problema de dotar a estos aparatos de sentido común,
dotándolas del conocimiento que el hombre adquiere mediante la experiencia.
Además, es autor de contribuciones esenciales
en matemáticas, ciencia cognitiva, robótica y filosofía. Asimismo, fue uno de
los creadores del prestigioso Laboratorio de Inteligencia Artificial del
Instituto Tecnológico de Massachusetts (MIT).
Nathaniel Rochester
Rochester estaba muy interesado en máquinas inteligentes, especialmente
en aquellas que presentan una conducta original en la resolución de problemas. En
1955 , IBM organizó un grupo para estudiar el reconocimiento de patrones ,
teoría de la información y la teoría de conmutación de circuitos , encabezado
por Rochester.
Entre otros proyectos, el grupo simuló el comportamiento de las
redes neuronales abstractos en una computadora IBM 704. Ese verano John
McCarthy, un joven matemático Dartmouth College, también estaba trabajando en
IBM. Él y Marvin Minsky había empezado a hablar en serio de la idea de las
máquinas inteligentes . Se acercaron a Rochester y Claude Shannon con una
propuesta de una conferencia sobre el tema. Con el apoyo de los dos científicos
de alto nivel , se aseguraron 7,000 dólares de la Fundación Rockefeller para
financiar una conferencia en el verano de 1956 . El encuentro, ahora conocida
como la Conferencia de Dartmouth , es ampliamente considerado como el
"nacimiento de la inteligencia artificial. "
Rochester ha seguido
supervisando los proyectos de inteligencia artificial de IBM , incluyendo
programa de damas de Arthur Samuel , de Herbert Gelernter Geometría Teorema del
probador y el programa de ajedrez de Alex Bernstein. En 1958, fue profesor
visitante en el MIT , donde ayudó a McCarthy con el desarrollo de Lisp lenguaje
de programación . Los programas de inteligencia artificial desarrollado en IBM
comenzaron a generar una gran cantidad de publicidad y se presentaron en
artículos tanto en la revista Scientific American y The New York Times.
Accionistas de IBM comenzaron a presionar a Thomas J. Watson , presidente de
IBM, para explicar por qué se están utilizando dólares de la investigación para
este tipo de "asuntos frívolos ". Además , la gente de marketing de
IBM habían empezado a notar que los clientes tenían miedo de la idea de
"cerebros electrónicos" y "máquinas pensantes" .
Un informe
interno elaborado alrededor de 1960 recomendó que IBM termina un amplio apoyo
para la IA y así la empresa puso fin a
su programa de inseminación artificial y comenzó a extenderse agresivamente el
mensaje de que " los ordenadores sólo pueden hacer lo que se les dijo .
"
Claude E. Shannon
(Claude Elwood Shannon; Gaylord, EE UU, 1916 - Medford, 2001) Ingeniero
estadounidense. Se graduó en ingeniería por la Universidad de Michigan en 1936
y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el
Massachusetts Institute of Technology.
Durante su estancia en dicha institución empezó a trabajar sobre el
problema de la eficacia de los diferentes métodos existentes de transmisión de
la información, tanto mediante el flujo a través de hilos o cables como el
aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la
radiación electromagnética. Shannon orientó sus esfuerzos hacia la comprensión
fundamental del problema y en 1948 desarrolló un método para expresar la
información de forma cualitativa.
Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información.
La rama de las matemáticas inaugurada por Shannon se denominó teoría de
la información y resultó ser extremadamente útil, no sólo en el diseño de
circuitos de computadoras y la tecnología de comunicaciones, sino que también
ha hallado aplicaciones fecundas en campos tan diversos como la biología,
psicología, fonética e incluso semántica y literatura.
También postuló el teorema
del muestreo, que sostiene que una señal debe ser muestreada al doble de su
frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias
de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de
componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el
Massachusetts Institute of Technology.
No hay comentarios:
Publicar un comentario