Organizadores

Organizadores de la conferencia


John McCarthy. 



Prominente informático que realizó importantes contribuciones en el campo de la Inteligencia Artificial, siendo el primero en introducir este término en la informática. Inventó el Lenguaje de programación LISP.
·  McCarthy inventó el Lenguaje de programación LISP y publicó su diseño en Comunicaciones del ACM en 1960.
·      Ayudó a motivar la creación del Proyecto MAC en el MIT, pero en 1962 se marchó del MIT y se fue a la Universidad de [Stanford], donde se dedicó a instalar el Laboratorio de IA de Stanford, que durante muchos años fue un rival amistoso del Proyecto MAC.
·      En 1961, fue el primero en sugerir públicamente (en un discurso dado para celebrar el centenario del MIT) que la tecnología de tiempo compartido de las computadoras podría conducir a un futuro en el que el poder del cómputo e incluso aplicaciones específicas podrían ser vendidas como un servicio (como el agua o la electricidad).
· McCarthy recibió su B.S. en Matemáticas del Instituto de Tecnología de California en 1948 y su Ph.D. en Matemáticas de la Universidad de Princeton en 1951. Tras cortas estancias en Princeton, Stanford, Dartmouth, y el MIT, pasó a ser profesor a tiempo completo en Stanford en 1962, donde permaneció hasta su retiro a finales del 2000. Ahora es Profesor Emérito.

Además del Premio Turing, McCarthy recibió otras varias distinciones, fue miembro de distintas academias. En 2010 ingresó en el llamado IEEE Intelligent Systems Hall of Fame donde se detallan sus reconocimientos públicos.



Marvin Minsky



Marvin Lee Minsky (Nueva York, 9 de agosto de 1927) es un científico estadounidense. Es considerado uno de los padres de las ciencias de la computación y cofundador del laboratorio de inteligencia artificial del Instituto Tecnológico de Massachusetts o MIT.
Catedrático de Ingeniería Eléctrica y Ciencias de la Computación y titular de la Catedra Toshiba of Media Arts and Sciences en el MIT, Minsky fue uno de los fundadores en la década de los 50 del campo de la inteligencia artificial, con el objetivo de transformar los ordenadores de entonces, máquinas de calcular, a máquinas inteligentes, capaces de imitar la mente humana.
De hecho, basándose en la idea de que el cerebro es una máquina que se puede replicar, abordó el problema de dotar a estos aparatos de sentido común, dotándolas del conocimiento que el hombre adquiere mediante la experiencia.
 Además, es autor de contribuciones esenciales en matemáticas, ciencia cognitiva, robótica y filosofía. Asimismo, fue uno de los creadores del prestigioso Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT).




Nathaniel Rochester

Rochester estaba muy interesado en máquinas inteligentes, especialmente en aquellas que presentan una conducta original en la resolución de problemas. En 1955 , IBM organizó un grupo para estudiar el reconocimiento de patrones , teoría de la información y la teoría de conmutación de circuitos , encabezado por Rochester.
Entre otros proyectos, el grupo simuló el comportamiento de las redes neuronales abstractos en una computadora IBM 704. Ese verano John McCarthy, un joven matemático Dartmouth College, también estaba trabajando en IBM. Él y Marvin Minsky había empezado a hablar en serio de la idea de las máquinas inteligentes . Se acercaron a Rochester y Claude Shannon con una propuesta de una conferencia sobre el tema. Con el apoyo de los dos científicos de alto nivel , se aseguraron 7,000 dólares de la Fundación Rockefeller para financiar una conferencia en el verano de 1956 . El encuentro, ahora conocida como la Conferencia de Dartmouth , es ampliamente considerado como el "nacimiento de la inteligencia artificial. "

Rochester ha seguido supervisando los proyectos de inteligencia artificial de IBM , incluyendo programa de damas de Arthur Samuel , de Herbert Gelernter Geometría Teorema del probador y el programa de ajedrez de Alex Bernstein. En 1958, fue profesor visitante en el MIT , donde ayudó a McCarthy con el desarrollo de Lisp lenguaje de programación . Los programas de inteligencia artificial desarrollado en IBM comenzaron a generar una gran cantidad de publicidad y se presentaron en artículos tanto en la revista Scientific American y The New York Times. Accionistas de IBM comenzaron a presionar a Thomas J. Watson , presidente de IBM, para explicar por qué se están utilizando dólares de la investigación para este tipo de "asuntos frívolos ". Además , la gente de marketing de IBM habían empezado a notar que los clientes tenían miedo de la idea de "cerebros electrónicos" y "máquinas pensantes" .
Un informe interno elaborado alrededor de 1960 recomendó que IBM termina un amplio apoyo para la IA  y así la empresa puso fin a su programa de inseminación artificial y comenzó a extenderse agresivamente el mensaje de que " los ordenadores sólo pueden hacer lo que se les dijo . "



Claude E. Shannon


(Claude Elwood Shannon; Gaylord, EE UU, 1916 - Medford, 2001) Ingeniero estadounidense. Se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.

Durante su estancia en dicha institución empezó a trabajar sobre el problema de la eficacia de los diferentes métodos existentes de transmisión de la información, tanto mediante el flujo a través de hilos o cables como el aéreo, por medio de corrientes eléctricas fluctuantes o bien moduladas por la radiación electromagnética. Shannon orientó sus esfuerzos hacia la comprensión fundamental del problema y en 1948 desarrolló un método para expresar la información de forma cualitativa.

Las publicaciones de Shannon en 1949 demostraron cómo se podía analizar dicha cuantificación (expresada en una magnitud que denominó bit) mediante métodos estrictamente matemáticos. Así, era posible medir la verosimilitud de la información mutilada por pérdidas de bits, distorsión de los mismos, adición de elementos extraños, etc., y hablar con precisión de términos antes vagos, como redundancia o ruido e, incluso, expresar el concepto físico de entropía como un proceso continuado de pérdida de información.

La rama de las matemáticas inaugurada por Shannon se denominó teoría de la información y resultó ser extremadamente útil, no sólo en el diseño de circuitos de computadoras y la tecnología de comunicaciones, sino que también ha hallado aplicaciones fecundas en campos tan diversos como la biología, psicología, fonética e incluso semántica y literatura.
También postuló el teorema del muestreo, que sostiene que una señal debe ser muestreada al doble de su frecuencia natural (o, en su defecto, al doble de la mayor de las frecuencias de dicha señal), para que no se produzca el fenómeno de aliasing o aparición de componentes frecuenciales no deseadas. En 1956 ingresó como profesor en el Massachusetts Institute of Technology.

No hay comentarios:

Publicar un comentario