Visto y Leído

[Sobre Biblioteconomía y Documentación, Recuperación de Información, Lógica, Inteligencia Artificial]

¡Importante! esta página hace uso de estilos recogidos en la especificación CSS2, no soportados por el navegador que está utilizando. Por favor, lea esta recomendación al respecto.

Sobre este sitio

Selección de artículos, ensayos, noticias, entrevistas, reseñas, y otro tipo de textos, publicados en medios impresos y digitales, sobre Biblioteconomía y Documentación, Recuperación de Información, Lógica, Inteligencia Artificial, y áreas afines del conocimiento, sin descartar la inclusión ocasional de textos relativos a la actualidad política y social.

Archivo de anotaciones

Guardado por meses.

Enlaces a otros sitios

Temáticas afines

Política, sociedad

Fuera de contexto

Lecturas recomendadas

De Jacques Derrida, en Derrida en castellano:

Varios

Esta página traducida:

Traducción al catalán, internostrum; traducción al portugués, universia.

Búsqueda con Google
 

Búsqueda con Yahoo!
 

Búsqueda con AlltheWeb

Agregue este sitio a su lector de "feeds" (sindicación mediante el sistema Atom).

En esta página:

Claude Shannon

Autor: Keith Devlin
Fuente: MAA Online, marzo 2001
Url documento: castellano / inglés

El siguiente texto es una (regular) traducción del artículo original en inglés (marzo 2001), al que sin duda aconsejo acudir para una mejor comprensión del mismo, escrito por Keith Devlin (Decano de Ciencias del Saint Mary's College de California, Investigador Senior en la Universidad Stanford) en su columna mensual de la web de la Mathematical Association of America (MAA), Devlin's Angle.

El matemático Claude Shannon murió el Sábado 22 de Febrero [de 2001], a los 84 años de edad, luego de una larga lucha contra el mal de Alzheimer. Pero su legado intelectual perdurará mientras la gente se comunique usando el teléfono y el fax, la Internet, o simplemente hablando de "información" como un recurso que puede ser medido en "bits" y enviado de lugar en lugar. Sigue aún vigente el enfoque de la información y la comunicación que Shannon estableció en su revolucionario trabajo "A Mathematical Theory of Communication" (Una Teoría Matemática de la Comunicación) publicado en el Bell System Technical Journal (Revista Técnica de Sistemas Bell) en 1948, y vuelto a publicar virtualmente exacto en el panfleto "The Mathematical Theory of Communication" (La Teoría Matemática de la Comunicación), que escribió junto a Warren Weaver el año siguiente (publicado por la Universidad de Illinois). (Observe el cambio de artículo -"La" por "Una"- de la versión Shannon-Weaver).

Shannon nació en Michigan en 1916. Luego de obtener títulos en Matemáticas e Ingeniería en la Universidad de Michigan, ingreso al MIT (Massachussets Institute of Technology) para continuar estudios de postgrado en Matemáticas. Aquí hizo contacto con muchos de los hombres que estaban creando las bases para revolución de la información que explotaría a finales de la Segunda Guerra Mundial, en especial, con el matemático Norbert Wiener (quien más adelante acuñaría el término "cibernética" para parte del trabajo que el mismo, Shannon y otros en el MIT y otras partes), y Vannevar Bush [1] [2], el decano de Ingeniería en el MIT (cuya máquina conceptual "Memex" prefiguró la moderna World Wide Web y entre cuyos logros subsecuentes se incluye el establecimiento de la "National Science Fundation" -Fundación Nacional de la Ciencia-).

A principios de los años 30, Bush había construido en el MIT una computadora mecánica, analógica llamada el "Analizador Diferencial", diseñada para resolver ecuaciones que eran demasiado complejas para las máquinas (mecánicas) de la época. Aquel gran amasijo de ruedas, diales, engranajes y mecanismos, ocupaba varios cientos de pies de espacio físico, y era puesta en movimiento por motores eléctricos. Preparar el artilugio para trabajar en un determinado problema requería una configuración física de la máquina, y podía tomar dos o tres días. Luego de que la máquina completaba el ciclo que constituía "resolver" la ecuación, la respuesta era leída midiendo el cambio de posición de varios componentes.

Siempre animoso, Shannon comenzó a trabajar con el Analizador con gran entusiasmo. A sugerencia de Bush, llevó a cabo, para su tesis de Maestría, un análisis matemático de la operación de los circuitos de relés de la máquina. En 1938, publicó los resultados de sus estudios en Transactions of the American Institute of Electrical Engineers (Transacciones de el Instituto Americano de Ingenieros Eléctricos), bajo el título "A Symbolic Analysis of Relay and Switching Circuits" (Un análisis simbólico de circuitos de suicheo y de relés").

La aparentemente mundana motivación de Bush detrás del trabajo que sugirió a Shannon era la necesidad de la industria telefónica de un marco matemático teórico en el cual describir el comportamiento de los crecientemente complejos circuitos de suicheo automático que estaban comenzando a reemplazar a los operadores humanos. Lo que Shannon logró trascendió con mucho ese fin. El artículo de diez páginas que publicó en Transactions of the AIEE ha sido descrito como uno de los trabajos de ingeniería más importantes que se hayan escrito. Y con mucha razón: en dos platos, estableció la escena para la electrónica digital.

Shannon comenzó notando que, aunque el analizador trabajaba en forma analógica, su comportamiento en cualquier instante, estaba gobernado por la posición de los suiches de relés, y estos siempre estaban en una de dos posiciones: abiertos o cerrados ("on" u "off"). Esto le hizo recordar el trabajo del lógico del s. XIX George Boole [1] [2] [3], cuyo análisis matemático de las "leyes del pensamiento" fue llevado a cabo usando un álgebra en donde las variables tienen sólo los valores "de verdad" T ó F (True or False, 1 ó 0). De allí sólo había un simple -pero de gran importancia- paso para pensar en usar circuitos de relés para construir una "máquina lógica" digital, que pudiera llevar a efecto no solo cálculos numéricos, sino otros tipos de "procesamiento de información".

En 1940, Shannon obtuvo su doctorado en Matemáticas, y fue al Instituto de Estudios Avanzados de Princeton donde trabajó con Hermann Weyl como un "National Research Fellow". El año siguiente, aceptó una posición en Laboratorios de la Bell Telephone en New Jersey, donde se reunió con un grupo de investigación que estaba tratando de desarrollar formas más eficientes de transmitir la información y de aumentar la confiabilidad de las líneas telefónicas y telegráficas de larga distancia.

En los años 50, Shannon se interesó en la idea de la "inteligencia de máquinas", y fue uno de los promotores -junto a sus alumnos, que pronto serían famosos John McCarthy y Marvin Minsky [1] [2]- de la hoy en día legendaria conferencia de 1956 en el Dartmouth College en New Hampshire, donde se considera que nació la Inteligencia Artificial (o AI) como se conoció más tarde. Pero mientras que otros (McCarthy y Minsky entre ellos) estarían siempre asociados a la AI, el nombre de Shannon sería siempre asociado con la teoría de la información y la comunicación que el mundo conoció a través del panfleto de Shannon y Weaver.

Antes del trabajo de Shannon, el trabajo de los matemáticos e ingenieros que trabajaban en la tecnología de las comunicaciones, era el de hallar formas en las cuales podía mantenerse la integridad de las señales analógicas que viajaban en un cable, como una corriente eléctrica fluctuante, o a través del aire como una onda de radio modulada. Shannon tomó un enfoque muy diferente. El vio la "información" codificada completamente de manera digital, como una serie de 0's y 1's -a los cuales se refería como "bits" (por "dígitos binarios")-, siguiendo así una sugerencia de su colega de Princeton John Tuckey. Además de proveer a los ingenieros de comunicaciones con una metodología diferente de diseño de circuitos de transmisión, este cambio de enfoque también condujo al concepto de "información" como un producto objetivo, desincorporado de "remitentes" o "receptores" humanos. Después de Shannon, la cuestión de importancia era: ¿En que forma se puede enviar, de la mejor manera, una secuencia de pulsos eléctricos o electromagnéticos de un punto a otro?

Una consecuencia particular de este nuevo enfoque, como el mismo Shannon observó rápidamente, era que mientras aún una pequeña variación en una señal analógica distorsiona -y puede, concebiblemente, corromper- la información transportada por esa señal, la naturaleza si-no/on-off de la señal digital significa que la información transportada digitalmente es mucho menos propensa a corromperse; realmente, añadiendo algunos bits extra a la señal, la detección y corrección automática pueden ser construidas en el sistema. (Una característica de la codificación digital que, décadas más tarde, permitiría que los usuarios de Napster.com "bajar" archivos de música sobre líneas telefónicas y escuchar los últimos "hits" de la música popular en sus PC con una fidelidad limitada solo por la calidad de los componentes de sonido de la PC, y que se ejemplifica aún más con el desafío de los fabricantes de discos compactos (CDs) de que Ud. pude abrir un hueco de un centímetro en su CD favorito y aun así escuchar su música perfectamente).

Desde un punto de vista matemático, arguiblemente [sic] el aspecto más significativo de la nueva concepción digital de Shannon acerca de lo que es la información --decir exactamente cuanta información lleva una señal particular. La medida es sencilla: simplemente se cuenta el mínimo número de bits que hacen falta para codificar la información. Para hacer esto, se debe mostrar como puede arribar un ítem dado de información dando las respuestas a una secuencia de preguntas si/no.

Por ejemplo, supongamos que 8 colegas aplican para una promoción: Albert, Bob, Carlo, David, Enid, Fannie, Geogina e Hilary. Luego que el jefe ha decidido la persona para el cargo, ¿Cuál es el mínimo número de preguntas si/no que se deben hacer para descubrir su identidad?. Un poco de reflexión indican que la respuesta es 3. Luego, el contenido de información del mensaje que anuncia quien obtuvo el cargo tiene 3 bits. He aquí una forma de arribar a este resultado:

Primera pregunta: ¿El sexo de la persona es masculino?

Esto recorta el número de posibilidades de 8 a 4.

Segunda pregunta: ¿El nombre de la persona termina en vocal?

Esto reduce el campo a tan solo dos personas.

Tercera pregunta: ¿Es la persona, la más alta de las dos?

Aquí ya tiene uno su respuesta. Por supuesto este conjunto particular de preguntas asume que ningún par de aplicantes [sic] al final tiene la misma estatura. Más aún, se escogieron cuidadosamente los nombres y sexos para tener cuatro mujeres y cuatro hombres, con nombres cuidadosamente escogidos. Pero el principio trabaja con cualquier ejemplo. Lo que se necesita es un marco en el cual una serie de preguntas de si ó no (u otra decisión binaria) divida por la mitad repetidamente el número de posibilidades, hasta que solo quede una posibilidad. (Si el número de posibilidades al inicio no fuera una potencia de 2, habrá una pequeña redundancia en la secuencia de decisiones, pero aún así se tendrá una medida del contenido de información. Por ejemplo, si hubiera 7 candidatos (en vez de 8), el contenido de información para la decisión final aún sería de 3 bits.)

Construyendo sobre esta simple idea, Shannon fue capaz de desarrollar un contenido completo de la teoría de la información cuantitativa, que ha sido de enorme importancia para los ingenieros que tienen que decidir cuanta "capacidad de canal" requiere, en un punto dado, una red de comunicaciones. Tan completo fue su análisis inicial que, aunque se puede encontrar la teoría descrita en muchos textos contemporáneos, también se puede ir directamente al panfleto original -conjunto con Weaver- de 1949. Excepto por un detalle: el nombre "teoría de la información" tiende a confundir.

Tal como ha sido notado por cierto número de autores (incluyéndome, en mi libro de 1991 Logic and Information), la teoría de Shannon no trata directamente con "información" tal y como es entendida comunmente esta palabra, sino más bien con datos -la materia prima de la cual se obtiene la información. (Ver mi libro InfoSense para una discusión sobre la diferencia.) En la teoría de Shannon lo que se mide es el tamaño de la señal binaria. Sin importar lo que denota esta señal. De acuerdo con la medida de Shannon, cualquier par de libros de 100.000 palabras tienen exactamente el mismo contenido de información. Esto es algo de utilidad (aunque tiende a confundir) si tu objetivo es transmitir ambos libros digitalmente por la Internet. Pero si uno es un manual de instrucciones para construir un submarino nuclear y el otro una novela sin mucho valor, nadie diría que ambos libros contienen la misma cantidad de "información".

Por la misma razón, cualquiera que piense que la cantidad de información del trabajo de Shannon de 1948 puede ser capturado por la frase: "100 páginas valiosas", seguramente ha estado en trance durante los últimos 50 años, en los que las ideas de Shannon han transformado el Mundo.

[2.1.05] [0 comentarios] [#] [lista]


Visto y Leído,

Publicación: Blogger | Estadísticas: eXTReMe Tracking

Se recomienda ver este sitio con Mozilla 1+, Firefox 0.8+ ó Netscape 7+. Si no queda más remedio, con IE 6+. Si lo desea, comunique cualquier problema al respecto. También será bien recibida cualquier sugerencia sobre el contenido. La fuente de letra preferente es Georgia.