Selección de artículos, ensayos, noticias, entrevistas, reseñas, y otro tipo de textos, publicados en medios impresos y digitales, sobre Biblioteconomía y Documentación, Recuperación de Información, Lógica, Inteligencia Artificial, y áreas afines del conocimiento, sin descartar la inclusión ocasional de textos relativos a la actualidad política y social.
Guardado por meses.
Temáticas afines
Política, sociedad
Fuera de contexto
De Jacques Derrida, en Derrida en castellano:
Esta página traducida:
Traducción al catalán, internostrum; traducción al portugués, universia.
Agregue este sitio a su lector de "feeds" (sindicación mediante el sistema Atom).
Fuente: Gara, 28/01/2005
Título: Desarrollan un sistema de traducción automática
entre cuatro lenguas
Url documento: http://www.gara.net/...
También el diario El Mundo se hizo eco de esta noticia en La UA desarrolla un traductor automático en Internet para las lenguas oficiales del Estado (20/01/2005). Ver así mismo el artículo publicado en CiberP@ís (02/09/2004), del que dimos cuenta hace tiempo: La Universidad española, vivero de empresas de las tecnologías de la lengua.
Universidades y empresas de Euskal Herria, Galicia, Catalunya y el País Valenciano participan en un proyecto financiado por el Ministerio español de Industria, Turismo y Comercio para desarrollar un sistema de traducción automática de código abierto entre las cuatro lenguas oficiales en el Estado español.
Aunque el catalán y el gallego ya disponen de otros sistemas de traducción automática, esta tecnología es totalmente novedosa en el caso del euskara y permitirá traducir de forma automática textos y páginas web entre el español, el euskara, el catalán y el gallego, según informó ayer en un comunicado la empresa Eleka Ingeniaritza Linguistikoa, que participa en el proyecto.
La principal novedad que presenta este sistema, que se prevé esté disponible en la red a principios de 2006, es que será de código abierto y distribución libre, lo que permitirá modificarlo para adecuarlo a nuevos usuarios y aplicaciones y será, además, el primero con traducción simultánea que englobará las cuatro lenguas oficiales.
En el proyecto participan por parte de Euskal Herria la empresa Eleka Ingeniaritza Linguistikoa, la Fundación Elhuyar y el grupo de investigación Ixa de la UPV.
Fuente: Gara, 23/01/2005
Url documento: http://www.gara.net/...
El museo Martin-Gropius-Bau de Berlín dedica desde ayer una retrospectiva al fotógrafo de guerra Robert Capa (1913-1954), con el propósito no sólo de celebrar su obra, sino de presentarla como un manifiesto antibélico a los sesenta años del fin de la Segunda Guerra Mundial.
Incide en su faceta antibélica a los 60 años del fin de la Segunda Guerra Mundial
La exposición, que permanecerá abierta hasta el 18 de abril, incluye, además de trescientas fotos, imágenes inéditas de reportajes y ejemplares originales de revistas.
Nacido en Budapest con el nombre de Endre Erno Friedmann, Robert Capa documentó con su cámara cinco guerras de la primera mitad del siglo XX antes de fundar en 1947 la prestigiosa agencia Magnum junto con su amigo Henri Cartier-Bresson, a quien el Martin-Gropius-Bau ya dedicó una gran retrospectiva el pasado año, poco antes de su muerte.
Dos salas enteras dedica la exposición de Berlín a las fotos que realizó Capa durante la guerra española del 36, entre ellas "Muerte de un soldado republicano", precisamente la imagen por la que la revista inglesa Picture Post le coronó ya entonces como «el mejor fotógrafo de guerra del mundo».
Que la obra de Capa se entienda hoy como manifiesto contra la guerra es perfectamente coherente con un fotógrafo que se interesaba sobre todo por el sufrimiento de la población civil, como atestiguan las imágenes de un búnker de Barcelona en 1939 donde un hombre parcamente disfrazado de payaso intenta hacer reír a unos niños.
«Si la foto no es buena, es que no estabas suficientemente cerca». Esta frase, atribuida a Capa, cobra sentido en muchos de sus trabajos, pero quizá sea ante las instantáneas del desembarco aliado en Normandía (1944) cuando se entiende mejor.
Antes, Capa había fotografiado para la estadounidense Life los bombardeos alemanes sobre Londres, la guerra en el desierto del norte de Africa y la toma aliada de Sicilia, y esa misma revista le eligió a él y a otros tres fotógrafos para ir a Normandía.
Capa hizo un total de 106 fotos de esa misión con dos cámaras Contax. Las envió a un laboratorio de Londres, donde un joven trabajador, nervioso porque el tiempo apremiaba, acabó destruyéndolas por error en la secadora. Sólo se salvaron once, que hoy se cuentan igualmente entre lo mejor de la fotografía bélica.
«De carácter, era un jugador, alguien que se atrevía a todo», apuntó la comisaria de la exposición, Laure Beaumont-Maillet, en la presentación de la exposición berlinesa, una versión ampliada de la que se vio en París el pasado año.
Entre las novedades figuran varios ejemplares originales de la revista Weltspiegel, suplemento ilustrado del diario Berliner Tageblatt, en la que Capa publicó cuando vivía en Berlín a principios de los años treinta.
De esa época procede otra primicia de la muestra de Berlín la primera fotografía publicada por Capa, cuando tenía 19 años, una instantánea del líder revolucionario León Trotsky mientras pronunciaba un discurso en Copenhague en 1932.
Fue en la capital germana donde el artista vivió el fin de la guerra. «Es una ciudad que conocía muy bien y donde tuvo sus primeras experiencias como fotógrafo profesional», explicó su biógrafo Richard Whelan.
«Capa era un pobre estudiante en el Berlín de los años treinta, pero cuando volvió en 1945 ya era la figura que él mismo había creado, y además tenía a su lado a la estrella de Hollywood Ingrid Bergman, con la que vivió aquí unos días maravillosos», contó. Dicen incluso que la relación de dos años entre Capa y Bergman inspiró a Alfred Hitchcock para idear la historia de "La ventana indiscreta".
Las guerras y los revolucionarios le acompañaron durante toda su vida y en su muerte, a consecuencia de una bomba en Indochina, pero la exposición de Berlín también da cuenta del Capa "civil", con imágenes suyas del Tour de Francia y retratos de artistas, entre otros muchos, los de Pablo Picasso y Henri Matisse.
Entrevistadora: Mónica Salomone
Fuente: El País, 08/12/2004
Url documento: http://www.ahoraeducacion.com.ar/...
Rüdiger Wehner [1] [2], alemán de 63 años, investigador en el Instituto de Neurociencias de Zúrich [1] [2], recorre los desiertos del planeta estudiando insectos. Así descubrió hace dos décadas cómo las hormigas son capaces de orientarse detectando la polarización de la luz, y desde entonces se admira de que estos animales resuelvan "un problema tan complejo de una forma tan simple".
Wehner recomienda a los expertos en robótica que tomen ejemplo de los insectos: "Se enfrentan a retos enormes con cerebros pequeños y dan con soluciones inteligentes", afirma. Su propio grupo ha construido un robot que copia el comportamiento de las hormigas. Wehner impartió recientemente una conferencia en el Instituto Cajal, del CSIC, en Madrid.
Pregunta. ¿Cómo se orientan las hormigas?
Respuesta. Salen del hormiguero, hacen su recorrido de forma aparentemente aleatoria y vuelven, no deshaciendo el camino andado, sino en línea recta. ¿cómo lo hacen? Usan una brújula, pero una brújula basada en la luz polarizada que los mamíferos no podemos detectar. Es como si alrededor del sol, cubriendo toda la cúpula celeste, hubiera anillos que forman un patrón. Este modelo es lo que ellas usan para detectar direcciones. El patrón cambia durante el día, pero las hormigas recalibran la brújula.
P. Parece algo muy preciso y complejo. ¿Qué mecanismo fisiológico está detrás?
R. En una parte del ojo que apunta al cielo hay receptores específicos -un 5% de todos los fotorreceptores- que pueden percibir la polarización de la luz. Además, es luz polarizada en ultravioleta, que nosotros tampoco podemos ver.
P. ¿Cómo lo descubrieron?
R. Vimos que si cubríamos una parte del ojo, el animal no podía orientarse. Analizamos esa parte y descubrimos los fotorreceptores específicos para luz polarizada. Luego, para estudiar la fisiología, estimulamos los receptores y vimos cómo responden... Es un mecanismo muy simple, sólo tres células nerviosas están implicadas en el proceso.
P. ¿Lo hacen sólo las hormigas o también otros insectos?
R. Sólo los insectos sociales, que tienen que hacer salidas muy lejos y volver rápido al nido. Las moscas, que son solitarias, no lo tienen. Pero las hormigas, las abejas y las avispas, sí. Trabajamos sobre todo con hormigas porque las abejas son más difíciles de seguir.
P. ¿Cómo siguen a las hormigas?
R. Escogemos un área plana, pintamos una cuadrícula en el suelo y con el ordenador colgado de la cintura nos dedicamos a seguirla. Llevamos un panel solar a la espalda para la batería del ordenador, y así tenemos los datos digitalizados.
P. Y esto lo hacen en el desierto. ¿En cuáles?
R. En el Sáhara, en Túnez; en Namibia; y en el centro de Australia. En estos desiertos hay grupos de hormigas que no están relacionadas filogenéticamente, pero que ocupan el mismo nicho ecológico y tienen esta misma habilidad.
P. ¿Cuál es ese nicho?
R. Su modo de vida las obliga a ser excelentes navegadoras. Son muy resistentes al calor, soportan temperaturas de 54 grados, y eso les permite comer otros insectos en verano y durante el día. La mayoría de los insectos en el desierto son activos de día en invierno y de noche en verano, pero cuando sale el sol los que no se resguardan lo bastante rápido mueren por el calor. Es entonces cuando salen las hormigas y recogen los cadáveres. Pero deben ser muy eficientes y volver muy rápido, porque si tardan demasiado el calor se vuelve peligroso hasta para ellas. Por eso deben correr muy deprisa, un metro por segundo, y aprender a volver en línea recta al nido.
P. ¿Qué dice la gente cuando les ve persiguiendo hormigas a más de 50 grados?
R. Bueno, en Namibia no hay demasiada gente viéndonos, y en Túnez están acostumbrados porque llevamos yendo 30 años. Además, este verano había una veintena de personas de varios grupos, porque se ha convertido en un tema de moda. Hay alemanes, ingleses, australianos... Gente de robótica, de inteligencia artificial...
P. ¿Cómo es el robot que han construido ustedes?
R. Hemos traducido los circuitos neuronales en circuitos electrónicos, y funciona bien, el robot hace lo mismo que las hormigas. Pesa 10 kilos, pero lo más pesado no es la electrónica, sino los dispositivos para enfriarlo. El robot está hecho de aluminio, y naturalmente debe funcionar estando expuesto al sol.
P. ¿Qué aporta su trabajo a la inteligencia artificial?
R. Es una solución muy eficaz, inteligente. Inteligente aquí significa resolver un problema ahorrando al máximo los recursos. Si le planteamos este problema a un ingeniero, se pone a hacer ecuaciones, cálculos..., pero el animal sólo quiere encontrar una dirección, no sabe nada del cielo, ni de la da física... La suya es una manera rápida y sucia, pero eficaz. Nosotros siempre intentamos resolver un problema para todas las situaciones posibles, pero el animal tiene sólo una situación, y tiene que resolverla.
P. ¿Hay más ejemplos de eficacia en insectos?
R. Un colega ha descubierto en unos escarabajos sensores de infrarrojos que detectan el calor a kilómetros. Ellos ponen huevos en las cenizas de los árboles quemados, y no saben nada más de infrarrojos, pero definen el problema y lo resuelven.
P. Tal vez para construir un robot inteligente hay que copiar pequeñas estrategias eficaces.
R. Exactamente, no se trata de que los robots lo hagan como nosotros, y que tengan cognición humana; tal vez un robot así luego tropieza con un pequeño obstáculo y no sabe qué hacer. Inteligente aquí significa estar adaptado a un medio muy concreto.
P. Por curiosidad, ¿cuánto tiempo pueden quedarse fuera las hormigas?
R. En el momento de máximo calor del día, cuando el suelo está a 70 grados o más, salen 5 o 10 minutos. Lo que hacen es subirse a cualquier cosa que sobresalga, porque en cuanto te alejas de la superficie unos milímetros la temperatura baja enseguida. De hecho si la superficie es completamente plana lo que ellas hacen es seguirnos, y si caminamos demasiado rápido, mueren y vemos cómo el viento se lleva el cadáver.
P. Debe de ser terrible trabajar en esas condiciones.
R. En el Sáhara hemos tenido que beber 11 litros de agua al día; si no, en media hora te mareabas.
P. ¿Qué consejo da a la gente de inteligencia artificial?
R. La Biblia ya está escrita: fijaos en las hormigas. Esta gente habla desde hace años de "comportamiento tipo insecto", pero ¡nunca han estudiado realmente los insectos! Nosotros hemos aprendido muchas cosas de las hormigas. Por ejemplo, analizando sus trayectorias, y cómo luego las integran para hallar el camino mas corto, hemos descubierto un algoritmo matemático que permite hacer esa integración de forma más sencilla de la que se usa habitualmente. Tenemos ya tres publicaciones en revistas de matemáticas. Ya sabe, la próxima vez que vea una hormiga, ¡no la pise!
Hace algunos meses (10/10/2004) nos hacíamos eco, referenciando para ello un artículo de J. Cervera ("La enciclopedia viva"), de la noticia de que el proyecto de enciclopedia libre Wikipedia había alcanzado a finales de septiembre de 2004 la cifra de un millón de artículos on-line (número en el que se incluyen los publicados en los alrededor de 200 idiomas que conforman la totalidad del proyecto). Días después de esa reseña, apareció en el suplemento CiberP@ís (nº 335, 14/10/2004) un artículo, titulado "El 'software social' se extiende con el éxito de la enciclopedia libre 'Wikipedia'", en el que figuraba una curiosa acepción del término 'bibliotecario', algo alejada de la comunmente aceptada ("Persona que tiene a su cargo el cuidado, ordenación y servicio de una biblioteca", diccionario de la RAE):
"En Wikipedia, los voluntarios se llaman wikipedistas y existe un reducido número de administradores, llamados bibliotecarios, que pueden borrar páginas, restaurarlas o bloquear a usuarios vándalos. "Tienen este cargo porque la comunidad deposita en ellos su confianza. Se escogen por votación pública y suelen ser los más comprometidos", explican los wikipedistas españoles. [...]"
"Más de 600 personas [...] publican esporádicamente en Wikipedia en español, 200 lo hacen regularmente, y 50 son las más comprometidas. De éstas, 17 tienen la condición de bibliotecarios. [...]"
La cursiva de la expresión "bibliotecarios" es mía. En el resto del artículo no se vuelve a mencionar dicha condición de determinados colaboradores y responsables del proyecto 'Wikipedia', ni tampoco se explica a qué se debe tan curiosa denominación, que supongo que se utiliza por analogía, en función ciertas tareas y responsabilidades que dentro del proyecto de enciclopedia libre del que venimos hablando, tienen el grupo de "escogidos", a tenor de lo explicado en el primero de los párrafos reproducidos.
El caso es que si nos fijamos en lo expresado, los bibliotecarios: "[...] pueden borrar páginas, restaurarlas o bloquear a usuarios vándalos. [...]", de forma que cási se produce una asimilación del término "bibliotecario" con el de "censor", que en ningún caso refleja, al menos de forma generalizada, el ejercicio profesional habitual de los "verdaderos" bibliotecarios del mundo "real"...
Sin embargo, lo que se dice a continuación, a propósito de la elección de los "bibliotecarios" dentro de las funciones de gestión del proyecto 'Wikipedia', se aproxima a lo que teóricamente debería ser el ideal de las virtudes y características que se presuponen al bibliotecario de las unidades de información, ya que éstos: "[...] 'Tienen este cargo porque la comunidad deposita en ellos su confianza. Se escogen por votación pública y suelen ser los más comprometidos' [...]".
Bueno, lo de la "votación pública" todavía no ha llegado (es un decir, aunque algo parecido a una "valoración pública" si que debería ser una norma...), pero si que sería interesante que los bibliotecarios (y otros compañeros de profesión, tales como archiveros y documentalistas), en general, fueran apreciados y una figura de referencia -dentro del contexto de su barrio, institución o empresa, según donde se situe la unidad en cuestión-, amén de ser los más comprometidos con las inquietudes, preocupaciones e intereses de la sociedad de hoy en dia en general, y de su grupo de usuarios en particular... no estoy muy seguro, salvo en casos particulares, de que esto sea realmente así...
Para ampliar la información al respecto del tipo de bibliotecarios a los que se alude en el artículo de CiberP@ís, en el sitio web de la Wikipedia en español, existe una página específica con amplia información sobre las funciones y responsabilidades de esta peculiar figura en el contexto del funcionamiento y gestión de este proyecto de enciclopedia libre.
Autor: Jorge Javier Frías Perles
Fuente: El Escéptico
Digital [*], nº
29 (2001)
Url documento: http://digital.el-esceptico.org/...
[*] Boletín electrónico editado por la ARP-Sociedad para el Avance del Pensamiento Crítico.
Sobre lo que otros científicos piensan hoy en día en torno a la cuestión de la futura evolución de la Inteligencia Artificial, ver la excelente reseña publicada por Alvy en Microsiervos sobre el libro On Intelligence de Jeff Hawkins (del que también dimos cuenta aquí reproduciendo el artículo "Así funciona la mente", publicado al respecto en El País), y concretamente el último apartado de la misma, "Inteligencia y ordenadores".
El anuncio por parte de un científico ruso de la aparición de una máquina computadora que supuestamente "razona" como los humanos ha vuelto a poner de actualidad la disciplina conocida como Inteligencia Artificial (IA), que permanecía adormecida tras el éxito de Deep Blue, el ordenador que ganó a Gary Kasparov en un torneo de ajedrez. Ante este tipo de noticias, la opinión pública divide su criterio entre quienes dejan llevar su imaginación hasta la ciencia ficción y aquellos que sólo ven en ellas una operación de publicidad. Lo cierto es que la IA tiene un nombre llamativo y estimulante, una corta vida y un inmenso campo aún por explorar; características que la llevan a reclutar adeptos y crearse enemigos con suma facilidad.
El gran esfuerzo tecnológico que conllevó la segunda guerra mundial hizo que florecieran inventos como el computador, avalados por científicos cuya reputación fue ganada en el "campo de batalla". Fue en 1950 cuando Alan Turing [1] [2], héroe nacional británico por su contribución al descifrado de los códigos secretos alemanes, hizo la siguiente pregunta: ¿Pueden pensar las máquinas? Como muy bien razona el propio Turing, antes de responder a esta pregunta habría que definir rigurosamente los conceptos de "pensar" y de "máquina". Si bien a la segunda cuestión tenemos una respuesta, conseguir una descripción clara y concisa de nuestro cerebro es aún una meta lejana.
¿Qué es la Inteligencia Artificial? Tomando la definición de Roger Penrose, la IA consiste en "imitar por medio de máquinas [...] tantas actividades mentales como sea posible, y quizá llegar a mejorar las capacidades humanas en estos aspectos". Esto significa que primero debe definirse formalmente qué es y cómo funciona la actividad cerebral, y luego encontrar procedimientos para simularla. Con tan pretenciosa meta es obvio que los expertos no se pongan de acuerdo y haya un extenso debate entre los que piensan que pronto se conseguirá imitar, y por ende superar, la inteligencia humana, y los que recelan de esta aseveración.
Hay dos vertientes dentro de la IA, según su forma de orientar el problema: "De fuera a dentro", tomando el cerebro como una "caja negra" de la que se obvia su interior para prestar toda la atención a su comportamiento con la creación de programas que lo imiten; o "de dentro a fuera", modelando el funcionamiento de sus células neuronales, y esperando que de su recreación emerja cualquier signo de actividad mental. Ambos enfoques tienen su parcela de éxitos y fracasos, e incluso una cierta rivalidad que evidencia la complejidad de la disciplina y lo lejos que están aún de encontrarse ambas.
La corta historia de la IA ha pasado por etapas de gran creatividad mezcladas con otras de baja actividad. El caso más claro está en la investigación de redes neuronales artificiales: en 1962 Rosenblatt construyó el "perceptron" tomando un modelo muy simplificado de neurona. La novedad del mismo se basaba en la primitiva capacidad que tenía de aprender a realizar sencillas operaciones lógicas. La noción de aprendizaje fascinó a los investigadores, que se volcaron en dicho paradigma. Todo acabó cuando en 1969 el influyente Marvin Minsky publicó un extenso y demoledor trabajo exponiendo las muchas limitaciones de las que el perceptron adolecía. En vez de tomarse esta investigación como una referencia para mejorar el modelo, los investigadores en IA lo abandonó totalmente, pasando 17 años en el olvido hasta que Rumelhart y su equipo del MIT demostraron que el perceptron era susceptible de mejorarse y eludir las limitaciones que Minsky había denunciado. A partir de la fecha el estudio de las redes neuronales artificiales ha crecido exponencialmente.
El estancamiento de la IA viene más por las pretensiones de los investigadores que por los fracasos en sí. Ante cualquier descubrimiento se han lanzado las campanas al vuelo, y se han dicho muchas sandeces. Entre la galería de desatinos que llenan las bibliotecas valga esta muestra: " dentro de una generación [...] el problema de crear una inteligencia artificial se habrá resuelto en gran parte" (Simon, 1965); "dentro de unos años -por los alrededores de 1995, según las actuales tendencias- es probable que veamos al ordenador como una naciente forma de vida, en competencia con el hombre" (Jastrow, 1981); "Nos aproximamos al momento en que prácticamente todas las funciones humanas esenciales, físicas y mentales tendrán su equivalente artificial" (Moravec, 1988). Tanta vana expectativa se ha vuelto en contra de esta disciplina, dando la impresión de que sólo es un juego de unos niños bien creciditos.
Paradójicamente, la IA ha tenido considerable éxito cuando se han fijado metas concretas y realizables. Un ejemplo: gran parte de las investigación se ha centrado en imitar la visión "humana". Con un sistema computador que fuese capaz de ver como nosotros se podría construir un automóvil autónomo, sin piloto. Pronto los investigadores se dieron cuenta de que una cosa es percibir los objetos con la misma calidad y gama de colores que un humano, y otra muy distinta es saber interpretarlo. Así, una cámara que registre una imagen de un cruce con una señal de "stop" debe reconocer que hay una silueta hexagonal en la instantánea, con un significado especial -parada obligatoria- y que concierne al propio conductor. Todo ello debe computarse con el tiempo justo para detenerse en la línea blanca horizontal -a veces imaginaria- que hay en la vía. Aunque no se ha construido ningún vehículo autónomo con la suficiente operatividad, hablar de fracaso es muy relativo, puesto que en el esfuerzo se ha logrado definir con claridad los principios del reconocimiento de formas que actualmente se comercializa tanto en el terreno militar como en el civil, por ejemplo, en el programa de reconocimiento de caracteres que lleva un escáner. Así, los nuevos proyectos son mucho más "humildes", pues ya se conoce mejor las limitaciones de la tecnología.
¿Hacia dónde va, pues, la IA? Especulaciones aparte, la disciplina está madurando, con un mayor conocimiento de neurociencia y de la teoría de computación, con objetivos más concretos y con aplicaciones que se venden en el mercado. Con ello, se está dejando la superchería a un lado, como en su tiempo hizo la astronomía con la astrología o la química con la alquimia. Cuando esto sea una realidad, será posible considerar la inteligencia artificial como "la ciencia que estudia el funcionamiento del cerebro y sus posibles aplicaciones", aunque de ese estudio nunca se llegue a construir una máquina inteligente.
Autor: Keith Devlin
Fuente: MAA Online,
marzo 2001
Url documento: castellano
/ inglés
El siguiente texto es una (regular) traducción del artículo original en inglés (marzo 2001), al que sin duda aconsejo acudir para una mejor comprensión del mismo, escrito por Keith Devlin (Decano de Ciencias del Saint Mary's College de California, Investigador Senior en la Universidad Stanford) en su columna mensual de la web de la Mathematical Association of America (MAA), Devlin's Angle.
El matemático Claude Shannon murió el Sábado 22 de Febrero [de 2001], a los 84 años de edad, luego de una larga lucha contra el mal de Alzheimer. Pero su legado intelectual perdurará mientras la gente se comunique usando el teléfono y el fax, la Internet, o simplemente hablando de "información" como un recurso que puede ser medido en "bits" y enviado de lugar en lugar. Sigue aún vigente el enfoque de la información y la comunicación que Shannon estableció en su revolucionario trabajo "A Mathematical Theory of Communication" (Una Teoría Matemática de la Comunicación) publicado en el Bell System Technical Journal (Revista Técnica de Sistemas Bell) en 1948, y vuelto a publicar virtualmente exacto en el panfleto "The Mathematical Theory of Communication" (La Teoría Matemática de la Comunicación), que escribió junto a Warren Weaver el año siguiente (publicado por la Universidad de Illinois). (Observe el cambio de artículo -"La" por "Una"- de la versión Shannon-Weaver).
Shannon nació en Michigan en 1916. Luego de obtener títulos en Matemáticas e Ingeniería en la Universidad de Michigan, ingreso al MIT (Massachussets Institute of Technology) para continuar estudios de postgrado en Matemáticas. Aquí hizo contacto con muchos de los hombres que estaban creando las bases para revolución de la información que explotaría a finales de la Segunda Guerra Mundial, en especial, con el matemático Norbert Wiener (quien más adelante acuñaría el término "cibernética" para parte del trabajo que el mismo, Shannon y otros en el MIT y otras partes), y Vannevar Bush [1] [2], el decano de Ingeniería en el MIT (cuya máquina conceptual "Memex" prefiguró la moderna World Wide Web y entre cuyos logros subsecuentes se incluye el establecimiento de la "National Science Fundation" -Fundación Nacional de la Ciencia-).
A principios de los años 30, Bush había construido en el MIT una computadora mecánica, analógica llamada el "Analizador Diferencial", diseñada para resolver ecuaciones que eran demasiado complejas para las máquinas (mecánicas) de la época. Aquel gran amasijo de ruedas, diales, engranajes y mecanismos, ocupaba varios cientos de pies de espacio físico, y era puesta en movimiento por motores eléctricos. Preparar el artilugio para trabajar en un determinado problema requería una configuración física de la máquina, y podía tomar dos o tres días. Luego de que la máquina completaba el ciclo que constituía "resolver" la ecuación, la respuesta era leída midiendo el cambio de posición de varios componentes.
Siempre animoso, Shannon comenzó a trabajar con el Analizador con gran entusiasmo. A sugerencia de Bush, llevó a cabo, para su tesis de Maestría, un análisis matemático de la operación de los circuitos de relés de la máquina. En 1938, publicó los resultados de sus estudios en Transactions of the American Institute of Electrical Engineers (Transacciones de el Instituto Americano de Ingenieros Eléctricos), bajo el título "A Symbolic Analysis of Relay and Switching Circuits" (Un análisis simbólico de circuitos de suicheo y de relés").
La aparentemente mundana motivación de Bush detrás del trabajo que sugirió a Shannon era la necesidad de la industria telefónica de un marco matemático teórico en el cual describir el comportamiento de los crecientemente complejos circuitos de suicheo automático que estaban comenzando a reemplazar a los operadores humanos. Lo que Shannon logró trascendió con mucho ese fin. El artículo de diez páginas que publicó en Transactions of the AIEE ha sido descrito como uno de los trabajos de ingeniería más importantes que se hayan escrito. Y con mucha razón: en dos platos, estableció la escena para la electrónica digital.
Shannon comenzó notando que, aunque el analizador trabajaba en forma analógica, su comportamiento en cualquier instante, estaba gobernado por la posición de los suiches de relés, y estos siempre estaban en una de dos posiciones: abiertos o cerrados ("on" u "off"). Esto le hizo recordar el trabajo del lógico del s. XIX George Boole [1] [2] [3], cuyo análisis matemático de las "leyes del pensamiento" fue llevado a cabo usando un álgebra en donde las variables tienen sólo los valores "de verdad" T ó F (True or False, 1 ó 0). De allí sólo había un simple -pero de gran importancia- paso para pensar en usar circuitos de relés para construir una "máquina lógica" digital, que pudiera llevar a efecto no solo cálculos numéricos, sino otros tipos de "procesamiento de información".
En 1940, Shannon obtuvo su doctorado en Matemáticas, y fue al Instituto de Estudios Avanzados de Princeton donde trabajó con Hermann Weyl como un "National Research Fellow". El año siguiente, aceptó una posición en Laboratorios de la Bell Telephone en New Jersey, donde se reunió con un grupo de investigación que estaba tratando de desarrollar formas más eficientes de transmitir la información y de aumentar la confiabilidad de las líneas telefónicas y telegráficas de larga distancia.
En los años 50, Shannon se interesó en la idea de la "inteligencia de máquinas", y fue uno de los promotores -junto a sus alumnos, que pronto serían famosos John McCarthy y Marvin Minsky [1] [2]- de la hoy en día legendaria conferencia de 1956 en el Dartmouth College en New Hampshire, donde se considera que nació la Inteligencia Artificial (o AI) como se conoció más tarde. Pero mientras que otros (McCarthy y Minsky entre ellos) estarían siempre asociados a la AI, el nombre de Shannon sería siempre asociado con la teoría de la información y la comunicación que el mundo conoció a través del panfleto de Shannon y Weaver.
Antes del trabajo de Shannon, el trabajo de los matemáticos e ingenieros que trabajaban en la tecnología de las comunicaciones, era el de hallar formas en las cuales podía mantenerse la integridad de las señales analógicas que viajaban en un cable, como una corriente eléctrica fluctuante, o a través del aire como una onda de radio modulada. Shannon tomó un enfoque muy diferente. El vio la "información" codificada completamente de manera digital, como una serie de 0's y 1's -a los cuales se refería como "bits" (por "dígitos binarios")-, siguiendo así una sugerencia de su colega de Princeton John Tuckey. Además de proveer a los ingenieros de comunicaciones con una metodología diferente de diseño de circuitos de transmisión, este cambio de enfoque también condujo al concepto de "información" como un producto objetivo, desincorporado de "remitentes" o "receptores" humanos. Después de Shannon, la cuestión de importancia era: ¿En que forma se puede enviar, de la mejor manera, una secuencia de pulsos eléctricos o electromagnéticos de un punto a otro?
Una consecuencia particular de este nuevo enfoque, como el mismo Shannon observó rápidamente, era que mientras aún una pequeña variación en una señal analógica distorsiona -y puede, concebiblemente, corromper- la información transportada por esa señal, la naturaleza si-no/on-off de la señal digital significa que la información transportada digitalmente es mucho menos propensa a corromperse; realmente, añadiendo algunos bits extra a la señal, la detección y corrección automática pueden ser construidas en el sistema. (Una característica de la codificación digital que, décadas más tarde, permitiría que los usuarios de Napster.com "bajar" archivos de música sobre líneas telefónicas y escuchar los últimos "hits" de la música popular en sus PC con una fidelidad limitada solo por la calidad de los componentes de sonido de la PC, y que se ejemplifica aún más con el desafío de los fabricantes de discos compactos (CDs) de que Ud. pude abrir un hueco de un centímetro en su CD favorito y aun así escuchar su música perfectamente).
Desde un punto de vista matemático, arguiblemente [sic] el aspecto más significativo de la nueva concepción digital de Shannon acerca de lo que es la información --decir exactamente cuanta información lleva una señal particular. La medida es sencilla: simplemente se cuenta el mínimo número de bits que hacen falta para codificar la información. Para hacer esto, se debe mostrar como puede arribar un ítem dado de información dando las respuestas a una secuencia de preguntas si/no.
Por ejemplo, supongamos que 8 colegas aplican para una promoción: Albert, Bob, Carlo, David, Enid, Fannie, Geogina e Hilary. Luego que el jefe ha decidido la persona para el cargo, ¿Cuál es el mínimo número de preguntas si/no que se deben hacer para descubrir su identidad?. Un poco de reflexión indican que la respuesta es 3. Luego, el contenido de información del mensaje que anuncia quien obtuvo el cargo tiene 3 bits. He aquí una forma de arribar a este resultado:
Primera pregunta: ¿El sexo de la persona es masculino?
Esto recorta el número de posibilidades de 8 a 4.
Segunda pregunta: ¿El nombre de la persona termina en vocal?
Esto reduce el campo a tan solo dos personas.
Tercera pregunta: ¿Es la persona, la más alta de las dos?
Aquí ya tiene uno su respuesta. Por supuesto este conjunto particular de preguntas asume que ningún par de aplicantes [sic] al final tiene la misma estatura. Más aún, se escogieron cuidadosamente los nombres y sexos para tener cuatro mujeres y cuatro hombres, con nombres cuidadosamente escogidos. Pero el principio trabaja con cualquier ejemplo. Lo que se necesita es un marco en el cual una serie de preguntas de si ó no (u otra decisión binaria) divida por la mitad repetidamente el número de posibilidades, hasta que solo quede una posibilidad. (Si el número de posibilidades al inicio no fuera una potencia de 2, habrá una pequeña redundancia en la secuencia de decisiones, pero aún así se tendrá una medida del contenido de información. Por ejemplo, si hubiera 7 candidatos (en vez de 8), el contenido de información para la decisión final aún sería de 3 bits.)
Construyendo sobre esta simple idea, Shannon fue capaz de desarrollar un contenido completo de la teoría de la información cuantitativa, que ha sido de enorme importancia para los ingenieros que tienen que decidir cuanta "capacidad de canal" requiere, en un punto dado, una red de comunicaciones. Tan completo fue su análisis inicial que, aunque se puede encontrar la teoría descrita en muchos textos contemporáneos, también se puede ir directamente al panfleto original -conjunto con Weaver- de 1949. Excepto por un detalle: el nombre "teoría de la información" tiende a confundir.
Tal como ha sido notado por cierto número de autores (incluyéndome, en mi libro de 1991 Logic and Information), la teoría de Shannon no trata directamente con "información" tal y como es entendida comunmente esta palabra, sino más bien con datos -la materia prima de la cual se obtiene la información. (Ver mi libro InfoSense para una discusión sobre la diferencia.) En la teoría de Shannon lo que se mide es el tamaño de la señal binaria. Sin importar lo que denota esta señal. De acuerdo con la medida de Shannon, cualquier par de libros de 100.000 palabras tienen exactamente el mismo contenido de información. Esto es algo de utilidad (aunque tiende a confundir) si tu objetivo es transmitir ambos libros digitalmente por la Internet. Pero si uno es un manual de instrucciones para construir un submarino nuclear y el otro una novela sin mucho valor, nadie diría que ambos libros contienen la misma cantidad de "información".
Por la misma razón, cualquiera que piense que la cantidad de información del trabajo de Shannon de 1948 puede ser capturado por la frase: "100 páginas valiosas", seguramente ha estado en trance durante los últimos 50 años, en los que las ideas de Shannon han transformado el Mundo.