Visto y Leído

[Sobre Biblioteconomía y Documentación, Recuperación de Información, Lógica, Inteligencia Artificial]

¡Importante! esta página hace uso de estilos recogidos en la especificación CSS2, no soportados por el navegador que está utilizando. Por favor, lea esta recomendación al respecto.

Sobre este sitio

Selección de artículos, ensayos, noticias, entrevistas, reseñas, y otro tipo de textos, publicados en medios impresos y digitales, sobre Biblioteconomía y Documentación, Recuperación de Información, Lógica, Inteligencia Artificial, y áreas afines del conocimiento, sin descartar la inclusión ocasional de textos relativos a la actualidad política y social.

Archivo de anotaciones

Guardado por meses.

Enlaces a otros sitios

Temáticas afines

Política, sociedad

Fuera de contexto

Lecturas recomendadas

De Jacques Derrida, en Derrida en castellano:

Varios

Esta página traducida:

Traducción al catalán, internostrum; traducción al portugués, universia.

Búsqueda con Google
 

Búsqueda con Yahoo!
 

Búsqueda con AlltheWeb

Agregue este sitio a su lector de "feeds" (sindicación mediante el sistema Atom).

En esta página:

  • 23.2.08 | La nueva generación de motores de búsqueda basados en procesamiento de lenguaje natural
    · [leer]
    · [10 comentarios]
  • 21.2.08 | Tutorial sobre Ontologías
    · [leer]
    · [10 comentarios]
  • 19.2.08 | Las diez claves de la web social
    · [leer]
    · [0 comentarios]
  • 15.2.08 | ANV denuncia que la Guardia Civil se llevó documentos históricos en el registro de sus sedes
    · [leer]
    · [0 comentarios]
  • 11.2.08 | ¿Qué, nos echamos a la calle?
    · [leer]
    · [1 comentarios]

La nueva generación de motores de búsqueda basados en procesamiento de lenguaje natural

Autor: José Ramón Pérez Agüera (*)
Fuente: IWETEL (17/05/2007) / Thinkepi
Url documento: http://www.thinkepi.net/...

(*) Dept. de Ingeniería del Software e Inteligencia Artificial, Facultad de Informática, Universidad Complutense de Madrid

En el último año hemos visto florecer toda una serie de nuevos buscadores cuya característica común ha sido la integración de técnicas de procesamiento de lenguaje natural en el proceso de búsqueda.

Los dos baluartes de esta nueva tendencia son Powerset [1] y Hakia [2], detrás de los cuales se ha reunido la creme de la creme del Procesamiento de Lenguaje Natural para conseguir un nuevo salto de calidad en la evolución de los buscadores web.

La idea de integrar conocimiento lingüístico en los buscadores no es nueva en absoluto, y desde los años 90, si no antes, se han repetido los intentos de implementar buscadores que fueran más allá de recuentos más o menos complicados de frecuencias de palabras. El más sonado fracaso a este respecto fue sin duda el intento de Ellen Voorhees, allá por 1993, de usar Wordnet, una base de datos enorme con información semántica, para expandir las consultas de los usuarios.

Los resultados de este experimento, como se puede ver en su artículo [3] fueron bastante desoladores y desde entonces, más allá de estudios puntuales cuyos resultados no han sido concluyentes, el uso de lenguaje natural en recuperación de información ha quedado relegado a la aplicación de técnicas bastante triviales como el stemming y la eliminación de palabras vacías.

La razón de este nuevo resurgimiento del Lenguaje Natural en el entorno de los buscadores se corresponde en parte con un ciclo natural, típico de cualquier disciplina científica, donde se prueban viejas ideas desde enfoques nuevos. Pero también se trata de una cuestión de marketing, donde nuevos buscadores tratan de entrar en el mercado vendiendo la idea de que tienen una nueva tecnología revolucionaria que superará con creces el enfoque actual de los grandes buscadores.

Desde el punto de vista científico, el león no es tan fiero como lo pintan, y al igual que Powerset y Hakia han puesto a trabajar a importantes investigadores en Procesamiento de Lenguaje Natural, Google, Yahoo y Microsoft llevan tiempo trabajando también en esta dirección.

La conclusión que podemos sacar de aquí es que pese a que la inclusión de lenguaje natural en los buscadores es sin duda una de las líneas de trabajo futuro para mejorar no sólo la calidad de los resultados de los buscadores sino también sus posibilidades e interacción con los usuarios, aún queda mucho por hacer a este respecto, y raro será que ningún nuevo buscador desbanque a Google simplemente porque utiliza técnicas de procesamiento natural.

En este sentido, hemos de ser conscientes que el braguetazo de Google en 1998 estuvo más relacionado con su entrada en un mercado prácticamente virgen respaldados por una fuerte inversión económica que con una ventaja tecnológica decisiva, ya que sin menospreciar la importancia del Pagerank es importante recordar que no eran los únicos que usaban un algoritmo de análisis de enlaces.

Pese a todo lo dicho, merece la pena seguir los avances que se hagan a este respecto, tanto aquellos que vengan de ultramar, como lo que se desarrollen aquí en España, por ejemplo de la mano de empresas como Bitext, no vaya a ser que un día nos sorprendamos de las maravillas lingüísticas que son capaces de hacer los buscadores americanos sin saber, que aquí cerca tenemos una empresa española que es la que hace posible esas maravillas.

[1] http://www.hakia.com

[2] http://www.powerset.com

[3] Voorhees, E. M. 1993. Using WordNet to disambiguate word senses for text retrieval. In Proceedings of the 16th Annual international ACM SIGIR Conference on Research and Development in information Retrieval (Pittsburgh, Pennsylvania, United States, June 27 - July 01, 1993). R. Korfhage, E. Rasmussen, and P. Willett, Eds. SIGIR '93. ACM Press, New York, NY, 171-180. DOI= http://doi.acm.org/10.1145 /160688.160715

[23.2.08] [10 comentarios] [#] [lista]

Tutorial sobre Ontologías

Autores: Jesús Contreras, Juan Antonio Martínez Comeche
Fuente: SEDIC
Url documento: http://blog.sedic.es/...

A raíz del taller sobre Ontologías y Recuperación de información que, organizado por el grupo Normaweb de SEDIC, se desarrolló en la Facultad de Ciencias de la Documentación de la Universidad Complutense de Madrid el pasado septiembre, Jesús Contreras y Juan Antonio Martínez-Comeche han escrito un tutorial que resume los aspectos más destacados que se analizaron:

[Comienza tutorial]

Objetivo de las Ontologías: la Web semántica

La web actual consiste esencialmente en un conjunto enorme de páginas que contienen texto no estructurado, es decir, texto cuyo contenido no nos hemos preocupado por caracterizar. Básicamente nos hemos limitado a reseñar la manera en que debe visualizarse dicho contenido, como lo demuestra la naturaleza de las etiquetas HTML. Esta simplicidad ha favorecido, sin duda, el éxito de la web actual y justifica su enorme crecimiento en número de páginas y usuarios, pero al tiempo acarrea problemas y dificultades a la hora de manejar y recuperar tal cantidad ingente de información.

Los seres humanos somos incapaces de controlar la información que en un momento dado puede sernos de utilidad en relación a una necesidad informativa entre los millones de páginas existentes en la web, máxime cuando los cambios en la misma se suceden a un ritmo vertiginoso. De hecho, se estima que un 40% de la red se modifica mensualmente. En tales circunstancias, hemos ideado buscadores que nos ayudan a decidir qué páginas pueden incluir información relevante ante un problema cualquiera. Pero dado que la información textual de los sitios web no está estructurada, en cuanto que no está descrita ni caracterizada de alguna forma, los algoritmos de los motores de búsqueda únicamente pueden basarse en la aparición de las palabras consideradas aisladamente.

Ello provoca, sin duda, falta de precisión y exhaustividad en los resultados obtenidos. Falta de precisión por cuanto en los resultados que nos presenta un buscador se hallan páginas que no tienen relación alguna con nuestra necesidad informativa. Eso sucede, por ejemplo, cuando las palabras poseen varios significados. Si consultamos por la palabra banco obtendremos páginas relativas a entidades bancarias, pero también a un tipo de asiento. De igual forma, la falta de exhaustividad puede venir provocada, entre otros motivos, por la utilización de un sinónimo en una página en lugar de la palabra empleada en la consulta. En tal caso, la página no será recuperada pues no contiene estrictamente la palabra introducida en la búsqueda.

Además, los buscadores proporcionan enlaces a documentos que pueden ser útiles para el usuario, pero no son capaces de proporcionar la respuesta concreta que busca en muchas ocasiones. Si una persona busca los coches más baratos entre los concesionarios de una zona geográfica concreta, hoy día el usuario debe ocupar muchas horas comparando la información de los distintos concesionarios que un buscador le ha facilitado previamente.

Otro problema de la web actual consiste en la falta de fiabilidad de las fuentes. El usuario no tiene elementos de juicio sobre la veracidad y confiabilidad de los datos presentes en los sitios web recuperados.

La evolución de la web diseñada por Tim Berners-Lee trata de solucionar los problemas planteados en los párrafos anteriores. Imaginemos por un momento una web donde el contenido de. las páginas está caracterizado y descrito de tal manera que sea capaz de discernir los distintos significados de las palabras, pueda deducir la existencia de relaciones de sinonimia entre palabras en cierto contexto temático, de manera que sea capaz de recuperar páginas útiles en relación a la necesidad informativa del usuario aunque en ellas no aparezcan las palabras introducidas expresamente en la consulta, o que fuese capaz de comparar datos e información procedentes de varias fuentes, efectuar inferencias o deducciones lógicas a partir de ellos para mostrarnos directamente la información que buscábamos (el concesionario cercano con los coches más baratos, por ejemplo). Incluso que fuese capaz de emitir juicios sobre la fiabilidad de los datos presentes en las diversas páginas y considerar en la respuesta exclusivamente los más veraces, desechando los menos confiables.

Tim Berners-Lee ha denominado Web Semántica a la web donde las aplicaciones serán capaces de efectuar un procesamiento de la información mucho más profundo. Esta web estará caracterizada por programas capaces de "comprender" el contenido de las páginas web, y por tanto, de relacionar la información contenida en páginas hoy aisladas, de procesarla, de discriminar la más fiable en un momento dado, e incluso de deducir o inferir información no registrada previamente, tomando decisiones con un cierto grado de autonomía.

Para que estas aplicaciones y servicios más "inteligentes" sean posibles es necesario que la información de las páginas web esté estructurada, esto es, perfectamente descrita y clasificada de manera que su significado exacto esté al alcance de las máquinas. De esta manera los ordenadores podrán manipular y procesar la información adecuadamente. De ahí la denominación de Web Semántica.

La manera que se ha ideado para codificar los significados de la información contenida en las páginas web consiste en el empleo de etiquetas que especifiquen el valor semántico o la interpretación correcta de los contenidos. Así, un número puede indicar, según las circunstancias, un precio, un año o una longitud. Su significado preciso en cada caso se especificará mediante la presencia de una etiqueta.

El marcado y anotación de los contenidos de la web debe realizarse siguiendo unas reglas y formatos comunes, pues de lo contrario sería imposible la manipulación efectiva de la información por parte de los ordenadores. En primer lugar, un marcado consistente implica la estructuración previa del dominio que se representa, detallando las entidades principales que lo componen, su jerarquía y la naturaleza de las relaciones existentes entre ellas. En segundo lugar, debe cuidarse que todos los usuarios empleemos formatos compatibles, pues si coexisten varios conjuntos de etiquetas y no se procura un método para garantizar su utilización conjunta, todos los esfuerzos serían inútiles.

El cumplimiento de ciertas normas necesarias para desarrollar de manera coherente el etiquetado de los contenidos web supone la creación de ontologías sobre el dominio o área de conocimiento que deseamos representar semánticamente. En consecuencia, las ontologías son el medio principal para lograr el objetivo de la web semántica, al facilitar la definición formal de las entidades y conceptos presentes en los diferentes dominios, la jerarquía que les sustenta y las diferentes relaciones que los unen entre sí. De esta manera garantizamos una representación formal legible por las máquinas, basado en un lenguaje común -XML- que puede ser compartido y utilizado por cualquier sistema de manera automática.

No menos importante que los retos tecnológicos y de formalismos se plantea el reto de la explotación y uso de la web semántica. Haciendo un símil con la web actual, que presenció su auge en cuanto se perfilaron nuevos modelos de negocio, se esbozan aquí algunas posibilidades o visiones sobre los tipos de aplicaciones en la web semántica.

La tecnología de la web semántica ofrece la posibilidad de construir contenido de manera formal y completa de acuerdo a modelos semánticos consensuados. La existencia de estos modelos permite que las funcionalidades ofrecidas por estos sistemas abarquen, entre otras, las siguientes aplicaciones:

[Continúa tutorial] (PDF, 172 Kb)

[21.2.08] [10 comentarios] [#] [lista]

Las diez claves de la web social

Autor: José Antonio Merlo Vega (*)
Fuente: http://www.thinkepi.net

(*)
Miembro de Thinkepi: http://www.thinkepi.net
Profesor de la Universidad de Salamanca: http://exlibris.usal.es/merlo
Vicepresidente de APEI: http://www.apeiasturias.org

La web social o la web 2.0 es un fenómeno que está afectando por igual a los diferentes ámbitos de la actividad humana. La nueva web está presente en las relaciones sociales, en la economía, en la comunicación, en la administración, en la educación, en la cultura... Ningún área se escapa a las posibilidades de esta Internet de nueva generación y mucho menos aquéllas en las que la gestión de información es la base de su ejercicio profesional. Durante 2007 han sido varias las publicaciones de interés que analizan la web social y su repercusión en centros de información. Por orden de aparición, las obras de Farkas (1), Casey y Savastinuk (2), Bradley (3), Courtney (4) y Stephens (5) fueron publicadas en este año y en todas se estudian las aplicaciones 2.0 en bibliotecas y unidades de información. En España, las únicas publicaciones profesionales que han dedicado atención especial al tema han sido los volúmenes monográficos de El profesional de la información (6) y Educación y biblioteca (7), cuyo dossier sobre 'Bibliotecas y web social' tuve la suerte de coordinar y donde se publicaron diez contribuciones que permiten contextualizar la teoría y la práctica de las tecnologías de la participación en las bibliotecas. En el artículo que abría el monográfico, sistematicé en diez categorías las tecnologías de la web social, además de agrupar en otras diez clases las aplicaciones de estas herramientas en los centros de información. En esta nota de Thinkepi vuelvo a recurrir a la decena para ofrecer las características que explican el éxito de la web social. Se trata de un procedimiento didáctico sin más pretensiones que las que obedecen al interés divulgativo. En mi opinión, hay diez principios que definen a la web social:

1. El navegador como herramienta. La web social es ante todo web, por lo que sus sistemas y aplicaciones están asentados en lenguajes de marca. CCS, XHTML o XML son las bases de esta tecnología, por lo que desde cualquier navegador se puede tener acceso a los servicios de la web 2.0. La nueva Internet no anula a la anterior, sino que la complementa mejorándola, la toma como base y a ella debe lo que es. La etiqueta 2.0 implica una evolución, pero se puede seguir hablando de la web, sin calificativos, de un desarrollo de Internet, donde las posibilidades para la participación son la principal novedad.

2. La cooperación como método. El colectivo es importante y la web social parte de su reconocimiento. Las tecnologías sociales están diseñadas con arquitecturas de la información abiertas, que permiten que las opiniones se sumen y los comportamientos de todos sean tenidos en cuenta. En la nueva Internet se trabaja de forma distribuida, pero a través de relaciones directas, que se reflejan en acciones como la construcción conjunta de contenidos en línea o en la posibilidad de publicar comentarios en páginas ajenas. Es la consideración de la inteligencia colectiva.

3. La interoperabilidad como fundamento. Las tecnologías de la participación empleadas por la web social permiten la integración de herramientas. Sistemas de programación como AJAX o los lenguajes de etiquetas ofrecen la posibilidad de compartir códigos, reproducir en webs particulares contenidos externos o establecer interfaces con aplicaciones que se ejecutan en servidores remotos. Las APIs, los 'mashups', los 'widgets' o la sindicación son ejemplos de este principio. El uso de protocolos comunes, metadatos normalizados y arquitecturas abiertas explican el éxito incontestable de la web social.

4. La sencillez como pauta. La web social ha simplificado al máximo la publicación de contenidos. La facilidad para crear y mantener blogs o wikis, el desarrollo de favoritos vía web, la difusión de perfiles personales en redes sociales, por mencionar algunos ejemplos, son acciones que requieren escasos conocimientos técnicos. Para compartir archivos, redifundir recursos, filtrar noticias o integrar servicios ajenos en webs propias no es necesario ser un experto. La popularidad de los servicios de la web social se debe en gran medida a la parquedad de los conocimientos requeridos.

5. El etiquetado como sistema. La información digital presenta la característica de poder incluir datos sobre sí misma. Las herramientas de la web social emplean las descripciones realizadas por los usuarios, que se intercambian de forma automática, estableciendo redes de términos que llevarán a informaciones similares, con el valor añadido de que el uso generalizado de un término implicará un volumen importante de recursos digitales en cuya descripción se ha empleado. Los esquemas de metadatos y microformatos o la inclusión de etiquetas en las aplicaciones sociales son determinantes para compartir información semántica, lo que equivale a compartir recursos digitales.

6. La participación como principio. En la web social la información se comparte. Los datos personales son difundidos en redes sociales. El software social posibilita que se valoren recursos y sean etiquetados en función de la opinión de quienes los emplean. Los sistemas de filtrado permiten que los contenidos considerados interesantes destaquen entre los generados en un periodo de tiempo, en un medio o sobre un tema. Los favoritos compartidos, las compras sociales y los sistemas de valoración ofrecen como resultado que sean los usuarios quienes establezcan la calidad o utilidad de los recursos. Las tecnologías permiten una cooperación que se traduce en la colaboración de los usuarios a través de sus aportaciones, sus conductas y sus opiniones.

7. La variedad como realización. La web social no admite límites, ya que existe una gran diversidad de manifestaciones. Servicios de información y aplicaciones informáticas muy diversos pueden ser catalogados como Internet 2.0. Desde la compra de productos en proveedores que tienen en cuenta los gustos, acciones y hábitos de los usuarios, hasta los servicios en los que se puede etiquetar la información, pasando por los servidores de almacenamiento de archivos, en los que los documentos se relacionan independientemente de su origen, todo puede ser clasificado como 2.0. Un servicio de referencia basado en las respuestas de los usuarios es web social. Una aplicación que permite integrar en una página las noticias de diarios digitales, consultar en la misma el correo electrónico o emplear herramientas ofimáticas, también es web 2.0.

8. La personalización como posibilidad. El usuario decide cómo emplear las tecnologías de la participación, qué servicios le son útiles y bajo qué forma y condiciones los va a utilizar. La adaptación de las aplicaciones, el desarrollo de interfaces particulares de herramientas, la utilización de contenidos externos mediante sindicación o a través de la inserción de códigos, el uso de 'widgets' para la integración de recursos informativos externos (mapas, temperatura, diccionarios, noticias, etc.), son distintas piezas que el usuario empleará a partir de su creatividad y sus necesidades. Las tecnologías son las mismas; los servicios, también; los recursos, idénticos, pero el usuario los puede individualizar según su criterio y conveniencia.

9. La experimentación como norma. Nada es eterno en la web social. La renovación de los resultados es constante; las actualizaciones, permanentes; las novedades, cotidianas. Se trata de la beta continua, como se suele denominar a esta característica de la Internet 2.0. Las tecnologías avanzan y ofrecen nuevas posibilidades. Los servicios adoptan las novedades tecnológicas y las adaptan a sus objetivos. Los usuarios que emplean la web social son conscientes de la constante renovación de los recursos y las consiguientes posibilidades de mejora que suponen, así que esperan y asumen los permanentes cambios.

10. El desinterés como base. El carácter social de la nueva web también incluye como elemento definitorio la búsqueda del bien común. Las tecnologías son abiertas, al igual que lo son los recursos. Se parte de la ausencia de intención mercantil, de la generosidad o el altruismo en el uso de las aplicaciones, los servicios y las informaciones. Las comunidades de software libre y las iniciativas de acceso abierto a la información científica están en sintonía con el uso compartido de los recursos que posibilitan las tecnologías de la web social. La Internet 2.0 también tiene una faceta comercial, aunque no suele afectar al usuario general, sino a las empresas que quieren dirigirse a sectores específicos, conocerlos y comunicarse con ellos de forma directa y pertinente.

Soy consciente de que la síntesis que se hace en este decálogo prescinde de conceptos que han sido omitidos para adecuarse a la finalidad de los textos de Thinkepi, pero los debates posteriores que suelen acompañar a estas notas ayudarán a solventar las carencias e imprecisiones en las que pueda haber incurrido. Mi intención, insisto, no es el establecimiento de tesis, sino la difusión de los principios de las que gusto en llamar las tecnologías de la participación.

Referencias:

(1) Farkas, Meredith. Social Software in Libraries: Building Collaboration, Communication, and Community Online. Medford: Information Today, 2007.

(2) Casey, Michael E.; Savastinuk, Laura C. Library 2.0: A Guide to Participatory Libray Services. Medford: Information Today, 2007.

(3) Bradley, Phil. How to Use Web 2.0. in Your Library. London: Facet Publishing, 2007.

(4) Courtney, Nancy (ed.). Library 2. 0 and Beyond: Innovative Technologies and Tomorrow's User. Westport: Libraries Unlimited, 2007.

(5) Stephens, Michael. Web 2.0 & Libraries, part 2: trends and technologies. Chicago: ALA Techsource, 2007.

(6) El profesional de la información. Marzo/Abril 2007, vol. 16, n. 2. Web 2.0: blogs, participación y Lib 2.0. Sumario disponible en: http://www.elprofesionaldelainformacion.com/sumarios/sum162.html.

(7) Educación y biblioteca. Septiembre/Octubre 2007, n. 161. Bibliotecas y web social. Sumario disponible en: http://exlibris.usal.es/merlo/escritos/pdf/eybwebsocial.pdf.

[19.2.08] [0 comentarios] [#] [lista]

ANV denuncia que la Guardia Civil se llevó documentos históricos en el registro de sus sedes

Fuente: Gara, 15/02/2008
Url documento: http://www.gara.net/...

El portavoz de EAE-ANV en Barakaldo, Txiki Castaños, ha denunciado hoy que en el registro llevado a cabo el pasado martes por agentes de la Guardia Civil en la sede de la formación, se llevaron documentos que forman parte de la memoria histórica del partido.

En comparecencia ante los medios, Castaños ha expuesto que "el pasado martes, Barakaldo, ha revivido tiempos de la dictadura con un dispositivo de la Guardia Civil que impedía a los vecinos acceder a sus hogares de manera normalizada".

"El objetivo fue realizar un expolio cultural e histórico que duró desde las 20.00 de la tarde a las 2.30 de la mañana. Registraron un local del que se llevaron documentos que forman parte de la memoria histórica de ANV, de Barakaldo y de Euskal Herria y que no sabemos si algún día podremos recuperar", ha añadido.

Según el edil ekintzale, éste es un archivo reunido "durante años", a través de la recuperación de "numerosa" documentación dispersa, mediante fuentes privadas, archivos de Salamanca o de Madrid.

Gudaris fusilados, batallones...

"Entre otros, documentos que recogen datos de batallones, de la identidad de gudaris ekintzales muertos en combate o fusilados por los fascistas, de gran valor, de sedes de ANV a lo largo de su historia, de todo tipo de propaganda impresa desde su nacimiento. Un patrimonio usurpado por el franquismo y que, hoy, a través de la Guardia Civil nos es, de nuevo, arrebatado", ha criticado.

Castaños ha recordado que su agrupación tiene "más" de 75 años de historia y ha añadido que "nosotros luchamos contra el alzamiento fascista aportando diversos batallones de gudaris, así como contra el franquismo, fuimos fundadores de Herri Batasuna y hemos obtenido cientos de representantes en las elecciones de mayo de 2007".

En este sentido, ha considerado que EAE-ANV es un actor "imprescindible para conocer e interpretar el devenir del pueblo vasco" y, por ello, ha advertido de que "la desaparición de la documentación citada, conlleva privar a Euskal Herria de una fuente histórica fundamental".

[15.2.08] [0 comentarios] [#] [lista]

¿Qué, nos echamos a la calle?

Autor: Tomás Karrera Juarros (*)
Fuente: La Haine, 11/02/2008
Url documento: http://www.lahaine.org/...

(*) Tomás Karrera Juarros es concejal en Irun y licenciado en historia

La historia está llena de ejemplos de movimientos progresistas que al no convertirse en revolucionarios pierden la oportunidad histórica del cambio político y sumergen a los nuevos sistemas en reaccionarios.

Ha llegado la noticia que no deseábamos escuchar. La suspensión de actividades de EHAK y ANV. La noticia que esperábamos como un ejecutado espera ante un pelotón de fusilamiento. El cheque político que asegura más años de sufrimiento, que nos sumerge en la ilegalidad a los partidos independentistas y que constriñe tanto el cuerpo democrático del sistema político que éste muere de asfixia. De democracia vigilada a democracia encarcelada. De nuevo, un viaje a los tiempos de la censura, de la falta de libertad de expresión o de libertad política para elegir... Era el régimen franquista. La España una, grande y libre. ANV era ilegal y el PSOE defendía el derecho de autodeterminación...

La historia está llena de ejemplos de movimientos progresistas que al no convertirse en revolucionarios pierden la oportunidad histórica del cambio político y sumergen a los nuevos sistemas en reaccionarios. La transición española es un ejemplo del cáncer que ha devorado a todas las fuerzas políticas que apoyaron la fórmula de cambiar algo para que nada cambie: PSOE, PNV, IU son cadáveres vaciados por el abrazo al franquismo. El estado ha impuesto sus reglas. España debe ser una, grande y libre para quien acepte estos principios. Y en su defensa y consecución, el poder ejecutivo, judicial y legislativo son uno y trino. La Santísima Trinidad hecha carne.

Ya sabemos que el fanatismo y la sinrazón campa por nuestros vastos cerebros vascos, que nuestro objetivo no es otro que el de quebrar la convivencia de los hombres y mujeres del País Vasco. Lo dice el Ayuntamiento de mi pueblo, que se jacta de continuar profundizando en los valores de la paz y la tolerancia, en el recuerdo y respeto permanente a las víctimas del terrorismo. Y sigue guardando un respetuoso silencio sobre las víctimas de los fascistas, que en 1936 masacraron la población y redujo a escombros la ciudad.

En tiempos de Franco, la democracia era en voz baja, cosa de todos y todas. Hoy en día, la democracia es cosa de muchos algunos. Algunos que viven del cuento, algunos que cuentan los cuentos, algunos que negocian destrucción permanente, algunos que compran trenes y aviones de alta velocidad, algunos que venden armas o sufrimiento según el mejor postor del momento, algunos que se uniforman en nombre de... Y todos con sus propios altavoces, libertad de prensa lo llaman, aunque sean cuatro empresas quienes gestionen el negocio del grito demócrata que llega hasta los cielos. Mientras tanto, la mayoría silenciosa calla y atiende los rumores de basura televisiva como si les fuera la vida en ello. Y lo triste es que así pierden la vida y consumen los años.

La diferencia entre la mayoría silenciosa de los tiempos de Franco y la actual reside en su actitud. Antes despierta ante el engaño evidente, ahora somatizada ante la evidencia del engaño.

Tal vez por ello, quedamos los pocos de los otros, unos pocos que protestan y mantienen la utopía de un futuro mejor, unos pocos que se manifiestan en contra de las guerras, unos pocos los que abogan por un modo de vida más ecológico, unos pocos que cooperan en contra de la desigualdad económica en el mundo, unos pocos que se oponen a infraestructuras que condenan a muerte el planeta, unos pocos que luchan por salvar las señas de identidad de los pueblos indígenas de los cinco continentes. Todos esos pocos, mejor callarlos. Lo exige el estado de derecho impuesto y los valores de paz y tolerancias vigentes.

En tiempos de Franco, algunos y algunas utópicas lo gritábamos a la carrera. Había que correr para no ser detenido. ¿Ahora no sucede acaso lo mismo? En aquel entonces, nadie reivindicaba la democracia. Seguramente porque el régimen se autoproclamaba demócrata. Democracia orgánica, la llamaban. Por ello, gritábamos «Askatasuna», «Independentzia», «Amnistia», que eran las esencias libertadoras. Libertad para elegir, en un país propio, sin presos políticos.

Hoy en día, la falta de libertades democráticas, de diálogo político y de tolerancia se han disfrazado de estado de derecho. Te detienen y te encarcelan con más facilidad y ligereza que en los mismísimos tiempos de Franco. Si no, comparen las condenas por hacer una pintada o romper los cristales de una entidad bancaria en tiempos de Franco y las de hoy en día. Eso sin contar el viaje a la capital del reino y la más que probable guarnición de tortas que te endiñan por el camino. En aquellos tiempos la ración de hostias era la misma. Te las daban aquí y las curabas en Martutene, Iruñea, Nanclares o Basauri. Hoy en día las curas en Madrid y te repones en Extremadura o Andalucía.

Entonces teníamos algunos partidos aceptados y otros en la ilegalidad. No hemos avanzado demasiado. Y para colmo la regresión sin tapujos ha comenzado. Batasuna, primero. EHAK y ANV ahora. ¿Qué partido será el siguiente? El espacio del debate político se va achicando y ya Ibarretxe es supersospechoso.

Sin embargo, la autenticidad, la identidad del ser, siempre se encuentra en la acción política, nunca en los discursos. Más allá de las palabras, hoy son días en los que nos toca a la ciudadanía salir a la calle a seguir corriendo, a seguir gritando, a seguir sonriendo, porque las detenciones y la cárcel son la esperanza del cambio. Seguiremos avanzando y el mañana viene ágil.

[11.2.08] [1 comentarios] [#] [lista]


Visto y Leído,

Publicación: Blogger | Estadísticas: eXTReMe Tracking

Se recomienda ver este sitio con Mozilla 1+, Firefox 0.8+ ó Netscape 7+. Si no queda más remedio, con IE 6+. Si lo desea, comunique cualquier problema al respecto. También será bien recibida cualquier sugerencia sobre el contenido. La fuente de letra preferente es Georgia.