Ernesto Priani

Digital Humanities 2010

La misión de las humanidades digitales

Las mejores sesiones del congreso y las más polémicas fueron el sábado. Retengo tres: Open vs. Closed: Changing the Culture of Peer Review de Kathleen Fitzpatrick en el que expuso las implicaciones de un proyecto como MediaCommons en el futuro de la publicación académica. La exposición discutía las ventajas que ofrece una revisión por pares de manera abierta, dentro de un proceso de publicación también abierto, frente al modelo tradicional de revisión anónima y cerrada. La propuesta causó polémica, porque toca uno de los ejes de la estructura de poder académico actual. El mayor argumento en contra de la propuesta es que el modelo de revisión por partes actual es un modo de acreditar el valor del académico más que del texto, relevante para tejerse un prestigio en el medio universitario. La discusión, sin embargo, quedó abierta, y muestra el carácter alternativo que las humanidades digitales tienen hoy en día dentro de la academia.
Reading Darwin Between the Lines: A Computer-Assisted Analysis of the Concept of Evolution in The Origin of Species de Maxime B. Sainte-Marie; Jean-Guy Meunier, una exposición de resultados del análisis de los patrones de uso del término evolución y otros relacionados con el en las distintas ediciones del Origen de las especies, dio lugar a un interesante debate sobre la profundidad de este tipo de estudios. Los autores del trabajo afirmaron no haber leído el libro de Darwin, pero tenían conclusiones fuertes, resultado del procesamiento del texto, sobre el modo en que el concepto avanza en las sucesivas ediciones de la obra.
Finalmente, la plenaria final, con el sugerente título de Present, Not Voting: Digital Humanities in the Panopticonuna, de Melissa Terras. Excelente exposición sobre la situación de las humanidades en Europa –tan maltrechas como en todas partes- y el lugar que en ellas ocupan las humanidades digitales: present, not voting. Las conclusiones fueron un catálogo de acciones a emprender por la humanidades digitales en el futuro para mostrar su viabilidad y valía. Si te interesa, puede verse completa aquí.
(14 julio 2010)

El día del póster

Finalmente hoy fue el día para presentar el póster. En un salón espacioso te asignan un stand, que tiene un biombo para colocar el póster y enfrente una mesita para poner la computadora. Al iniciar la sesión, el asunto es parase enfrente para que la gente pase a preguntarte por lo que tienes expuesto, aunque en realidad, pueden llegarte a preguntar lo que sea. Quizás lo más interesante es que, más que para presentar el proyecto, porque muy pocos realmente leen los póster, es un lugar para hacer relaciones públicas y a eso van quienes te visitan. En mi caso, quienes organizan el siguiente DH en Stanford, porque están interesados en que haya participación en Español, pero también un finlandés que tiene un proyecto semejante.
En cuanto al resto de la  conferencia, ayer fue un día flojo. Las mejores mesas estaban todas puestas de manera simultánea. Decidí ir a una sobre social media y educación, que resultó un desastre. Primero porque el análisis del uso del social media era artificial, es decir, sobre un grupo en Facebook que no tenía más que 50 miembros, y porque la presentadora no quería ser escuchada.
Después asistía a dos muy buenas presentaciones sobre anotación y otologías. Las presentaba un proyecto muy ambicioso de buscaba poner en relación las con el objeto que anotaban. El Open Annotation Collaboration. Por ejemplo, el comentario hecho en twiter, o en un blog, o en algún otro mecanismo de  sobre un libro, una pintura, un objeto de museo, un texto en una biblioteca etcétera. El otro, fue una discusión intensa sobre las ontologías, que son las notaciones para clasificar un cierto objeto, (texto, palabra, documento… ) y que es uno de los temas centrales en la parte de descripción de los objetos digitales. Muy técnica para mi, que comprendí poco del fondo de la discusión, pero sin duda, una de las más apasionantes. (9 julio 2010)

Futbol, inscripciones y TEI

Ayer no escribí porque, en esencia, solo estuve brevemente en la inauguración del congreso y me salí antes de la intervención principal. Ni modo. Jugaban Alemania/España. Pero hoy, desde las 9:00 he estado escuchando proyectos e ideas sobre la convergencia de cómputo y humanidades. Comenzaré por hablar de la presentación de Digitizing the Act of Papyrological Interpretation de Ségolène M. Tarte. A mi juicio una brillante presentación de qué es leer una inscripción, y una propuesta muy interesante de cómo crear una  herramienta tecnológica para registrar el proceso de estudio e interpretación del texto. Como ignorante del tema, la sola exposición de los problemas que enfrenta alguien que trabaja con inscripciones me cautivó, pero la manera en que la comprensión de esos problemas se vertía en la construcción de una herramientas dónde registrar el trazo que el investigador hace de la inscripción para definir patrones de movimiento y un marco analítico de por qué optó por ese trazo fue luminoso. La idea básica es que la tecnología no sustituye al investigador, sino que extiende sus habilidades y registra, o lo intenta, el acto mismo de interpretar, que sin duda, es lo más complejo.
Su intervención fue precedida por la de los integrantes de eAqua, que se propusieron hacer un sistema para sistematizar electrónicamente las rimas de Plauto. Proyecto complejo, que prueba la dificultad de automatizar la interpretación, pero que explora el camino de producir una automatización en un terreno tan difícil como el de la filología clásica.
Por la mañana, estuve en mesas menos espectaculares y más técnicas. Una dedicada a la documentación con TEI, otra sobre cómo recuperar de los e-journals la información para crear otra forma de lectura, más semejante a la de un periódico mural… Y luego me metí a algo llamado Stilometría… es decir, cómo computar las palabras para poder estudiar y comprender el estilo. En este caso, la exposición era sobre unos diarios de finales del siglo XIX sin autor que habían sido atribuidos tradicionalmente a un autor, y que después de computar más de 30,000 páginas de autores probables y textos de control (como en las ciencias) se llegó a la conclusión de atribuirlos a otro. En esencia estas son las tres grandes áreas que dominan el congreso: los que marcan texto (para investigar, preservar…), los que procesan el texto y, unos que no vi, los que se interesan por la visualización.
En la noche habló uno de los fundadores de las humanidades digitales. Una paradoja que uno de los fundadores hablar del futuro de la humanidades digitales. Sus ideas eran claras, y llenas de optimismo… quizás en demasía. Pero es bueno creer que lo que se hace, trasforma el mundo hacia mejor.. (8 julio 2010)

Digital Humanities Lab y ThatCamp: pudo haber sido mejor

Las actividades de hoy anticipaban un buen día. Taller sobre cómo construir un laboratorio de humanidades digitales, y el ThatCamp que se propone como una alternativa lúdica, productiva y de colaboración para las humanidades digitales. Asistí a la presentación del ThatCamp, hecha por Dan Cohen. En ella se discutieron algunos temas y algunas ideas que serían las dominantes durante el día. Después me fui al taller, que resultó ser más bien una presentación del Townsend lab del centro Townsend de la Universidad de Berkeley. Hecha sin mucho entusiasmo por una joven docente, me dejo poco convencido de que se tratara efectivamente de un laboratorio. Mi impresión es que, más bien, se trata de un sitio hecho en Drupal para la distribución de información de proyectos. A pesar de ello, algunas ideas interesantes escuchadas tienen que ver, primero, con la idea de que un laboratorio de humanidades digitales no es, necesariamente, un espacio físico. Que puede desarrollarse a partir de la selección y uso de un determinado grupo de herramientas por una comunidad dada, y que puede funcionar, precisamente, como precursor de un uso más extensivo de herramientas digitales en la investigación. ThatCamp, por su parte, me desilusionó. Asistía a la sesión de Comic y Story telling que se centró en la discusión de los derechos de autor coordinada por el propio Cohen. Para comenzar, tenía ese toque de “campamento” de verano: el monitor en shorts y con camiseta del evento. Y luego, la dinámica no fue más allá de una simple discusión, que puede ser mejor o peor, más rica o más pobre, pero a la que no le vi mayor diferencia. Una promesa de informalidad, que terminó siendo formal. PEro que tiene logo y es marca registrada. Lástima. (6 de julio 2010)

eAqua

Hoy asistí a un taller sobre el proyecto eAqua de la Universidad de Lepzin. Vimos operar tres diferentes herramientas. Una que permite el rastreo de citas a partir del reconocimiento del texto, cuya novedad más importante es que presenta los resultados en forma de diagramas y líneas de tiempo. Así, con respecto al Timeo de Platón, por ejemplo, el sistema muestra qué autores citan ese texto, en qué época y qué páginas o pasajes del texto son citados. La segunda es una herramienta de búsqueda que asocia palabras por contigüidad, a partir de distintos algoritmos, y que los presenta a modo de mapa mental. La última herramienta es el uso del modelo de “completar” palabras que conocemos, para aplicarlo tanto a textos griegos, latinos como a los papiros.
En sí mismas, cada una de estas herramientas parece enormemente útil. Yo en particular, quedé asombrado por la primera. Pero lo más interesante de ellas es que están hechas para explotar una base de datos ya existente y en ese sentido constituyen un segundo nivel en cuanto a la generación de recursos digitales. Junto a ello se discutió la importancia que tiene la presentación de la información para hacerla más útil. Es decir, que existen otras formas gráficas, no sólo textuales, que facilitan el uso de la información contenida en los textos. La idea más relevante, a mi juicio fue que investigar es también una forma de buscar, pero buscar lo que no conozco. Esa es la diferencia entre quien busca normalmente en Google a partir de términos cuya relación ya conoce, y quién busca una relación entre términos que, en realidad, no sabe aun que existe.(5 de julio 2010)
El póster
Del 5 al 11 de julio asistiré a dos eventos: el ThatCamp London 2010 y el congreso Digital Humanities 2010. Voy a ambos por mi interés y mi trabajo en las humanidades digitales. De hecho, asisto porque me fue aceptado un póster, resultado del trabajo hecho en laBiblioteca Digital del Pensamiento Novohispano, en el Digital Humanities y eso me abrió la puerta para participar también en el evento ThatCamp. Es la primera vez que presento un póster en un congreso, y voy con la sensación del niño que participa en la Feria de ciencias.
Hacer el póster ha sido muy entretenido y mucho menos dramático que escribir una ponencia. Elaborar un cartel de 120 por 90 centímetros, más o menos, resultó al final ser menos conflictivo que preparar el abtract para someterlo a dictamen. Como lo importante es presentar información, mostrar las lecciones y lo aprendido, uno se preocupa mucho menos por ser inteligente, que por ser claro. Además, como al final será una imagen, uno termina por recortar la prosa, precisar las palabras, pero sobre todo por idear las imágenes que acompañarán todo lo que se dice, el trabajo es mucho menos angustioso.
Por supuesto, no hice yo sólo. Colaboraron participantes en la Biblioteca, como Isabel Galina y Ali Martínez, y quién diseñó el póster Iván Mejía, cómplices, como han sido, de muchas cosas relativas al esfuerzo de construir un proyecto en el campo de las humanidades digitales en México y en la UNAM.
Pero la idea de estar parado frente a mi póster, en un salón, para dar explicaciones a los concurrentes, me causa aun un cierto conflicto. (Julio 2,  2010)
ThatCamp
Leo en Dirt a cerca de ThatCamp (The Humanities and Technology Camp) una “unconference” sobre Humanidades digitales. Se trata de una reunión académica con una metodología diferente a cualquier otra reunión tradicional. En primer lugar, como se lee en el propio sitio de ThatCamp, no se trata de un evento al que uno asista como espectador, sino en el que se va a participar, y la agenda del día es establecida por los propios asistentes, en cada sesión. Las sesiones, por otro lado, se hacen públicas de manera simultánea porque todos twitean y blogean al tiempo que discuten los proyectos. En esencia, uno se inscribe proponiendo un proyecto, y la reunión ha de servir para ayudar a desarrollarlo, mediante la colaboración de los participantes, algo más o menos semejante a los los DevHouse organizados para desarrolladores. Todo esto es muy interesante, pero quizás el punto más valioso en esto, es el cambio de metodología en el trabajo. No se trata de asistir a una reunión con colegas con resultados terminados sino quizás, solo con la simiente, y el desarrollo no es necesariamente individual y personal, sino fruto de un modelo de colaboración abierta.

 

Deja un comentario