Home » PhD atelier DHLausanne » PhD atelier: compte rendus

Category Archives: PhD atelier: compte rendus

Digital Copyrights, Frédéric Schütz (compte-rendu par Y. Rochat, 18.10.2013)

Compte-rendu par Yannick Rochat, doctorant DHLab, EPFL, posté originalement ici.

Ceci est un compte-rendu assez brut de cette présentation faite dans le cadre du séminaire UNIL-EPFL “DHLausanne” par Frédéric Schütz, statisticien à l’Institut Suisse de bio-informatique et enseignant à l’Institut de Biologie de l’UNIL. Frédéric était là en tant que membre de la division suisse de Wikimedia, pour nous présenter la problématique de la question du droit d’auteur dans la propriété d’oeuvres digitales. Pour débuter, Dominique Vinck fait l’introduction de la séance, en commentant qu’on ne s’inquiète en général pas assez des questions de droit d’auteur au niveau scientifique, trop occupés que nous sommes par les contenus eux-mêmes.

Frédéric commence par décrire la raison de sa présence ici. La Wikimedia Fondation défend les intérêts des projets associés à Wikipedia, et fonctionne comme point de contact local. Elle mène des projets avec des entités gouvernementales et des musées. Il a une expérience pratique dans le domaine du droit d’auteur digital, mais pas de compétences formelles.

wiki_dhlausanne

Pour plus d’informations, il nous recommande le site web du projet DICE, un groupe d’enseignants et de spécialistes du droit d’auteur. Le site héberge un manuel sur le sujet du jour, intitulé “Le droit d’auteur dans le contexte de l’enseignement”, complet et compréhensible. Il y a également des études de cas, et le site est globalement accessible pour ceux qui n’ont pas de formation en droit.

L’outil Wikimedia Commons, médiathèque de 15 millions de documents (sons, images, vidéos, sources historiques, etc.) rendus facilement accessibles depuis tous les projets du groupe, est une bonne illustration de la problématique du droit d’auteur en matière d’oeuvres digitales. La question est posée actuellement dans le contexte des Digital Humanities et se voit être le prétexte de cette présentation : comment créer du contenu tout en le rendant disponible pour les lectrices intéressées et lecteurs intéressés par nos travaux ?

Le droit d’auteur est beaucoup plus restrictif que ce qu’on pense : en interprétant strictement ce que dit la loi, fredonner une chanson dans la rue n’est pas permis, contrairement à le faire en famille ou sous la douche. Autre exemple : le terme “amis” est associé dans la loi à “dans un cercle restreint”, et dans ce cadre, partager par exemple la version pdf d’un article n’est pas légal, ce qui est contre-intuitif par rapport aux conventions sociales, si l’on imagine par exemple que l’échange ait lieu dans le contexte d’une conférence académique. Il faut préciser que la loi suisse est très lisible sur le sujet, contrairement aux lois françaises et américaines, entre autres.

Première partie : un droit d’auteur restrictif pour l’utilisateur

Tout d’abord, le respect du droit d’auteur peut mener à des comportements schizophrènes : les journaux relaient habituellement sur leurs sites que violer le droit d’auteur, c’est voler. Mais ils sont souvent les premiers, dans l’urgence de la production d’un article, à piquer des photos en ligne sans les citer justement.

Les commentaires qui suivent concernent la Loi fédérale sur le droit d’auteur et les droits voisins.

art. 1 et 2 Sont concernées par le droit d’auteur n’importe quelles oeuvres littéraires ou artistiques, sans tenir compte de leur qualité, et à partir du moment où l’oeuvre a un caractère individuel. Par exemple, un texte de trois mots ne peut pas être considéré, car il ne peut pas être vu comme un apport culturel significatif par son auteur. Le cas d’une photo n’est pas clair, et est sujet à controverse. Une photo d’un objet régulièrement photographié, un monument par exemple, ne devrait pas pouvoir être protégée, à moins qu’on y reconnaisse une certaine “touche” de l’auteur. Les programmes informatiques sont également concernés par la loi.

art. 29 Frédéric juge “aberrant” la durée du droit d’auteur : après la mort + 70 ans. Cela peut donc prendre 150 ans depuis le moment de sa création pour qu’un oeuvre monte dans le domaine public. Pour les logiciels, c’est 50 ans.

Mais dans la pratique, les gens évaluent les risques et les coûts avant de violer consciemment le droit d’auteur.

On dénote des exceptions : dans l’art. 19 (un article qui ne s’applique pas aux logiciels), il est expliqué comment l’utilisation à des fins privées est autorisée. Les amis doivent être “étroitement liés” (ce qui exclut les “amis” de type facebook). Dans un contexte pédagogique, on a le droit d’utiliser du matériel protégé (ce qui n’inclut pas la présentation qui a lieu en ce moment). Dès lors, un site web de cours (type moodle) ne peut en général pas rester ouvert au public. Il faut que les utilisateurs y soient inscrits officiellement. Les MOOCS sont donc exclus. Au sein d’un groupe de chercheurs, le partage est bien sûr possible.

Mais il y a aussi des exceptions aux exceptions : dans le même article, il est dit que si une oeuvre est disponible sur le marché, on ne peut pas en reproduire une partie. (Si un livre est disponible à la vente, les gens doivent aller l’acheter.) La reproduction d’oeuvres des beaux-arts n’est pas autorisée. “C’est une erreur dans la loi, due à un lobbying très poussé des associations d’auteurs dans les beaux-arts.”

L’art. 25 stipule qu’on a le droit de citer une oeuvre, mais la structure du texte doit s’y référer, et la citation doit être indiquée. Démonstration : il utilise une photo d’un opéra pour illustrer une slide de sa présentation, mais il ne l’utilise pas pour parler d’opéra, ce qui rend son usage illégal.

Quid du contenu publié dans le contexte d’un pays, sur internet, mais accessible dans d’autres pays où il est protégé ? Ce cas est problématique et mal défini (“sac de noeuds”). En théorie, une alerte sur la page web signalant qu’on s’adresse à un public local rendrait la chose difficile à attaquer. Mais une entreprise qui aurait une succursale dans le pays concerné se doit dans la pratique de respecter le droit défini dans celui-ci : par exemple, une oeuvre dans le domaine public au Canada et pas en France ne pourrait être mise en ligne par un éditeur canadien faisant également un travail d’édition en France.

Deuxième partie : faire usage du droit d’auteur

Frédéric nous décrit ici différents types de licences. Il commence par montrer la “end-user licence agreement” de Microsoft XP, un document complexe et à vrai dire quasiment illisible, bourré de contraintes pour l’utilisateur, mais que personne ne lit.

À l’opposé, la licence WTFPL, dont l’acronyme signifie “what the fuck you want to public license”. Ce cas est extrême, mais jugé un “peu trop simple”. La solution d’essayer d’écrire sa propre licence est trop compliqué, et Frédéric nous recommande d’éviter d’en arriver là.

Les licences Creative Commons

Comment rendre accessible ce qu’on fait en DH sans que le lecteur n’ait à débourser de l’argent ?

Tout d’abord, il y a la licence CC0 : “no rights reserved”. Dans ce cas, la loi reconnaît malgré tout l’auteur et l’oblige à avoir des droits. Cette licence solide juridiquement fait passer le message qu’on abandonne ses droits, lorsque c’est possible. Néanmoins, dans le cas de la loi française par exemple, il est impossible d’abandonner le devoir d’être cité (droits moraux).

Ensuite, Frédéric nous montre comment déterminer la licence Creative Commons dont on a besoin. Il y a deux choix à faire, le premier est de déterminer si l’on autorise une utilisation commerciale, le second si l’on permet d’apporter des modifications.

Le sens des abréviations utilisées dans les logos : Creative Commons (CC), attribution (BY), share alike (SA), no derivative (ND), non commercial (NC). Les six licences disponibles sont décrites ici. Les licences CC BY et CC BY SA sont considérées comme des licences libres, mais pas les quatre autres.

Option non-commerciale

À ne pas confondre avec “à but non lucratif”. Dès qu’il y a de l’argent impliqué, c’est “commercial”. Par exemple, du matériel protégé compilé sur un CD qu’on fait payer ensuite à prix coûtant, c’est du “commercial”, même si l’échange d’argent ne trouve pas son origine dans la volonté de gagner de l’argent sur le contenu, mais juste dans l’amortissement du coût de production. Du texte sur un blog avec de la pub (même si elle ne couvre pas les frais d’utilisation du blog), c’est du registre du “commercial” également. Dans l’enseignement, c’est plus compliqué : par exemple, un enseignant qui utilise du matériel de quelqu’un d’autre sous licence “non-commerciale” est rémunéré. S’agit-il dès lors d’une utilisation “commerciale” ? Beaucoup de zones d’ombre et de controverses sans fin sont identifiées dans des débats ayant lieu sur Internet. À ce propos, Frédéric nous raconte une anecdote sur le travail de l’avocat : son travail consiste en général à donner une de ces trois réponses aux questions qu’on lui pose : “ça dépend”, “c’est compliqué”, ou “laissez-moi une semaine pour vous répondre”. Ce qui s’applique parfaitement à ce contexte, et en dit long sur l’état des lieux.

La validité des licences Creative Commons a été reconnue devant un tribunal allemand. En Suisse, on ne sait pas encore. “Elles sont solides, personne ne les conteste.” Mais dans la pratique, elles sont peu utilisées pour défendre les droits de l’auteur, puisqu’elles ne sont en général pas associées à une volonté de gagner de l’argent avec (au moins, directement). Il y a des versions nationalisées de ces différentes licences, d’ailleurs la version française pour la Suisse de la licence est en attente de validation finale, et sera donc disponible très bientôt. Puis Wikimedia compte financer un commentaire de ces licences par un avocat, pour permettre de mieux en saisir la portée.

Puis en vrac…

“En devenant membre de la SUISA, on accepte de lui donner la gestion de ses oeuvres : c’est complètement incompatible avec les licences Creative Commons.” Dans le domaine de l’écrit (syndicat pro litéris), l’auteur décide de ce que le syndicat doit gérer pour lui.

Sur une photo, on a le droit d’auteur, mais indépendamment, une personne y apparaissant y conserve son droit à l’image.

Dans le cas de la licence “CC BY”, un texte peut être modifié, mais l’auteur reste protégé contre des modifications qui dénaturent son sens (par exemple : récupération politique). Le droit moral est déjà fort dans la loi suisse, et parfois surpasse ces licences.

Le CERN a mis à disposition hier 26 photos sous licences Creative Commons : ils sont un centre de recherche public, ce qui implique pour eux le partage de leurs ressources lorsque c’est possible. Le travail est protégé par une licence “CC BY SA”.

Wikipedia est sous licence “CC BY SA”.

La revue PLoS est sous licence “CC BY”.

D’être cité pour ses photos permet ensuite d’être pris au sérieux et d’accéder à des manifestations avec les mêmes droits d’accès que les photo-journalistes, ce qui est le cas de quelques collaborateurs de Wikimedia Commons (par exemple : Ludo29).

Concernant l’utilisation académique de ces licences, il y a un mouvement vers la mise à disposition des données en tout cas dans les sciences du vivant. On cherche à rendre possible la réplication des résultats, donc il n’y a pas de raisons de limiter le droit d’accès à ce genre de matériel. “On ne publie plus si les données ne sont pas publiques.” Question : “Alors avant Internet, comment ça se passait ?” Réponse : “Avant, les données étaient beaucoup plus petites. Il n’y avait en général pas de contrôles à faire. Aujourd’hui, l’information se diffuse plus facilement, en même temps qu’elle devient beaucoup plus grande.”

Une base de données de sources historiques n’est pas protégée : ça n’est pas considéré comme un travail créatif. Mais il y a un droit européen sur les bases de données, qui empêche de copier ou de réutiliser n’importe laquelle. Ce qui a amené à des interprétations déviées du droit, par exemple dans le cas d’une compagnie téléphonique qui souhaitait protéger le contenu d’un annuaire téléphonique.

La discussion a été soutenue, la séance a duré près de nonante minutes, entrecoupée de nombreuses questions et commentaires. Désolé si cela ressort fortement de ce compte-rendu un peu brut.

Pour continuer sur le sujet…

Le 24 octobre a lieu à la bibliothèque de l’EPFL un Open Access Day.

Ce blogpost est repris de http://yro.ch/?p=37

Visualisation et catégorisation automatiques de partitions musicales au moyen de tables de contingence (Christelle Cocco, 27 septembre 2013)

Compte-rendu de l’atelier DH doctorants Unil-EPFL du 27 septembre 2013, par Christelle Cocco

Doctorante dans la section des Sciences du Langage et de l’Information (SLI) en faculté des Lettres, je me suis d’abord intéressée aux données textuelles, pour ensuite transférer les méthodes textuelles sur la musique.

Le but de mon travail est de pratiquer une analyse exploratoire de données musicales pour découvrir, par l’intermédiaire de méthodes de visualisation et de regroupement, les structures statistiques qui existent ou non dans ces données. Pour y arriver, j’ai dû faire de nombreux choix, tant au niveau des données de base qu’au niveau des méthodes.

La première partie de ma présentation portait sur les méthodes que j’ai choisies d’utiliser. J’ai d’abord présenté des méthodes de base en analyse des données :

–       la représentation des données dans une table de contingence,

–       l’analyse factorielle des correspondances (AFC) et

–       la classification (non supervisée) ascendante hiérarchique.

Puis, j’ai exposé des méthodes plus innovantes dans le traitement des tables de contingence :

–       l’autocorrélation et

–       l’autocorrélation croisée.

Dans une deuxième partie, j’ai présenté l’application de ces méthodes sur des données musicales. J’ai d’abord expliqué comment j’ai transformé mes données symboliques digitales (par exemple du MIDI) en tables de contingence, avec une variation possible sur l’unité de temps de la représentation. Ensuite, j’ai montré les résultats qu’on obtient avec l’AFC et l’autocorrélation sur une partition à la fois, en partant d’une partition « simple » et monophonique : Frère Jacques ; et en continuant avec des exemples plus complexes, comme la Mazurka de Chopin, Op. 6, N° 1 ou la sonate L. 12 (K. 478) de Scarlatti. J’ai ensuite proposé l’analyse de plusieurs voix dans une même partition au moyen de l’AFC multiple et de l’autocorrélation croisée. Pour ce faire, j’ai utilisé deux quatuors : le Canon en ré majeur de Pachelbel et le Quatuor à cordes n° 1, Op. 18 de Beethoven. Finalement, basé sur la représentation en tables de contingence de mes données, j’ai présenté une classification ascendante hiérarchique de 20 partitions de 4 compositeurs (5 partitions par compositeur).

Ces résultats ont montré, avec les choix effectués pour les données et méthodes, que l’on retrouve parfois les structures auxquelles on s’attendait, et que j’ai découvert des structures auxquelles je ne m’attendais pas, que je peux parfois interpréter, parfois non.

La présentation a été suivie d’une discussion intéressante sur ce que les méthodes peuvent ou ne peuvent pas détecter. Par exemple, la représentation que j’ai choisie est invariante par transposition ou par permutations des notes, ainsi que par inversion du temps, mais elle ne l’est pas par permutation du temps ou par changement de l’unité de temps de la représentation.

Maïeul Rouquette (FTSR, Unil): «Editions critiques entre supports numériques et papiers : interaction entre XML-TEI et LaTeX»; Vendredi 14 juin 2013

Compte-rendu par Panayotis Papaevangelou, Doctorant FNS en histoire contemporaine

Capture d’écran 2013-06-09 à 19.04.56Au cours de sa présentation, Maïeul a fait l’état de sa recherche et montré une partie du processus global de sa thèse en cours. Dans la première partie de sa présentation, Paper and digital critical editions, il a ainsi fait mention de trois choses : les Critical editions, les Paper editions et les Digital editions.
Pour les premières nommées, Maïeul a mis en avant le fait que les éditions critiques, proposant non seulement l’état original le plus probable d’un texte, permettent également de connaître toutes les variantes du texte dans sa globalité. En ce qui concerne les secondes, les éditions dites sur papier, fruits d’une longue tradition au cours de laquelle toute les variantes ont été découvertes, ot l’avantage de proposer un livre qui n’a besoin d’aucune mise à jour (maintenance) lorsqu’il a été imprimé. Néanmoins, comme l’a souligné Maïeul, un livre présente l’inconvénient de ne pouvoir afficher certains détails techniques (like column/page break). Enfin, à propos des Digital editions, celles-ci ne sont pas exemptes de tout défaut. Mais en prenant en compte les avantages, à savoir le fait de permettre la description de plus de détails techniques tout en proposant une ‘’version diplomatique’’ de l’ensemble critique d’un texte, il est évident que ce genre d’édition demande réflexion en ce qui concerne le type de présentation et son ergonomie en n’oubliant pas cependant le besoin régulier de maintenance qui existe.

La deuxième partie de sa présentation, s’est penchée sur LaTeX et les Critical editions. Si en 1977, Donald Knuth a crée TeX, un logiciel permettant de faire de la typographie avec de nouvelles commandes, Leslie Lamport a crée LaTeX en 1983, logiciel allant plus loin dans l’évolution et le nombre de ces mêmes commandes, car donnant lieu à une série d’extensions dont la principale nouveauté est la gestion bibliographique.
Enfin, Apple a crée XeLaTeX, supportant unicode et donnant plus de possiblités typographiques. Maïeul a ensuite expliqué le processus éditorial de LaTeX. Pour passer d’un dossier tex à une édition papier, l’étape obligée consiste à créer un documenten en pdf. C’est ici qu’entre en jeu eledmac qui est une extension de LaTeX. Edmac, programmé pour TeX par J. Lavaglinio et D. Wujastyk et utilisé pour les éditions classiques d’Oxford, a été crée en
1988.
Ledmac a été créé pour le même usage en 2003, mais cette fois pour LaTeX par P.Wilson. Enfin, Eledmac, une version extensible de ledmac a été réalisée par Maïeul lui-même qui est devenue eledmac en 2012. En quoi consiste cette dernière réalisation ?
Tout d’abord, des parties de textes, appelées lemmes, peuvent avoir leur propres commentaires en notes de début ou de fin de page dont cinq séries différentes existent : des variations textuelles, des remarques historiques, etc. Maïeul a ensuite présenté un exemple simple de la méthode employée pour utiliser LaTeX, puis parlé des limites d’ordre sémantique et technique. Eledform est un projet en cours permettant de résoudre une partie de ces limites.

Dans la troisième partie, ‘’XML-TEI to other formats’’, Maïeul a résumé ainsi cet eXtensible Markup Language Text Encoding Initiative : une initiative d’encodage de texte existant depuis 1994 pour le moins flexible avec de nombreux modules et ayant un composant textcrit. Pour sa part, le XLST, pour eXtensible Stylesheet Language Transformation, permet de décrire la transformation d’un document XML à un autre document texte, que ce soit un document XML, HTML ou TeX. Maïeul a expliqué très clairement que si un document xlst et un document xml permettantavec un processeur XLST de créer un document TeX, avant la dernière étape qui est celle du document pdf, le même document xml, avec un autre document xlst, est en mesure de créer un document html pour un tout autre emploi qui est destiné au web.
Proposant deux solutions aux limites actuelles, Maïeul voit la création d’un nouveau document XLST permettant de l’insérer dans un site web au format html et la création d’un format tex avec la mise en forme d’eledform.
Pour conclure, la thèse de Maïeul permettra d’une part de créer et tester eledform dans le cadre du texte d’André de Crête, l’Homélie sur Tite, pris comme exemple et, d’autre part, de parvenir à ce que eledform utilise le même vocabulaire que le module textcrit de XML-TEI.
Proposant enfin une courte bibliographie sur ces sujets, Maïeul est parvenu à décrire des systèmes de documents de texte de façon claire en donnant un résumé chronologique, historique et par étapes de ces créations informatiques permettant d’améliorer le format texte.
Pour ma part, j’ai mis en avant la clarté de ses explications tout en lui posant la question suivante : compte tenu que LaTex est utilisé dans la communauté scientifique et, en très grande partie, dans le cadre des sciences dites dures, très concrètement, quel serait le principal apport de ces outils qu’il va utiliser pour sa thèse ?

Maïeul a répondu que cela lui permettrait de bénéficier d’apports en termes bibliographiques, de production de textes, typographiques et enfin, en stockant des données dans leurs formats bruts.
Il est ensuite ressorti de la discussion générale que des problèmes dans le monde de l’édition étaient le résultat du peu de volonté de s’approprier un outil comme LaTeX.

Tutorial GEPHI, vendredi 7 juin, avec Martin Grandjean (Unil, Lettres) et Yannick Rochat (EPFL, DHLab)

Un grand merci à Martin et Yannick pour leur tutorial GEPHI!

En introduction, Yannick Rochat a présenté ces slides:

SNA – DHLausanne

Et voici un écho de la présentation de Martin Grandjean:

http://www.martingrandjean.ch/gephi/

«Les universités dans les réseaux internationaux à l’époque de l’entre-deux-guerres, des lieux de savoir et d’échanges entre intellectuels», Panayotis Papaevangelou (Lettres, Unil; vendredi 24 mai)

Compte-rendu par Alexandre Camus, Doctorant SSP, UNIL

Après une expérience en droit et sciences politiques, Panayotis Papaevangelou est diplômé en histoire. Le travail de thèse, commencé en janvier de cette année et qu’il nous présente aujourd’hui, est une occasion d’avancer dans l’histoire des intellectuels de l’entre-deux-guerres avec une approche sociohistorique appuyée sur les réseaux de relations entre les intellectuels de cette période. Panayotis inscrit donc son travail dans l’étude des intellectuels, c’est-à-dire des actions et des déplacements de ces acteurs et non leurs productions, et  des relations internationales, champ de recherche à la croisée de l’histoire politique et culturelle. Sa thèse permettra aussi de revenir sur le rôle d’une des organisations phares de la période, la Société des Nations (SDN) à travers sa Commission Internationale de Coopération Intellectuelle (CICI)

Des cartons de la SDN aux réseaux de relations entre intellectuels

Le corpus d’entrée de la recherche est constitué d’une sélection de 300 cartons d’archives écrites de la CICI situées à la bibliothèque des archives de la SDN à Genève.

Faisant référence au travail de Martin Grandjean, avec qui il partage ce corpus de référence, il insiste sur les apports de l’approche en termes de réseaux sociaux utilisée par Martin. Elle a notamment permis de mettre en évidence le poids de Gottfried Salomon, personnalité peu visible, dans l’organisation et la tenue des cours de Davos, reconnu comme un carrefour d’échanges scientifiques ayant participé au renouvellement des relations intellectuelles de l’entre-deux-guerres.

De son côté, la SDN est en générale ramenée à l’échec de ne pas avoir pu empêcher la Seconde Guerre mondiale sans en retenir ses aspects novateurs, notamment sur le plan organisationnel, et son rôle de projet pilote des grandes organisations internationales contemporaines. C’est d’une certaine manière dans un réexamen du rôle effectif de la CICI que Panayotis pose une première question : Dans le constat d’échec de la SDN, la CICI n’a-t-elle pas œuvré à différentes réalisations au cours de son existence ?

Le dépouillement des archives a fait très vite apparaître le caractère apparemment non structuré de la CICI, très loin des représentations des organisations bureaucratiques régnant sans partage sur les activités de leurs membres. Il est donc moins question de considérer la CICI comme un exécutant  de la SDN, elle-même résultat directe des enjeux politiques de son époque, que de rendre compte des tensions entre dépendance et autonomie.

Panayotis adopte une approche volontairement ouverte qui ne fige pas l’intellectuel dans la figure de l’intellectuel engagée et qui ne plaque pas les déterminismes structurels de l’époque sur des actions devenant mécaniques et toutes dépendantes d’enjeux politiques forts. Au contraire, l’approche en construction doit permettre de faire la part des choses sans pour autant décider d’avance des schèmes d’explication à déployer. Dès lors, la démarche quitte un temps le niveau structurel pour revenir au plus près des acteurs concrets par l’étude des relations des membres de la Commission entretenues avec leurs collègues européens.

Des relations interpersonnelles aux relations interuniversitaires : le rôle de médiation de la CICI

Sortir de la représentation rigide des organisations est tout fait compatible avec une approche centrée sur les interactions, qui ne calque pas les contours de la surface sociale d’une organisation sur le périmètre physique de son bâtiment. Cette perspective est d’autant plus intéressante pour revenir sur le rôle de médiation de la CICI que cette structure rassemble des individus qui ont d’autres activités et dont les réseaux de relations dépassent largement leur inscription au sein de la Commission.

Dans le prolongement d’une étude des organisations où l’accent est mis sur les interactions de leurs membres actifs sans postuler de frontières, le travail exposé propose de faire varier les échelles d’analyse et d’aborder la questions des universités. L’idée est simple et efficace : les membres de la CICI sont des intellectuels, parfois visibles et parfois moins, qui entretiennent des relations avec leurs collègues membres des universités européennes. A partir de ce constat, Panayotis avance une autre question : Dans quelle mesure les interactions des membres de la CICI avec leurs collègues des universités européennes débouchent sur des relations interuniversitaires qui ont survécu à la CICI ?

Se débarrasser de la tentation téléologique de juger le passé à la lumière du présent renouvelle la perspective historiographique en permettant d’intégrer l’incertitude propre à la période de l’entre deux guerres. La finalité des interactions n’est plus plaquée ou même objectivée, ce sont les réseaux sociaux et leur évolution qui sont  reconstruits : Que font les acteurs quand ils interagissent ? Est-ce que ces interactions coordonnent des actions particulières ? Quelles matérialisations sociales émergent de ces interactions ?  Survivent-elles à l’existence de la Commission ? Permettent-elles l’émergence de nouveaux collectifs ?

Il s’agira donc de reconstruire la médiation exercée par les membres de la CICI avec le postulat que les réseaux et initiatives des intellectuels en lien avec la Commission reflètent les tensions politiques, culturelles et sociales de l’époque étudiée. En ce sens, reconstruire les parcours des intellectuels liés à la CICI présente la possibilité de renseigner sur la manière dont ces ingrédients sont articulés dans des actions concrètes.

La complexité et le nombre des relations potentiellement en jeu dans les réseaux à l’étude, ne peuvent être abordés systématiquement que par l’intermédiaire d’outils informatiques comme GEPHI. Le bénéfice n’est pas simplement dû aux possibilités de calcul, l’utilisation des outils d’analyse de réseaux nécessite et permet de clarifier notamment les ingrédients de la relation entre les nœuds du réseau. La perspective volontairement ouverte construite par Panayotis permet de ne pas trancher trop vite ce qui lie les intellectuels et/ou les universités. Cette entreprise, au cœur  de l’étude  présentée, nécessite du travail que le goût prononcé pour la pratique archivistique, évoqué plusieurs fois au cours de l’exposé, devrait faciliter.

«Une recherche sur l’histoire des transformations technologiques: questions et problèmes», Enrico Natale (Lettres, Unil), 22 mars 2013

Compte-rendu par Richard Marion (doctorant, SSP)

  • Enrico Natale nous propose une première présentation de son travail sur l’histoire des TIC en Suisse. Les humanités digitales y apporteront une réflexion épistémologique sur les nouvelles technologies.images
  • Un des intérêts de la recherche proposée par Enrico Natale réside dans le fait qu’il avance deux dimensions à l’étude des TIC : d’une part, comme outil transformant nos propres pratiques, d’autre part comme objet d’étude. Ce dernier point interpellant pleinement la question de la réflexivité.
  • Première dimension. Travaillant sur des technologies en train de s’inventer, Enrico Natale veut “saisir ce qui est incertain”.
    • À l’origine du projet se trouve un portail de ressources documentaires en ligne à Berne. Il s’agit maintenant d’un travail sur l’informatisation des connaissances en Suisse. La constitution et la gestion des bibliothèques numériques prennent de plus de temps et d’argent et semblent de plus en plus au centre des discours. C’est de ce point de vue que se fait jour un manque de visibilité, voire de prévisibilité : « on ne sait toujours pas où l’on va ». Pour le chercheur, il manque d’une profondeur critique.
    • Un des premiers problèmes pour le chercheur est celui des mots (information, savoir, bibliothèque, patrimoine culturel, technologie…) : le vocabulaire varie en effet très rapidement et se trouve déjà saturé de contenu contradictoire. Il est par ailleurs soumis à de très nombreuses instrumentalisations ; la recherche en matière de TIC est face à une multiplicité des litéracies contemporaines (multiplicité des pratiques et des modes d’élaboration).
  • Deuxième dimension. Utiliser les nouvelles technologies pour étudier les nouveautés apportées par ces outils (mise en abyme).
  • 15 ans avant et après l’arrivée d’internet.
  • Organisation concrète du projet de recherche, sous réserve de soutien financier par le Fonds national suisse :
    • 3 thèses de doctorat, dont celle en cours d’Enrico Natale,
    • objectif de créer un corpus de sources,
    • présentation des résultats sous forme de corpus numérique.
  • 4 portes d’entrée :
    • base de données : les programmes d’ordinateur ont une histoire comme industrie de services. Il s’agit d’un système de structuration du savoir qui produit des effets épistémiques (cf. le pharmakon chez Platon : une écriture à la fois poison et remède ; pharmakon cité par Stigler dans le champ des humanotés digitales). Aussi, chez Derrida, présence de la pharamacie de Palton.
      • S’ensuit un échange entre DHers venues de l’ingénierie et des humanités :  perdrions-nous vite la mémoire en humanités digitales ? D’où cette proposition de toujours revenir à la source, en respectant l’indépendance des pensées à travers la plongée dans leur expression originale et « pour elle même » et non seulement sa mobilisation contemporaine.
      • Dans la suite de cette tension épistémologique, revient la question de la langue : s’agit-il seulement une question d’interface ?
    • Revenant aux TIC comme objet t’étude, Enrico Natale nous présente les changements de pratiques du travail de bureau dans la saisie de données afférents à ces nouvelles technologies ou à leurs utilisations renouvelées. L’informatisation des bibliothèques invite à se poser la question des transformations de l’institution bibliothécaire en cours et de leurs relations avec celles des TIC.
      • La numérisation du patrimoine culturel pose en effet de nombreuses questions : quels sont les choix que l’on fait pour s’y prendre dans la pratique ?
        • Concrètement : quels sont les fonds numérisés ? Pourquoi ?
        • Comment la définition d’un patrimoine culturel se transforme-t-elle ? Nous retrouvons ici les enjeux de définition. L’étude minutieuse des transformations à l’œuvre autour de l’implémentation des TIC constitue ainsi un prisme privilégié d’étude  des catégories émiques pour en affiner la compréhension qu’en ont et qu’en construisent les acteurs.
        • Enrico Natale parle du rapport sur la « mémopolitique », commandité par l’Office fédéral de la Culture en 2008 pour poser les bases d’une politique fédérale de la mémoire en ligne. Cependant, lorsqu’il s’agit de coordonner les institutions patrimoniales, se font jour de nombreuses résistances des régionalismes refusant le choix bernois de numériser et les choix de numérisations arbitrés, ce qui mènera à l’abandon de cette initiative.
    • Collaboration en réseau. Divers réseaux numériques, listes de diffusion, wiki… Fiabilité dans la collaboration au réseau.
    • Accès ubiquitaire à l’information ou au savoir. Pourquoi : gain de productivité et de temps. Accès à l’information scientifique. Enjeu du stockage des données.
  • S’agissant du lancement d’une recherche, l’intérêt se portera sur les problèmes de recherche qui en dessinent progressivement la teneur et les contours :
    • La question du statut des sources (question d’expertise privilégiée de l’historien) dans la citabilité des sources numériques et l’obsolescence des adresses URL déstabilisent fortement la notion, son utilisation et son partage comme référence commune.
    • La pertinence voire la nécessité d’une perspective comparative : comment faire une histoire des TIC en Suisse sans une histoire de l’industrie des TIC qui n’est principalement en Suisse ?
    • Cette étude très ciblée des TIC et de la numérisation des bases de données en Suisse est envisagée en lien avec des évolutions sociétales de fond.
      • une société post industrielle, mue par le savoir ?
      • quelle professionnalisation du travail de la documentation ?
      • « apparition » d’une industrie des TIC, hardware et software : deviennent-elles les moteurs de notre économie ?
        • Comment tout cela s’inscrit-il et s’articule-t-il dans une transformation générale des pratiques de communication ?
        • quelles interactions avec les problématiques et les pratiques du new public management : rationalisation des organisations institutionnelles ? Il semble que ce dernier se fonde dans la pratique beaucoup sur son utilisation des technologies en général et des TIC en particulier.
        • quelle marchandisation du savoir ? Devient-il une chose ou un flux ?
    • Enjeux de la pratique de l’histoire orale, rattachement privilégié d’Enciro Natale. En se fondant prioritairement sur des entretiens, il s’agirait donc :
      • d’interroger les élites (perçues ici comme les pionniers, les acteurs principaux de ces transformations).
      • de se mettre aussi à l’écoute des gens qui n’ont pas d’histoire : « les victimes », c’est à dire ceux qui ont « subi » l’informatisation.
        • Se pose et se débat ici la question du statut et des étiquettes attribuées aux acteurs par d’autres acteurs et/ou par le chercheur lui-même : qui dit qui est victime ? en quoi sont-ils/elles victimes ? victimes de qui/quoi ? Est-ce si sûr que ces victimes y perdent de leurs points de vue ? qu’elles subissent cela passivement sans adaptation et appropriation possible ?
        • Le rôle du manager est envisagé comme proactif vis-à-vis d’autres acteurs réduits à s’opposer, à disparaître ou à s’aligner. La discussion fait ressurgir l’importance possiblement clef du middle management.
    • Matériaux de travail DH :
      • presse numérisée
        • Compter les occurrences, clusteriser les articles qui parlent autour de certains thèmes => aide à la sélection de matériel pour le close reading.
        • débats parlementaires.
        • Enjeux de réflexivité avec des nombreux termes => gagner à observer l’évolution de ces termes.
    • Lieux de savoirs : attention aux pratiques matérielles et représentations collectives qui participent à la production, à l’élaboration et à la transmission des savoirs.
      • Vers une étude de controverse à la Latour, par exemple autour de la numérisation des bibliothèques par Google ?
      • Dans une perspective d’acteur-réseau, il n’est pas sûr qu’il y ait besoin de postuler la centralité des bibliothèques pour commencer à les étudier. La question de la centralité peut se poser et se construire à partir du réseau tel que mis en mouvement par les acteurs.
    • Humanities computing (ancêtre des DH) = utilisation de l’informatique au service de la recherche (plus que les bibliothèques pour la mise à disposition de l’information).
    • La question de la possible non différence de nature entre ces objets : d’une certaine manière, une bibliothèque est une base de données aussi.
    • Cette étude comme prisme d’approche politique de ce qu’il se passe à Berne (évolutions administratives, débats parlementaires), dans interactions et articulations entre administrations fédérales et cantonales.
    • Liste des objets de débats :
      • Utopie de la bibliothèque universelle
      • Dystopie de la fin des bibliothèques
      • Propriété intellectuelle des objets numériques. Privatisation des savoirs.
      • « Interopérabilité » des données.
      • Place de l’auteur abordée avec wikipedia.

Sara Schulthess (Lettres et FTSR, Unil), «Sites web, manuscrits grecs et arabes du Nouveau Testament», vendredi 15 mars 2013

Compte-rendu de Mélanie Fournier (post-doc, DHLab, EPFL)

Sara Schulthess, diplômée en théologie, a entamé sa thèse de doctorat sur le catalogage des manuscrits arabes du Nouveau Testament, l’édition d’un manuscrit et l’analyse du rôle des outils numériques sur son objet de recherche, à savoir les manuscrits grecs et arabes de la Bible.

Capture d’écran 2013-03-09 à 17.59.50

Avant de commencer sa présentation, Sara a inscrit son travail dans le 3ème axe de travail et de recherche définit quelques minutes avant par une autre doctorante, Mylène Tanferri. Celle-ci avait présenté une ébauche de typologie des digital humanities qui se définissait ainsi:

1/ Recherches technologiques sur des sources traditionnellement SHS

2/ Recherches SHS qui utilisent des outils informatiques

3/ Recherches « épistémologiques » sur la portée et les enjeux des outils

Le travail de Sara étant dense et réservé en grande partie à un public initié (les extraits des ouvrages de base tels que le Nestle-Aland en sont la preuve), celle-ci a choisi – et à juste titre – de faire ce qu’elle a appelé une présentation tout public et de ne se concentrer à cet effet que sur le rôle d’Internet dans le contexte de la critique textuelle du Nouveau Testament. Les forums ou bien encore la mise en ligne de Codex soulèvent dans le petit monde des sciences bibliques de nombreuses questions et polémiques. Malgré cela, le rythme de la présentation a été bien différent et à mon goût plus intéressant car plus enlevé, les questions et les commentaires fusant au fur et à mesure de son discours.

         Existe t-il un texte original de la Bible?

Le travail de Sara Schulthess s’inscrit dans le champ de la critique textuelle, science qui observe, compare et évalue les manuscrits avec pour but de se rapprocher du texte primitif. A travers un exemple de page de ce que les spécialistes appellent une édition éclectique (ici le Nestle-Aland), Sara Schulthess nous montre comment une construction, un système formel amène à une confusion des discours et de la compréhension. Ces ouvrages éditent un texte qui n’existe pas et qui est le résultat de l’observation de manuscrits dans lesquels on repère les fautes des scribes successifs et dans lesquels on compare la qualité et la valeur des variantes. De ces observations et de ces éditions nait une grande confusion entre le texte édité et le texte original.

Au sein de ces analyses de manuscrits, les textes arabes ont fait pendant longtemps l’objet d’un désintéressement systématique lié d’une part à l’orientalisme visant à asseoir le monopole de la connaissance par et pour les Occidentaux (Said, 1995, p. 15), et d’autre part aux fortes questions identitaires liées en particulier au “lien entre l’islam et le développement écrit de la langue arabe” (Schulthess, 2012, p. 336). Cependant, depuis quelques années déjà la tendance s’inverse et ces textes retrouvent un intérêt certain dû à leur diffusion et à leur critique “en ligne”.

La critique textuelle et les nouvelles technologies: un regain d’intérêt pour les manuscrits arabes du Nouveau Testament

Sara Schulthess nous montre combien la mise à disposition de ces textes via des sites Internet, leur catalogage accessible à tous, la mise à disposition de photographies de ces textes (parfois sans autorisation) et l’ouverture de forums dédiés à la critique textuelle (ouverts au profane comme au chercheur), remettent en question le monde de la critique textuelle biblique mais aussi la création et l’appartenance du savoir. De plus, l’émergence et l’importance que prend la critique textuelle sur Internet permettent un renouvellement de l’intérêt que les chercheurs portent à ces manuscrits. Sara Schulthess présente cela comme une renaissance.

Cette renaissance reposerait sur deux changements marquants. D’une part la numérisation des manuscrits et leur mise en ligne faciliterait l’accès au public (et pose donc le problème de la falsification des documents mis en ligne, problème qui n’a pas été abordé directement par Sara Schulthess mais lors des commentaires) et d’autre part l’activité de certains sites Internet et de certains forums ferait émerger un travail collaboratif, né de discussions riches entre spécialistes et amateurs. Afin de démontrer ses hypothèses, Sara Schulthess s’intéresse aux sites Internet musulmans dédiés à la critique textuelle biblique. En effet, même si ces sites se placent dans une tradition classique et dont le but ultime est apologétique – c’est-à-dire cherchant à montrer les incohérences de la Bible – l’utilisation des nouvelles technologies et d’Internet en particulier casse le système bien établi de la production institutionnelle de la critique textuelle en produisant de la connaissance et en mettant en contact des mondes opposés.

De cette présentation, trois axes du travail proposé ici ont retenu mon attention :

– La coexistence de discours et leur mise en contact via des forums et des sites Internet dédiés qui permettent des échanges parfois de très haut niveau entre chercheurs, et entre profanes et chercheurs (tout ceci restant malgré tout limité à la sphère du religieux). C’est dans ce cadre que Sara Schulthess reprend le concept de discours hybride issu des sciences du langage et développé par Claire Clivaz. On aurait aimé le voir apparaître plus tôt dans la démonstration par souci de clarté notamment.

– L’effort de compréhension de la fonction ces discours qui remettent en question à la fois les grilles de lectures « occidentales » du monde arabo-musulman et la production de critique textuelle par

– L’analyse de la stratégie de ces discours qui relèvent à la fois du prosélytisme, de l’échange et de la construction intellectuelle, de la reprise en main d’un héritage et d’une histoire jusqu’ici volontairement laissée de côté, d’une possible utilisation subversive (un des sites mentionné et étudié par Sara Schulthess se situe dans la mouvance salafiste) et d’une exacerbation identitaire.

 

Pour aller plus loin :

http://www.islamic-awareness.org/

http://sheekh-3arb.org/

http://codexsinaiticus.org/en/

12-13 avril 2013 Séminaire UNIL / Université de Münster http://www.unil.ch/Jahia/site/irsb/cache/off/pid/27029?showActu=1362466458805.xml&actunilParam=events

Kashouh H, The Arabic Versions of the Gospels. The Manuscripts and their Families, Berlin, de Gruyter, 2011.

Clivaz C, Homer and the New Testament as “Multitexts“ in the Digital Era?, Scholarly and Research Communication, 2012, vol. 3, n°3, 15 p.

URL: http://src-online.ca/index.php/src/article/view/97

Les références citées dans le texte :

Said E.W., L’Orientalisme : l’Orient créé par l’Occident [1978] Paris, Seuil, 2005.

Schulthess S., Les manuscrits du Nouveau Testament, le monde arabe et le digital. L’émergence d’un discours hybride, in Clivaz, Meizoz, Vallotton, Verheyden, Bertho, Lire Demain. Des manuscrits antiques à l’ère digitale / Reading Tomorrow. From Ancient Manuscripts to the Digital Era, Lausanne, PPUR, 2012, pp. 333–344 (ebook).

Follow

Get every new post delivered to your Inbox.

Join 33 other followers