Publié par Julien L., le Samedi 14 Avril 2012

Le Vatican et la faculté d'Oxford vont numériser 1,5 million de pages

1,5 million de pages anciennes vont faire l'objet d'une numérisation. Les bibliothèques d'Oxford et du Vatican ont annoncé leur partenariat pour dématérialiser des textes issus de manuscrits grecs, hébraïques et tirés des livres imprimés au XVème siècle.

La numérisation du patrimoine culturel est une tâche qui occupe d'année en année toujours plus d'acteurs. Si la place de Google dans ce domaine est considérable, le géant américain ayant participé à la numérisation de plus de 20 millions d'ouvrages depuis 2004, d'autres institutions se montrent très actives, à l'image de l'université d'Oxford et du Vatican.

Preuve en est, la bibliothèque Bodléienne et la bibliothèque apostolique vaticane ont annoncé jeudi leur collaboration pour mener à bien un projet de numérisation portant sur 1,5 million de pages issues d'anciens textes. Les efforts des deux bibliothèques vont porter sur les incunables (les premiers livres imprimés entre 1450 et 1500), les manuscrits grecs et les textes hébraïques.

Selon le communiqué, le choix de ces trois domaines s'est fait en fonction de leur importance au sein des deux bibliothèques. Deux tiers des ressources seront fournies par le Vatican et le tiers restant sera apporté par l'université d'Oxford. Le projet a été financé par la fondation Polonsky, qui a apporté une enveloppe de 2 millions de dollars (environ 1,5 million d'euros).

"L'effort de numérisation bénéficiera également aux chercheurs, en unissant des contenus qui ont été dispersés au fil des siècles", explique la faculté. "Transformer ces vieux textes et ces vieilles images sous forme numérique permet de transcender les contraintes spatiales et temporelles qui, dans le passé, ont restreint l'accès à la connaissance", souligne Sarah Thomas, d'Oxford.

Ces textes seront mis en ligne gratuitement sur Internet.

( photo : Mainz psalter, domaine public Bodleian Library, Oxford )

Publié par Julien L., le 14 Avril 2012 à 10h30
 
14
Commentaires à propos de «Le Vatican et la faculté d'Oxford vont numériser 1,5 million de pages»
Inscrit le 20/09/2011
5137 messages publiés
Message supprimé par l'auteur
[message édité par zig et puce le 11/01/2013 à 01:28 ]
Inscrit le 18/08/2009
242 messages publiés
Ils comptent numériser le Nécronomicon?
Inscrit le 18/08/2009
242 messages publiés
La remarque de zig et puce est plus que pertinente.
J'ai d'ailleurs d'âpres discussions à ce sujet....
A ce propos, j'ai une petite anecdote croustillante à vous raconter:
A la fin des années 90, la RTBF (télé belge) était confrontée à un gros problème de conservation de ses films (en pellicule): la pièce dans laquelle ils étaient stockés étaient très humide et les films (parfois vieux de plus de 40 ans) commençaient à se dégrader sérieusement. Ils se sont donc lancés dans une ambitieuse campagne de numérisation de ces précieux documents sur support CD-ROM (oui, vous avez bien lu: des CD-ROM, cela vous donne une idée de la qualité de la numérisation). Ils ont d'ailleurs investi une somme considérable dans l'achat du matériel permettant cela.
Au bout de cinq, ils se sont rendu compte qu'une grande partie de ces CD étaient devenus illisibles car la gravure (trop rapide) et la qualité des support étaient médiocres.
Pas de pot: après numérisation, ils s'étaient empressés de brûler leur films pour "faire de la place". Ils ont ainsi perdu une part importante de leur patrimoine audiovisuel, dont certaines traces d'évènements historiques.
Une histoire belge comme une autre...
[message édité par untel le 14/04/2012 à 11:36 ]
Inscrit le 05/05/2010
579 messages publiés
@untel si il n'y avait que celle là d'histoire belge...
@ Zig, je peux être d'accord avec toi, mais si on suit ton raisonnement, alors on ne va jamais numériser quoique ce soit si on doit attendre une meilleure technologie. Grand dilem
Inscrit le 25/11/2008
885 messages publiés
Ce qui signifie que l'on fige une technologie, qu'on s'interdit de la faire évoluer et qu'on oblige les éditeurs de logiciels (depuis les browsers jusqu'aux traitements de textes) à continuer de supporter des technologies qui seront obsolètes un jour ou l'autre.


Et si c'est fait avec des formats lossless ? Toute conversion dans une nouvelle version ou nouveau format ne poserait pas de problèmes.
Inscrit le 18/08/2009
242 messages publiés
Ce qui signifie que l'on fige une technologie, qu'on s'interdit de la faire évoluer et qu'on oblige les éditeurs de logiciels (depuis les browsers jusqu'aux traitements de textes) à continuer de supporter des technologies qui seront obsolètes un jour ou l'autre.


Et si c'est fait avec des formats lossless ? Toute conversion dans une nouvelle version ou nouveau format ne poserait pas de problèmes.


Le problème ne vient pas de la méthode utilisée pour compresser les données, mais du processus de numérisation, cad le passage de l'analogique (le document original) au numérique (la "copie" digitale).
Ce qui est considéré maintenant comme une qualité acceptable risque de devenir très rapidement insuffisant (exemple naïf en guise d'illustration: il y a 20 ans, une image en 640*480 en 256 couleurs était considérée comme de la "haute résolution").
Que l'on stocke cette image dans un format lossless ou pas, ne change rien à la qualité déplorable de la copie numérisée.
Inscrit le 18/08/2009
242 messages publiés
ceddec, le 14/04/2012 - 12:42
@untel si il n'y avait que celle là d'histoire belge...
@ Zig, je peux être d'accord avec toi, mais si on suit ton raisonnement, alors on ne va jamais numériser quoique ce soit si on doit attendre une meilleure technologie. Grand dilem

En fait, ce qui me fait peur, c'est que sous prétexte que l'on a numérisé une oeuvre, on se croit dispensé d'assurer la bonne conservation de l'original.
Je crois que nous serons considérés par les historiens du siècle à venir au même titre que les "archéologues-vandales" du 19ème, qui se sont livré à un véritable saccage des sites historiques, car leur attention étaient uniquement focalisées sur les babioles en or... nous privant aujourd'hui des traces d'activités humaines d'un intérêt scientifique capital.
Inscrit le 20/09/2011
5137 messages publiés
Message supprimé par l'auteur
[message édité par zig et puce le 11/01/2013 à 01:28 ]
Inscrit le 18/08/2009
242 messages publiés
Tu exagères un peu quand même . Il y a 20 ans justement, j'ai travaillé sur un projet de numérisation en haute résolution et on avait choisi le JPEG en 16 millions de couleurs et 300 dpi. Sauf que comme les PC386 n'étaient pas assez puissants, on était obligé de mettre une carte spéciale pour la compression/décompression JPEG.

@zig et puce : évidemment j'avais forcé le trait pour bien faire comprendre l'idée.
Mais justement, comme tu parles des 16 millions de couleurs (24 bits)... l'oeil humain est capable d'en distinguer 400 milliards je crois! Et si tu scannes une photo noir et blanc en 24 bits tu obtiens un bruit de quantification très visible dans les basses lumières...
Inscrit le 05/09/2002
2539 messages publiés
zig, le 14/04/2012 - 17:14
@untel
Il n'y a pas que la RTBF. La Nasa également. Ils ont leur archives sur des bandes magnétiques qui ont une durée de vie de 5 ans (je ne sais plus si c'est 5 ou 10). Mais ils ont pris un tel retard dans le renouvellement des supports que certaines bandes sont devenues illisibles.

@Nethan
Le problème n'est pas dans l'encodage du fichier, sa compression ou pas. C'est dans le fait qu'il faut garder en fonctionnement des "machines" capables de les lire et les logiciels qui vont avec.
Imagine que l'on ait numérisé une bibliotihèque dans les années 80 et que l'on ait stocké les données sur des disques magnéto-optiques ou sur des laserdiscs, très en vogue à ce moment-là.
Cela doit faire plus de 10 ans que plus aucun lecteur de disques magnéto-optiques ou de laserdiscs ont été fabriqués. Tu serais donc obligé de garder ces lecteurs (en priant pour qu'ils ne tombent pas en panne), mais également la connectique pour les relier à un ordinateur, plus le logiciel pour les lire, ...
Et encore, cela ne date que de 20 ans environ... Imagine dans 100 ans !

(exemple naïf en guise d'illustration: il y a 20 ans, une image en 640*480 en 256 couleurs était considérée comme de la "haute résolution"

Tu exagères un peu quand même . Il y a 20 ans justement, j'ai travaillé sur un projet de numérisation en haute résolution et on avait choisi le JPEG en 16 millions de couleurs et 300 dpi. Sauf que comme les PC386 n'étaient pas assez puissants, on était obligé de mettre une carte spéciale pour la compression/décompression JPEG.


Sauf que tu te prends la tête sur une problématique qui, à priori, n'existe pas ici...

Sauf si ils décident de jouer les mongoliens (c'est pas exclu) et prennent un format proprio, pour le reste, il n'y a aucun problème.

Le format, quelque soit la manière dont est codé la machine EST supportable et convertissable (même si ça peut demander du dev et donc coûter de l'argent)...

Faut pas confondre avec tes exemples idiots qui sont des problèmes de matériel ET logiciels propriétaires pour lesquels tu dépends entièrement du bon vouloir du(es) constructeur(s) et éditeur(s).

Pour le reste de ton argumentation, c'est idiot aussi, avec une telle mentalité, on ne numérise rien et on attends que, mécaniquement, avec le temps ces manuscrits disparaissent petit à petit (dégradation du au temps/usage, vols, destructions dans des accidents/incendies/etc).

A partir du moment où on a une restitution à peu près fidèle du truc c'est un ENORME plus, rien que pour le fait que tous ceux qui ont besoin de consulter le CONTENU du livre peuvent le faire sans toucher au bouquin, sans se déplacer à Oxford/Rome, sans les contraintes administratives, de sécurité et de place de l'accès aux originaux, et surtout sans abîmer les originaux, tout en ne privant pas ceux qui ont besoin d'accéder au "support" du contenu aussi de le faire....


C'est une avancée dans l'absolu, spécialement parce que personne n'a l'intention de détruire les originaux non plus.... rien n'empêche de les renumériser(ou ce que ça sera à ce moment là) dans 20/30/50 ans si on a développé des méthodes qui permettent un meilleur rendu/la prise en compte des conditions du support ou tout ce qu'on peut imaginer.

En attendant on a des ouvrages que l'on peut consulter sans risque de les abimer, qui peuvent être BEAUCOUP plus largement diffusés/accessibles parce qu'il n'y a plus le risque du vol/vandalisme/usure normale d'utilisation, et dont on gardera une trace si jamais il y a un problème quelconque.....

Si on suit ton raisonnement/méthode, on n'a rien.

Les ouvrages sont toujours à accès ultralimités (présents dans une demi-douzaine d'endroits au monde, réservés aux spécialistes absolu du genre, avec un contrôle très important de qui y a accès), ne peuvent pas être consultés trop souvent (ça les abîme), s'abîment naturellement du fait de leur exposition répétée à la lumière/manipulations/conditions environnementales agressives pour des trucs de cet âge là, et en plus on perd tout si il leur arrive quoi que ce soit....

Oui c'est évident, ta méthode de ne rien faire parce que "trop lol say nul, demain se sera MIEU" est vachement mieux.....


La plupart de ces projets utilisent des formats ouverts et standards, qui, sauf disparition totale de l'informatique, seront toujours utilisables dans 50/100/200 ans oui, parce qu'au pire il suffira de payer des devs pour créer un convertisseur et tout convertir dans un format plus moderne, ou de créer un plugin quelconque de lecture pour un/des softs de l'époque pour les supporter.


C'est CA l'intérêt de l'ouvert. Et ça n'a aucune spécification matériel ni même de l'os en dessous, à partir ou le format de fichier est ouvert et standard (et documenté).
Inscrit le 18/05/2011
42 messages publiés
@ zig et puce : l'intérêt de la numérisation, ce n'est pas pour le futur (les archives gardent les originaux), mais pour maintenant (les petits étudiants de master recherche ont rarement le droit de mettre leurs sales pattes sur les vieux manuscrits... à supposer qu'ils aient déjà les moyens d'aller à Oxford ou à Rome).
Inscrit le 28/08/2004
6873 messages publiés
Sauf si ils décident de jouer les mongoliens (c'est pas exclu) et prennent un format proprio, pour le reste, il n'y a aucun problème.

Le format, quelque soit la manière dont est codé la machine EST supportable et convertissable (même si ça peut demander du dev et donc coûter de l'argent)...

Faut pas confondre avec tes exemples idiots qui sont des problèmes de matériel ET logiciels propriétaires pour lesquels tu dépends entièrement du bon vouloir du(es) constructeur(s) et éditeur(s).

Pour le reste de ton argumentation, c'est idiot aussi, avec une telle mentalité, on ne numérise rien et on attends que, mécaniquement, avec le temps ces manuscrits disparaissent petit à petit (dégradation du au temps/usage, vols, destructions dans des accidents/incendies/etc).

A partir du moment où on a une restitution à peu près fidèle du truc c'est un ENORME plus, rien que pour le fait que tous ceux qui ont besoin de consulter le CONTENU du livre peuvent le faire sans toucher au bouquin, sans se déplacer à Oxford/Rome, sans les contraintes administratives, de sécurité et de place de l'accès aux originaux, et surtout sans abîmer les originaux, tout en ne privant pas ceux qui ont besoin d'accéder au "support" du contenu aussi de le faire....


C'est une avancée dans l'absolu, spécialement parce que personne n'a l'intention de détruire les originaux non plus.... rien n'empêche de les renumériser(ou ce que ça sera à ce moment là) dans 20/30/50 ans si on a développé des méthodes qui permettent un meilleur rendu/la prise en compte des conditions du support ou tout ce qu'on peut imaginer.

En attendant on a des ouvrages que l'on peut consulter sans risque de les abimer, qui peuvent être BEAUCOUP plus largement diffusés/accessibles parce qu'il n'y a plus le risque du vol/vandalisme/usure normale d'utilisation, et dont on gardera une trace si jamais il y a un problème quelconque.....

Si on suit ton raisonnement/méthode, on n'a rien.

Les ouvrages sont toujours à accès ultralimités (présents dans une demi-douzaine d'endroits au monde, réservés aux spécialistes absolu du genre, avec un contrôle très important de qui y a accès), ne peuvent pas être consultés trop souvent (ça les abîme), s'abîment naturellement du fait de leur exposition répétée à la lumière/manipulations/conditions environnementales agressives pour des trucs de cet âge là, et en plus on perd tout si il leur arrive quoi que ce soit....

Oui c'est évident, ta méthode de ne rien faire parce que "trop lol say nul, demain se sera MIEU" est vachement mieux.....


La plupart de ces projets utilisent des formats ouverts et standards, qui, sauf disparition totale de l'informatique, seront toujours utilisables dans 50/100/200 ans oui, parce qu'au pire il suffira de payer des devs pour créer un convertisseur et tout convertir dans un format plus moderne, ou de créer un plugin quelconque de lecture pour un/des softs de l'époque pour les supporter.


C'est CA l'intérêt de l'ouvert. Et ça n'a aucune spécification matériel ni même de l'os en dessous, à partir ou le format de fichier est ouvert et standard (et documenté).

+1

Voilà qui résume bien: il faut simplement garder une technologie qui apporte du mieux tout en permettant d'accéder à ce qui a été enregistré précédemment. Numériser, garder les originaux et faire un back-up complet, voilà comment ne rien perdre.

Le vrai souci tiendra plus de la quantité de données à conserver, et sur des formats qui tiennent la route.
Or, à l'heure où tout est prévu pour durer peu (obsolescence programmée inside), même les HD ont une durée de vie limitée: il faut donc régulièrement faire des back-ups de back-ups pour ne rien perdre. Si chacun de nous connait déjà ce problème pour ses données persos, imaginez quand il s'agit de bibliothèques entières ou de données mises au secret. Un vrai casse-tête!
Inscrit le 09/12/2008
16 messages publiés
Houlà ! par où commencer ?
Je m'occupe d'Archives, et d'archivage numérique : on peut dire sans erreur que le document numérique n'est pérenne que si l'on s'en occupe. Régulièrement.
Donc oui il faut des compétences du temps et de l'argent pour choisir les bons supports, et surtout les bons formats en effet.
Tout cela fait l'objet de normes, je peux vous en mettre 10 pages si vous voulez; elles sont connues des professionnels.
Au niveau des formats bien sûr qu'on n'utilise que des formats ouverts (Tiff pour l'image) ou très documentés (Pdf). Du reste on utilise plutôt le pdf/A qui est spécifique à l'archivage long, il a une norme Iso à lui tout seul...
Et même les pdf on les migre régulièrement (par exemple en ce moment je fais convertir un lot tous vont être migrés au moins à Pdf 1.4), c'est transparent pour l'utilisateur mais si vous pouvez ouvrir un vieux Pdf de 15 ans c'est que des gens l'ont migré un moment ou l'autre.
Et on ne conserve aucun format propriétaire dans les solutions d'archivage professionnelles (notamment pas le ooxml de MS, huhu...)
Sachez aussi qu'il existe des organismes publics ou privés (les "tiers archiveurs") qui peuvent converser vos données pour vous sur le long terme...
Inscrit le 05/10/2011
2885 messages publiés
zig, le 14/04/2012 - 11:01

Il faudra les convertir ?

Sans doute. Et quel est le problème ?
Répondre

Tous les champs doivent être remplis.

OU

Tous les champs doivent être remplis.

FORUMS DE NUMERAMA
Poser une question / Créer un sujet
vous pouvez aussi répondre ;-)
Numerama sur les réseaux sociaux
Avril 2012
 
Lu Ma Me Je Ve Sa Di
26 27 28 29 30 31 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 1 2 3 4 5 6