Contenu | Rechercher | Menus

OCRopy : pour une ROC avec prise en compte de la mise en page

OCRopy, autrefois OCRopus est en passe de devenir un outil performant de reconnaissance optique de caractères (ROC/OCR), utilisant notamment le moteur de ROC Tesseract, et capable d'analyser une mise en page complexe (contenant par exemple des colonnes et des encadrés). OCRopus ne reconstitue pas la mise en page dans un traitement de texte, mais effectue la ROC dans un ordre logique après avoir analysé la mise en page. Même si son utilisation en ligne de commande est très simple, OCRopus n'est pas encore disponible sous forme d'interface graphique, ni intégré dans un outil graphique déjà existant (comme gscan2pdf ou XSane…)…

Pré-requis

Installation

Pour installer Ocropy entrez successivement ces commandes dans un terminal :

mkdir ocropy/
cd ocropy/
git init .
git pull https://github.com/tmbdev/ocropy
sudo apt-get install $(cat PACKAGES)
wget -nd http://www.tmbdev.net/en-default.pyrnn.gz
mv en-default.pyrnn.gz models/
sudo python setup.py install

Utilisation

Pour tester si cela fontionne, lancez la commande (toujours dans le dossier ocropy :

./run-test

Pour utiliser ocropy, lancez la commande suivantes successivement, (ici l'exemple test/ersch.png doit être modifier par le chemin de votre image à reconnaître) :

# perform binarization
./ocropus-nlbin tests/ersch.png -o book
 
# perform page layout analysis
./ocropus-gpageseg 'book/????.bin.png'

Si ça ne fonctionne pas essayer avec :

./ocropus-gpageseg --minscale 8.0 --maxlines 800  'book/????.bin.png'

Continuez avec (en adaptant le modèle à votre langue) :

# perform text line recognition (on four cores, with a fraktur model)
./ocropus-rpred -Q 4 -m models/fraktur.pyrnn.gz 'book/????/??????.bin.png'
# generate HTML output
./ocropus-hocr 'book/????.bin.png' -o ersch.html
 
# display the output
firefox ersch.html

FIXME où trouver des modèles en français??

Désinstallation

Supprimez le dossier téléchargé avec git (ocropy).

Références



Le contenu de ce wiki est sous licence : CC BY-SA v3.0