Пробовал IronOCR и Tesseract OCR ( обёртка под .NET). В Tesseract пробовал разные режимы фрагментации страницы - результат плохой - мусор или часть текста и мусор. На вход подаётся бинаризирование ( Ч/Б ) изображение документа. На фото не только текст - ещё мусор в виде фотографии и подписи человека, но его постараюсь устранить. Ещё одна трудность - на изображении несколько языков одновременно - русский и английский или английский и фарси ( арабский). Пока что пытаюсь разобраться с русским и английским - хотя бы.Есть ли ещё библиотеки/альтернативы - вышеуказанным?
лет 7-8 назад работал с nuance ocr. там была возможность разделить документ на блоки, и дальше каждый блок распознавать в зависимости от его типа (тест/изображение/етц). В итоге для документов сначала мышкой накидывались области распознавания, а потом батчем все прогонялось через ocr.
Разве? Я думал, что бинаризрованое изображение наоборот лучше - т.к есть четкий переход между контурами - от 0 до 255 - т.е только два пороговых значения, что облегчает поиск конутра/символа?
freeExec, Не совсем понял ( ну, буквально проблему понял, но не понимаю почему), я так понимаю, нужно подтянуть знания в ЦОС ( соотношение сигнал/шум ) ? Если да, то не могли бы Вы посоветовать что почитать. Т.к до этого вообще с этой областью не работал - ни с ЦОС, ни с изображениями, ни с OCR - начал читать Гонсалеса и Вудса - " цифровая обработка изображений" - делал по ней фильтры изображений ( что то руками писал, что то - ро библиотекам, но смотрел что вообще за фильтры бывают, (Собела,Гауса, частичная фильтрация и т.д) какие эффекты дают). Спасибо.