Ir al contenido principal

Proyecto ATRECSIDE – Algoritmos para el Reconocimiento y la Extraccción de Contenido Semántico en Imágenes de Documentos

Ministerio de Economía y Competitividad

Este proyecto se ha centrado en el estudio de la aplicación de las más recientes técnicas de aprendizaje automático para la extracción de contenido semántico en documentos digitalizados que incluyen texto manuscrito y mecanografiado, fotografías e ilustraciones. Dicho objetivo está en línea con las crecientes necesidades actuales de traspaso de información desde el mundo físico al mundo digital.

El principal avance derivado del proyecto ha sido el desarrollo de un sistema de reconocimiento de texto manuscrito offline que es estado del arte al compararlo con otros sistemas similares de la bibliografía. Este desarrollo se ha sustentado sobre numerosas publicaciones en revistas y congresos internacionales. En particular se ha realizado 6 publicaciones en revistas JCR, 2 en libros de la serie Lecure Notes y 4 en congresos internacionales. Además, se ha dirigido la digitalización del Archivo de Documentos Históricos de la empresa Osborne, creando una base de datos en castellano de documentos históricos manuscritos de acceso público.

Los siguientes puntos describen los principales desarrollos realizados:

• Un sistema para la predicción del género de las personas a partir de su escritura manuscrita.
• Un sistema que es capaz de determinar la actividad que está realizando una persona a partir de imágenes de la misma.
• Un sistema que permite la descripción lingüística de análisis de deforestación.
• Un método para mejorar la capacidad de las Redes de Neuronas.
• Un método para la inicialización del algoritmo k-Means aplicado a la clasificación de textos.
• Un sistema de reconocimiento de cadenas de dígitos manuscritos.
• Un sistema que reconoce texto manuscrito aprendiendo desde datos generados sintéticamente.

Entradas populares de este blog

Multiview 3D human pose estimation using improved least-squares and LSTM networks

Publicado en Neurocomputing En este artículo se presenta un método para estimar la pose del cuerpo humano en 3D a partir de múltiples vistas 2D utilizando aprendizaje profundo. El sistema está formado una sucesión de subsistemas. Primeramente, se obtienen las poses 2D usando una red de neuronas profunda que detecta los puntos claves de un esqueleto simplificado del cuerpo en las vistas disponibles. Luego, se recosntruyen las coordenadas 3D de cada punto utilizando una propuesta original, basada en optimización de mínimos cuadrados, que analiza la calidad de las anteriores detecciones 2D para decidir si aceptarlas o no. Una vez que se dispone de las poses 3D, se estima la posición completa del cuerpo, teniendo en cuenta la historia pasada para refinarla mediante una red LSTM. En la parte experimental, el artículo ofrece unos resultados competitivos cuando se compara con trabajos representativos de la literatura. In this paper we present a deep learning based method to estimate the

Off-line handwritten signature verification using compositional synthetic generation of signatures and Siamese Neural Networks

Publicado en Neurocomputing En este trabajo, se propone el uso de Siamese Neural Networks para ayudar a resolver el problema de verificación de firmas manuscritas fuera de línea con falsificaciones aleatorias en un contexto independiente del escritor. El sistema puede ser utilizado para verificar nuevos firmantes con tan solo una firma modelo con la que comparar. Se han analizado el uso de tres tipos de datos sintéticos para aumentar la cantidad de muestras y la variabilidad necesaria para el entrenamiento de redes neurales profundas: muestras de datos aumentados del conjunto de datos GAVAB, una propuesta de generación de firma sintética compositiva a partir de primitivas de forma y el conjunto de datos sintéticos GPDSS. Los dos primeros enfoques son generados "bajo demanda" y pueden utilizarse durante la fase de formación para producir un número potencialmente infinito de firmas sintéticas. El sistema se ha probado con los conjuntos de datos GPSSynthetic, MCYT, SigCo

ASTRID - Análisis y Transcripción Semántica para Imágenes de Documentos Manuscritos

Ministerio de Ciencias, innovación y universidades Advances in the development of methods for automatically extracting and understanding the content of handwritten digitized documents will continue being an important need for our society. This project addresses three challenging computational problems related to automatic handwritten text processing of document images: (1) document layout extraction over unstructured documents, (2) continuous handwritten text recognition under unrestricted conditions and (3) offline verification of human signatures using advanced deep neural models, respectively. The proposed solutions to previous problems will be adapted to several applications presenting a socio-economic interest. In particular: the analysis and transcription of historical documents, and some demographic prediction problems based on use of handwriting (for example, recognizing the gender or handedness of a person). In this project, we will emphasize the application of developments