DeepKnowledge: Deep Language Models for Understanding and Reasoning with Multilingual Content
Deskribapen motza, derrigorrezkoa proiektuak logorik ez badu (eu):
DeepKnowledge (PID2021-127777OB-C21) MCIN/AEI/10.13039/501100011033 eta FEDER-ek finantzatuta
Deskribapen motza, derrigorrezkoa proiektuak logorik ez badu (en):
DeepKnowledge (PID2021-127777OB-C21) project funded by MCIN/AEI/10.13039/501100011033 and by FEDER
Deskribapena (en):
Being language the most efficient system for exchanging information, Natural Language Processing (NLP) is one of the most important technologies of the current digital transformation. Understanding language is crucial for the success of text analytics and information access applications which depend on the quality of the underlying text-processing tools. In recent years, the NLP community is contributing to the emergence of powerful new deep learning techniques and tools that are revolutionizing the approach to Language Technology (LT) tasks. NLP is moving from a methodology in which a pipeline of multiple modules was the typical way to implement NLP solutions, to architectures based on complex neural networks trained with vast amounts of text data. Thanks to these recent advancements, the NLP community is currently engaged in a paradigm shift with the production and exploitation of large, pre-trained transformer-based language models. As a result, many in the industry have started deploying large pre-trained neural language models in production. Compared to previous work, results are improving so much that systems are claiming to obtain human-level performance in laboratory benchmarks when testing on some difficult language understanding tasks. Despite their impressive capabilities, large pretrained language models do come with severe drawbacks. Currently we have no clear understanding of how they work, when they fail, and what emergent properties they may present, or which novel ways of exploiting these models can help to improve state-of-the-art in NLP. It is important to understand the limitations of large pretrained language models. Some authors call these models foundation models to underscore their critically central yet incomplete character. To tackle these questions, much critical multidisciplinary collaboration and research is needed. This paradigm shift means that we have only just started to scratch the surface of the new possibilities offered by these large pre-trained language models. DeepKnowledge will pre-train language models for the official languages in Spain in a way that could be used by applying novel techniques to extract a more precise and generalizable knowledge.
Deskribapen motza, derrigorrezkoa proiektuak logorik ez badu (es):
DeepKnowledge (PID2021-127777OB-C21) financiado por MCIN/AEI/10.13039/501100011033 y por FEDER
Deskribapena (es):
Siendo el lenguaje humano el sistema más eficiente para el intercambio de información, el Procesamiento del Lenguaje Natural (PLN) es una de las tecnologías más importantes para abordar la transformación digital en la que estamos inmersos. Comprender el lenguaje es crucial para el éxito de las aplicaciones de análisis de texto y acceso a la información. En los últimos años, la comunidad de PLN está contribuyendo al surgimiento de nuevas y poderosas técnicas y herramientas de aprendizaje profundo que están revolucionando el enfoque de las tareas de la tecnología del lenguaje (TL). El PLN se está moviendo de una metodología en la que una cadena de múltiples módulos era la forma típica de implementar soluciones de PLN, a arquitecturas basadas en redes neuronales complejas entrenadas con grandes cantidades de datos de texto. Gracias a estos avances recientes, la comunidad de PLN está actualmente involucrada en un cambio de paradigma con la producción y explotación de grandes modelos de lenguaje basados en Transformers. Como resultado, la industria ha comenzado a implantar grandes modelos de lenguaje neuronales en producción. En comparación con trabajos anteriores, los resultados están mejorando tanto que los sistemas obtienen un rendimiento a nivel humano en conjuntos de datos de laboratorio cuando realizan pruebas en algunas tareas complejas de comprensión del lenguaje. En cualquier caso, a pesar de sus grandes capacidades, estos modelos de lenguaje previamente entrenados presentan serios inconvenientes. Actualmente no tenemos una comprensión clara de cómo funcionan, cuándo fallan y qué propiedades emergentes pueden presentar, o qué formas novedosas de explotar estos modelos pueden ayudar a mejorar el estado del arte en la PLN. Es importante comprender las limitaciones de los grandes modelos de lenguaje previamente entrenados. Este cambio de paradigma significa que acabamos de empezar a rascar la superficie de las nuevas posibilidades que ofrecen estos grandes modelos de lenguaje previamente entrenados. DeepKnowledge entrenará modelos de lenguaje para los idiomas oficiales e inglés de tal forma que puedan ser aplicados mediante técnicas novedosas que permitan extraer un conocimiento más preciso y generalizable.
Kode ofiziala:
DeepKnowledge (PID2021-127777OB-C21)
Ikertzaile nagusia:
Rodrigo Agerri, German Rigau
Erakundea:
Ministerio de Ciencia e Innovación (MCIN)
Saila:
LSI
Hasiera data:
2022/09/01
Bukaera data:
2025/08/31
Taldea:
Ixa
Taldeko ikertzaile nagusia:
Rodrigo Agerri
Ixakideak:
Kontratua:
No
Webgunea:
HiTZen ez bistaratu