rmihaylov/bert-base-squad-theseus-bg
rmihaylov
Pregunta y respuesta
Modelo preentrenado en idioma búlgaro utilizando un objetivo de modelado de lenguaje enmascarado (MLM). Fue introducido en este artículo y lanzado por primera vez en este repositorio. Este modelo distingue entre 'búlgaro' y 'Búlgaro'. Los datos de entrenamiento son textos en búlgaro de OSCAR, Chitanka y Wikipedia. Fue afinado en datos privados del squad en búlgaro y comprimido mediante el reemplazo progresivo de módulos.
Como usar
Aquí se explica cómo utilizar este modelo en PyTorch:
from transformers import pipeline
model = pipeline(
'question-answering',
model='rmihaylov/bert-base-squad-theseus-bg',
tokenizer='rmihaylov/bert-base-squad-theseus-bg',
device=0,
revision=None)
>>>
question = "С какво се проследява пандемията?"
context = "Епидемията гасне, обяви при обявяването на данните тази сутрин Тодор Кантарджиев, член на Националния оперативен щаб. Той направи този извод на база на данните от математическите модели, с които се проследява развитието на заразата. Те показват, че т. нар. ефективно репродуктивно число е вече в границите 0.6-1. Тоест, 10 души заразяват 8, те на свой ред 6 и така нататък. "
output = model(**{'question': question, 'context': context})
print(output)
Salida:
{'score': 0.85157310962677, 'start': 162, 'end': 186, 'answer': ' математическите модели,'}
Funcionalidades
- Modelo preentrenado en idioma búlgaro
- Objetivo de modelado de lenguaje enmascarado (MLM)
- Distinción entre 'búlgaro' y 'Búlgaro'
- Datos de entrenamiento: OSCAR, Chitanka, Wikipedia
- Afinado en datos privados del squad en búlgaro
- Comprimido mediante reemplazo progresivo de módulos
Casos de uso
- Responder preguntas en idioma búlgaro
- Análisis y comprensión de textos en búlgaro
- Apoyo en herramientas de respuesta a preguntas en aplicaciones de procesamiento de lenguaje natural