rmihaylov/bert-base-squad-theseus-bg

rmihaylov
Pregunta y respuesta

Modelo preentrenado en idioma búlgaro utilizando un objetivo de modelado de lenguaje enmascarado (MLM). Fue introducido en este artículo y lanzado por primera vez en este repositorio. Este modelo distingue entre 'búlgaro' y 'Búlgaro'. Los datos de entrenamiento son textos en búlgaro de OSCAR, Chitanka y Wikipedia. Fue afinado en datos privados del squad en búlgaro y comprimido mediante el reemplazo progresivo de módulos.

Como usar

Aquí se explica cómo utilizar este modelo en PyTorch:

from transformers import pipeline

model = pipeline(
  'question-answering',
  model='rmihaylov/bert-base-squad-theseus-bg',
  tokenizer='rmihaylov/bert-base-squad-theseus-bg',
  device=0,
  revision=None)
>>> 
question = "С какво се проследява пандемията?"
context = "Епидемията гасне, обяви при обявяването на данните тази сутрин Тодор Кантарджиев, член на Националния оперативен щаб. Той направи този извод на база на данните от математическите модели, с които се проследява развитието на заразата. Те показват, че т. нар. ефективно репродуктивно число е вече в границите 0.6-1. Тоест, 10 души заразяват 8, те на свой ред 6 и така нататък. "
output = model(**{'question': question, 'context': context})
print(output)

Salida:

{'score': 0.85157310962677, 'start': 162, 'end': 186, 'answer': ' математическите модели,'}

Funcionalidades

Modelo preentrenado en idioma búlgaro
Objetivo de modelado de lenguaje enmascarado (MLM)
Distinción entre 'búlgaro' y 'Búlgaro'
Datos de entrenamiento: OSCAR, Chitanka, Wikipedia
Afinado en datos privados del squad en búlgaro
Comprimido mediante reemplazo progresivo de módulos

Casos de uso

Responder preguntas en idioma búlgaro
Análisis y comprensión de textos en búlgaro
Apoyo en herramientas de respuesta a preguntas en aplicaciones de procesamiento de lenguaje natural

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.