henryk/bert-base-multilingual-cased-finetuned-polish-squad1

henryk
Pregunta y respuesta

Este modelo es el modelo multilingüe proporcionado por el equipo de investigación de Google con una tarea de preguntas y respuestas en polaco ajustada.

Como usar

Uso rápido con pipelines:

from transformers import pipeline

qa_pipeline = pipeline(
"question-answering",
model="henryk/bert-base-multilingual-cased-finetuned-polish-squad1",
tokenizer="henryk/bert-base-multilingual-cased-finetuned-polish-squad1")

qa_pipeline({'context': "Warszawa jest największym miastem w Polsce pod względem liczby ludności i powierzchni", 'question': "Jakie jest największe miasto w Polsce?"})

Output:

{"score": 0.9988, "start": 0, "end": 8, "answer": "Warszawa"}

Funcionalidades

Modelo de lenguaje multilingüe (bert-base-multilingual-cased): 12 capas, 768 ocultas, 12 cabezales, 110M parámetros.
Entrenado en texto con mayúsculas en los 104 idiomas con las mayores Wikipedias.
Traducción automática de SQuAD1.1 usando el módulo de Python mtranslate.
Entrenamiento y evaluación realizados en un GPU de Tesla V100.

Casos de uso

Responder preguntas en polaco utilizando datos de Wikipedia.
Implementación de aplicaciones de preguntas y respuestas multilingües.
Investigación y desarrollo en procesamiento de lenguaje natural para el idioma polaco.

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.