ZTamas/xlm-roberta-large-squad2-qa-milqa-impossible
ZTamas
Pregunta y respuesta
Este modelo es una versión afinada de deepset/xlm-roberta-large-squad2 en el conjunto de datos milqa.
Como usar
Cómo usar:
from transformers import pipeline
qa_pipeline = pipeline(
"question-answering",
model = "ZTamas/xlm-roberta-large-squad2-qa-milqa-impossible",
tokenizer = "ZTamas/xlm-roberta-large-squad2-qa-milqa-impossible",
device = 0, # Selección de GPU, -1 en CPU
handle_impossible_answer = True,
max_answer_len = 50 # Esto se puede modificar
)
predictions = qa_pipeline({
'context': contexto,
'question': pregunta
})
print(predictions)
Funcionalidades
- Capacidades de respuesta a preguntas
- Basado en transformadores
- Compatible con PyTorch
- Optimizado para respuestas imposibles
- Compatible con puntos de inferencia
- Región: US
Casos de uso
- Respuestas a preguntas complejas en textos largos.
- Sistemas de soporte al cliente automatizados.
- Asistentes virtuales.
- Extracción de información relevante de documentos.