ZTamas/xlm-roberta-large-squad2-qa-milqa-impossible

ZTamas
Pregunta y respuesta

Este modelo es una versión afinada de deepset/xlm-roberta-large-squad2 en el conjunto de datos milqa.

Como usar

Cómo usar:

from transformers import pipeline
qa_pipeline = pipeline(
    "question-answering",
    model = "ZTamas/xlm-roberta-large-squad2-qa-milqa-impossible",
    tokenizer = "ZTamas/xlm-roberta-large-squad2-qa-milqa-impossible",
    device = 0, # Selección de GPU, -1 en CPU
    handle_impossible_answer = True,
    max_answer_len = 50 # Esto se puede modificar
)

predictions = qa_pipeline({
    'context': contexto,
    'question': pregunta
})

print(predictions)

Funcionalidades

Capacidades de respuesta a preguntas
Basado en transformadores
Compatible con PyTorch
Optimizado para respuestas imposibles
Compatible con puntos de inferencia
Región: US

Casos de uso

Respuestas a preguntas complejas en textos largos.
Sistemas de soporte al cliente automatizados.
Asistentes virtuales.
Extracción de información relevante de documentos.

Recibe las últimas noticias y actualizaciones sobre el mundo de IA directamente en tu bandeja de entrada.