cross-encoder/qnli-distilroberta-base
cross-encoder
Clasificación de texto
Este modelo fue entrenado usando la clase Cross-Encoder de SentenceTransformers. Dado una pregunta y un párrafo, ¿puede el párrafo responder la pregunta? Los modelos han sido entrenados en el conjunto de datos GLUE QNLI, que transformó el conjunto de datos SQuAD en una tarea NLI.
Como usar
Los modelos preentrenados pueden ser usados de esta manera:
from sentence_transformers import CrossEncoder
model = CrossEncoder('model_name')
scores = model.predict([('Query1', 'Paragraph1'), ('Query2', 'Paragraph2')])
#e.g.
scores = model.predict([('How many people live in Berlin?', 'Berlin had a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers.'), ('What is the size of New York?', 'New York City is famous for the Metropolitan Museum of Art.')])
Uso con la biblioteca Transformers AutoModel
También puedes usar el modelo directamente con la biblioteca Transformers (sin la biblioteca SentenceTransformers):
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
model = AutoModelForSequenceClassification.from_pretrained('model_name')
tokenizer = AutoTokenizer.from_pretrained('model_name')
features = tokenizer(['How many people live in Berlin?', 'What is the size of New York?'], ['Berlin had a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers.', 'New York City is famous for the Metropolitan Museum of Art.'], padding=True, truncation=True, return_tensors="pt")
model.eval()
with torch.no_grad():
scores = torch.nn.functional.sigmoid(model(**features).logits)
print(scores)
Funcionalidades
- Clasificación de texto
- Uso de Transformers
- Compatible con PyTorch
- Compatible con JAX
- Compatible con AutoTrain
- Compatible con Endpoints de Inferencia
- Licencia Apache 2.0
- Región: US
Casos de uso
- Detección de preguntas duplicadas de Quora
- Comprensión del lenguaje natural
- Modelado de relaciones pregunta-párrafo